Programma
- Concetti fondamentali e tipi di apprendimento
- Introduzione alla teoria dell’apprendimento statistico
- Richiami di probabilità, statistica bayesiana e apprendimento bayesiano
- Supervised learning
- Loss functions e minimizzazione del rischio
- Approccio probabilistico: ML, MAP e predizioni bayesiane
- Regressione (lineare e non) e regolarizzazione
- Metodi non parametrici per la regressione: Nadaraya-Watson, kernel regression, processi gaussiani
- Classificazione lineare
- Naive bayes, modelli di linguggio
- Modelli generativi per la classificazione, gda
- Modelli discriminativi per la classificazione, regressione logistica, softmax
- Modelli non parametrici per la classificazione: knn e Parzen windows
- Support vector machines, funzioni kernel
- Multilayer perceptron
- Alberi di decisione
- Ensemble di predittori: bagging, random forest, boosting, ADAboost, gradient boosting
- Unsupervised learning
- Clustering: k-means, misture di distribuzioni
- Riduzione di dimensionalità: PCA e LSA
- Modelli a variabili latenti: ELBO
- Algoritmo di expectation maximization: applicazione a misture
- Metodi probabilistici per la riduzione di dimensionalità: Factor analysis e probabilistic PCA
- Metodi variazionali per modelli a variabili latenti