Programma

Programma

  • Concetti fondamentali e tipi di apprendimento
  • Introduzione alla teoria dell’apprendimento statistico
  • Richiami di probabilità, statistica bayesiana e apprendimento bayesiano
  • Supervised learning
    • Loss functions e minimizzazione del rischio
    • Approccio probabilistico: ML, MAP e predizioni bayesiane
    • Regressione (lineare e non) e regolarizzazione
    • Metodi non parametrici per la regressione: Nadaraya-Watson, kernel regression, processi gaussiani
    • Classificazione lineare
    • Naive bayes, modelli di linguggio
    • Modelli generativi per la classificazione, gda
    • Modelli discriminativi per la classificazione, regressione logistica, softmax
    • Modelli non parametrici per la classificazione: knn e Parzen windows
    • Support vector machines, funzioni kernel
    • Multilayer perceptron
    • Alberi di decisione
    • Ensemble di predittori: bagging, random forest, boosting, ADAboost, gradient boosting
  • Unsupervised learning
    • Clustering: k-means, misture di distribuzioni
    • Riduzione di dimensionalità: PCA e LSA
    • Modelli a variabili latenti: ELBO
    • Algoritmo di expectation maximization: applicazione a misture
    • Metodi probabilistici per la riduzione di dimensionalità: Factor analysis e probabilistic PCA
    • Metodi variazionali per modelli a variabili latenti