Programma

Programma (tentativo)

  • Richiami di statistica bayesiana e apprendimento bayesiano
  • Supervised learning
    • Loss functions e minimizzazione del rischio
    • Approccio probabilistico: ML, MAP e predizioni bayesiane
    • Regressione (lineare e non) e regolarizzazione
    • Feature selection, cenni
    • Classificazione lineare
    • Naive bayes
    • Modelli generativi per la classificazione
    • Modelli discriminativi per la classificazione, regressione logistica
    • Support vector machines, funzioni kernel
    • Multilayer perceptron
    • Modelli non parametrici: knn e Parzen windows
    • Nadaraya-Watson, kernel regression, processi gaussiani
    • Alberi di decisione
    • Ensemble models: bagging, boosting, random forest, Adaboost, Gradient boosting
  • Unsupervised learning
    • Clustering: k-means, mixture models
    • Algoritmo di expectation maximization
    • Dimensionality reduction: Principal component analysis, Probabilistic PCA, Factor analysis
    • Latent semantic analysis
  • Deep learning
    • Reti convoluzionali
    • Reti ricorrenti e LSTM
    • Meccanismi di attention e transformers
    • Autoencoders e reti generative
  • Metodi montecarlo per l’inferenza approssimata (cenni)