Optimisation et Régularisation
Optimisation et régularisation des modèles.
Optimisation et régularisation des modèles
12h, 6x2h par semaine
Cours
Optimisation et régularisation des modèles (pdf).
1 Définitions et notations
- 1.1 Rappel sur les fonctions
- 1.2 Dérivés
2 Apprentissage en ML
3 Optimisation en ML
- 3.1 Hypothèse iid
- 3.2 Algorithme de descente de gradient
- 3.3 Algorithme de Newton
- 3.4 Cas de la régression linéaire
- 3.5 Descente de Gradient Stochastique (SGD)
4 Régression Logistique
- 4.1 Iteratively Reweighted Least Squares (IRLS)
5 Régularisation en ML
- 5.1 Pourquoi régulariser?
- 5.2 Disgression sur l’évaluation en ML
- 5.3 Reformulation du problème d’optimisation
- 5.4 Autre forme de régularisation: Ensembling
6 Optimisation sous contraintes
7 Méthodes bayésiennes
TP / Pratique
tw233mi-regularisation-optimisation
- TP Régression logistique, de A à Z.
- TP Méthodes du premier ordre pour la régression logistique.
- TP Régression logistique régularisée, de A à Z.
TD / Exercices
À venir.
Références
- J. Wallis. A treatise of algebra, both historical and practical. London. 1685.
- W. S. McCulloch & W. Pitts. A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics. 1943.
- Berkson, J. Application of the logistic function to bio-assay. Journal of the American statistical association. 1944.
- C. Lanczos. An Iteration Method for the Solution of the Eigenvalue Problem of Linear Differential and Integral Operators, Journal of Research of the National Bureau of Standards. 1950.
- H. Robbins & S. Monro. A stochastic approximation method. The annals of mathematical statistics. 1951.
- C. Lanczos. Solution of Systems of Linear Equations by Minimized Iterations. Journal of Research of the National Bureau of Standards. 1952.
- M. R. Hestenes & E. L. Stiefel. Methods of Conjugate Gradients for Solving Linear Systems, Journal of Research of the National Bureau of Standards. 1952.
- A. E. Hoerl & R. W. Kennard. Ridge regression: Biased estimation for nonorthogonal problems. Technometrics. 1970.
- R. Tibshirani. Regression shrinkage and selection via the lasso. Journal of the Royal Statistical Society. 1996.
- W. J. Fu. Penalized regressions: the bridge versus the lasso. Journal of computational and graphical statistics. 1998.
- F. Pedregosa, G. Varoquaux, A. Gramfort et al. Scikit-learn: Machine learning in Python. The Journal of Machine Learning Research. 2011.
- N. Freitas. CPSC540 lecture notes. University of British Columbia. 2012.
- R. Johnson & T. Zhang. Accelerating stochastic gradient descent using predictive variance reduction. Advances in neural information processing systems. 2013.
- A. Defazio, F. Bach, & S. Lacoste-Julien. SAGA: A fast incremental gradient method with support for non-strongly convex composite objectives. Advances in neural information processing systems. 2014.
- D. P. Kingma & J. Ba. Adam: A method for stochastic optimization. International Conference for Learning Representations. 2015.
- M. Vazirgiannis. INF554 lecture notes. Machine Learning 1. Polytechnique. 2016.
- S. Gaiffas. MAP569 lecture notes. Machine Learning 2. Polytechnique. 2017.