Régression sur composantes principales
Cet article est une ébauche concernant les probabilités et la statistique et l’informatique.
Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.
Consultez la liste des tâches à accomplir en page de discussion.
En statistiques, la régression sur composantes principales est une analyse en régression sur les composantes d'une analyse en composantes principales. On utilise souvent cette technique lorsque les variables explicatives sont proches d'être colinéaires, lorsque par exemple le nombre de variables est très supérieur au nombre d'individus. La régression sur composantes principales est souvent comparée à la régression PLS[i 1].
Principe
La méthode se déroule en trois phases :
- Analyse en composantes principales sur les variables explicatives
- Régression linéaire de la variable dépendante (ou variable à expliquer) sur la partie des composantes la plus corrélée à celle-ci
- Calcul des paramètres de la régression en fonction des variables d'origines[b 1].
Notes et références
Notes
Références
Ouvrages spécialisés
- ↑ Tenenhaus 1998, p. 41
Articles publiés sur internet
- ↑ (en) [PDF] The MathWorks, Inc., « « Partial Least Squares Regression and Principal Components Regression » » (consulté le )
Voir aussi
Bibliographie
- (fr) Michel Tenenhaus, La régression PLS : Théorie et Pratique, Paris, éditions Technip, , 254 p. (ISBN 978-2-7108-0735-3, lire en ligne)
Articles connexes
Liens internes
Liens externes
- La Régression sur composantes principales sur YouTube
- Portail des probabilités et de la statistique
- Portail de l’informatique