Partant de l'hypothèse que les données de grande dimension vivent dans des sous-espaces de dimensions intrinsèques inférieures à la dimension de l'espace original et que les données de classes différentes vivent dans des sous-espaces différents dont les dimensions intrinsèques peuvent être aussi différentes, nous proposons une re-paramétrisation du modèle de mélange gaussien. En forçant certains paramètres à être communs dans une même classe ou entre les classes, nous exhibons une famille de 28 modèles gaussiens adaptés aux données de grande dimension, allant du modèle le plus général au modèle le plus parcimonieux. Ces modèles gaussiens sont ensuite utilisés pour la discrimination et la classification automatique de données de grande dimension. Les classifieurs associés à ces modèles sont baptisés respectivement High Dimensional Discriminant Analysis (HDDA) et High Dimensional Data Clustering (HDDC) et leur construction se base sur l'estimation par la méthode du maximum de vraisemblance des paramètres du modèle. La nature de notre re-paramétrisation permet aux méthodes HDDA et HDDC de ne pas être perturbées par le mauvaisconditionnement ou la singularité des matrices de covariance empiriques des classes et d'être efficaces en terme de temps de calcul. Les méthodes HDDA et HDDC sont ensuite mises en oeuvre dans le cadre d'une approche probabiliste de la reconnaissance d'objets dans des images.