le 10 novembre 2017 à 10:30
Les matrices symétriques définies positives (SPD), en particulier les matrices de covariance, jouent un rôle important dans de nombreux domaines des mathématiques et des statistiques, avec de nombreuses applications dans différents domaines, notamment l’apprentissage automatique, l’imagerie cérébrale et la vision par ordinateur. L’ensemble des matrices SPD n’est pas un sous-espace de l’espace euclidien et, par conséquent, les algorithmes utilisant uniquement la métrique euclidienne tendent à être sous-optimaux dans la pratique. De nombreuses recherches récentes se sont donc concentrées sur l’exploitation des structures géométriques intrinsèques des matrices SPD, en particulier la vision de cet ensemble comme un manifold riemannien.
Dans cet exposé, nous présenterons un aperçu de certains des développements récents dans la généralisation des matrices de covariance de dimension finie à des opérateurs de covariance de dimension infinie via des méthodes de noyau, ainsi que les structures géométriques correspondantes. Cette direction exploite la puissance des méthodes à noyau de l’apprentissage automatique dans le cadre de la géométrie riemannienne, à la fois mathématiquement et algorithmiquement.
La formulation théorique sera illustrée par des applications en version artificielle, qui démontrent à la fois la puissance des opérateurs de covariance à noyau et des algorithmes basés sur leur géométrie intrinsèque.
En savoir plus...Amphi Morse, IMT Lille Douai