Détail du poste
Établissement : Mines Paris-PSL École doctorale : ISMME - Ingénierie des Systèmes, Matériaux, Mécanique, Énergétique Laboratoire de recherche : Mathématiques et Systèmes Direction de la thèse : Etienne DECENCIERE ORCID 0000000213498042 Début de la thèse : 2026-10-01 Date limite de candidature : 2026-05-17T23:59:59 Les travaux de Liu et al. [Liu2023] et de Bertoldo [bertoldo2025] montrent que l'exploitation actuelle de l'espace latent pour la détection d'anomalies reste empirique, sans véritable compréhension des phénomènes en jeu. Trois types d'espaces latents sont employés pour la détection d'images anormales. Historiquement, le premier résulte de l'utilisation d'auto-encodeurs [Sakurada2014], éventuellement variationnels. Le deuxième utilise des réseaux pré-entraînés, typiquement optimisés sur des tâches de classification portant sur la base publique ImageNet [Rippel2020]. Enfin, le troisième utilise des méthodes plus récentes d'apprentissage auto-supervisé, soit pour un domaine spécifique [Langrognet2025], soit de façon à l'aide de modèles de fondation [Zhai2026].
Les techniques usuelles de détection d'anomalies depuis ces espaces latents reposent souvent, implicitement ou non, sur l'hypothèse que la distribution des images normales peut être modélisée de manière pertinente à l'aide de lois Gaussiennes [Rippel2020]. A notre connaissance, ce postulat n'a été ni vérifié empiriquement ni démontré mathématiquement. Pourtant, sa violation peut fortement dégrader les performances des algorithmes, notamment lorsque les lois sous-jacentes ont des queues lourdes. Caractériser finement la répartition des exemples normaux dans l'espace latent permettrait alors de développer des méthodes mieux calibrées et plus efficaces pour repérer les potentielles anomalies. La théorie des valeurs extrêmes en contexte multivarié de très grande dimension pourrait s'avérer utile à ces fins, comme le suggèrent par exemple les travaux de Chiapino et al. [Chiapino2020].
La première partie de cette thèse portera sur la construction d'expériences pour mieux comprendre le fonctionnement de ces trois types d'espaces latents. On prendra comme point de départ les travaux de Bertoldo [Bertoldo2025].
Dans un deuxième temps, on exploitera les renseignements ainsi acquis pour améliorer la procédure de construction et d'utilisation de ces espaces. Par exemple, le développement de méthodes issues du mélange fertile de la théorie des valeurs extrêmes et de l'apprentissage automatique pourra être exploré [Clémençon2025]. Selon le profil du candidat, des contributions non seulement algorithmiques mais aussi théoriques à ce domaine pourront être envisagées.
Dans de nombreuses applications on dispose d'un nombre important d'images considérées comme normales, typiques, représentatives, mais d'un nombre très réduit (voire nul) d'images dites anormales. On retrouve cette situation dans le milieu médical avec les maladies rares, mais aussi dans le contrôle qualité industriel, où il est souvent difficile d'anticiper tous les cas d'anomalies potentielles. Apprendre à détecter des anomalies alors qu'on ne dispose que d'exemples d'images normales a été pendant longtemps un objectif qui semblait inatteignable. L'arrivée de l'apprentissage profond, ou deep learning, a changé les choses.
La détection non supervisée d'images anormales est ainsi devenue un sujet brûlant, qui commence à être appliqué industriellement. Des travaux récents [bertoldo2025] mettent en évidences des limites actuelles dans la construction, la compréhension et l'utilisation des espaces latents employés par la plupart des méthodes du domaine. La thèse que nous proposons a pour but de mieux comprendre ces limites, afin de les repousser et casser les verrous technologiques qui empêchent aujourd'hui d'utiliser plus largement ces approches.
Plusieurs partenaires industriels du Centre de statistique et images sont intéressés par les avancées sur ce sujet. Détection non supervisée d'images anormales
Le profil recherché
Publiée le 17/04/2026 - Réf : a46091bf6e81436c564cded43bba237a