Hellowork a estimé le salaire pour cette offre
Cette estimation de salaire pour le poste de Thèse Explications Ancrées et Atténuation des Hallucinations dans l'IA Générative Multimodale H/F à Paris est calculée grâce à des offres similaires et aux données de l’INSEE.
Cette fourchette est variable selon expérience.
Salaire brut min
40 500 € / an 3 375 € / mois 22,25 € / heureSalaire brut estimé
51 200 € / an 4 267 € / mois 28,13 € / heureSalaire brut max
67 500 € / an 5 625 € / mois 37,09 € / heureCette information vous semble-t-elle utile ?
Merci pour votre retour !
Thèse Explications Ancrées et Atténuation des Hallucinations dans l'IA Générative Multimodale H/F
Télécom Paris
- Paris - 75
- CDD
- Bac +5
- Service public d'état
Les missions du poste
L'IA générative multimodale a considérablement progressé dans sa capacité à raisonner simultanément sur divers types de données, tels que le texte et la vision. Cependant, à mesure que ces modèles changent d'échelle, ils souffrent souvent d'« hallucinations », générant du texte ou des images factuellement incohérents avec le contexte fourni. Pour garantir que ces systèmes sont fiables pour un déploiement en conditions réelles, il est essentiel que leurs sorties soient non seulement plausibles, mais aussi ancrées dans les preuves visuelles et textuelles qu'ils traitent. Ce projet de doctorat se concentre sur l'avancement de l'ancrage visuel (visual grounding) en tant que mécanisme central pour améliorer l'explicabilité et atténuer les hallucinations dans l'IA générative.
L'essor des modèles génératifs multimodaux a révélé un défi majeur : le passage à l'échelle (scaling) augmente la fluidité des résultats mais exacerbe les risques d'hallucinations. Le modèle peut « inventer » des détails plausibles mais faux, car il privilégie souvent la probabilité linguistique ou visuelle sur la vérité factuelle.
Dans la littérature actuelle, l'ancrage visuel est principalement traité comme une tâche de détection d'objets. Ce projet propose de le repositionner comme une condition sine qua non de la génération : une IA ne devrait générer que ce qu'elle peut prouver. C'est un changement de paradigme vers une IA Générative Fidèle.
L'objectif est de transformer la manière dont l'IA générative interagit avec les données multimodales :
- Ancrage Spatio-Temporel : Développer des mécanismes permettant d'associer les éléments générés à des régions spatiales précises du contexte d'entrée.
- Méthodes d'Ancrage Intrinsèque : Concevoir des modèles qui apprennent d'eux-mêmes à référencer leurs sources visuelles sans nécessiter d'annotations manuelles coûteuses, favorisant une explicabilité native.
- Architecture d'Auto-Vérification : Implémenter des protocoles où le modèle agit comme son propre critique, vérifiant la cohérence de ses affirmations par rapport aux données brutes pour éliminer les hallucinations.
- Fiabilité à Long Terme : Garantir que l'ancrage reste stable lors de tâches de génération complexes ou de dialogues prolongés, évitant ainsi l'accumulation d'erreurs au fil des interactions.
Le programme de recherche explore quatre axes méthodologiques complémentaires, visant à transformer l'ancrage d'une simple tâche auxiliaire en une capacité de raisonnement intrinsèque :
- Avancement de l'ancrage visuel pour l'explicabilité : Cette phase initiale se concentre sur le perfectionnement des techniques d'alignement entre les différentes modalités au sein des modèles génératifs. L'objectif est d'analyser des méthodes de représentation latente et d'optimisation des mécanismes d'attention pour permettre au modèle de lier explicitement chaque segment de texte généré à des régions spatiales précises de l'image.
- Développement de méthodes d'ancrage intrinsèque : Contrairement aux approches supervisées classiques, nous proposons que la tâche elle-même guide l'apprentissage de l'ancrage. Le modèle, confronté initialement avec des données limitées, devra apprendre à effectuer activement les détails nécessaires à la résolution d'un problème. À l'instar de l'entraînement du raisonnement (Chain-of-Thought), l'ancrage devient ainsi une stratégie acquise pour maximiser l'utilité de la réponse.
- Atténuation des hallucinations par l'auto-cohérence : Nous ciblons spécifiquement la réduction des hallucinations en contraignant le modèle à justifier chaque aspect de sa génération par le contexte fourni. L'introduction d'une fonction de perte d'auto-cohérence (self-consistency loss) permettra de décourager la production d'éléments improbables ou non étayés par des preuves factuelles. Un autre axe majeur sera la mise en place de boucles de vérification : le contenu généré sera passé au crible d'un module de critique, dont les résultats seront réinjectés sous forme de récompenses pour créer une boucle d'auto-amélioration (self-improvement loop).
- Évaluation du raisonnement ancré : Pour valider ces approches, nous définirons des cadres d'évaluation ciblant les scénarios d'hallucination les plus complexes. Le projet mettra l'accent sur les contextes longs, qu'il s'agisse de dialogues multi-tours ou de données séquentielles étendues. L'enjeu est de mesurer la capacité du modèle à maintenir un ancrage fidèle et cohérent sur la durée, malgré l'accumulation potentielle de bruit ou d'incertitude dans la génération.
Le profil recherché
Expertise en Deep Learning : Une compréhension approfondie des architectures de réseaux de neurones est indispensable. Une expérience préalable ou des connaissances avancées en Vision par Ordinateur (Computer Vision) et/ou en Traitement Automatique des Langues (NLP) seront considérées comme un atout majeur pour aborder les problématiques multimodales du projet.
Maîtrise de la programmation : Le candidat doit faire preuve d'une grande aisance en Python et posséder des compétences avancées dans l'utilisation de frameworks de Deep Learning tels que PyTorch ou TensorFlow. La capacité à implémenter, optimiser et tester des modèles complexes de manière autonome est cruciale.
Culture de la recherche : Une familiarité avec les cycles de la recherche scientifique, incluant le processus de rédaction et de soumission d'articles, est attendue. Le candidat doit être capable de synthétiser des travaux complexes et de contribuer activement à la production scientifique du laboratoire.
Passion et Engagement : Le projet requiert une réelle passion pour l'Intelligence Artificielle et un engagement total envers l'innovation. La curiosité intellectuelle et la capacité à s'investir durablement dans des défis techniques de haut niveau sont essentielles.
Atouts complémentaires (optionnel) : La possession de publications antérieures dans des conférences ou revues de premier plan (rang A/A* telles que NeurIPS, CVPR, ICCV, ICLR, EMNLP) sera très fortement valorisée, démontrant une capacité déjà établie à contribuer au rayonnement international de la discipline.
Bienvenue chez Télécom Paris
École doctorale : Ecole Doctorale de l'Institut Polytechnique de Paris
Laboratoire de recherche : Laboratoire de Traitement et Communication de l'Information
Direction de la thèse : Enzo TARTAGLIONE ORCID 0000000342748298
Début de la thèse : 2026-10-01
Date limite de candidature : 2026-04-13T23:59:59
Publiée le 17/03/2026 - Réf : 9110aa4dffe193d9867dc2b027fb9eb3
Créez votre compte Hellowork et activez votre alerte
Thèse Explications Ancrées et Atténuation des Hallucinations dans l'IA Générative Multimodale H/F
- Paris - 75
- CDD
Finalisez votre candidature
sur le site du
partenaire
Créez votre compte
Hellowork et postulez
sur le site du
partenaire !
sur le site du partenaire
Hellowork et postulez
sur le site du partenaire !
Ces offres pourraient aussi
vous intéresser
Testez votre correspondance
Chargement du chat...
{{title}}
{{message}}
{{linkLabel}}