Aller au contenu principal

Thèse Impacts de l'IA dans la Société Préoccupations Rôles et Pratiques des Chercheurs de l'IA H/F

Doctorat.Gouv.Fr

  • Paris - 75
  • CDD
  • Bac +5
  • Service public d'état
Lire dans l'app

Les missions du poste

Depuis le milieu des années 2010, l'intelligence artificielle (IA) fait l'objet d'un débat public et académique intense. Ces discussions sont fortement polarisées entre des discours alarmistes et des promesses optimistes concernant les transformations sociales induites par l'IA.
Dans ce contexte, un nombre important de rapports et de chartes consacrés à l'« éthique de l'IA » ont été publiés depuis la fin des années 2010 par des gouvernements, des entreprises technologiques et des organisations professionnelles. Si ces travaux ont contribué à structurer le débat, leurs principes, souvent fondés sur des concepts universels, tendent à occulter les conditions concrètes dans lesquelles les questions éthiques émergent, se formulent et se traduisent dans les pratiques scientifiques et techniques.
Cette thèse propose de déplacer l'analyse vers les lieux mêmes de production de ces technologies, en s'intéressant aux chercheurs qui les conçoivent et les développent. Elle vise à analyser comment les chercheurs en IA perçoivent, interprètent et anticipent les impacts sociétaux de leurs travaux, et comment ces réflexions s'articulent avec la construction de leurs pratiques de recherche, de leur identité professionnelle, et de leur rôle dans la société.
Bien que les discussions sur l'éthique de l'IA aient principalement émergé au sein de la communauté scientifique elle-même, la majorité des travaux existants s'est concentrée sur les discours, les cadres institutionnels ou les pratiques des organisations. La communauté de recherche en IA reste ainsi relativement peu étudiée comme un espace social et organisationnel spécifique où se construisent, se discutent et se transforment les préoccupations éthiques au contact des pratiques quotidiennes de recherche.
En s'appuyant sur une enquête empirique menée au sein de laboratoires produisant des études sur l'IA, cette thèse vise ainsi à combler ce manque de connaissances sur l'expérience vécue des chercheurs face aux enjeux sociétaux de leurs travaux. Elle ambitionne également de consolider les connaissances sur ce que signifie une pratique de recherche responsable dans ce domaine, en lien avec les travaux déjà menés sur l'adoption et l'usage des technologies. Cette thèse permettrait ainsi de mieux comprendre les incidences sociétales des recherches actuelles sur l'IA et d'identifier des leviers organisationnels affirmant la responsabilité scientifique et éthique des chercheurs du domaine.

Depuis le milieu des années 2010, l'intelligence artificielle (IA) fait l'objet d'un débat public et académique intense. Ces discussions sont fortement polarisées entre discours alarmistes et promesses optimistes concernant les transformations sociales induites par l'IA (Crépel & Cardon, 2022). La diffusion rapide de ces technologies dans de nombreux domaines, justice, santé, administration publique, réseaux sociaux, robotique ou véhicules autonomes, suscite de nombreuses préoccupations. L'autonomisation et l'intégration croissantes des systèmes d'IA dans la société contribuent notamment à brouiller les frontières entre les capacités humaines et celles des machines (Faraj, Pachidi & Sayegh, 2018 ; Schuetz & Venkatesh, 2020).

Plusieurs risques sont régulièrement soulignés : biais algorithmiques et reproduction de stéréotypes, opacité des décisions automatisées, surveillance et atteintes à la vie privée, manipulation de l'opinion publique ou encore transformation profonde de certaines professions (O'Neil, 2016 ; Pasquale, 2016 ; Crawford, 2021 ; Ganascia, 2017, 2022). Contrairement à d'autres controverses technologiques, ces critiques proviennent souvent des chercheurs et des acteurs directement impliqués dans l'innovation (Beaudouin & Velkovska, 2023).

Face à ces enjeux, de nombreux rapports sur l'« éthique de l'IA » ont été publiés depuis la fin des années 2010 par des gouvernements, des entreprises technologiques ou des organisations professionnelles, comme par exemple IEEE. Toutefois, plusieurs analyses mettent en lumière leurs limites : ces approches reposent souvent sur des principes abstraits inspirés de la bioéthique, comme l'équité ou la transparence, sans disposer d'institutions ou de mécanismes d'application comparables à ceux du domaine médical (Mittelstadt, 2019 ; Beaudouin & Velkovska, 2023). Ce focus risque de réduire des problématiques complexes et situées à des catégories abstraites et décontextualisées (Beaudouin & Velkovska, 2023). La littérature académique montre ainsi une multiplication de concepts normatifs tels que « Trustworthy AI », « Sustainable AI » ou « AI for Social Good » (Floridi et al., 2018 ; Mittelstadt et al., 2016 ; Wamba et al., 2021), qui restent difficiles à traduire dans des pratiques concrètes (Edwards & Veale, 2017 ; Martin, 2019 ; Santoni de Sio & Mecacci, 2021 ; Merhi, 2023 ; Vuarin, Gomes Lopes & Massé, 2023).
Le terme « éthique de l'IA » reflète ainsi des imaginaires collectifs, des incitations économiques et réglementaires, ainsi que des asymétries structurelles de pouvoir préexistantes (Gornet et al., 2024). Surtout, il masque l'ambiguïté définitionnelle au coeur des débats sur l'IA. L'« intelligence artificielle » est à la fois un objet technique et une notion scientifique, voire un mouvement émergent et un symbole de progrès, et implique diverses communautés scientifiques, principalement en informatique et en mathématiques appliquées. Fait intéressant, elle constitue à la fois un moyen de production de connaissances (dans différents champs scientifiques) et un produit de cette production. Cette double nature brouille les frontières entre la recherche appliquée et la recherche fondamentale (Benbouzid, Meneceur & Smuha, 2022 ; COMEST, 2017).
Selon les acteurs impliqués, les approches visant à encadrer socialement l'IA, qu'elles soient techniques, éthiques, juridiques ou politiques, peuvent varier considérablement (Benbouzid et al., 2022). Plus récemment, des études empiriques ont cherché à dépasser ces limites en examinant la manière dont l'« éthique de l'IA » est produite en pratique : en retraçant les généalogies des discours et des controverses (Bellon & Velkovska, 2023 ; Benbouzid et al., 2022 ; Beaudoin & Maxwell, 2023) et en analysant des pratiques situées dans des organisations qui déploient l'IA, allant des entreprises aux laboratoires de radiologie, jusqu'aux cours de cassation (Vuarin & Steyer, 2023a, 2023b, 2025 ; Girard-Chanudet, 2023 ; Gaglio & Loute, 2023). Ces travaux mettent en évidence des écarts importants entre les prescriptions éthiques « formelles » et leurs applications concrètes. Ils montrent que toute réflexion sur la manière de contrôler socialement le développement des technologies ne peut ignorer l'étude située des préoccupations éthiques des acteurs concernés, des contraintes auxquelles ils font face et des solutions pratiques qu'ils mettent en oeuvre.

Bien que les discussions sur l'éthique de l'IA aient principalement émergé au sein de la communauté de recherche en IA, la manière dont les chercheurs en IA eux-mêmes perçoivent, interprètent et opérationnalisent ces enjeux éthiques reste peu étudiée. La majorité des travaux existants s'est concentrée sur les discours, les cadres institutionnels ou les pratiques des organisations, mais rarement sur la communauté de recherche en IA comme espace spécifique où la réflexion éthique se formule, se discute et évolue.
Ce manque de connaissances est accentué par la vitesse exceptionnelle et le caractère disruptif des innovations contemporaines en IA, qui créent souvent un contexte de changements rapides que les chercheurs et les régulateurs peinent à suivre. Cette dynamique est régulièrement soulignée dans les appels à mener des recherches plus approfondies, centrées sur la communauté scientifique et sur l'expérience éthique vécue par les chercheurs en IA (European Commission, 2025 ; World Economic Forum, 2025).
De nombreux membres de la communauté académique insistent plus largement sur l'urgence d'un engagement collectif et réflexif vis-à-vis de leurs propres pratiques. Une réflexion délibérée à l'échelle de la communauté est essentielle non seulement pour faire face aux défis posés par l'innovation rapide en IA pour la société, mais aussi pour co-construire les normes, valeurs et pratiques nécessaires à l'avenir de la science (Germani, Spitale & Biller-Andorno, 2024 ; Madanchian & Taherdoost, 2025 ; Kieslich & Schmitt, 2025 ; Qian, Siau & Nah, 2024 ; Chen et al., 2024).

S'appuyant sur plusieurs décennies de recherche sur les processus de recherche et d'innovation ainsi que sur l'impact des technologies sur les organisations et la société, le CRG-I3 a développé, depuis six ans, un axe spécifique portant sur les usages et impacts sociétaux et organisationnels des technologies de l'IA. Les travaux menés au sein du centre ont notamment exploré :
- Les représentations sociales et les imaginaires de l'IA, et leurs effets sur les processus d'adoption au sein des organisations (Abdel Halim & Chamaret, 2026) et sur les écosystèmes d'innovation (Gomes Lopes, Massé & Jouini, 2025).
- Les conditions d'usage des outils d'IA par des experts, en particulier dans le système de santé, où l'opacité des modèles et la responsabilité des décisions rendent leur intégration complexe (Perez-Torrents, 2024 ; Perez-Torrents & Minvielle, 2023 ; Minvielle, 2026).
- Les questionnements et pratiques « éthiques » liés aux usages et impacts de l'IA, mettant en évidence des écarts significatifs entre les prescriptions éthiques formelles et leur application concrète au sein des organisations (Vuarin & Steyer, 2023a, 2023b, 2025), ainsi que la performativité des concepts normatifs visant à promouvoir une innovation responsable (Vuarin, Gomes Lopes & Massé, 2023).

Une thèse sur les questionnements et pratiques éthiques des chercheurs en IA serait particulièrement pertinente pour le CRG-I3. Elle permettrait de :
- S'appuyer sur l'expertise existante du centre en matière de reconfigurations organisationnelles et de transformations des pratiques professionnelles face aux technologies émergentes.
- Approfondir la compréhension de l'éthique comme pratique située, en explorant comment les chercheurs eux-mêmes négocient et appliquent les principes éthiques dans leurs travaux.
- Consolider les connaissances sur les impacts de l'IA et sur ce que signifie une pratique de recherche responsable dans ce domaine, en lien direct avec les travaux déjà menés sur l'adoption et l'usage des technologies.

La thèse s'appuiera sur une étude exploratoire menée grâce au soutien d'Hi!Paris depuis janvier 2026 par Véronique Steyer (CRG-i3), Etienne Minvielle (CRG-i3) et Pooran Memari (LIX). Elle adoptera une méthodologie qualitative, combinant des entretiens, des observations, une analyse documentaire et des ateliers. S'inscrivant dans la tradition de la recherche-action souvent conduite au sein au CRG-i3, elle proposera une étude approfondie portant sur ce que signifierait une pratique de recherche responsable dans ce contexte spécifique, ainsi que sur les artefacts (principes, outils, routines, etc.) sur lesquels elle pourrait s'appuyer.

Le principal terrain de la thèse sera dans un premier temps l'environnement de l'École Polytechnique et de l'Institut Polytechnique de Paris, où de nombreux chercheurs travaillent sur l'IA, puis étendu à un contexte plus large (communauté d'ingénieurs et de data scientists en interaction avec des chercheurs, chercheurs d'autres institutions en France et/ou à l'international).

Le profil recherché

Le projet conviendrait à étudiant formé aux sciences de gestion ou à domaine proche des sciences sociales (sociologie par exemple), avec une appétence confirmée et une première expérience de la recherche en sciences sociales (mémoire de master recherche, stage en laboratoire).

La maîtrise du français et de l'anglais est un prérequis.

Bienvenue chez Doctorat.Gouv.Fr

Établissement : Institut Polytechnique de Paris École polytechnique
École doctorale : Ecole Doctorale de l'Institut Polytechnique de Paris
Laboratoire de recherche : i3 CRG - Institut Interdisciplinaire de l'Innovation
Direction de la thèse : Véronique STEYER ORCID 0000000322380895
Début de la thèse : 2026-10-01
Date limite de candidature : 2026-04-15T23:59:59

Publiée le 30/03/2026 - Réf : b3247beea8df7e9731ed22112f67f1e2

Thèse Impacts de l'IA dans la Société Préoccupations Rôles et Pratiques des Chercheurs de l'IA H/F

Doctorat.Gouv.Fr
  • Paris - 75
  • CDD
Postuler sur le site du partenaire Publiée le 30/03/2026 - Réf : b3247beea8df7e9731ed22112f67f1e2

Finalisez votre candidature

sur le site du partenaire

Créez votre compte
Hellowork et postulez

sur le site du partenaire !

Ces offres pourraient aussi
vous intéresser

Direct assurance recrutement
Suresnes - 92
CDI
Télétravail partiel
Voir l’offre
il y a 5 jours
Europcar France recrutement
Voir l’offre
il y a 29 jours
MP Data recrutement
Voir l’offre
il y a 29 jours
Voir plus d'offres
Initialisation…
Les sites
L'emploi
  • Offres d'emploi par métier
  • Offres d'emploi par ville
  • Offres d'emploi par entreprise
  • Offres d'emploi par mots clés
L'entreprise
  • Qui sommes-nous ?
  • On recrute
  • Accès client
Les apps
Nous suivre sur :
Informations légales CGU Politique de confidentialité Gérer les traceurs Accessibilité : non conforme Aide et contact