Hellowork a estimé le salaire pour cette offre@titleMarkup>
Cette estimation de salaire pour le poste de Thèse Impacts de l'IA dans la Société Préoccupations Rôles et Pratiques des Chercheurs de l'IA H/F à Paris est calculée grâce à des offres similaires et aux données de l’INSEE.
Cette fourchette est variable selon expérience.
Salaire brut min
40 500 € / an 3 375 € / mois 22,25 € / heureSalaire brut estimé
51 200 € / an 4 267 € / mois 28,13 € / heureSalaire brut max
67 500 € / an 5 625 € / mois 37,09 € / heureCette information vous semble-t-elle utile ?
Merci pour votre retour !
Thèse Impacts de l'IA dans la Société Préoccupations Rôles et Pratiques des Chercheurs de l'IA H/F
Doctorat.Gouv.Fr
- Paris - 75
- CDD
- Bac +5
- Service public d'état
Les missions du poste
Depuis le milieu des années 2010, l'intelligence artificielle (IA) fait l'objet d'un débat public et académique intense. Ces discussions sont fortement polarisées entre des discours alarmistes et des promesses optimistes concernant les transformations sociales induites par l'IA.
Dans ce contexte, un nombre important de rapports et de chartes consacrés à l'« éthique de l'IA » ont été publiés depuis la fin des années 2010 par des gouvernements, des entreprises technologiques et des organisations professionnelles. Si ces travaux ont contribué à structurer le débat, leurs principes, souvent fondés sur des concepts universels, tendent à occulter les conditions concrètes dans lesquelles les questions éthiques émergent, se formulent et se traduisent dans les pratiques scientifiques et techniques.
Cette thèse propose de déplacer l'analyse vers les lieux mêmes de production de ces technologies, en s'intéressant aux chercheurs qui les conçoivent et les développent. Elle vise à analyser comment les chercheurs en IA perçoivent, interprètent et anticipent les impacts sociétaux de leurs travaux, et comment ces réflexions s'articulent avec la construction de leurs pratiques de recherche, de leur identité professionnelle, et de leur rôle dans la société.
Bien que les discussions sur l'éthique de l'IA aient principalement émergé au sein de la communauté scientifique elle-même, la majorité des travaux existants s'est concentrée sur les discours, les cadres institutionnels ou les pratiques des organisations. La communauté de recherche en IA reste ainsi relativement peu étudiée comme un espace social et organisationnel spécifique où se construisent, se discutent et se transforment les préoccupations éthiques au contact des pratiques quotidiennes de recherche.
En s'appuyant sur une enquête empirique menée au sein de laboratoires produisant des études sur l'IA, cette thèse vise ainsi à combler ce manque de connaissances sur l'expérience vécue des chercheurs face aux enjeux sociétaux de leurs travaux. Elle ambitionne également de consolider les connaissances sur ce que signifie une pratique de recherche responsable dans ce domaine, en lien avec les travaux déjà menés sur l'adoption et l'usage des technologies. Cette thèse permettrait ainsi de mieux comprendre les incidences sociétales des recherches actuelles sur l'IA et d'identifier des leviers organisationnels affirmant la responsabilité scientifique et éthique des chercheurs du domaine.
Depuis le milieu des années 2010, l'intelligence artificielle (IA) fait l'objet d'un débat public et académique intense. Ces discussions sont fortement polarisées entre discours alarmistes et promesses optimistes concernant les transformations sociales induites par l'IA (Crépel & Cardon, 2022). La diffusion rapide de ces technologies dans de nombreux domaines, justice, santé, administration publique, réseaux sociaux, robotique ou véhicules autonomes, suscite de nombreuses préoccupations. L'autonomisation et l'intégration croissantes des systèmes d'IA dans la société contribuent notamment à brouiller les frontières entre les capacités humaines et celles des machines (Faraj, Pachidi & Sayegh, 2018 ; Schuetz & Venkatesh, 2020).
Plusieurs risques sont régulièrement soulignés : biais algorithmiques et reproduction de stéréotypes, opacité des décisions automatisées, surveillance et atteintes à la vie privée, manipulation de l'opinion publique ou encore transformation profonde de certaines professions (O'Neil, 2016 ; Pasquale, 2016 ; Crawford, 2021 ; Ganascia, 2017, 2022). Contrairement à d'autres controverses technologiques, ces critiques proviennent souvent des chercheurs et des acteurs directement impliqués dans l'innovation (Beaudouin & Velkovska, 2023).
Face à ces enjeux, de nombreux rapports sur l'« éthique de l'IA » ont été publiés depuis la fin des années 2010 par des gouvernements, des entreprises technologiques ou des organisations professionnelles, comme par exemple IEEE. Toutefois, plusieurs analyses mettent en lumière leurs limites : ces approches reposent souvent sur des principes abstraits inspirés de la bioéthique, comme l'équité ou la transparence, sans disposer d'institutions ou de mécanismes d'application comparables à ceux du domaine médical (Mittelstadt, 2019 ; Beaudouin & Velkovska, 2023). Ce focus risque de réduire des problématiques complexes et situées à des catégories abstraites et décontextualisées (Beaudouin & Velkovska, 2023). La littérature académique montre ainsi une multiplication de concepts normatifs tels que « Trustworthy AI », « Sustainable AI » ou « AI for Social Good » (Floridi et al., 2018 ; Mittelstadt et al., 2016 ; Wamba et al., 2021), qui restent difficiles à traduire dans des pratiques concrètes (Edwards & Veale, 2017 ; Martin, 2019 ; Santoni de Sio & Mecacci, 2021 ; Merhi, 2023 ; Vuarin, Gomes Lopes & Massé, 2023).
Le terme « éthique de l'IA » reflète ainsi des imaginaires collectifs, des incitations économiques et réglementaires, ainsi que des asymétries structurelles de pouvoir préexistantes (Gornet et al., 2024). Surtout, il masque l'ambiguïté définitionnelle au coeur des débats sur l'IA. L'« intelligence artificielle » est à la fois un objet technique et une notion scientifique, voire un mouvement émergent et un symbole de progrès, et implique diverses communautés scientifiques, principalement en informatique et en mathématiques appliquées. Fait intéressant, elle constitue à la fois un moyen de production de connaissances (dans différents champs scientifiques) et un produit de cette production. Cette double nature brouille les frontières entre la recherche appliquée et la recherche fondamentale (Benbouzid, Meneceur & Smuha, 2022 ; COMEST, 2017).
Selon les acteurs impliqués, les approches visant à encadrer socialement l'IA, qu'elles soient techniques, éthiques, juridiques ou politiques, peuvent varier considérablement (Benbouzid et al., 2022). Plus récemment, des études empiriques ont cherché à dépasser ces limites en examinant la manière dont l'« éthique de l'IA » est produite en pratique : en retraçant les généalogies des discours et des controverses (Bellon & Velkovska, 2023 ; Benbouzid et al., 2022 ; Beaudoin & Maxwell, 2023) et en analysant des pratiques situées dans des organisations qui déploient l'IA, allant des entreprises aux laboratoires de radiologie, jusqu'aux cours de cassation (Vuarin & Steyer, 2023a, 2023b, 2025 ; Girard-Chanudet, 2023 ; Gaglio & Loute, 2023). Ces travaux mettent en évidence des écarts importants entre les prescriptions éthiques « formelles » et leurs applications concrètes. Ils montrent que toute réflexion sur la manière de contrôler socialement le développement des technologies ne peut ignorer l'étude située des préoccupations éthiques des acteurs concernés, des contraintes auxquelles ils font face et des solutions pratiques qu'ils mettent en oeuvre.
Bien que les discussions sur l'éthique de l'IA aient principalement émergé au sein de la communauté de recherche en IA, la manière dont les chercheurs en IA eux-mêmes perçoivent, interprètent et opérationnalisent ces enjeux éthiques reste peu étudiée. La majorité des travaux existants s'est concentrée sur les discours, les cadres institutionnels ou les pratiques des organisations, mais rarement sur la communauté de recherche en IA comme espace spécifique où la réflexion éthique se formule, se discute et évolue.
Ce manque de connaissances est accentué par la vitesse exceptionnelle et le caractère disruptif des innovations contemporaines en IA, qui créent souvent un contexte de changements rapides que les chercheurs et les régulateurs peinent à suivre. Cette dynamique est régulièrement soulignée dans les appels à mener des recherches plus approfondies, centrées sur la communauté scientifique et sur l'expérience éthique vécue par les chercheurs en IA (European Commission, 2025 ; World Economic Forum, 2025).
De nombreux membres de la communauté académique insistent plus largement sur l'urgence d'un engagement collectif et réflexif vis-à-vis de leurs propres pratiques. Une réflexion délibérée à l'échelle de la communauté est essentielle non seulement pour faire face aux défis posés par l'innovation rapide en IA pour la société, mais aussi pour co-construire les normes, valeurs et pratiques nécessaires à l'avenir de la science (Germani, Spitale & Biller-Andorno, 2024 ; Madanchian & Taherdoost, 2025 ; Kieslich & Schmitt, 2025 ; Qian, Siau & Nah, 2024 ; Chen et al., 2024).
S'appuyant sur plusieurs décennies de recherche sur les processus de recherche et d'innovation ainsi que sur l'impact des technologies sur les organisations et la société, le CRG-I3 a développé, depuis six ans, un axe spécifique portant sur les usages et impacts sociétaux et organisationnels des technologies de l'IA. Les travaux menés au sein du centre ont notamment exploré :
- Les représentations sociales et les imaginaires de l'IA, et leurs effets sur les processus d'adoption au sein des organisations (Abdel Halim & Chamaret, 2026) et sur les écosystèmes d'innovation (Gomes Lopes, Massé & Jouini, 2025).
- Les conditions d'usage des outils d'IA par des experts, en particulier dans le système de santé, où l'opacité des modèles et la responsabilité des décisions rendent leur intégration complexe (Perez-Torrents, 2024 ; Perez-Torrents & Minvielle, 2023 ; Minvielle, 2026).
- Les questionnements et pratiques « éthiques » liés aux usages et impacts de l'IA, mettant en évidence des écarts significatifs entre les prescriptions éthiques formelles et leur application concrète au sein des organisations (Vuarin & Steyer, 2023a, 2023b, 2025), ainsi que la performativité des concepts normatifs visant à promouvoir une innovation responsable (Vuarin, Gomes Lopes & Massé, 2023).
Une thèse sur les questionnements et pratiques éthiques des chercheurs en IA serait particulièrement pertinente pour le CRG-I3. Elle permettrait de :
- S'appuyer sur l'expertise existante du centre en matière de reconfigurations organisationnelles et de transformations des pratiques professionnelles face aux technologies émergentes.
- Approfondir la compréhension de l'éthique comme pratique située, en explorant comment les chercheurs eux-mêmes négocient et appliquent les principes éthiques dans leurs travaux.
- Consolider les connaissances sur les impacts de l'IA et sur ce que signifie une pratique de recherche responsable dans ce domaine, en lien direct avec les travaux déjà menés sur l'adoption et l'usage des technologies.
La thèse s'appuiera sur une étude exploratoire menée grâce au soutien d'Hi!Paris depuis janvier 2026 par Véronique Steyer (CRG-i3), Etienne Minvielle (CRG-i3) et Pooran Memari (LIX). Elle adoptera une méthodologie qualitative, combinant des entretiens, des observations, une analyse documentaire et des ateliers. S'inscrivant dans la tradition de la recherche-action souvent conduite au sein au CRG-i3, elle proposera une étude approfondie portant sur ce que signifierait une pratique de recherche responsable dans ce contexte spécifique, ainsi que sur les artefacts (principes, outils, routines, etc.) sur lesquels elle pourrait s'appuyer.
Le principal terrain de la thèse sera dans un premier temps l'environnement de l'École Polytechnique et de l'Institut Polytechnique de Paris, où de nombreux chercheurs travaillent sur l'IA, puis étendu à un contexte plus large (communauté d'ingénieurs et de data scientists en interaction avec des chercheurs, chercheurs d'autres institutions en France et/ou à l'international).
Le profil recherché
La maîtrise du français et de l'anglais est un prérequis.
Bienvenue chez Doctorat.Gouv.Fr
École doctorale : Ecole Doctorale de l'Institut Polytechnique de Paris
Laboratoire de recherche : i3 CRG - Institut Interdisciplinaire de l'Innovation
Direction de la thèse : Véronique STEYER ORCID 0000000322380895
Début de la thèse : 2026-10-01
Date limite de candidature : 2026-04-15T23:59:59
Publiée le 30/03/2026 - Réf : b3247beea8df7e9731ed22112f67f1e2
Créez votre compte Hellowork et activez votre alerte Créez une alerte @titleMarkup>
Thèse Impacts de l'IA dans la Société Préoccupations Rôles et Pratiques des Chercheurs de l'IA H/F
- Paris - 75
- CDD
Finalisez votre candidature
sur le site du partenaire
Hellowork et postulez
sur le site du partenaire !
Ces offres pourraient aussi
vous intéresser
Recherches similaires
- Job Chercheur
- Job Recherche
- Job Technicien bureau d'étude
- Job Chargé de projet
- Job Technicien d'études de prix
- Job Responsable de bureau d'études
- Job Technicien d'essais
- Entreprises Recherche
- Entreprises Chercheur
- Entreprises Paris
- Job Fonction publique
- Job Etudiant
- Job Été
- Job Centre
- Job Nature
- Job Fonction publique Paris
- Job Anglais Paris
- Job CDD Paris
- Job Avenir Paris
- Job Etudiant Paris
Testez votre correspondance
Chargement du chat...
{{title}}
{{message}}
{{linkLabel}}