La Chaire d'IA responsable (RAIDAC+) est une initiative transdisciplinaire qui intègre des recherches pionnières sur la confidentialité, l'équité, la transparence et la robustesse de l'IA avec une expertise de pointe en matière de réglementation, de droit et de politique de l'IA. À mesure que les systèmes d'IA deviennent omniprésents - régissant l'accès aux services sociaux, guidant les décisions en matière de soins de santé, informant les stratégies de sécurité publique, et même facilitant les nouvelles neurotechnologies - ils nous confrontent à des défis éthiques, juridiques et sociétaux urgents. S'appuyant sur les fondations solides de deux approches distinctes mais complémentaires - (1) le projet "Responsible AI" axé sur les risques pour la vie privée, l'équité et l'explicabilité, et (2) la chaire "Legal and Regulatory Implications of AI" (AI-Regulation.com) qui a abordé les cadres juridiques et de gouvernance (GDPR, EU AI Act, Law Enforcement Directive...) -RAIDAC+ réunit de manière unique des informaticiens, des juristes et des partenaires de l'industrie. Ensemble, nous visons à favoriser l'innovation fondée sur les données en Europe grâce à des technologies d'IA éthiquement saines, légalement conformes et socialement bénéfiques.
ACTIVITÉS
RAIDAC+ développera activement ses activités de recherche, en mettant l'accent sur la protection de la vie privée dans les technologies émergentes. En particulier, la chaire travaille à l'élaboration de fondements techniques pour une IA responsable, y compris des méthodes de préservation de la vie privée, des modèles tenant compte de l'équité et une IA explicable. En outre, elle analyse et opérationnalise la réglementation et la politique en matière d'IA, en traduisant des cadres juridiques complexes tels que le GDPR et la loi européenne sur l'IA en lignes directrices et en outils de conformité exploitables.
Enfin, la chaire applique ces stratégies techniques et juridiques intégrées à des scénarios réels, tels que la reconnaissance faciale dans les espaces publics, la sécurité cognitive et les applications militaires de l'IA, afin d'en assurer l'applicabilité pratique et d'en mesurer l'impact sociétal.
Pour soutenir ces activités de recherche, la chaire recrutera d'ici novembre 2025 deux chargés de recherche qui travailleront respectivement sur l'interaction entre la loi sur l'IA et le règlement relatif à l'espace des données de santé (EHDS) et sur la mise en œuvre de la gouvernance de l'IA dans l'ensemble de l'UE. À la fin de la même année, nous recruterons deux doctorants dans le cadre d'un accord de cotutelle avec l'ÉTS Montréal. L'un des étudiants se concentrera sur les défis techniques de l'explicabilité de la vie privée, tandis que l'autre explorera les risques pour la vie privée associés à l'imagerie cérébrale, en mettant l'accent sur la publication et le partage des données. Ensemble, ces projets renforceront l'expertise de notre chaire à l'intersection de la protection de la vie privée, de la protection des données et de l'innovation responsable.
ÉVÉNEMENTS
Faculté de droit, Université Grenoble Alpes. (2025, 19 septembre). Faculté de droit de Grenoble - Semaine de l'IA (Grenoble, France) [Session de conférence "Penser la régulation des technologies émergentes"]. Grenoble, Saint-Martin-d'Hères, France. Université Grenoble Alpes. Page de l'événement
Autoriteit Persoonsgegevens. (2025, 9 septembre). L'autorité néerlandaise de protection des données rencontre le monde universitaire [Conférence]. La Haye, Pays-Bas. Autorité néerlandaise de protection des données. Page de l'événement
Bureau de l'ambassadeur pour les affaires numériques ; Direction du numérique pour l'éducation ; iSPIRT. (2025, 3 juillet). In_Fra_Structures 3.0 (Paris, France) [Conférence]. Paris, France. Page de l'événement
LISTE DE PUBLICATIONS SÉLECTIONNÉES
Arcolezi, H. H., Alishahi, M., Bendoukha, A. A., & Kaaniche, N. (2025). Fair Play for Individuals, Foul Play for Groups ? Audit de l'impact de l'anonymisation sur l'équité de la ML. ECAI 2025. https://arxiv.org/abs/2505.07985
Boutet, A. et Morel, V. (2025, juin). "I'm Not for Sale"-Perceptions and Limited Awareness of Privacy Risks by Digital Natives About Location Data. In Proceedings of the International AAAI Conference on Web and Social Media (Vol. 19, pp. 277-288). https://doi.org/10.1609/icwsm.v19i1.35816
Christakis, T. (2024) AI Hallucinations and Data Subject Rights under the GDPR : Perspectives réglementaires et réponses de l'industrie.
https://ssrn.com/abstract=5042191orhttp://dx.doi.org/10.2139/ssrn.5042191
Karathanasis, T. (2025). Données biométriques et technologie de reconnaissance faciale dans l'UE. In : Menéndez González, N., Mobilio, G. (eds) Next Democratic Frontiers for Facial Recognition Technology (FRT). Law, Governance and Technology Series, vol 74. Springer, Cham. https://link.springer.com/chapter/10.1007/978-3-031-89794-8_6
Sauf indication contraire, tous les documents sont diffusés sous la licence Creative Commons BY-NC-ND 4.0.
Vous pouvez les consulter et les partager à des fins non commerciales, sans les modifier et en mentionnant les auteurs.
Partager le lienCopierCopiéFermer la fenêtre modalePartager l'URL de cette pageJe recommande :Consultable à cette adresse :La page sera alors accessible depuis votre menu "Mes favoris".Arrêter la vidéoLire la vidéoCouper le sonLire l'audioChat : Une question ?Chatbot Robo FabricaStatistiques de trafic MatomoX (anciennement Twitter)