Chaire IA, Risque et Management

Positionnement et ambition

La Chaire IA, Risque et Management a pour ambition de développer des travaux de recherche de haut niveau sur les usages et les risques associés liés à l’usage de l’intelligence artificielle dans les environnements numériques critiques, en particulier les plateformes cloud et les dispositifs d’audit et de contrôle.

Face à la généralisation de l’IA dans les organisations, la chaire se concentre sur une question centrale : comment concevoir, déployer et auditer des systèmes d’IA qui soient à la fois performants, sécurisés et auditables dans des contextes fortement contraints sur le plan réglementaire et opérationnel.

Direction Scientifique

La chaire est dirigée par François Acquatella, maître de conférences à l’Université Paris Dauphine‑PSL et chercheur au sein du laboratoire Dauphine Recherches en Management (DRM – UMR CNRS 7088) et chercheur affilié à l’Institut IA et Société.

Axes de recherche

  • IA, cloud et infrastructures critiques

Analyse de la manière dont les couches d’infrastructure des plateformes cloud structurent le déploiement de l’IA et créent des dépendances techniques. Examen des conséquences en matière de sécurité, de résilience, de responsabilités partagées et de souveraineté opérationnelle des organisations utilisatrices.

  • Auditabilité et contrôle des systèmes d’IA

Travaux consacrés à l’intégration de l’IA dans les dispositifs d’assurance et de contrôle (notamment IT General Controls), en se concentrant sur les exigences de traçabilité, reproductibilité, explicabilité et evidence chain. Développement de cadres et de protocoles expérimentaux permettant de documenter, tester et auditer des systèmes d’IA (modèles, données, prompts, configurations, logs) de façon compatible avec des environnements réglementés.

  • Sécurité et secure-by-design appliqués à l’IA

Modélisations théoriques d’architectures d’IA sécurisées et gouvernables dès l’amont, intégrant des mécanismes de contrôle, de limitation des comportements indésirables et de supervision continue. Analyse des risques spécifiques (fuite de données, attaques par prompt/injection, dérive, erreurs systématiques) et des moyens de mitigation par la conception (politiques, garde-fous, tests, monitoring), afin de rendre les systèmes d’IA auditables et robustes dans des usages critiques.

Approche scientifique

Approche collaborative empirique combinant études de cas, analyses techniques, expérimentations.

 


Partenaires

 


Soutiens

 


 

La chaire recrute, merci de contacter François Acquatella