Évaluer les IA à haut risque: défis méthodologiques et pratiques (table ronde 2)


Détails
Table ronde organisée dans le cadre des "Dialogues de Turing : Les enjeux de l'IA", un cycle de table-ronde tout-public inscrit dans la continuité du séminaire Turing, un cours organisé au département d'informatique de l'ENS Ulm et au Master MVA sur la sûreté de l’IA.
Avec notamment Pierre Peigné, Directeur scientifique à Prism Eval, et Charbel-Raphaël Segerie, Enseignant à l’ENS Paris-Saclay.
Résumé : L’EU AI Act impose aux développeurs de modèles d’IA à haut-risque de procéder à des évaluations préalablement à leur déploiement. Évaluer des systèmes d'IA complexes soulève de nombreux défis méthodologiques et pratiques. Cette conférence présentera les approches existantes pour évaluer et auditer la sécurité et la fiabilité des IA.
Veuillez vous inscrire via les liens luma ci-dessous :
Jeudi 28 mars : Construire une IA éthique et fiable : enjeux et perspectives
Détails et inscription : https://lu.ma/l74m87z3
Jeudi 11 avril : Évaluer et auditer les IA à haut risque : défis méthodologiques et pratiques
Détails et inscription : https://lu.ma/ci1wh81m
Jeudi 25 avril : L'IA, moteur de transformation pour le travail et l'éducation
Détails et inscription : https://lu.ma/7uiik8w4
Nous aurons le plaisir d’inviter à ces tables des intervenant·es de Giskard AI, EffiSciences, l’Institut Montaigne, PRISM Eval, LightOn, Sorbonne Université et sous réserve de confirmation, la DGE, l’Institut IA & Société, et le LNE.
En espérant vous y voir nombreux et nombreuses !
Contact : [pole-ia@effisciences.org](mailto:pole-ia@effisciences.org)
Mesures de protection contre le COVID-19

Évaluer les IA à haut risque: défis méthodologiques et pratiques (table ronde 2)