Aller au contenu

Détails

L’utilisation d’algorithmes de prise de décisions basés sur des modèles
d’apprentissage automatique a explosé récemment et de nombreuses
entreprises ou administrations envisagent actuellement de déployer ce
type de solutions. La récente législation (ex : le RGPD en Europe ou la
Loi pour une République Numérique en France) contraint cependant
fortement leur utilisation comme décrit dans le guide Etalab
(https://guides.etalab.gouv.fr/) du Département de la direction
interministérielle du numérique de l’État. En particulier, le respect
des critères comme ceux de l’égalité de traitement et de
l’intelligibilité des procédures se révèle être un potentiel blocage
majeur à l’utilisation des algorithmes d’apprentissage. Les outils
extrêmement populaires tels que l’apprentissage profond ou les forets
aléatoires, ne sont en effet généralement pas humainement
interprétables.

L'exposé se découpera en trois grandes parties. Une présentation des
problèmes de biais possibles en apprentissage automatique sera d'abord
faite. Ces problèmes seront alors mis en perspective d'un point de vue
du Droit. Des solutions techniques actuelles pour l'interprétabilité et
la détéction (voir la correction) de biais seront alors discutées.

Bio Laurent Risser:

Laurent is a senior CNRS Research Engineer in Data Science. He currently
works half-time at the Mathematics Institute of Toulouse, and half-time
at the 3IA Artificial and Natural Intelligence Toulouse Institute. He
has more than 15 years of experience in Data Science and has published
over 70 communications in international scientific journals and
peer-reviewed proceedings, as well as two book chapters. He obtained in 2019 a 3IA ANITI Chair « Law, Accountability and Social Trust in
Artificial Intelligence » to establish novel links between Artificial
Intelligence and Law, in collaboration with C. Castets-Renard (Univ.
Ottawa - Law) and S. Cussat-Blanc (Univ Toulouse - Computer Science).
The theme of this chair is tightly related to his current research
interests in Interpretable Machine Learning as well as in Fair Machine
Learning.

Previously, he worked in three research institutes after having defended
his PhD thesis in engineering science (specifically 3D image analysis
applied to fluid mechanics). He first worked at CEA Saclay, where he
developed novel regularization strategies in stochastic computing
applied to medical image analysis. At Imperial College London and
University of Oxford, he then developed application-motivated strategies
to efficiently regularize the mapping of medical images. He now works on
broader applications of Statistical Learning since he joined the
Mathematics Institute of Toulouse in 2011.

Bio Ronan Pons :

Ronan est doctorant en Droit au sein du 3IA ANITI (Artificial and
Natural Intelligence Toulouse Institute), sa thèse portant sur le lien
entre l'utilisation d'outils issus de l'Apprentissage Automatique et le
Droit. Il est diplômé d'un Master 2 Droit du numérique de l'Université
Toulouse 1, labellisé par la CNIL, et est spécialiste du droit des
données personnelles et de la cybersécurité. Avant de commencer sa
thèse, il a été consultant RGPD à Abington Advisory, stagiaire à la
Mission de Sécurité des Systèmes d'Information au Ministère de
l'Agriculture et de l'Alimentation ainsi que consultant export control
chez APSYS Airbus.

Sujets connexes

Vous aimerez peut-être aussi