Skip to content

Details

AI Pluralism: What Models Do, Who Decides, and Why It Matters

A talk by Rashid Mushkani, AI & Urban Studies PhD Candidate @ University of Montréal and Mila

​AI systems increasingly shape what we see, know, and decide, yet their goals and safeguards are still set by a narrow group of actors. While we routinely benchmark what AI systems can do, we have far fewer ways to evaluate who gets a say in how these systems are built and governed.

This talk presents AI pluralism at two levels. First, I share technical case studies that examine how models handle competing values and perspectives during evaluation and alignment. Second, I introduce the AI Pluralism Index, which assesses pluralistic governance at the system and organizational level across participation, inclusion, transparency, and accountability. Together, these approaches link model behavior to public oversight and offer practical tools for safer and more democratic AI governance.

***

AI pluralisme : ce que font les modèles, qui décide et pourquoi c’est important

Une présentation par Rashid Mushkani, doctorant (IA et études urbaines) à l’Université de Montréal et à Mila

​Les systèmes d’IA façonnent de plus en plus ce que nous voyons, ce que nous savons et les décisions que nous prenons. Pourtant, leurs objectifs et leurs mécanismes de protection sont encore définis par un cercle restreint d’acteurs. Alors qu’on évalue couramment les capacités des systèmes d’IA, nous disposons de beaucoup moins d’outils pour mesurer qui a voix au chapitre dans la manière dont ces systèmes sont conçus et gouvernés.
​Cette conférence présente le pluralisme en IA à deux niveaux. D’abord, je présente des études de cas techniques qui examinent comment les modèles gèrent des valeurs et des perspectives concurrentes lors de l’évaluation et de l’alignement. Ensuite, je présente l’Indice de pluralisme en IA, qui mesure, au niveau des systèmes et des organisations, la qualité d’une gouvernance pluraliste selon la participation, l’inclusion, la transparence et la reddition de comptes. Ensemble, ces approches relient le comportement des modèles à la supervision publique et proposent des outils concrets pour une gouvernance de l’IA plus sûre et plus démocratique.

Related topics

You may also like