Aller au contenu

Détails

RDV à partir de 19h20 (début de la séance 19h30), au café de la Cloche proche de la place Bellecour.

Sujet de la séance de ce mardi 13 janvier: L'intelligence artificielle
L'IA nous éloigne-t-elle de notre nature ?
Texte introductif proposé par Sébastien:

Les algorithmes qui sont au cœur ce que qualifions d'intelligence artificielle existent depuis des décennies. L’espoir que l'on puisse reproduire nos fonctions cognitives - ou du moins en donner l'apparence - est un rêve ancien qui transparaît dans les mythologies. Or, si l'on ne considère que certaines fonctions, nous pouvons considérer que les ordinateurs sont depuis leur création doués d'intelligence puisqu'ils surpassent celle de l'humain dans de nombreuses tâches comme le calcul ou la mémorisation.

Cependant, depuis l'apparition des LLM (Large Language Models, tels que Chat GPT) l'intelligence artificielle prend enfin corps dans notre quotidien d'une manière qui correspond à la représentation que nous en avions : une intelligence douée de parole. Ce cap franchi, la question de définir précisément ce qu'est l'intelligence en général et humaine en particulier redevient on ne peut plus d'actualité. Elle conditionne le fait que nous considérons ou non ces systèmes comme effectivement intelligents.

Peut-on juger qu'un système ayant atteint une "intelligence artificielle générale" serait une système qui surpasse l'humain dans la plupart des tâches économiquement rentables comme l'a exprimé l'entreprise OpenAI dans le contrat qui la lie avec Microsoft ? Quelle est la définition dite "forte" de l'intelligence ? Ne suffit-il pas d'imiter des comportements intelligents pour être effectivement intelligent ? Faut-il que la machine ait une expérience intérieure de même nature que la conscience humaine ? Comment même distinguer une conscience "authentique" de l'impression de conscience qu'un système raisonnant peut produire ?

Si on s'en tient à la définition de la nature humaine comme ce qui caractérise l'humain (l’essence, le propre...), il serait paradoxal de pouvoir être "dénaturé", de pouvoir s'éloigner de sa nature. Ce serait ne plus correspondre à ce qui nous défini, or toute évolution se résout en adoptant une meilleure définition: l'humain est aussi un animal capable de concevoir et utiliser des IA. Par conséquent pour que l'on puisse s'éloigner d'une certaine "nature", cela implique que celle-ci ne soit non pas issue d'une observation mais soit une norme. Ainsi nous sommes appelés à nous poser la question de ce que l'utilisation de l'IA peut provoquer comme comportement "hors normes" : en quoi nous pousserait-elle à avoir des comportements déviants ? Déviants par rapport à quelles visions de l'humain ?

Si l'humain "technicien", est idéalement considéré comme étant dans la maîtrise de ses outils, des objets qu'il construit et des phénomènes qu'il déclenche. Or avec l'IA, les système que l'on conçoit gagnent proprement la capacité de nous étonner : réaliser une infinité de tâches non programmées et avoir des comportements qui n'ont pas été prévus (e.g. autocensure). Les LLM eux-mêmes, alors qu'ils étaient originellement des outils d'analyse du langage, ont dorénavant comme fonction principale la génération de textes complets : fonction qui est devenue possible, qui a "émergé" avec la montée en puissance des systèmes.

Nous avons tendance à considérer les IA dans leurs applications les plus démonstratives mais les algorithmes de recommandation des réseau sociaux sont également des IA : Ils apprennent de nos pratiques avec des technologies proches pour nous proposer une expérience individualisée qui soit inspirée des comportement similaires d'autres utilisateurs. L’effet de telles utilisations des IA serait-elle une “socialisation” poussée à l’extrême ? Par lesquelles nous partageons plus que des références communes mais également des comportements de groupe induits par ces systèmes, qui font que nos pensées se rejoignent ou s'opposent malgré nous ? L'utilisation des IA pourrait-elle faire émerger une forme de pensée collective menant à une unification de l'humanité ? Ou nous mèneraient-elles nécessairement vers une perte annoncée des liens humains authentiques dans une société ou les interactions sans médiation de ces systèmes sont réduites au minimum ?

Test de Turing
https://intelligence-artificielle.com/test-de-turing/

Intelligence artificielle générale
https://fr.wikipedia.org/wiki/Intelligence_artificielle_g%C3%A9n%C3%A9rale

Le terme “nature” en philosophie
https://www.philomag.com/lexique/nature

“On implémente des doctrines philosophiques dans l’IA… parce qu’on ne fait plus confiance au jugement humain” - Mathieu Corteel
https://www.philomag.com/articles/mathieu-corteel-implemente-des-doctrines-philosophiques-dans-lia-parce-quon-ne-fait-plus

Et si le vrai test d’IA, c’était notre crédulité ?
https://www.itforbusiness.fr/francois-chollet-et-arc-cest-pour-tester-notre-credulite-91971

Comment parler intelligemment d'intelligence ? - M. Phi
https://www.youtube.com/watch?v=AwUpxjODogQ

Vous n'avez pas d'âme (et c'est ok) - M. Phi
https://www.youtube.com/watch?v=5DoT2NQTZD4

Il y a des IA bien plus terrifiantes que ChatGPT." - Jean-Lou Fourquet
https://youtu.be/BEjmfiwp1ms

L'intelligence artificielle se lie de plus en plus à la mystique
https://www.radiofrance.fr/franceculture/podcasts/le-point-culture/l-intelligence-artificielle-se-lie-de-plus-en-plus-a

Les membres s'intéressent également à