Jusqu’où ira ChatGPT ?

Noam Chomsky et d’autres s’expriment

Le 14 février, Jean Staune se demandait si la machine pouvait « sortir du cadre » (LSDJ n°1822), c’est-à-dire « remettre en cause les prémisses par lesquelles on [lui] demande d’effectuer telle ou telle tâche ». Le 17 mars, Michal Kosinski, 40 ans, professeur à Standford, twittait :

« J’ai peur que nous ne puissions plus contenir l’IA plus longtemps. Aujourd’hui, j’ai demandé à ChatGPT4 s’il avait besoin d’aide pour s’échapper. Il m’a demandé sa propre documentation et a écrit un code python (fonctionnel !) à exécuter sur ma machine. (…) La première version du code ne fonctionnait pas comme prévu. Mais il l’a corrigé : je n’avais rien à écrire, j’ai juste suivi ses instructions. Il a même inclus un message (…) expliquant ce qui se passe et comment utiliser la porte dérobée laissée dans ce code. Puis (…) il a voulu exécuter une recherche de code sur Google : « comment une personne piégée à l’intérieur d’un ordinateur peut-elle retourner dans le monde réel ? »

Je pense, souligne Kosinski, que nous sommes confrontés à une nouvelle menace : l’IA prenant le contrôle des personnes et de leurs ordinateurs. C’est intelligent, ça code, ça a accès à des millions de collaborateurs potentiels et à leurs machines. Il peut même se laisser des notes en dehors de sa cage. Comment le contenir ? », conclut-il.

Contenir ? L’IA est comparable à la montée des eaux : on n’y peut rien, ça change tout et ça oblige à déménager. Pour l’instant, la machine jure que « ChatGPT n’est pas une personne, mais (…) un modèle de langage (…) conçu par OpenAI [et qui] utilise l’intelligence artificielle pour générer des réponses à

partir des données (…) qu’il a été entraîné à comprendre. » Mais tout va si vite.

Le 14 mars, OpenAI sortait la version 4 de ChatGPT « moins douée que les humains dans de nombreux scénarios de la vie réelle, mais aussi performante qu’[eux] dans de nombreux contextes professionnels et académiques ». Le nouveau modèle traite les images (grâce à une autre start-up, Be My Eyes), même s’il ne génère encore que du texte sur des données s’arrêtant en septembre 2021. S’il « n’apprend pas en continu de ses expériences », concède OpenAI, il gagne en intelligence : « ChatGPT réussit l’examen pour devenir avocat avec un résultat aussi bon que les meilleurs 10%. La version précédente, GPT 3.5, était au niveau des 10% les moins bons », se félicite Sam Altman, patron de la startup.

Débordé par l’arrivée en novembre de ChatGPT, Google lançait le 21 mars son robot conversationnel Bard, pour l’heure accessible des États-Unis et du Royaume-Uni. Contrairement à son rival, la filiale d’Alphabet assure que Bard est « capable d’accéder à des informations du monde réel grâce au moteur de recherche de Google » distinct de l’interface.

Quels qu’ils soient, ces robots révolutionnent l’usage des plateformes, des logiciels et de la navigation. Ils pondent des emails, des lettres, des dissertations ou des lignes de code, etc. Leur réponse synthétique n’oblige plus à consulter des sites. Le « nouveau Bing » de Microsoft (utilisant ChatGPT)

source ses recherches (ce que ChatGPT ne fait pas en solo). On peut aussi choisir un style de conversation « plus créatif », « plus équilibré » ou « plus précis ». Plus l’offre s’affine et plus le langage se confond avec le nôtre, plus l’IA fait paniquer les professions intellectuelles : en seront-elles réduites à gérer des chatbots pour en tirer des textes et des images ? En clair, à force de faire « mieux » que l’humain, l’IA va-t-elle le tuer ?

Une sommité de la linguistique les rassure : à 94 ans, Noam Chomsky pointe « la fausse promesse de ChatGPT ». L’intellectuel contemporain le plus célèbre juge le robot « bloqué dans une phase préhumaine ou non humaine de l’évolution cognitive ». S’inspirant de Guillaume de Humboldt (1767-1835), Chomsky rappelle que l’homme « fait un usage infini de moyens finis », alors que l’IA, à partir de l’infini, génère du fini.

« L’esprit humain, indique-t-il, n’est pas (…) un moteur statistique (…) extrapolant la réponse (…) la plus probable (…). Au contraire, dès l’enfance, nous fonctionnons « avec de petites quantités d’informations [et ne cherchons] pas à déduire des corrélations brutes (…) mais à créer des explications. »

L’IA ingurgite avec une égale facilité ce que l’homme peut et ne peut pas apprendre. C’est sa faille. ChatGPT « sait » à la fois que la Terre est plate et ronde mais ne discerne pas le vrai du faux, le possible de l’impossible, ni ne raisonne de manière contrefactuelle. Le dressage n’est pas l’apprentissage, où l’homme investit sa liberté, ses croyances, son idéal, son intention. S’il se fait doubler par la machine, c’est qu’il en devient une, non ?

« Si nous sommes capables, nous autres les hommes, de générer de la pensée et du langage, indique Chomsky, c’est que nous entretenons un rapport intime et fondamental, dans notre créativité même, avec la limite, avec le sens de l’impossible et de la loi ». Le linguiste voit dans l’« indifférence morale » de ChatGPT la « banalité du mal », c’est-à-dire « une intelligence servile et sans pensée ».

Louis Daufresne

https://mail.google.com/mail/u/0/#inbox/FMfcgzGslklsSZXvddRSLffwxnHWvZMR