Amour ou caca

Comment distinguer un humain d’une IA ?

Si vous deviez choisir un seul mot pour convaincre votre interlocuteur que vous n’êtes pas une machine mais bien un être humain, quel serait votre choix ? Des chercheurs du MIT ont posé la question à des volontaires. Et les réponses sont surprenantes.

En 1950, le mathématicien Alan Turing imagine un test ultime pour juger de l’intelligence artificielle d’une machine : si un être humain discutant en aveugle avec elle est incapable de déterminer s’il s’agit d’une IA ou de l’un de ses congénères, le test est considéré comme concluant. Depuis, le test de Turing n’en finit plus d’alimenter les réflexions, les oeuvres de SF et la littérature scientifique.

« Un test de Turing minimal » : tel est le titre d’un nouvel article scientifique paru dans la revue Journal of Experimental Social Psychology. Les deux chercheurs du Massachusetts Institute of Technology (États-Unis) s’y sont demandé comment les humains s’y prendraient pour distinguer un homme d’une machine si leur interlocuteur caché ne leur communiquait qu’un seul mot.

Les mots « tabous »

Ils ont d’abord demandé à un millier de volontaires d’imaginer ce qu’ils choisiraient s’ils n’avaient qu’un mot pour prouver qu’ils étaient bien humains. 47 % des participants se sont alors tournés vers le champ lexical de l’émotion ou de la pensée. Les mots « amour » (14 % des réponses), « compassion » (3,5 %) et « humain » (3,2 %) ont été les plus choisis, explique le site Science Alert, qui relaye l’étude.

(McCoy & Ullman/Journal of Experimental Social Psychology)

La deuxième phase de l’étude a donné des résultats plus surprenants. Les chercheurs ont classé les différents mots choisis en dix catégories. Par exemple ceux relevant de la « nourriture », de « la vie et la mort », des « non-humains » ou encore des mots « grossiers / blasphématoires ». Ils ont ensuite associés les mots par pairs, conjuguant à chaque fois deux mots de catégories différentes. Puis ils ont présenté ces paires de mot à un nouveau groupe de 2 405 participants, leur assurant à chaque fois que l’un d’eux avait été prononcé par un robot, l’autre par un humain.

Le mot le plus choisi par les participants pour identifier un interlocuteur humain s’est alors avéré être « caca » (« poop » en VO). Un choix qui a d’abord déconcerté les chercheurs, qui en ont conclu que les mots « tabous » faisant référence à des fonctions biologiques étaient interprétés comme étant une réponse plus émotionnelle et « amusée », donc plus susceptible d’avoir été donnée par un humain.

Indépassable test de Turing ?

« Que la catégorie des mots tabous ait surpassé toutes les autres n’est pas un résultat sur lequel j’aurais parié beaucoup d’argent avant l’étude, mais cela peut sembler évident rétrospectivement », a commenté Tomer Ullman, l’un des auteurs de l’étude, auprès de Digital Trends.

Pour les chercheurs, l’objectif n’était pas d’apprendre à déceler la présence d’un chatbot intelligent malfaisant, qui ne mettrait de toute façon probablement pas longtemps à intégrer la liste des mots tabous à son vocabulaire. L’idée était plutôt d’étudier la perception que nous nous faisions nous-mêmes des critères nous distinguant des robots où nous identifiant à un groupe donné d’êtres humains.

Les machines « n’ont pas la moindre idée de la complexité du langage »

Que les garants d’un langage chaste et châtié se rassurent, nous sommes encore loin d’être contraints aux insanités pour prouver notre humanité. Malgré l’effervescence autour des chatbots, assistants personnels et autres technologies conversationnelles, le test de Turing ne semble pas prêt d’être réellement dépassé.

Les progrès fulgurants sont liés à l’utilisation massive de données et au deep learning, méthode efficace mais vouée à plafonner selon certains spécialistes. Les machines « n’ont pas la moindre idée de la complexité du langage parce qu’une approche statistique ne suffit pas », nous confiait en février le docteur en intelligence articielle Gilles Moyse. D’autres comme le linguiste Noam Chomsky sont formels : aucun algorithme ni corpus de texte transformé en données ne pourront jamais suffir pour décoder un langage foncièrement biologique et social.

https://usbeketrica.com/article/amour-caca-test-turing-humain-ia

 

SUR LE MÊME SUJET

> Nous ne sommes pas prêts de dialoguer avec une intelligence artificielle

Traducteur et interprète homme-machine, un métier d’avenir

> « La machine n’a pas la moindre idée de la complexité du langage »

« On assiste au rapprochement entre le langage parlé et le langage informatique »