Publicité
lesdebrouillards_1.jpg

Les débrouillards

Autre action

Actualité

Test de Turing: ceci n'est pas l'intelligence

Agence Science-Presse, le 9 juin 2014, 10h07

(Agence Science-Presse) Excitation chez les amateurs d’intelligence artificielle en fin de semaine: un programme aurait passé, pour la première fois, le test de Turing. Malheureusement, on est très loin de la science-fiction —et l'intelligence n'est pas là où l'on pense.

Test de Turing: ceci n'est pas l'intelligence
Cliquer sur la photo pour agrandir
Test de Turing: ceci n'est pas l'intelligence

Lecture rapide:

12 raisons de laisser tomber le test de Turing.

[ Ajouts 11 juin ] 

En 1950, Alan Turing propose une idée très simple: une machine sera capable de «penser» le jour où les gens qui auront une conversation avec elle penseront 7 fois sur 10 avoir affaire à un humain. Ceux qui font aujourd’hui la promotion du «test de Turing» tournent donc la proposition à l’envers: pour décrocher le gros lot, quelqu’un doit produire un programme qui trompera 30% des humains.

Le problème est que ce test est trop subjectif pour être scientifique: certaines personnes peuvent être trompées par une première conversation et détecter la machine derrière la suivante. Tout repose non pas sur l'intelligence de la machine —du logiciel, en fait— mais sur la quantité de phrases-clefs et de vocabulaire intégrés dans sa mémoire. Et de fait, ça existe déjà: c’est depuis les années 1990 que des gens, placés devant une conversation par clavier avec un inconnu, croient parfois avoir affaire à un humain plutôt qu’une machine. Le plus connu est Cleverbot dont, en 2011, ses partisans avaient aussi prétendu qu’il avait « passé le test ».

La médiasphère a donc bourdonné depuis samedi, parce qu’un programme nommé Eugene Goostman aurait été le premier à passer le seuil des 30%: lors de la compétition annuelle Turing Test, organisée à la Société royale de Londres, 33% des utilisateurs auraient cru avoir affaire à un humain. Plus précisément, à un enfant de 13 ans, Eugene Goostman, vivant en Ukraine.

Intelligence artificielle? Pas si vite:

  • le fait de «personnifier» un enfant de 13 ans dont la langue première n’est pas l’anglais a permis de simplifier considérablement le travail des programmeurs: des réponses étranges peuvent être attribuées à une méconnaissance de l’anglais;
  • un enfant de 13 ans peut aussi mystifier ses vis-à-vis qui peuvent mettre certaines réponses évasives sur le compte des limites de ses connaissances;
  • et le choix des juges est déterminant.

Bien que la transcription des conversations de samedi n’ait pas été publiée, au moins deux journalistes qui ont eu la possibilité de converser ces dernières semaines avec «Eugene» ont publié leurs propres conversations, et ils ne sont pas impressionnés. Comme l’écrit celui de l’agence Bloomberg, qui a tenté —en vain— de faire parler Eugene sur un massacre survenu à Odessa, Ukraine, le 2 mai, il est facile de voir comment 66% des «juges» ont vite compris, eux, à quoi ils avaient vraiment affaire.

Le fond du problème, a écrit Mark Humphreys, créateur en 1989 d’Eliza, qui fut peut-être le premier vrai «chatbot» de l’histoire —un robot programmé pour dialoguer— est qu’on voit mal comment le test de Turing pourrait devenir une méthode fiable pour évaluer l’émergence de l’intelligence dans la machine.

Je n’ai aucun problème avec le concept de machine qui devient intelligente... En fait, il n’existe aucune raison pour laquelle les principes qui sont derrière la façon dont nous travaillons ne pourraient pas exister dans un système artificiel. Mon problème est avec le test de Turing, pas avec l’intelligence artificielle.

Sans compter que derrière ce fameux critère —tromper 30% des gens— se pose une autre question: mesure-t-on l’intelligence de la machine, ou la crédulité des humains?

1 commentaire

Portrait de Jean-Louis Trudel

On peut aussi lire mon commentaire sur le sujet il y a quelques années : http://culturedesfuturs.blogspot.ca/2007/01/retour-au-test-de-turing.html

J'y propose d'ailleurs ma propre version du test de Turing. Quand une machine sera capable de distinguer un être humain d'un chatbot, peut-être bien qu'elle sera réellement intelligente...