Depuis l’an dernier, les informaticiens disent des applications comme ChatGPT, chaque fois qu’elles disent des faussetés, qu’elles « hallucinent ». Un trio de chercheurs écossais propose plutôt comme terme le mot anglais « bullshit ».
À lire également
Dans un texte intitulé « ChatGPT is bullshit » (connerie, foutaise, sottise, etc.), ces trois professeurs —deux en philosophie et un en sciences sociales— de l’Université de Glasgow rappellent à quel point le terme « hallucinations » introduit une fausse impression, celle d’une « intelligence » qui percevrait le réel à sa façon ou entretiendrait des croyances sur ce qu’est le réel.
Or, les agents conversationnels dont on parle tant depuis un an et demi ne fonctionnent pas sur la base de perceptions ou de croyances. Ils ne font que prédire des mots —ou des pixels dans une image— à partir d’une immense base de données. Ils ne sont pas conscients de ce qui est vrai ou faux. Lorsqu’ils rédigent une réponse fausse, c’est parce que quelque chose dans les probabilités les a conduits à cette « conclusion ».
Abonnez-vous à notre infolettre!
Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!
Mais une fausseté reste une fausseté, écrivent les trois auteurs dans leur analyse, publiée le 8 juin par la revue Ethics and Information Technology: « nous alléguons par conséquent que décrire les fausses représentations des IA comme de la « bullshit » est une façon plus utile et plus exacte de prédire et de discuter des comportements de ces systèmes ».
Ils ne sont pas les premiers à proposer ce terme. Dans une conférence présentée en mars 2023, l’ingénieur Adam Kaczmarek parlait de ChatGPT comme d’un « perroquet » générateur de « bullshit ». Et dans un texte d’opinion publié en avril 2023 par la revue de vulgarisation Undark, deux professeurs américains de biologie proposaient eux aussi d’utiliser « bullshit », ou à tout le moins d’abandonner « hallucinations ». Les prétendues hallucinations de ces « larges modèles de langage ne sont pas des pathologies ou des dysfonctionnements: ce sont plutôt les conséquences directes des philosophies de conception et des décisions de conception qui furent derrière la création de ces modèles. ChatGPT n’est pas malade lorsqu’il affirme que la population de Mars est de 2,5 milliards: il se comporte exactement comme il a été conçu. »
Et ce n’est pas seulement un débat sémantique: les mots que nous utilisons ont le pouvoir d’influencer la perception qu’a le public du potentiel de cette technologie, ainsi que la perception des politiciens qui vont devoir tôt ou tard légiférer pour encadrer cette technologie. Une partie du public est d’ores et déjà prête à croire que ce que produisent les ChatGPT de ce monde constitue une information fiable: un vocabulaire qui tend à les « humaniser » risque de renforcer cette perception. Alors qu’au contraire, rappelle le trio, ces technologies « ne sont tout simplement pas conçues pour représenter avec précision le réel, mais plutôt pour donner l’impression que c’est ce qu’elles font ».