Quoi qu’en disent les sceptiques, l’IA aura en 2026 un impact positif sur la recherche scientifique. Mais en parallèle, le monde du travail en général devra développer des techniques pour résister à l’avalanche de « bouillie » produite par ces applications. Survol de 5 tendances.
À lire également
1) L’IA pour servir la science
Des « scientifiques virtuels » qui peuvent tester en un temps record des milliers de configurations qui auraient pris des mois à un humain : des IA génératives sont testées depuis au moins 2024 dans des laboratoires à travers le monde. Des recherches sur des protéines ou des anticorps, ont ainsi conduit à des études publiées dans lesquelles le rôle indispensable de ces « larges modèles de langage » est salué. Ces applications ont aidé à prédire des tempêtes de sable, ou à optimiser la construction des futurs ordinateurs quantiques. Mais ce ne sont encore que de petites percées: en 2026, il faut s’attendre à des avancées « significatives », prédisait en décembre la revue Nature. Combien de temps avant qu’une IA ne permette un percée scientifique digne d’un prix Nobel ? Et plus important: le jour où ça arrivera, à qui sera décerné le prix?
2) Résister à la bouillie de l’IA
En parallèle, c’est sans doute en 2026 qu’on commencera à avoir des données sur l’impact nocif sur le travail —et le travail scientifique en particulier— qu’aura la prolifération de travaux de très faible qualité produits à la chaîne par des IA. Soit ce que l’on a commencé à appeler, en anglais, « AI slop ».
Abonnez-vous à notre infolettre!
Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!
Le rédacteur en chef de la revue américaine Science, H. Holden Thorpe, a choisi d’intituler son éditorial de la nouvelle année, « Resisting AI slop » (littéralement: Résister à la bouillie générée par l’IA). Lui aussi s’extasie devant les possibilités de découvertes scientifiques, mais recommande de « rester calme et de continuer à contribuer à une littérature scientifique robuste et supervisée par l’humain qui résistera au passage du temps ». Avant toute chose, la résistance passe par de la transparence : tout usage de l’IA au-delà de la collecte de données —par exemple, pour rédiger le premier jet d’un texte— « doit être déclaré » par un chercheur qui souhaite publier dans Science. Et « tout auteur doit se déclarer responsable de tout le contenu, incluant celui généré avec l’aide de l’IA ». Une façon d’obliger les chercheurs à vérifier deux fois plutôt qu’une avant d'envoyer leurs articles. « Publier des articles soigneusement révisés, soumis au jugement de plusieurs humains, n’a jamais été plus important. »
3) Le dégonflement de la bulle ?
Reste que ce n’est pas la recherche scientifique qui va procurer un modèle d’affaires aux compagnies qui produisent des IA génératives. 2026 pourrait-elle être l’année de l’éclatement tant craint de cette bulle ? Économistes et journalistes qui évoquent le fait que les sept géants sont gonflés aux hormones —des investissements sans commune mesure avec leurs promesses de revenus— craignent un krach, qui ferait mourir beaucoup de petites entreprises, mais épargnerait les géants eux-mêmes. Et même s’ils n’étaient pas tous épargnés, il y a consensus sur le fait que, quelque correction qui se produise sur le marché en 2026, l’IA est une technologie qui est là pour rester. On n’est juste pas encore fixé sur les façons dont elle transformera la société. En août 2025, un rapport du MIT concluait que, pour l'instant, 95% des projets d’IA en entreprise échouaient.
4) La distorsion de la réalité
On l’a dit abondamment en 2023, et en 2024, et en 2025, et on va continuer de le dire en 2026: un pourcentage inquiétant des réponses de l’IA à nos requêtes contient des faussetés. Que ce soit dans ses réponses à des questions sur l’actualité ou la science, ou dans les résumés de textes qu’elle propose, elle peut aller jusqu’à inventer des références qui n’existent pas ou faire dire à des gens des choses qu’ils n’ont jamais dites.
Mais le problème n’est pas tant que des usagers vont prendre ces réponses pour argent comptant. Le problème est qu’avec la multiplication des outils qui permettent à qui que ce soit de produire des images « convaincantes », les gens vont cesser de croire qu’ils peuvent distinguer le vrai du faux. Ce qui est exactement le but visé par certains producteurs de désinformation : « déformer les événements réels », résumait en fin d’année le News Literacy Project, organisme américain d’éducation à l’information. « Prêtez attention à qui vous a partagé ce contenu et cherchez toujours une deuxième source », martèle le projet, à l’instar de tous ceux qui —comme Science-Presse— font dans l’éducation à l’information. Un conseil qu’il va aussi falloir marteler en 2026.
5) L’urgence d’une réglementation
Serait-il possible que tous ces dérapages fassent de 2026 l’année d’une vague internationale de règlementations du numérique en général et de l’IA en particulier? C’est hautement hypothétique, surtout dans le paysage politique actuel des États-Unis. Mais il n’en demeure pas moins que beaucoup des acteurs impliqués, y compris en science, le réclament depuis longtemps. En éditorial le 29 décembre, la revue britannique Nature renchérissait: plusieurs pays ont déjà voté des lois pour encadrer le développement de l’IA. L’Europe a son Digital Services Act pour le numérique. Même certains États américains s’y sont mis. Pour la prochaine année, écrit Nature, « l’ambition première doit être de réussir une régulation similaire à celles qui gouvernent d’autres technologies d’usage général ».
Plusieurs pays « sont prudents, avec raison, et évaluent les risques, mais davantage de cohérence est nécessaire. Les nations doivent travailler ensemble pour créer des politiques qui non seulement permettent le développement (de ces technologies), mais incorporent aussi des barrières de sûreté. »





