hyperscanning.jpg (96.69 Ko)

Savez-vous ce qu’est l’hyperscanning ? Non, ce n’est pas un nouveau buzzword en neuroscience pour désigner la (trop?) grande attention que portent les médias aux études d’imagerie cérébrale. C’est simplement l’idée, apparue au début des années 2000, d’enregistrer simultanément l’activité cérébrale de deux sujets en interaction sociale l’un avec l’autre. L’idée m’est venue de vous en glisser un mot après avoir vu passer cet article de l’été dernier sur le site web de Radio-Canada intitulé « Nos cerveaux se synchronisent lorsque nous conversons ». Parce que c’est une nouvelle approche intéressante, et aussi peut-être un peu pour dire que contrairement à ce que l’image choisie pour illustrer l’article le laisse croire, on n’a pas besoin d’envoyer des éclairs électriques avec nos yeux dans les yeux d’une autre personne pour que des synchronisations d’activité apparaissent entre les cerveaux des interlocuteurs. On a juste besoin de lui parler… ;-P

Car comme le rappelle cet article de 2014 qui fait le point sur le passé, le présent et le futur de l’hyperscanning dans le domaine des neurosciences sociales, on connait depuis quelques décennies certaines régions cérébrales qui semblent très impliquées dans la compréhension des états d’esprit d’autrui. C’est le cas par exemple de la jonction temporo-pariétale, une partie du cortex qui s’active durant des tâches nécessitant d’estimer les intentions, les désirs ou les objectifs d’une autre personne. Et bien entendu l’activation de cette région co-variera avec d’autres régions comme le cortex préfrontal médian. Un modèle proposé par van Overwalle en 2009 suggère ainsi que le cortex préfrontal médian vient « enrichir » les observations de la jonction temporo-pariétale en attribuant des traits et des qualités plus durables à la fois aux autres et à soi-même.

On voit alors en quoi l’idée d’avoir accès en temps réel à ce qui se passe dans deux cerveaux en interaction sociale est riche et prometteuse. Elle a été réalisée pour une première fois avec des scanners d’imagerie par résonance magnétique fonctionnelle (IRMf) en 2002 par l’équipe de Read Montague . Mais on peut également faire de l’hyperscanning avec l’électroencéphalographie (EEG), une technique moins coûteuse qui enregistre directement l’activité nerveuse avec une excellente résolution temporelle (contrairement à l’IRMf basé sur le taux d’oxygénation des capillaires sanguins cérébraux, une mesure indirecte, et donc plus lente, de l’activité nerveuse).

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

C’est d’ailleurs l'EEG qu’a utilisée Alejandro Pérez dans son étude publiée en juin dernier dans Scientific Reports dont les résultats étaient rapportés dans l’article de Radio-Canada. Intitulé « Brain-to-brain entrainment: EEG interbrain synchronization while speaking and listening », l’article rapporte avoir observé une synchronisation de l’activité oscillatoire des cerveaux de deux interlocuteurs lors d’une discussion verbale. Comment est-ce possible ? Y’a-t-il un mystérieux signal qui voyage d’un cerveau à l’autres (comme des petits éclairs électriques qui sortent des yeux…) pour aller influencer le cerveau de l’autre personne ?

Des explications plus naturelles sont explorées dans l’article. À commencer par le signal de l’onde sonore émise par la personne qui parle. Ce signal a une certaine signature oscillatoire qui correspond aux propriétés sonores des mots que nous prononçons. Et comme on sait qu’il y a certaines correspondances qui peuvent être établies entre cette signature oscillatoire de l’output sonore et l’activité oscillatoire de certaines régions du cerveau du locuteur, on a là un début de piste. Ajouter à cela le phénomène réciproque (l’activité du cerveau de la personne qui écoute pourrait être influencée pour les rythmes des inputs sonores qu’elle entend), et vous avez un premier mécanisme possible.

Mais les auteurs de l’article croient qu’il y a plus. Car en comparant différentes fréquences (delta, theta, alpha et beta) au niveau de l’augmentation de la synchronisation de l’activité oscillatoire du cerveau du locuteur et de la personne qui écoute, ils ont observé que certaines synchronisations (dans les bandes alpha et beta) semblaient émerger directement des interactions mutuelles de la dyade. Ce phénomène montre, selon les auteurs, la nature essentiellement sociale de la communication verbale. Il incite aussi à ne plus s’en remettre seulement à l’étude de l’activité de cerveaux isolés pour tenter de comprendre les bases neuronales de la communication linguistique.

Car si l’on se doutait déjà que notre cerveau se comporte différemment dès qu’il est en situation sociale, l’on découvre maintenant que la communication verbale entre deux individus ne se réduit pas à la production d’un signal et à sa perception. Nos interactions verbales, comme bien d’autres boucles entre notre cerveau, notre corps et notre environnement, semblent faire naître des phénomènes de couplage qui émergent de l’interaction langagière entre deux individus. Ce terme de « couplage » me rappelle un certain Francisco Varela qui n'aurait certainement pas renié cette étude...

Je donne