C'est que Daniel Kish, surnommé « Batman », s’oriente par écholocation (on dit aussi écholocalisation), exactement comme les chauves-souris ! Il émet des sons et décode l’information qui lui revient dans l’écho que ces sons produisent. Nous qui nous nous fions constamment à notre vision pour naviguer dans notre environnement portons peu attentions à cet écho. Mais si on se ferme les yeux, on peut se rendre compte qu’un son émis à quelques dizaines de centimètre d’un mur ne « sonne » pas comme le même son émis devant la porte ouverte d’une grande pièce ou bien dehors.
Abonnez-vous à notre infolettre!
Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!
Sauf que Kish, aveugle depuis environ l’âge d’un an, a poussé cette faculté à un degré que l’on ne croyait pas possible chez l’humain. Il faut le voir identifier voitures, maisons, clôtures ou haies qu’il croise sur son chemin simplement en "cliquant" vers ces objets. Et comme nos yeux qui doivent faire le focus sur des objets proches ou lointains , Kish a différents types de « clics » pour échantillonner l’espace proche ou lointain.
Ce qui est particulièrement fascinant dans ce reportage, ce sont les scientifiques qui ont étudié le cerveau de Kish et de quelques autres aveugles ayant développé l’écholocation. Grâce à la grande plasticité du cerveau , on savait que le cortex visuel des aveugles peut être activé par d'autres modalités sensorielles , notamment des sons. Et plus la cécité arrive tôt dans la vie, plus cette « prise en charge » de l’environnement sonore par notre grand cortex visuel est importante.
C’est ce qu’a pu confirmer l’équipe de Melvyn Goodale dans une étude publiée en 2011 dans la revue PLoS ONE. Goodale est connu pour ses travaux, avec David Milner, qui ont permis de confirmer l’existence de deux grandes voies visuelles dans le cortex humain , l’une ventrale et l’autre dorsale.
Pour en revenir à l’étude, elle comparait l’activité cérébrale du cerveau de Kish à celle d’un autre sujet, Brian Bushway, s’orientant lui aussi par écholocation mais étant devenu aveugle plus tard, vers l’âge de 14 ans. Comme il leur était impossible de « cliquer leur environnement » dans le tunnel étroit du scanner, on a dû concevoir une approche ingénieuse pour contourner ce problème. Avec de petits micros placés dans leurs oreilles, on a enregistré leurs clics et leur écho devant différents objets. Puis, on leur a refait jouer ces enregistrements dans le scanavec des écouteurs.
On observe alors une vaste activation des aires visuelles dans le cerveau de Kish et une activation bien visible mais un peu moindre dans le cerveau de Bushway. On leur demande ensuite de deviner les objets correspondants aux clics qu’ils entendent et le taux de réussite de Kish atteint pratiquement 99% ! Bushway, devenu aveugle à l’adolescence comme on l’a mentionné, réussit tout de même à identifier 82% des objets correctement. Fait amusant, quand on a fait entendre les clics de Bushway à Kish, sa première réaction fut de dire qu’il se sentait soudainement plus grand ! Bushway dépassant effectivement d’une tête Kish. Cette différence de hauteur par rapport au sol lui a donc été immédiatement perceptible dans l’écho légèrement plus lointain des clics.
Cette réutilisation du cortex visuel pour l’écholocation amène à redéfinir l’étiquette de « visuel » généralement accordé à cette partie occipitale de notre cerveau. Goodale fait remarquer que quelque chose comme « cortex spatial » serait sans doute plus approprié car l’architecture neuronale de cette région cérébrale semble capable d’analyser les propriétés spatiales de notre environnement même quand les inputs lui parviennent par une voie autre que visuelle.
Ce recyclage de notre cortex occipital ne peut bien entendu amener une perception aussi précise que celle du câblage original fait pour transmettre de l’information visuelle en provenance de la rétine . L’acuité des objets perçus par Kish semble correspondre un peu à notre vision périphérique où l’on sent la présence d’objets, mais où leur contour reste flou. On ne pourrait pas non plus s’attendre au niveau de précision de l’écholocation des chauves-souris car ces dernières émettent des ultrasons dont la très haute fréquence (que ne peut produire l’appareil vocal humain) permet à l’écho qui revient d’avoir une meilleure résolution spatiale, rendant par exemple les chauves-souris capables d’attraper des insectes en vol en pleine obscurité.
Un autre aspect de la perception sensorielle que met en évidence l’écholocation est son caractère actif. Comme le toucher est optimal seulement quand on bouge les mains sur un objet, les aveugles comme Kish et Bushman échantillonnent constamment leur environnement en cliquant à gauche et à droite pour le découvrir, nous rappelant que perception et action sont irrémédiablement liées, comme l'affirme Alva Noë par exemple.
Enfin, Daniel Kish est aussi remarquable pour son implication auprès des personnes aveugles, ayant avec son organisation « World Access for the Blind » enseigné l’écholocation à plus de 500 enfants aveugles dans le monde. Un travail de sensibilisation favorisant l’autonomie qui n’est pas sans rappeler celui pour le langage des signes des personnes sourdes.
Je m'en voudrais finalment de ne pas mentionner ici le cas d'un autre aveugle vraiment impressionnant avec son écholocation, Ben Underwood, et le soutien que lui ont apporté ses parents que l'on peut apprécier dans le documentaire en 5 parties du dernier lien ci-dessous.
Catalyst : Echolocation Neural Correlates of Natural Human Echolocation in Early and Late Blind Echolocation Experts. Daniel Kish: How I use sonar to navigate the world One brain - two visual systems Ben Underwood