Il y a trois ans déjà, survenait le premier accident mortel avec une voiture semi-autonome, en Floride. Ce qui ne décourage pas les experts du transport intelligent comme le montre la récente modification du Code de la sécurité routière québécoise, pour y faire entrer la définition de véhicule autonome.

Ainsi que certains projets pilotes : l’été prochain, un véhicule autonome circulera à faible vitesse à Candiac afin de vérifier le niveau de sécurité sur de vraies routes. Le Pr Nicolas Saunier du Département des génies civil, géologique et des mines de l’École Polytechnique, s’attend à des résultats positifs parce qu’à ses yeux, les véhicules autonomes sont tout simplement plus sécuritaires que ceux conduits par des humains. « 95 % des accidents impliquent des facteurs humains », rappelait le chercheur au récent forum organisé par l’Institut de valorisation des données (IVADO), MobiliT.AI

Houari Sahraoui, professeur au Département d'informatique et de recherche opérationnelle de l’Université de Montréal, va dans le même sens. « Quand tu regardes les conditions de la SAAQ pour obtenir un permis, un simple examen, ce n’est pas assez car il faut aussi prendre en compte la santé du conducteur. »

L’intelligence artificielle devra-t-elle passer un permis de conduire ? « En fait, le problème doit être pensé comme un continuum avec des mises à jour (technologiques et régulation), comme pour les téléphones », ajoute l’expert.

Ce n’est pas juste une question de mises à jour, il y a également une acceptabilité sociale encore à bâtir. « Les gens pensent souvent que seule l’intelligence naturelle — lire, celle de l’humain — est capable de s’adapter. Il faut donc montrer que l’IA peut le faire, et il y a aussi le côté des politiques qui veulent des garanties », rappelle le stratège en IA et directeur du bureau montréalais de l’Institut de technologie IRT Saint Exupéry, Guillaume Gaudron.

À l’aide d’un simulateur de conduite, un peu comme les pilotes d’avion, on tentera de mesurer ce qui pourrait se produire dans de multiples situations problématiques. Mais ce n’est pas une mince tâche. Quelques pixels de moins ou une altération de données constituent un « bruit » susceptible de modifier la situation et son analyse.

« Les images de ciel bleu et d’une voiture bleue peuvent tromper la machine. Il importe donc de tester aussi le système avec des exemples trompeurs et proches de la réalité pour qu’il soit susceptible de bien identifier la zone de danger », explique le directeur du Centre de données massives de l’Université Laval, François Laviolette.

Cela complique l’approche car il ne faut pas seulement prendre en compte les bons comportements à favoriser, mais aussi les mauvais afin d’élargir le spectre des situations possibles. Pour cela, il faut s’assurer de mieux comprendre ce qu’est le risque pour bâtir de meilleurs algorithmes en intégrant les biais et les contre-exemples.

Pour augmenter la confiance du public à l’égard de l’IA, il faut intégrer le contexte dans lequel les évènements surviennent, explique le chercheur de la compagnie Thales, Freddy Lecue. Afin de trouver quelles sont les variables importantes — par exemple la pluie ou la brume — susceptibles de modifier l’environnement.

Enfin, le risque zéro n’existe pas. Il est nécessaire de prouver que le système a fait de son mieux. Dans les chemins de fer français, il existe un niveau à respecter. « Le système de vision artificielle doit être « globalement équivalent » à l’humain. On peut tolérer que l’IA fasse des erreurs mais cela doit être minimal et nous devons être capable de les corriger », note le chef de division IA de la SNCF, Laurent Gardes.

« La certification d’IA ne doit pas être une liste de points à remplir mais il nous faut plutôt repenser ce qu’est la confiance et la sécurité minimale que nous désirons offrir ou que l’on exigera de nous », relève le chercheur de IRT Saint Exupéry, Gregory Flandin.

Il est même temps de s’entendre sur le vocabulaire. « On a longtemps pensé que l’autonomie, c’est se passer des humains mais on réalise aujourd’hui qu’il s’agit plus d’interactions entre les humains et les machines. La définition change et celle d’aujourd’hui ne sera pas celle de demain » décrit Mike McNair, responsable de l’innovation chez Bell Flight.