Pour de nombreux scientifiques, il ne fait aucun doute que l’intelligence artificielle (IA) révolutionnera un jour le monde. Dans le cadre de l’épidémie de Covid-19, elle a été utilisée à plusieurs reprises dans la prédiction de symptômes et dans la recherche de traitement. Mais face à l’inattendu, l’IA atteint rapidement ses limites.

Actuellement, les utilisations de l’IA concernent tous les domaines dont la santé. Il est donc logique qu’elle ait été sollicitée dans la détection et la lutte contre le Covid-19. Et dans ce cas, elle a pu se montrer performante sur plusieurs tableaux. En effet, la grande force de l’IA est l’analyse de données brutes. C’est ainsi qu’en analysant les messages présents sur les réseaux sociaux, l’IA a pu détecter l’émergence de l’épidémie de Covid-19 dès le 31 décembre 2019. L’analyse d’images, lui a permis de de mettre en avant de nouveaux facteurs déterminants de complications chez un patient atteint du virus ou encore aujourd’hui de détecter la température corporelle des passants circulants dans les lieux publics. L’IA apporte également son aide dans la recherche d’un traitement prédisant la structure externe du virus ou en déterminant si un médicament s’avèrera efficace ou non.

Mais si l’IA s’est montrée performante sur ces différents points, elle présente néanmoins des limites.

Toutes ces données de surveillance d’individus exploitées par l’IA peuvent représenter un risque pour la démocratie et la sécurité du citoyen (fuites, utilisations abusives, etc.). Nous devons donc être très vigilants quant à l’utilisation de ces données et leur durée dans le temps.

Sur un plan plus technique, les diagnostics obtenus grâce à l’IA n’en sont qu’à leur balbutiements. En effet, pour délivrer un diagnostic fiable, l’IA a besoin d’une très grande quantité de données. Or, nous ne disposons que de très peu de données sur ce nouveau virus.

Ce manque de données révèle la plus grosse faiblesse de l’IA : le problème de singularité des données. Le Covid-19 est un événement sans précédent qui a rendu les données de l’année 2020 uniques et pas seulement dans le domaine de la santé (fréquentation des restaurants, données financières, consommation de pétrole, etc.). Toutes données statistiques intégrant ces nouvelles données seront donc polluées et corrompues. En effet, un système d’intelligence artificielle est incapable de distinguer le caractère exceptionnel de l’événement. La correction doit donc, pour le moment, passer par l’intervention humaine.

Pour expliquer cette incapacité pour l’IA de repérer la singularité nous pouvons prendre l’exemple suivant. Si on présente une licorne à un enfant qui n’en a jamais vu, il reconnaitra spontanément que la créature ressemble à un cheval mais présente une singularité sur son front. Et cela, sans aucun entrainement. Un système d’IA, lui, y verra un cheval parfait.

Ce phénomène est un gros problème lorsqu’il s’agit de gérer l’inattendu dans une crise. C’est pourquoi il est important de compléter les systèmes d’IA actuels en les rendant explicables. C’est vers cet objectif que sont effectuées les recherches de l’initiative Operational AI Ethics de Télécom Paris.

_____________________________________________________________________

Par Jean-Louis Dessalles, Télécom Paris, Institut Polytechnique de Paris