Une IA éthique et digne de confiance, c’est l’objectif que la Commission européenne a répété dans son livre blanc « Intelligence artificielle ; Une approche européenne axée sur l’excellence et la confiance » publié le 19 février 2020. Cette technologie d’intérêt général, aussi structurante que le fut l’électricité en son temps, suscite enthousiasme et critiques. Les sciences sociales et les humanités apportent les outils pour éclairer les débats qui animent son développement. Dans les formations aux technologies de l’IA, elles permettent d’aborder de manière pratique les questions éthiques soulevées. C’est une approche dans laquelle s’est résolument engagé le Mastère Spécialisé® IA de Télécom Paris.

En ce printemps 2020, l’actualité liée à la pandémie et à la crise sanitaire qui en découle fournit de nombreux questionnements éthiques. Recourir à des applications de géolocalisation pour surveiller le respect du confinement en est un. C’est un choix qui interfère avec le droit à la vie privée et à l’intimité, et avec la nécessité de protection des données personnelles. Cette restriction de liberté se ferait au nom d’un autre droit fondamental, celui de la protection de la santé. Comme nous sommes attachés à ces deux droits fondamentaux, « nous nous retrouvons confrontés à un dilemme » explique Winston Maxwell, directeur d’études en droit et numérique à Télécom Paris. « C’est là qu’intervient le principe de proportionnalité, une méthode pour gérer des droits fondamentaux en frottement. » Travailler sur ce principe et en comprendre les ressorts aide à aboutir à une solution « la moins pire ».

Pour les professionnels, Télécom Evolution, l’organisme de formation continue d’IMT Atlantique, Télécom Paris et Télécom SudParis, propose également un Certificat d’Etudes Spécialisés « Intelligence Artificielle » toujours en coordination avec l’ENSTA, ainsi qu’une formation de deux jours « Les enjeux éthiques de l’intelligence artificielle » créée par Winston Maxwell et Valérie Beaudouin.

Voilà typiquement un cas d’école pour les élèves du Mastère Spécialisé®  Intelligence Artificielle. Ouvert en septembre 2019, il a rejoint l’autre MS de Télécom Paris qui traite des données et de l’intelligence artificielle, le MS Big Data lancé en 2013. Construit en partenariat avec l’ENSTA Paris, le MS IA développe ses thématiques propres, autour de la robotique, du traitement du langage, des interactions humain-machine et de l’IA symbolique.

Un module de 24h intitulé « Enjeux sociaux, économiques et juridiques de l’IA et de la science des données », piloté par Valérie Beaudouin, professeure de Sociologie à Télécom Paris, et Winston Maxwell, démarre dès la rentrée. Il accompagne les élèves sur plusieurs mois pour les éveiller aux questions d’éthique de l’intelligence artificielle. L’équipe d’enseignants-chercheurs qui interviennent dans ce module est transdisciplinaire : les informaticiens ont développé une réflexion de sciences sociales sur leur métier et les chercheurs spécialisés en économie, droit, sciences de l’information et de la communication et sociologie se nourrissent des approches de leurs collègues.

Démystifier l’écosystème des droits fondamentaux

Dans son intervention, Winston Maxwell, longtemps avocat pour de grands comptes comme Google, Renault et BNP Paribas, amène les élèves du MS à saisir les différences et les équilibres entre la loi et l’éthique, deux notions distinctes. Et si l’éthique est une réflexion intime, elle peut aussi être collective, par exemple dans le cas d’une entreprise où l’environnement guide les actions, en respectant des valeurs, des principes, une déontologie.

Dans une banque, l’ingénieur IA devra ainsi échanger avec le responsable de la protection des données (Data Protection Officer, DPO), le service de la conformité, celui des audits, celui des risques… qui vont tous le « challenger ». Il est essentiel que les élèves apprennent à dialoguer avec ces futurs interlocuteurs. Et il y a plus encore. L’entreprise évolue dans un contexte externe qu’elle doit prendre en compte. Il faut comprendre tôt quel genre de critiques et avis externes ces spécialistes de l’IA devront gérer, que cela vienne de partenaires commerciaux, d’associations d’usagers ou du Conseil d’État, de la Cour de Justice Européenne, ou de la Cour européenne des droits de l’homme. La technique n’est pas tout, et il est nécessaire de saisir comment s’effectuera l’équilibre entre différents droits et quels tiers externes interviendront. Ce n’est pas inaccessible, sourit l’ancien avocat : « Ce sont des matières que les ingénieurs peuvent appréhender, une fois qu’ils ont repéré les forces de gravitation entre tous ces éléments. »

Tous ces problèmes moraux et sociétaux ont finalement des aspects très opérationnels qui rendent les choses très concrètes et séduisent les futur·es diplômé·es.

Remettre les pieds sur terre

« Ce qui est important, c’est de savoir ce que la technique peut réellement faire aujourd’hui, » et ne pas se laisser obnubiler par les fantasmes de demain, explique Valérie Beaudouin. « Souvent quand on commence à échanger sur les questions éthiques liées aux systèmes d’intelligence artificielle, on part des robots qui vont dominer le monde, une crainte qui s’avère lointaine et abstraite », ajoute Winston Maxwell, « puis on va vers des cas beaucoup plus concrets, comme la question des biais dans les usages de reconnaissance faciale. »

L’IA doit notamment intégrer l’éthique dès la conception des algorithmes, ce qu’on appelle l’« ethic by design », une tâche qui n’est pas simple pour au moins cinq raisons, rappelle Winston Maxwell. Tout d’abord, les normes éthiques et juridiques sont souvent floues et leur mise en formules malaisée. Elles dépendent également des cultures et ne sont pas universelles. Des choix et une intervention politiques sont nécessaires pour atteindre des compromis et équilibrer des intérêts contradictoires. Les considérations économiques ont leur importance parce que le développement des techniques d’IA a un coût et parce que le secret commercial ou les règles de la concurrence interfèrent avec le principe de transparence. Enfin, ce que nous acceptons ou refusons aujourd’hui peut ne plus l’être demain, les valeurs morales évoluent, et en cela l’éthique a une modalité temporelle.

L’éthique est un questionnement continu

Un des temps forts du module, le projet de recherche, ancre les réflexions éthiques dans les cours théoriques du reste du cursus. Il consiste à analyser une problématique (IA et avenir du travail, robots et émotions, biais des algorithmes…) à partir de prises de position de chercheurs ou d’experts, d’une œuvre de fiction et de travaux de recherche sur des pratiques concrètes. « C’est passionnant en terme de pédagogie », se réjouit Valérie Beaudoin, qui explique que les restitutions peuvent se faire sous forme de pièce de théâtre, de performance poétique, de court-métrage. « Les élèves ressentent dans leurs corps ce qui pourrait être complexe autrement. » Winston Maxwell ajoute: « Avec ces dispositifs, Valérie sait faire participer les étudiants à notre propre développement de réflexions éthiques de chercheurs. » C’est un cercle vertueux, entre les étudiants et les enseignants-chercheurs qui progressent de conserve.

« Même si le module éthique est intriqué avec la formation technique, cela ne suffit pas », pondère Valérie Beaudouin. Il ne faudrait pas croire que quelques mois de cours suffiront, comme il ne suffit pas pour une entreprise de désigner en son sein un ou une responsable des questions éthiques, ou bien un comité d’éthique auprès de la direction. Comme il y a dix ans avec la Responsabilité sociale des entreprises ou le Développement durable, on assiste à un phénomène d’« ethic washing ». De nombreux manuels d’éthique sont publiés, mais ils ne permettent pas de se confronter concrètement aux problèmes. Pire encore, les postures éthiques de nombreuses entreprises ne résistent pas à l’examen, voire même en déforment les principes, stérilisant au passage la réflexion sur ces questions encore en devenir. Pour que les étudiants évitent ce leurre d’un savoir acquis en une fois, il faut avoir profondément éveillé leur conscience et leur réflexivité.

Pour une éthique opérationnelle de l’IA

Les différents pôles de recherche de Télécom Paris s’intéressant à l’IA éthique sont réunis par Winston Maxwell autour du concept d’« Operational AI ethics », notamment pour être visibles à l’international. L’École dispose en effet sur ces sujets d’une force de frappe et d’un périmètre d’action, à travers plusieurs chaires notamment, de plus en plus reconnu. C’est un atout supplémentaire pour l’enseignement et l’idéal pour aller se former aux questions d’éthique et d’IA au milieu des ingénieurs. C’est aussi l’assurance de trouver des réponses pratiques aux principaux problèmes éthiques et juridiques posés par les IA que sont les biais algorithmiques, l’explicabilité et la responsabilité. Ces chercheuses et chercheurs travaillent ensemble actuellement sur une publication, qui servira certainement pour la prochaine promotion du MS IA : « quels sont les niveaux d’explicabilité pertinents dans une situation socio-technique donnée ? »