Déjà nous avons confirmé un peu nos a priori sur le fait que ces documents-là sont souvent plutôt courts et non contractuels… La plupart d’entre eux (80% de mémoire) font moins de 2 pages, même s’il y a des exceptions (comme celui de la chambre des lords de Royaume-Uni qui fait plusieurs centaines de pages).
Ils sont effectivement en général très vagues et ils utilisent un peu tous les mêmes vocabulaire. Il y a des grands thèmes qui reviennent, notamment l’équité algorithmique (fairness), des questions sur la vie privée et le respect des droits fondamentaux entre autres.
Nous nous sommes rendu compte que le même vocabulaire ne voulait pas forcément dire exactement la même chose, notamment parce qu’il y a beaucoup de circulation d’informations. Par exemple le terme d’explicabilité, c’est à dire la capacité d’expliquer un algorithme, est un terme d’origine informatique venant vraiment du monde des entreprises et des labos de recherche.
Ce terme a progressivement été repris institutionnellement par le secteur public qui prend maintenant le devant de la scène. Ainsi aujourd’hui, quand on parle d’explication d’un algorithme d’intelligence artificielle, on pense tout de suite au terme d’explicabilité mais sans forcément les mêmes implications. Un ou une juriste, ou bien un ou une députée n’a pas forcément les mêmes attentes en pensant explicabilité qu’une chercheuse en informatique par exemple, qui a une idée qui est très claire de ce que ça veut dire en termes de méthode mathématique. Ce côté polysémique est très intéressant.
Au-delà, nous nous sommes aussi rendu compte qu’il y avait des partis pris assez récurrents et des sujets quasi systématiquement oubliés et absents de ces documents. Pour donner quelques exemples, il y a typiquement le thème du travail qui est beaucoup abordé dans ces chartes, mais avec une approche de la façon dont l’intelligence artificielle a le potentiel de changer le monde du travail dans les pays plutôt européens ou plutôt « premier monde » et sur la façon dont cela bouscule des choses existantes. Mais les questions sur les dynamiques de division injuste du travail, déjà existantes, ne sont quasiment jamais abordées, notamment le fait de sous-traiter dans des pays du sud global, le fait de bénéficier de données qui ont été publiées par d’autres personnes qui elles n’en bénéficient pas. Ces questions sont notamment traitées par mon collègue Antonio Casilli. Ce sujet-là est un sujet tristement absent…
Un autre absent est l’écologie et l’impact environnemental de l’intelligence artificielle qui, quand il est abordé, l’est de manière encore plus superficielle que le reste, car il y a encore assez peu d’éléments techniques concrets à donner, bien qu’il y ait des recherches. Ce sujet est peu abordé, ainsi que le contexte social et environnemental qui pourrait inciter à limiter voire s’abstenir d’utiliser d’intelligence artificielle.
Enfin un dernier grand résultat est que tous ces thèmes sont très peu « opérationnalisés ». On est plutôt face à une liste de desiderata : l’IA doit être au bénéfice de la société… on sait pas trop ce que ça veut dire mais c’est difficile d’être contre ça. L’IA doit être efficace, l’IA doit être soutenable … mais sans vraiment de traduction concrète.
On ne dit jamais par exemple « une IA soutenable signifie réguler le bilan carbone des serveurs : donc pas plus de tant de kilos de CO2 pour un modèle » ou le mettre en regard du nombre de personnes à qui elle bénéficie. Ces questions sont délicates, mais ne pas les trancher peut mener à des conflits de valeurs, qui commencent tout juste à être étudiés. On veut plus de transparence, c’est très bien, mais on veut aussi protéger la vie privée des gens… et ces deux besoins là se contredisent un petit peu l’un l’autre. Comment veut-on arbitrer par exemple ? Ce sont des questions très intéressantes mais complexes.