Par Sihem BenMahmoud-Jouini, professeure en management de l’innovation à HEC Paris ; Véronique Steyer, maîtresse de conférences en théorie des organisations à l’École polytechnique, i3-CNRS ; Louis Vuarin, postdoctorant au département sciences économiques et sociales de Télécom Paris, I3-CNRS.
Au cœur de la nouvelle révolution industrielle et sociétale, les questions éthiques relatives à l’intelligence artificielle (IA) et à ses applications se posent avec acuité.
Actuellement, le débat le plus récurrent et le plus vif est celui des biais, réels ou supposés, que l’IA peut reproduire, ou engendrer. Ces biais, qu’ils soient de genre, relatifs aux origines, aux convictions religieuses ou aux opinions politiques, sont d’autant plus scrutés qu’ils font écho à des préoccupations politiques d’une actualité brûlante.
En parallèle des interrogations sur les biais, ou plutôt englobant ces questions, un autre enjeu éthique de l’IA se profile : celui de l’explicabilité des systèmes algorithmiques. La capacité des organisations à constamment expliquer les systèmes qu’elles conçoivent et utilisent pourrait vite devenir un enjeu politique majeur.
Image d’entête source Freepik