Peut-on faire confiance à une IA ?
Les IA sont-elles vraiment plus objectives que l’homme ? Nourries de données biaisées, par exemple issues de réseaux sociaux, elles risquent au contraire d’automatiser certaines discriminations. La prudence s’impose donc.
Le 23 mars 2016, Tay, une IA à l’apparence de gentille adolescente est lancée sur Twitter. 24 heures après, son créateur, Microsoft, est contraint de la retirer de la Toile : elle délivrait des tweets racistes, misogynes et négationnistes.
Comment cela a-t-il pu arriver ? Envahie de messages de cet acabit (envoyés, pour certains, par des internautes qui voulaient tester ses limites), elle s’en était approprié les idées.
Même dérive en 2015, quand une application photo de Google avait associé le tag « gorilles » à la photo de deux personnes noires.
Souvent présentée comme étant plus fiable que l’homme pour prendre des décisions de justice ou décider de l’orientation post-bac des élèves, l’IA serait donc faillible.
Comprendre les algorithmes pour corriger leur biais
Le danger est de voir « des décisions biaisées présentées comme le produit d’un algorithme objectif », alerte l’ancien député Jean-Yves Le Déaut, auteur d’un rapport sur l’IA et les droits de l’homme pour le Conseil de l’Europe. Exemple, avec les IA utilisées pour rendre le recrutement « objectif », mais qui, en fait, perpétueraient les discriminations.
Pour s’assurer que les robots sont sûrs, il faut recourir à des données de qualité.
Ce risque est d’autant plus alarmant que dans certains cas, les algorithmes sont des « boîtes noires », c’est-à-dire incompréhensibles par l’homme.
« Il faut développer la capacité à tester et contrôler les algorithmes », préconisent donc les parlementaires Dominique Gillot et Claude de Ganay dans leur rapport sur le sujet.
C’est le défi que relève en ce moment la plateforme scientifique d’évaluation de la responsabilité et de la transparence des algorithmes TransAlgo de l’Inria.
Assurer une « loyauté des données »
Les égarements des IA viennent de leur assimilation d’informations faussées. Pour s’assurer que les robots sont sûrs, il faut donc recourir à des données de qualité.
Car la quantité ne fait pas tout, explique dans une interview à « The Economist », Ralf Herbrich, directeur de l’apprentissage machine chez Amazon : « La chose la plus importante est de commencer à collecter des données fiables, sans lesquelles il est impossible de générer des prédictions précises. »
En bref, l’IA sera sûre si les données sont elles-mêmes justes.
Assurer une « loyauté des données » est l’une des missions que se donne l’Institut interdisciplinaire pour la recherche sur les données (I2-Drive) de Paris-Saclay depuis avril 2017. Grâce à un partenariat entre trois universités, des instituts de recherche et des grandes écoles comme Polytechnique ou CentraleSupélec, « le nouvel institut aura vocation à promouvoir la conception d’une science des données humainement durable », explique Nozha Boujemaa, porteuse du projet.
Félicité de Maupeou