L’IA, une bulle gonflée par les chercheurs et les GAFAMI ?
« Conscience », « émotions », « sens commun », « valeurs morales »… les termes utilisés pour décrire l’IA sont souvent excessifs. Or ce vocabulaire n’est pas celui d’auteurs de science-fiction mais bien d’experts de l’IA, à l’image de Yann LeCun, référence mondiale, qui évoque même les futures « pulsions » de l’IA. Pourquoi un tel emballement ?
Une IA survendue pour obtenir des financements
Comme Robert M. Geraci l’explique dans son livre « Apocalyptic AI », cet enthousiasme excessif tient en partie au mode de financement de la recherche « qui privilégie des projets susceptibles d’apporter du rêve et d’émoustiller ». Quitte à donner à l’IA des ambitions scientifiques irréalisables ou vaines.
Jean-Gabriel Ganascia, président du comité d’éthique du CNRS, cite l’exemple du « Projet du cerveau humain », financé à hauteur d’un peu plus d’un milliard d’euros qui s’engageait, dans sa version initiale, à simuler d’ici 2024 le fonctionnement du cerveau humain grâce à un superordinateur. En 2014, un an après le début du projet, une lettre ouverte signée par plus d’une centaine de chercheurs remettait en cause la pertinence des objectifs et son coût prohibitif, auprès de l’Union européenne, cofinanceur du projet. Depuis, les objectifs ont été revus à la baisse.
Un moyen de faire de la publicité aux GAFAMI
Du côté des grandes entreprises américaines, les capacités prêtées à l’IA provoquent de vifs avertissements à propos du risque de voir le robot prendre l’ascendant sur l’homme. Elon Musk, pourtant patron de Tesla, à la pointe sur l’IA, craint que l’homme ne devienne « l’animal domestique » des machines. Afin d’examiner les menaces morales que l’IA pourrait poser, les GAFAMI multiplient également les comités d’éthique.
Dans quel but ? s’interrogent dans leur rapport de mars 2017, Dominique Gillot et Claude de Ganay : « La volonté de ces nouveaux géants pourrait-elle être celle de se dédouaner ou de créer un nuage de fumée pour ne pas parler des vrais problèmes éthiques posés à court terme par les technologies d’IA, telles que l’usage des données ou le respect de la vie privée ? »
Pour Jean-Gabriel Ganascia, ces dangers, largement surestimés, sont agités par les groupes privés pour faire leur publicité. Car « cela atteste du pouvoir sans limite que les technologies seront amenées à prendre dans les années à venir et donc du rôle que joueront ces groupes qui en détiennent les clés ». C’est aussi un moyen de se défausser en affirmant que « les technologies se déploient d’elles-mêmes ».
En bref, ces entreprises se fabriqueraient « une image de marque bienveillante aux yeux du public ».
Un risque que l’enthousiasme retombe
Cet emballement, alimenté par le traitement souvent sensationnaliste du sujet par la presse, fait craindre à Sébastien Konieczny, directeur du futur groupe de recherche sur l’IA au CNRS, que « l’enthousiasme ne retombe lorsque l’on réalisera la différence entre les espoirs démesurés que l’on projette sur ces machines et ce que l’on peut réellement faire ».
Il rappelle les leçons de la courte histoire de l’IA : créée en 1956 elle avait suscité un vif engouement à ses débuts. Certains annonçaient l’arrivée imminente d’une machine intelligente. Mais cela a été plus compliqué que prévu et cette technologie est tombée dans l’oubli.
Avant de revenir sur le devant de la scène dans les années 1980, avec les systèmes experts d’aide à la décision à l’origine d’un nouvel élan d’enthousiasme. Mais là encore, l’IA a déçu puis est retombée dans un « hiver ».
Jusqu’à la montée en puissance de l’apprentissage machine il y a cinq ans…
Félicité de Maupeou