« Nous allons trop loin dans la métaphore entre cerveau et machine »
Les peurs que suscite l’IA sont-elles justifiées ?
La transformation très rapide du monde fait vaciller nos repères, réactivant un certain nombre de mythes, comme la singularité technologique, qui annonce le dépassement de l’homme par la progression exponentielle des capacités des machines.
Ces divagations non fondées scientifiquement pointent les problèmes de manière hyperbolique et masquent les vraies menaces, telles que l’usage abusif des systèmes prédictifs au sein de la société, comme aux Etats-Unis, par exemple, où la justice établit une peine en fonction de la probabilité de récidive.
Selon moi, les dangers sont d’abord politiques, car nos représentants sont démunis face aux GAFAMI qui veulent tout de même « refaire le monde et l’homme ». La question « peut-on changer l’homme ? », pourtant éminemment politique, n’est jamais abordée.
Il n’y a donc pas de possibilité de dépassement de l’homme ?
Dans certains cas, le chemin emprunté par l’IA et ses résultats sont incompréhensibles par l’homme. Mais nous projetons sur ces machines nos propres caractéristiques en les qualifiant d’« intelligentes » ou d’« autonomes » de manière abusive. Yann LeCun parle d’une future conscience de l’IA. Ce terme est excessif puisque l’une des dimensions de la conscience est de ressentir des émotions, liées en grande partie à notre corps et donc inaccessibles à une machine.
De même, la machine est certes capable d’extraire des généralités à partir des données, mais elle n’apprend pas réellement, car elle est incapable de changer de paradigme, c’est-à-dire de penser de nouveaux concepts, comme l’homme sait le faire. Nous avons aujourd’hui tendance à aller trop loin dans la métaphore entre le cerveau et la machine.
N’y a-t-il pas un risque que le recours excessif aux machines nous déshumanise ?
Pour l’éviter, il faut réfléchir à l’usage de ces technologies dans leur environnement social afin qu’elles servent réellement l’homme. Ainsi les robots sociaux peuvent aider, par exemple en répondant aux questions répétitives des personnes touchées par la maladie d’Alzheimer, à condition, bien sûr, que l’accompagnement humain persiste, sinon cela devient un cauchemar !
De même, il est sûrement inutile de recourir en permanence à la voiture autonome, mais pourquoi pas dans les embouteillages ou sur les autoroutes ?
Néanmoins, il est difficile de penser et d’anticiper toutes les applications de l’IA, car elles dépendront de la manière dont la société accueillera cette technologie et des contraintes économiques.
Mais, plus généralement, on perçoit déjà le risque d’une déresponsabilisation des hommes qui supposent de plus en plus que les algorithmes prennent des décisions plus justes qu’eux. Ainsi l’orientation post-bac est maintenant réalisée par un algorithme.
Quels sont vos questionnements au sein du comité eThicAa (Ethique et agents autonomes) du CNRS ?
Aujourd’hui, les systèmes se reprogramment seuls et risquent donc de nous surprendre. Dès lors, il faut modéliser le raisonnement éthique pour l’intégrer à l’IA. Or les valeurs éthiques sont quelquefois contradictoires et engendrent des conflits : comment faire en sorte que l’IA les prenne en compte ?
La question du conflit d’autorité entre l’homme et la machine se pose également. Dans le cas d’une chute d’un avion, comment arbitrer entre une IA qui préconise une solution différente de celle du pilote, sachant que statistiquement, on constate que la machine a raison ? Vaste question…
Propos recueillis par Félicité de Maupeou