Cédric Villani : « Encadrer la manière dont l’algorithme est conçu »
Mounir Mahjoubi a été chargé par le Premier ministre d’écrire une stratégie française pour l’IA : que deviendra la stratégie France IA présentée en mars dernier par François Hollande ?
À coup sûr, la nouvelle stratégie s’appuiera sur celle de mars qui a posé un diagnostic clair et permis de faire une cartographie de l’IA en France.
Il y a encore un an, les discussions avec les membres du gouvernement montraient qu’ils n’étaient guère conscients des atouts français en la matière, alors que notre recherche est très forte dans tous les domaines de l’IA. Cette prise de conscience a eu lieu à la fin du précédent quinquennat.
En évoquant l’IA dans son discours de politique générale, Édouard Philippe montre qu’il lui accorde à son tour de l’importance.
Une question cruciale, à brève échéance, est la façon dont les orientations budgétaires annoncées l’an dernier seront prises en compte dans le prochain budget, en discussion à l’automne. À cette occasion, les parlementaires joueront un rôle important.
Pensez-vous qu’il y ait un manque de courage politique face aux puissantes GAFAMI ?
Les GAFAMI ont aujourd’hui un pouvoir considérable, qui s’accroît avec la masse unique de données dont ils disposent, carburant des techniques modernes d’IA ; reconnaissons cependant, sans tomber dans l’angélisme, qu’ils s’efforcent d’être plutôt bienveillants.
Comment les emplois et les humains parviendront-ils à cohabiter avec les algorithmes ?
En tout cas, le règlement européen sur la protection des données montre que l’Europe entend bien protéger le droit à la vie privée de ses citoyens et défendre sa souveraineté, en particulier par le contrôle de nos données.
Il est important que la classe politique soit sensibilisée à l’enjeu des données, et que l’opinion publique le soit aussi.
Or sur ce point il y a une forme de naïveté collective : nous donnons nos informations personnelles et utilisons massivement les outils déjà dominants, les Google Maps, Google Docs et autres, renforçant ainsi les quasi-monopoles des géants américains.
Faut-il mettre des limites à l’IA ?
Pour l’instant les experts s’accordent à dire que l’idée d’une prise de contrôle de l’homme par l’IA relève du fantasme.
Les discours sur le devenir de ces technologies sont souvent excessifs et teintés de mysticisme ou de millénarisme sur la transformation de l’humain et la création d’une nouvelle entité « supérieure ». Quand Elon Musk parle de la menace représentée par l’IA, je ne le comprends pas.
Aujourd’hui la question est surtout de comprendre l’IA, car il y a un important décalage entre ce que l’on arrive à faire et ce que l’on saisit.
En outre ses impacts économiques sont déjà là. Comment les emplois et les humains parviendront-ils à cohabiter avec les algorithmes, à participer à leur prise de décision, à les comprendre, mais aussi à les vérifier ?
Je suis également persuadé que l’éthique des algorithmes est un vrai sujet. Une expérience récente de Facebook a prouvé sa capacité à influencer en masse les émotions : le débat a été vif, et a montré que l’on doit penser à des règles pour encadrer les pratiques. De même pour encadrer la manière dont l’algorithme est conçu.
L’interface entre l’homme et la machine est aussi un sujet central. Garry Kasparov, le célèbre joueur d’échecs, explique que l’excellence d’un duo homme-machine vient davantage de l’interaction entre les deux, que de la force intrinsèque de l’un ou de l’autre.
Dans le domaine médical, où le diagnostic de la machine entre désormais en compétition avec celui de l’homme, l’enjeu est de former les médecins à ce nouvel outil qu’est l’IA, qui ne les remplacera pas complètement, mais avec lequel ils doivent désormais apprendre à travailler.
Propos recueillis par Félicité de Maupeou