L’intelligence artificielle, un défi pour le droit
En cas d’accident d’une voiture autonome ou de décès d’un patient après une décision prise par un robot médical, qui est responsable ? Le développeur, le fabricant, le fournisseur, le propriétaire ou l’utilisateur ?
« Personne », répond l’eurodéputée luxembourgeoise Mady Delvaux. Dans son rapport sur la robotique de janvier dernier, elle préconise la création d’un système d’assurance obligatoire et d’un fonds pour garantir le dédommagement total des victimes. Avec, à terme, l’idée de responsabiliser les robots les plus sophistiqués en les dotant d’un statut juridique spécial, qui leur imposerait la réparation des dommages causés à un tiers.
En France, cette solution est notamment soutenue par l’avocat Alain Bensoussan et son association du droit des robots (ADDR).
« Aussi inutile que dangereuse, cette conception doit être repoussée, s’alarment les experts du groupe de travail sur les enjeux juridiques de l’IA pour la stratégie France IA, dévoilée en mars 2017. (…) La personnification des robots troublerait gravement les catégories juridiques en donnant vie à une chimère, mi-personne mi-chose, à la fois sujet et objet de droit. »
Selon ces experts, la solution est de s’en tenir au droit actuel, avec « un groupe de responsables particulièrement large : propriétaire, utilisateur, développeur de l’IA, fabricant, etc. ». Concrètement, la victime pourra interpeller l’ensemble de ces acteurs, qui pourront s’opposer les uns aux autres selon les clauses des contrats les liant.
« La majorité des juristes considère qu’il n’y a pas de vide juridique sur cette question. Aujourd’hui, la machine prend une décision entérinée par l’homme ensuite, il est donc encore responsable ! Il n’y aura une disruption fondamentale que si l’IA acquiert un jour une totale autonomie », renchérit Danièle Bourcier, une des participantes de ce groupe de travail.
Félicité de Maupeou