États-Unis : Les algorithmes prédictifs, un danger pour la justice américaine ?
Déjà très largement utilisée dans les services de police, l’IA fait doucement son entrée dans les cours de justice américaines. Mais les algorithmes sont-ils vraiment plus justes que les hommes ?
En juin 2015, 21 juridictions américaines ont adopté un algorithme d’évaluation des risques pour aider les juges à décider si un prévenu doit être ou non emprisonné avant son procès.
L’outil, Public Safety Assessment ou PSA, examine les informations sur le prévenu (historique criminel, âge…) et les met en perspective avec les données de 1,5 million de cas issus de 300 juridictions américaines. A terme, PSA sera utilisé dans trois Etats entiers : l’Arizona, le Kentucky et le New Jersey. Pourquoi un tel engouement pour cette technologie ?
« La manière dont les juges travaillent dans notre pays pose problème, explique Andrew Ferguson, professeur de droit à l’université du District de Columbia, à Washington D.C. Ils ne sont pas formés à évaluer les risques de récidive et le font souvent en cinq minutes, avec très peu d’informations. » Avec PSA, « les juges gardent l’autorité de la décision tout en s’appuyant sur des données sûres », argumentent les membres de la Fondation Laura et John Arnold, à l’origine de cet algorithme.
Résultat : au Kentucky, où il est déjà utilisé, la population carcérale et le nombre de crimes antérieurs aux jugements des prévenus ont diminué selon l’ONG.
Des algorithmes biaisés
Mais quelle est la fiabilité de ces algorithmes ? Au terme d’une enquête réalisée en mai 2016 à partir des scores de risque de récidive assignés par l’algorithme COMPAS (créé par l’entreprise Northpointe) à plus de 7 000 personnes arrêtées à Broward County en Floride, en 2013 et 2014, le site d’investigation américain ProPublica révèle que « les scores donnés sont très peu fiables »*.
« Seules 20% des personnes dont COMPAS prévoyait qu’elles allaient commettre des crimes violents l’ont finalement fait dans les deux ans qui ont suivi », affirme l’enquête, qui montre aussi de grandes disparités raciales : les prévenus noirs sont presque deux fois plus « notés » à tort comme de « futurs criminels » que les blancs.
A l’inverse, les prévenus blancs sont plus souvent étiquetés, à tort, en « risque faible » que les prévenus noirs.
Or « beaucoup de juridictions ont adopté l’outil de Northpointe sans le tester rigoureusement avant », révèle aussi ProPublica. Ainsi l’Etat de New York l’a d’abord expérimenté à partir de 2001, avant de le généraliser en 2010, soit deux ans avant qu’une évaluation des résultats soit enfin menée en 2012. Celle-ci indiquait que 71% des diagnostics étaient bons mais elle ne se penchait pas sur les différences de résultats selon la couleur de la peau.
Le droit à une justice individualisée remis en cause
L’usage des algorithmes par les juges pose également une question philosophique. En effet, pour « noter » un individu, COMPAS vérifie son niveau d’éducation, s’il a un travail ou non, ou encore si l’un de ses parents a été envoyé en prison… et le place ensuite dans un des groupes d’appartenance.
Or, « il y a quelque chose de dérangeant dans le fait que les fautes commises par des gens qui vous ressemblent vous condamnent ou vous innocentent », soulève Andrew Ferguson.
C’est sur cet argument qu’Eric Loomis a fait appel de sa condamnation à six ans d’emprisonnement et à cinq ans de surveillance prolongée pour une participation à une fusillade, auprès de la cour suprême du Wisconsin.
Niant sa participation aux faits, il avait finalement été chargé de tous les chefs d’accusation. Lors de l’énoncé de sa décision, la cour s’était référée à l’évaluation faite par COMPAS.
Mais selon Loomis, l’usage de cet algorithme l’amène à être jugé sans savoir précisément quelles informations ont été utilisées par l’outil pour l’évaluer, et de quelle manière. En effet, la cour n’a pas accès à la méthodologie suivie par COMPAS, car celle-ci constitue un secret commercial.
En outre, Loomis revendiquait le droit à une sentence individualisée et non pas prononcée en fonction de son appartenance à un groupe socio-économique.
L’année dernière, la cour suprême du Wisconsin a finalement affirmé que l’usage d’un tel algorithme ne violait pas les droits du prévenu. Reconnaissant néanmoins l’importance de l’individualisation des sentences, elle a rappelé que COMPAS n’était qu’un outil au service des juges et a enjoint ceux-ci à la prudence.
Un avertissement bien insuffisant regrette en mars 2017 un article du « Harvard Law Review » : « L’avis de la cour suprême ne prend pas en compte l’incapacité des juges à comprendre comment fonctionne l’outil d’évaluation et l’existence de pressions intérieures et extérieures pour leur faire acheter ces outils. »
Félicité de Maupeou
*Article publié par le site ProPublica, écrit par Julia Angwin, Jeff Larson, Surya Mattu et Lauren Kirchner (mai 2016).
Le biais racial de l’algorithme COMPAS : le cas de Brisha Borden et Vernon Prater
Dans son enquête, ProPublica raconte l’histoire de Brisha Borden, une jeune femme noire de 18 ans, ayant déjà commis des délits quand elle était mineure, et Vernon Prater, un homme blanc de 41 ans ayant passé cinq ans en prison pour vol d’armes. Tous les deux sont arrêtés pour un vol d’objets d’une valeur de 80 dollars environ chacun.
Ils sont alors évalués très différemment : Brisha Borden est considérée comme ayant un risque de 8 sur 10 de commettre un crime à l’avenir ; le risque est de 3 sur 10 pour Vernon Prater.
Or, deux ans plus tard, la jeune fille n’avait été accusée d’aucun crime alors que Vernon Prater purgeait une peine de prison de huit ans après avoir cambriolé un entrepôt pour plusieurs centaines de dollars d’électronique, relèvent les journalistes.