LQJ-287

janvier-avril 2024 i 287 i www.uliege.be/LQJ 42 En octobre 2019, dans le New Jersey aux ÉtatsUnis, un homme était jugé et condamné pour avoir participé à une fusillade, ce qu’il contestait. L’algorithme TrueAllele a pourtant estimé que les traces d’ADN retrouvées dans les masques des assaillants lui appartenaient. Quelques années auparavant, en février 2016, dans le Minnesota, un Afro-Américain comparaissait quant à lui pour avoir tenté d’échapper à la police. Compas, l’algorithme de prédiction des récidives, jugeant son profil à haut risque, avait requis huit ans de prison. Une peine appliquée par le juge. « Ces deux cas sont particulièrement représentatifs des problèmes juridiques posés par les algorithmes, raconte Ljupcho Grozdanovski, chercheur qualifié FNRS en faculté de Droit, Science politique et Criminologie de l’université de Liège. Dans le New Jersey, l’accusé ayant contesté les faits, des experts ont été convoqués pour évaluer la fiabilité de TrueAllele. Mais l’algorithme est une “boîte noire” et ils n’ont pas pu expliquer son raisonnement. Ils se sont alors prononcés, non pas sur ce cas précis, mais de façon générale sur le degré de crédibilité de l’algorithme défini dans la littérature scientifique. Pour moi, il s’agit d’un changement de doctrine critiquable, car on se trouve alors devant l’impossibilité d’examiner la validité d’une preuve. » Dans le deuxième cas, l’accusé, après avoir été mis au courant de la décision de l’algorithme, a contesté être “à haut risque” de récidive, au motif qu’il s’agissait d’une décision biaisée racialement. « Compte tenu de la hauteur de l’enjeu, l’homme a demandé à ce que les autorités publiques ne fondent pas leur décision exclusivement sur celle prise par la machine, révèle Ljupcho Grozdanovski. On assiste ici à une tendance émergente qui consiste à inviter des agents humains à (re)vérifier l’existence des biais discriminatoires dans des décisions algorithmiques présumées correctes et donc fiables. » En effet, même si beaucoup d’algorithmes de Machine Learning se caractérisent par des processus décisionnels peu ou non supervisés par des humains, leur programmation peut néanmoins intégrer les biais “inconscients” de leur concepteur, tout comme les jeux de données sur lesquels ils sont entraînés. C’est que, dans omni sciences Droit Les algorithmes face au juge Police, justice, et même santé… Aujourd’hui, rares sont les domaines professionnels qui échappent aux algorithmes. Mais l’augmentation des usages de l’intelligence artificielle s’accompagne d’un nombre croissant de situations où elle est directement mise en cause. Un phénomène qui met le monde du droit en ébullition. Rencontre avec Ljupcho Grozdanovski, chercheur qualifié FNRS. ARTICLE THIBAULT GRANDJEAN - photo jean-louis wertz

RkJQdWJsaXNoZXIy MTk1ODY=