LQJ-287

janvier-avril 2024 i 287 i www.uliege.be/LQJ 43 omni sciences Ljupcho Grozdanovski le milieu de l’informatique, les hommes blancs des classes supérieures sont surreprésentés parmi les ingénieurs. De ce fait, il arrive régulièrement que des systèmes intelligents (utilisés à des fins de recrutement, par exemple) soient biaisés envers les minorités telles que les femmes, les personnes racisées ou défavorisées. « Les algorithmes sont opaques, et il n’est pas toujours possible de faire apparaître les biais, remarque le juriste. TrueAllele n’est pas un algorithme très sophistiqué et ne comprend “que” 170 000 lignes de codes. Pourtant, il aurait fallu plus de huit ans pour expliquer sa décision ! Imaginez alors le temps nécessaire pour revoir les millions de lignes de code d’une IA dite générative, comme ChatGPT ! On a certes tendance à présumer que, plus l’IA est performante, plus sa décision est statistiquement correcte. Mais le risque zéro n’existe évidemment pas. » Pour les juristes, cette opacité va à l’encontre du droit d’accès aux preuves, condition impérative d’un procès équitable. « De plus, dans certains cas, les algorithmes sont autonomes, agissant sans intervention humaine, ajoute Ljupcho Grozdanovski. En cas de dommage, cela questionne un dogme millénaire qui dit que seul un humain peut causer des préjudices à un autre humain. Face à une machine, comment déterminer qui doit assumer la responsabilité ? » L’UNION EUROPÉENNE PASSE À L’ACTE Consciente de ces problèmes, l’Union européenne (UE), se dote actuellement d’un arsenal législatif, composé de deux textes majeurs, l’“AI Act” et l’“AI Liability Directive”. « Concrètement, le premier texte établit un certain nombre de standards techniques auxquels les concepteurs d’intelligence artificielle (IA) devront se conformer, afin d’éviter l’apparition de biais, décrypte le chercheur. Et ce, en particulier en ce qui concerne les algorithmes dits à “haut risque”, c’est-à-dire les IA actives dans des domaines comme l’identification biométrique, la gestion des travailleurs, l’éducation, la police prédictive, les demandes d’asile et le contrôle des frontières. » L’AI Liability Directive, quant à elle, régit le système de preuves dans les cas où des dommages auraient lieu malgré l’application des standards établis. « L’UE est pionnière

RkJQdWJsaXNoZXIy MTk1ODY=