LQJ-287

janvier-avril 2024 i 287 i www.uliege.be/LQJ 44 omni sciences dans ce domaine, et ces instruments ont le mérite d’exister, indique Ljupcho Grozdanovski. Ils reconnaissent notamment pour les victimes le droit de demander l’accès aux preuves. Mais en pratique, on peut s’interroger sur l’effectivité de ce droit, car les informations auxquelles les victimes auront accès sont limitées. Cela est dû notamment au fait que le code source des IA peut être qualifié d’information sensible, un secret de commerce par exemple, et qu’il n’est techniquement pas faisable d’analyser un tel code dans des délais raisonnables. Tout ce que peut demander la victime, c’est de savoir si un système a bien été conçu selon les standards techniques de l’AI Act. » Autrement dit, selon le chercheur, le droit ne tient pas compte des besoins procéduraux réels des justiciables. « Les standards sont une description et non pas une explication, reprochet-il. C’est comme si vous achetiez des écouteurs défectueux, et qu’au moment de les rapporter au commerçant, ce dernier refusait d’admettre qu’ils ne fonctionnent pas, au motif que leur fabrication est conforme aux standards de qualité ! Or, nous parlons de décisions pouvant impacter gravement la vie des individus ! Pour reprendre les cas cités plus haut, ce qui importe, c’est de savoir comment TrueAllele a déterminé qu’il s’agissait bien de l’ADN de l’accusé. Pas si le processus de conception du logiciel répondait bien à des exigences de conformité… » Ljupcho Grozdanovski se montre très critique envers l’AI Act, parce que, pour lui, il s’adresse avant tout aux opérateurs économiques et vise à encourager l’innovation et le progrès technologique (générateurs de plantureux gains économiques). « Tout le problème sera de savoir si toutes les entreprises auront les moyens de se conformer à l’AI Act, relève-t-il. Les grandes multinationales, sans doute, mais les autres ? » LE CENTRE D’EXCELLENCE JEAN MONNET Afin d’approfondir ses propres recherches sur le sujet, Ljupcho Grozdanovski a reçu un financement de l’UE pour établir au sein de l’ULiège un “Justice and AI Jean Monnet Centre of Excellence. Effective Judicial Redress in the Rising European and Global AI litigation” (JUST-AI). « Pendant trois ans, nous allons concevoir une plateforme transdisciplinaire qui nous permettra de questionner le système actuel d’administration de la justice et de l’accès aux preuves dans les litiges impliquant les IA, détaille-t-il. Cela impliquera des juristes bien sûr, ainsi que des chercheurs venus des autres sciences sociales, des ingénieurs, des écrivains et des artistes. Il s’agit de développer une recherche fondamentale, interdisciplinaire et critique de toutes les notions importantes que soulèvent ces cas particuliers, comme l’équité ou l’argumentation probatoire, afin que les justiciables puissent être effectivement protégés par le droit. » Le centre JUST-AI produira des podcasts, organisera des séminaires et des conférences afin de sensibiliser les citoyens à ces notions de justice et, espère-t-on, être écouté par le régulateur européen. « En fin de compte, derrière la technicité du droit se camoufle une réflexion sur la justice et sa déshumanisation, au sens strict du terme », estime le chercheur. En définitive, Ljupcho Grozdanovski espère obtenir une vision beaucoup plus holistique et humaniste sur la façon dont les IA vont affecter notre écosystème. « Ainsi qu’on l’a vu par le passé, toute avancée technologique apporte avec elle un débat de justice sociale, et, en ce sens, l’IA ne constitue pas une exception, pense-t-il. Mais c’est la première fois que nous avons à faire à des produits ”intelligents” et il est donc urgent de réfléchir à leur utilisation et aux conséquences de celle-ci. » * www.just-ai-jmce.uliege.be Raciste, l’intelligence artificielle ?

RkJQdWJsaXNoZXIy MTk1ODY=