Intelligence artificielle


Dans Le dialogue

Le Pr Nicolas Petit, spécialiste du droit européen, membre du groupe d’experts sur l’intelligence artificielle nommés par la Commission européenne, Gilles Louppe chargé de cours à l’Institut Montefiore, informaticien de formation et chercheur dans le domaine de “l’apprentissage profond”, ainsi que Pierre Delvenne, directeur de l’unité de recherche Cité dans le département de science politique, ont accepté d’en débattre. Dialogue à trois voix.

Le Quinzième Jour : Qu’est-ce que l’intelligence artificielle ?

Gilles Louppe : Le terme n’est pas récent puisque l’on commence à parler d’intelligence artificielle dès les années 1950. Ces dix dernières années, les principales avancées ont concerné ce que l’on appelle le “deep learning” ou “apprentissage profond”. Il s’agit en fait de réseaux de neurones dits “artificiels” et qu’il est possible d’entraîner à la résolution de tâches spécifiques. Mais il faut qu’elles soient très ciblées : le même réseau de neurones ne sera pas capable de traduire un texte ou de répondre à une question simple. C’est ce qu’on appelle l’intelligence artificielle étroite et c’est à cela que l’on fait référence le plus souvent. À l’inverse, l’intelligence artificielle générale désigne un robot ou programme qui serait capable de résoudre une multitude de tâches différentes et qui serait doté d’une forme d’autonomie comme l’ont imaginé de nombreux scénaristes de science-fiction. Je dois bien avouer qu’en tant que scientifiques, nous avons un peu de mal à utiliser le terme “intelligence artificielle”. Nous ignorons si une machine pourra un jour produire une pensée.

Nicolas Petit : Il y a beaucoup de romance aujourd’hui sur ce que peut réaliser l’intelligence artificielle. Le grand malheur, et aussi le grand fantasme, est de projeter sur elle des schémas de pensée qui relèvent de la science-fiction et de la pop culture. Le défi aujourd’hui pour les décideurs est de faire face à des demandes de réglementation très anticipatives par rapport aux capacités actuelles de la technologie. Les juristes et les ingénieurs ont un rôle d’information très important auprès des médias et de l’opinion publique. C’est à nous d’insister sur le fait qu’aujourd’hui il n’est pas encore question d’intelligence artificielle générale mais bien d’intelligence artificielle étroite. Celle-ci pose certes d’importants défis. Par exemple, il y a des problèmes de biais dans les systèmes qu’on présente à l’intelligence artificielle puisque les cas que nous exploitons se basent sur notre stock actuel de connaissances. Or celui-ci reflète certains états de la société que nous considérons aujourd’hui inacceptables, comme le manque de parité entre hommes et femmes à la tête des grandes entreprises. Est-ce qu’on va laisser une intelligence artificielle travailler sur des échantillons de données qui reflètent des biais dont la société ne veut plus ? Comment aider les systèmes d’intelligence artificielle étroite à améliorer la décision ?

Pierre Delvenne : L’intelligence artificielle n’existe pas en tant que telle, c’est un raccourci sémantique. Pour moi, c’est un groupement de technologies numériques. Pas mal de choses entrent dans ce vocable maintenant à la mode. Mais le point de départ, c’est l’idée que des systèmes computationnels peuvent suggérer des solutions ou engager des actions de manière autonome. On personnifie beaucoup l’intelligence artificielle dans les discours, on en parle comme de quelque chose d’inéluctable qui réclamera de nous y adapter. Toute une partie de mon travail consiste à critiquer, à aller à contre-courant de ce caractère inéluctable. Celui-ci nous cantonne dans un rôle de spectateur du futur ne pouvant rien faire en dehors d’essayer d’éviter que les pires dérives imaginées dans les scénarios de science-fiction ne se produisent. Pour ma part, je m’oppose à cette vision des choses.

LQJ : Vous avez fait plusieurs fois référence à la science-fiction. Or, certaines applications font déjà bel et bien partie du quotidien des gens. Je pense par exemple au système de surveillance par reconnaissance faciale mis en place en Chine…

P.D. : C’est un exemple particulièrement frappant. En Chine, en tant qu’individu, vous êtes filmé, identifié par un système de reconnaissance faciale et, en plus, vous êtes coté. Vos comportements sont classés selon qu’ils doivent être encouragés ou au contraire sanctionnés. C’est une dangereuse dérive qui montre bien que la technologie peut être un instrument aux mains d’un pouvoir autoritaire.
Les technologies ne sont jamais neutres ; elles reflètent à la fois les valeurs de leurs concepteurs et celles des personnes qui encadrent leur développement. Bien sûr, le cas chinois est un exemple extrême, mais il représente tout de même un basculement et il impose à mon avis de mettre en débat de manière démocratique les questions technologiques.
N’oublions pas que les entreprises comme les GAFAM exercent aussi un pouvoir et que les utilisateurs ont une responsabilité. Lorsque vous acceptez de communiquer vos empreintes digitales pour pouvoir déverrouiller votre téléphone, ce sont des données qui sont ensuite stockées quelque part et auxquelles des personnes ont accès. Il peut ensuite y avoir une convergence entre le privé et l’État lorsqu’ils travaillent ensemble à des fins de surveillance et de contrôle de la population. Par exemple, les États-Unis vont demander désormais aux personnes souhaitant se rendre sur leur territoire de déclarer l’ensemble de leurs comptes sur les réseaux sociaux.

N.P. : La technologie n’est en effet pas neutre culturellement. Mais je rappelle que la culture européenne est singulièrement différente de la culture chinoise et américaine. Les applications qui seront faites de l’intelligence artificielle en Europe tiendront compte, pour des raisons économiques et pour des raisons morales, de certaines considérations d’ordre culturel. Je ne peux pas croire que ce qui sera créé en Chine sera exporté tel quel en Europe et qu’on acceptera d’utiliser la reconnaissance faciale à la chinoise.

LQJ : Mais l’Union européenne a-t-elle les outils pour imposer à l’échelle internationale “une intelligence artificielle basée sur l’humain” ?

P.D. : Oui. Il suffit de le vouloir politiquement.

N.P. : Si l’UE ne le fait pas, qui va le faire ? On peut en effet se dire que ce n’est pas réaliste et alors laisser les Américains et les Chinois dicter le standard éthique en la matière. Ce qui me semble plus constructif, c’est de définir une ambition collective et d’essayer de l’atteindre. Par ailleurs, il y a un malheur européen qui consiste à toujours se présenter comme un ensemble sociopolitique en crise, en déclin. C’est à mon avis singulièrement faux en ce qui concerne l’intelligence artificielle. En effet, l’UE est presque la première économie du monde et aucune entreprise, que ce soit Google, Amazon ou les géants chinois, ne pourra faire l’impasse sur le marché européen. Du reste, l’UE a une tradition d’excellence en mathématiques, ingénierie, logique et robotique. Certes, son marché n’offre pas autant de potentiel d’échelle, du fait de l’existence de marchés du travail distincts, de langues différentes et d’institutions hétérogènes. Je crois donc qu’avec un peu d’efforts et une accélération du marché unique numérique, on pourrait rapatrier beaucoup de connaissances et d’investissements en Europe.

G.L. : Au niveau de la recherche, les États-Unis, le Canada et la Chine sont montés en puissance depuis une dizaine d’années. On fait de la bonne recherche en Europe mais nos cerveaux partent inéluctablement à l’étranger, là où les conditions de travail sont souvent meilleures. La question est par conséquent de savoir si on veut seulement être client de la recherche, et dans ce cas Google, Amazon ou les géants chinois devront s’adapter aux spécificités légales et culturelles du marché européen, ou si, au contraire, on veut être acteur et contributeur de cette recherche. Si tel est le souhait de l’UE, il est alors impératif que l’on se réveille et que des moyens concrets soient mis en oeuvre pour soutenir notre recherche. En ce qui concerne l’ambition de doter l’UE d’une intelligence artificielle centrée sur l’humain, qu’est-ce que cela veut dire ? La technique n’est ni humaine, ni inhumaine.

N.P. : On peut partir d’un exemple concret, celui de l’Université en période d’examens. Les locaux sont alors rares, les horaires d’examens sont assez serrés et il faut les partager avec d’autres collègues. Avec trois heures d’examen, il faut compter en plus le temps de faire l’appel. On pourrait imaginer avoir un logiciel de reconnaissance faciale avec un drone qui survolerait l’amphithéâtre. Il pourrait en un cliché reconnaître tous les étudiants et produire une liste d’appel en quelques secondes. Les gains de productivité seraient fabuleux. On pourrait aller encore plus loin et déterminer un profil de triche pour chaque étudiant. Ce serait tout à fait possible. Un logiciel suffisamment puissant pourrait dresser un profil type. Des logiciels sont déjà utilisés pour calculer le risque de récidive des détenus éligibles à la libération conditionnelle. Seulement, est-ce éthique de faire cela ? Ce sont des questions complexes.

P.D. : Je me demande comment les profils seraient établis et en fonction de quels critères. Si ces critères ont été validés, par qui l’ont-ils été ? La technologie serait utilisée ici pour classer les étudiants d’une manière qui serait tout sauf transparente. C’est pourquoi, de mon point de vue, la question n’est pas celle de l’utilité. On trouvera toujours des applications très pratiques, très utiles à la technologie. Non, la première question qu’on ne pose jamais et qu’il est urgent de mettre en avant est la suivante : veut-on ce type de développement ? Le veut-on en tant que communauté politique, le veut-on en tant qu’Université ? C’est, je crois, une question qui trop souvent est balayée d’un revers de la main.

G.L. : Je suis toujours un peu gêné devant ce genre d’exemple. Pour moi, ce n’est pas de l’intelligence artificielle. C’est juste de l’informatique. Vous pouvez très bien dès aujourd’hui embaucher un assistant, donc un humain, pour répartir les étudiants selon les critères que vous avez énoncés. À partir du moment où vous acceptez qu’un humain le fasse, alors pourquoi empêcher la machine de le faire ?

P.D. : C’est une question d’imaginaire et je dirais même d’idéologie. Est-ce qu’on a envie de faire confiance en l’homme ou bien plutôt en une machine ? Tout en sachant que la machine est toujours socialisée et qu’elle porte toujours les traces de l’homme. Donner ce rôle à la machine, c’est l’aboutissement d’un imaginaire basé sur le dépassement de l’homme, par nature déficient, vers l’intelligence artificielle. La machine est déficiente également, mais elle serait supposée l’être moins que l’homme. On voit bien ici que c’est la norme de la performance qui redéfinirait toute une série de choses qui marquent notre civilisation. Est-ce que l’on est d’accord pour que ce soit cette norme-là qui l’emporte sur les autres ? Cela représenterait une rupture avec ce qu’a fait l’humanisme européen, notamment avec la question du libre-examen. Est-ce qu’on a bien conscience de cette évolution et est-ce qu’on a envie de vivre dans une société où chaque souffle, chaque battement de coeur, chaque geste sera capté par des machines qui les transformeront ensuite en données, moteur de profits ? Pour le moment, ces évolutions technologiques sont présentées comme neutres, comme si elles n’avaient pas les contours d’une idéologie et d’un imaginaire. Mais ce n’est pas vrai.

LQJ : Un des sept éléments essentiels retenus par la Commission européenne pour parvenir à une intelligence artificielle “digne de confiance” est le respect de la vie privée et la gouvernance des données. Comment pourrait-on le garantir ?

P.D. : Pour moi, il s’agit de formules incantatoires. Ces lignes de conduite permettent certes de clarifier la position d’une institution publique, mais ce n’est pas suffisant. L’éthique est ici cantonnée à des check lists. Les chercheurs qui veulent recevoir de l’argent de la Commission promettent qu’ils vont respecter ces lignes de conduite éthiques et ils font ensuite comme bon leur semble. C’est là la limite de ces déclarations.

G.L. : Il existe par exemple tout un domaine de l’intelligence artificielle qui se concentre sur la confidentialité des données. Utiliser un réseau de neurones artificiels classique induit nécessairement une certaine forme de stockage et de mémorisation des données utilisées pour son entraînement. Lorsque le modèle est construit, il est souvent possible de recouvrir certaines de ces données, ce qui pose immédiatement des problèmes de respect de la vie privée. Une question de recherche consiste alors à se demander s’il est possible d’entraîner ces mêmes réseaux de neurones tout en garantissant la préservation de l’anonymat des données originales.

N.P. : On entend souvent “Facebook vous surveille”. C’est une idée fausse. Facebook vend à des régies publicitaires un profil de candidat à la consommation, identifié par une série de 1 et de 0 et qui présente une grande probabilité d’acheter des chaussures de sport par exemple. Facebook ne se pose pas la question de savoir si vous courez bien ou mal. Je crois que, dans l’inconscient collectif, il y a cette confusion qui consiste à croire que quand des données sont traitées par une machine à grande échelle, il y a derrière cela une forme de surveillance morale, sociale ou autre. Nous disposons maintenant d’une réglementation en Europe, le Règlement général sur la protection des données (RGPD), qui nous protège davantage, de manière à permettre la pseudonymisation, à limiter la transmission vers des tiers et à restreindre toute instrumentalisation des données pour atteindre des objectifs qui violeraient la vie privée. L’une des questions à se poser est de savoir si de telles réglementations empêchent les ingénieurs de travailler.

G.L. : Je pense que c’est bien qu’il y ait un cadre. Cela peut être vu comme un obstacle à court terme mais, à long terme, c’est certainement une bonne chose. Là où les problèmes se posent parfois, c’est dans le domaine des sciences médicales, avec les données de patients. Quand on veut faire de la recherche dans ce domaine, cela devient très compliqué.

N.P. : Je crois qu’on fait une erreur en décrivant le monde de la tech comme un monde très froid, pas très intéressé par ces grandes questions éthiques. Les employés d’entreprises comme Google sont plutôt jeunes et ce sont des gens pour qui les préoccupations socio-éthiques sont très proches de leur système de valeurs personnel. On le voit d’ailleurs avec Mark Zuckerberg qui était en Europe récemment et qui réclame de la réglementation. Il doit gérer les données personnelles de plus de deux milliards d’utilisateurs, une tâche herculéenne. Son message est un véritable appel à l’aide pour que les pouvoirs publics expriment exactement leur position. Rendez-vous compte : on demande aux plateformes moins de contrôle des contenus avec l’antitrust et plus de contrôle des contenus sur d’autres fondements. L’environnement réglementaire est très complexe.

P.D. : Sur la question des valeurs personnelles des dirigeants d’entreprise comme Facebook, cela ne tient pas à l’épreuve des faits. Il suffit de voir le rôle joué par les réseaux sociaux comme Facebook pendant les élections américaines pour essayer de faire du ciblage d’électeurs susceptibles de faire basculer les résultats d’un côté ou de l’autre. Face à cela, des entrepreneurs comme Mark Zuckerberg ont tardé à prendre au sérieux ce type de menace, à reconnaître leur passivité et leur responsabilité dans cette négligence. Cela ne veut pas dire qu’ils n’ont pas de conscience éthique mais que ce qui les anime, et c’est normal, c’est le profit. On ne peut donc pas attendre d’eux qu’ils développent une conscience éthique proportionnelle à la puissance détenue par leur entreprise. Par ailleurs, il peut aussi y avoir du double discours. Prenez le cas d’Elon Musk qui déclarait il n’y a encore pas si longtemps que l’intelligence artificielle représentait un risque majeur pour la civilisation alors que, dans le secret de ses labos, il contribue à son développement.

LQJ : L’intelligence artificielle apportera-t-elle une réponse aux problèmes de chômage et à la crise sociale que l’on connaît en Europe depuis la désindustrialisation ?

G.L. : Des emplois vont disparaître, d’autres vont être créés. Par exemple, il y a une demande croissante en ingénieurs dans le but de construire des véhicules totalement autonomes pour le transport de personnes ou celui des marchandises. Il y a aussi une demande très importante en médecine et en robotique. D’ailleurs, si on prend les pays les plus robotisés, c’est-à-dire l’Allemagne ou la Corée du Sud, ce sont aussi des pays qui ont un taux de chômage très bas.

N.P. : L’introduction de la technologie permet de générer des gains de productivité qui débouchent sur une réallocation des emplois. Ce qui est à l’oeuvre, c’est un processus de “destruction créatrice”. Malheureusement, les médias ne s’intéressent qu’au volet destruction. Certes, tout le monde ne peut pas être ingénieur, mais de nombreux métiers vont se créer autour de l’ingénierie. Par exemple, on pourrait avoir demain, avec les véhicules autonomes des contrôleurs du trafic routier qui seraient là pour gérer notamment la problématique de l’insertion sur autoroute.

P.D. : Jamais un mouvement industriel n’aura été bâti sur autant de promesses. La transition numérique est présentée comme un nouvel eldorado permettant une réindustrialisation vertueuse. Sur l’ensemble de l’échiquier politique, tout le monde dit à peu près la même chose. Pourquoi ? Parce que les promesses concernent l’emploi et la compétitivité. Celles-ci sont censées se traduire par des politiques publiques qui finalement n’apportent pas les résultats escomptés. Les chiffres sont toujours en-deçà des attentes formulées. Et on analyse ce manque de résultats comme étant la preuve qu’on n’a pas été assez loin dans l’innovation numérique… Et le cercle vicieux s’installe.

G.L. : Techniquement, aujourd’hui, la plupart des tâches pouvant être résolues en moins d’une seconde – dans tous les domaines d’activité – peuvent être faites par un ordinateur. La question est donc plutôt de savoir s’il est rentable ou non d’automatiser ces tâches-là. Les métiers qui demandent du contact humain ont nettement moins de chances d’être exercés par des robots. Par exemple, ce n’est sans doute pas demain la veille que l’on verra des robots remplacer les puéricultrices dans les crèches (fort heureusement !).

N.P. : Comme certains le rappellent parfois avec facétie, Voltaire a dit que le travail éloignait de l’individu le besoin, l’ennui et le vice. Lorsque l’intelligence artificielle se sera substituée au travail, et nous aura libérés du besoin, que restera-t-il ? Plus sérieusement, il est permis d’imaginer un monde dans lequel le travail humain aura une valeur marchande significativement plus élevée comparée à la réalisation mécanique. Il revient aux juristes d’inventer les institutions, les principes, et les règles à cet effet. Pour le moment, nous avons le “made in China” versus le “made in Europe”. Demain, on pourrait  avoir le “machine-made” versus le “man-made”.

Informations sur le master en sciences des données

Partager cet article