L’intelligence artificielle générative gagne chaque jour en puissance et bouleverse tout ce qui précédait. Cette innovation technologique qui, pour la première fois, “pense pour nous”, ébranle l’enseignement et l’apprentissage. Et interroge le rôle de l’Université. À l’ULiège, on réfléchit, on expérimente. Deux pas en avant, un pas en arrière, un pas de côté : une nouvelle pédagogie se crée, chemin faisant.
Un « tsunami ». C’est avec ce terme que Frédéric Schoenaers, vice-recteur à l’enseignement, qualifie la situation. « L’IA ouvre des zones infinies et controversées de réflexion, avec un corps professoral segmenté : certains l’utilisent pour enrichir leurs dispositifs de cours, certains la refusent net, d’autres sont mitigés ou démunis », observe-t-il. Au-delà du positionnement de chacun, les autorités ont mis sur pied, quelques mois après l’arrivée de l’intelligence artificielle générative en novembre 2022, un groupe de travail “IA et enseignement” qui a rapidement formalisé une charte à destination de la communauté universitaire*. Dans la foulée, plusieurs Facultés ont rédigé leurs propres balises. « Clairement, l’ULiège n’a pas la vision de nier l’IA, ce serait une erreur stratégique », insiste Frédéric Schoenaers.
L’université déstabilisée
« L’intelligence artificielle, qui se démocratise depuis trois ans, démocratise aussi la possibilité de se faire aider, pour le meilleur et pour le pire. Ambiguë, elle peut aussi bien être un partenaire d’étude efficace qu’un vecteur de paresse intellectuelle. Elle peut se mettre au service de la pensée tout comme elle peut dispenser… de penser. Si elle veut rester à la hauteur de ses missions, l’Université doit se mettre en quête des moyens de préparer les étudiants aux nouvelles symbioses IA-IB (intelligence biologique) qui se dessinent », pose Dominique Verpoorten, professeur en pédagogie de l’enseignement supérieur, coordinateur du groupe interfacultaire “IA et enseignement” qui mutualise informations et ressources liées à ces défis inédits. Parmi diverses actions, l’Institut de formation et de recherche en enseignement supérieur (Ifres) a ainsi augmenté le nombre de formations mêlant IA et pédagogie.
« Nous avons une vraie responsabilité dans ce qui est en train de se jouer, note Frédéric Schoenaers. De plus en plus de disciplines seront interdépendantes de l’IA, les métiers évoluent et s’appuient davantage sur les softskills. Il est de notre devoir d’éduquer les jeunes à ce basculement, de leur apporter une solide formation à l’esprit critique. » Le sociologue soulève des questions de fond dont les réponses sont à construire, pas à pas : à quel point l’ADN de l’Université, sa légitimité même seront-ils remis en question ? Quelle sera encore la validité des savoirs enseignés ? Comment conserver le sceau de la rigueur scientifique ?
« L’IA fait trembler les colonnes du temple, surtout pour les évaluations et travaux réalisés à domicile », exprime Pascal Detroz, professeur en pédagogie de l’enseignement supérieur qui estime qu’« utiliser des outils pour débusquer les textes générés par l’IA devient vide de sens puisque l’IA peut désormais faire semblant de ne pas être de l’IA. » Il parle d’une “ère post-plagiat” où l’écriture hybride, mélange d’éléments humains et artificiels, va devenir la norme, « loin de l’image romantique de l’auteur s’attelant à l’écriture ».
Que les discours soient alarmistes ou posés, « l’université doit s’emparer de cette question et absorber le choc de l’IA », dit-il. « Auparavant, les universités représentaient le lieu du savoir. Avec l’arrivée d’internet, la notion de pédagogie, du “comment enseigner” s’est imposée. Avec l’irruption de l’IA, c’est la plus-value de l’université par rapport aux firmes privées, dotées de plus de moyens et d’agilité, qui est en jeu. Les universités garderont-elles la primauté sur les connaissances et les diplômes à délivrer ? », interroge Pascal Detroz. À la tête du collectif “Pédagogie robustesse”, qui regroupe des professeurs de l’ULiège et des internationaux, il mène une réflexion centrée sur les profonds changements de société que génère l’IA : « Comment, d’ici cinq à dix ans, former les étudiants ? » En s’adossant aux concepts de robustesse ou d’antifragilité développés respectivement par Olivier Hamand et Nassim Nicholas Taleb, ce groupe de travail planche sur plusieurs niveaux : comment affronter les crises actuelles ? Quelles compétences robustes (« stables dans l’instabilité ») transmettre aux étudiants ? Comment stimuler l’engagement ? Comment concevoir des évaluations qui valorisent « le doute, la progression, l’erreur féconde, l’effort de réflexion plutôt que le résultat figé » ?
« L’enseignant-chercheur et l’étudiant entrent peu à peu dans une démarche de vérification », pointe Frédéric Schoenaers. De quoi se désoler ? « Non. Vérifier est très intéressant car cela nous permet de pousser nos capacités scientifiques dans leurs derniers retranchements, de continuer à exercer notre art scientifique en allant chercher de quoi corroborer ou corriger ce qui est proposé par l’IA. »
Éducation à l’IA
Pour avancer dans ces sables mouvants, les autorités et le groupe “IA et enseignement” travaillent à plusieurs actions. Des expériences sont menées pour élaborer, à partir de logiciels open source, des outils d’IA locales – brassant des données définies et donc maîtrisées, dont pourraient se saisir des professeurs [lire l’encadré]. « Maîtriser la construction de ces outils et les données qui y sont injectées, afin de travailler sur des corpus sourcés » : telle est la voie défendue par le Pr Björn-Olav Dozo, directeur de la CARE numérique, au service de l’enseignement. Selon lui, l’université gagnerait, en n’étant ni dans le techno-enthousiasme ni dans le blocage absolu, à « prendre sérieusement à bras-le-corps la question de l’IA, analyser ce qu’elle propose, mais ne surtout pas lui déléguer la maîtrise des productions ». « Soyons des testeurs actifs pour dépasser ce moment de sidération, de grande tension psychologique et émotionnelle, voire de blessure narcissique par rapport à nos cerveaux humains face à ces productions de textes qui contrefont la pensée », ajoute-t-il encore.
Soucieuses d’agir sur la formation – « beaucoup d’enseignants constatent que les étudiants, grands utilisateurs de l’IA, ne la maîtrisent pas encore bien », note Frédéric Schoenaers –, les autorités ont mandaté quelques professeurs pour travailler à des capsules vidéos en micro-learning dédiées aux usages de l’IA, disponibles d’ici le printemps.
Au-delà de ce socle commun, est né en faculté des Sciences appliquées le cours d’“Introduction à la science des données et à l'intelligence artificielle” accessible non pas aux futurs ingénieurs, mais aux étudiants en sciences humaines, afin de les doter de connaissances informatiques, au-delà de leur formation de base. « L’IA est véritablement transdisciplinaire. L’objectif est de la démystifier en manipulant des outils, car c’est en comprenant son fonctionnement qu’on en perçoit les capacités et limites », explique Vân Anh Huynh-Thu, chargée de cours en informatique, titulaire de ce tout nouveau cours. Pour cette chercheuse depuis 15 ans dans l’IA, « il faut ouvrir la boîte, tout en étant très sensible aux biais et questions éthiques ».
En formation toujours, un autre projet est dans les cartons, mais encore dépendant d’une avancée en termes de législation : la création d’une micro-certification dédiée à l’IA, avec évaluation et diplôme à la clé, ouverte aux étudiants comme aux professionnels désireux de compléter leur bagage.
L’ULiège a par ailleurs opté pour une licence de l’outil d’IA Copilot, accessible aux étudiants et membres du personnel, garantissant la protection des données moyennant son utilisation avec son compte Microsoft ULiège. Fin 2025, le Segi comptabilisait près de 3000 utilisateurs dans l’Institution (connectés avec un compte ULiège) – un chiffre encore assez faible au vu des 34 000 personnes potentiellement concernées. Reflet, sans doute, de la domination des outils privés qui inondent le marché, ChatGPT en tête.
Le vice-Recteur à l’enseignement indique enfin que l’ULiège est sur le point de mettre en place un comité de pilotage stratégique pour l’IA, qui aura pour mission de veiller au suivi de la thématique et de prioriser les chantiers. « On sait déjà que les vidéos à l’attention des étudiants et la mise en conformité avec l’AI Act sont prioritaires ». « Ce qui traverse toutes ces initiatives, insiste-t-il, c’est l’urgence de doter les jeunes d’un solide esprit critique, d’une conscience de l’impact écologique de l’IA et de la capacité à comprendre ce qui se joue dans le moteur pour, idéalement, manœuvrer au mieux le véhicule. »
Pour reprendre l’une des conclusions de l’enquête menée en 2025 au sein de l’ULiège**, “les enseignants et enseignantes paraissent tous placés devant une même nécessité de prises de réflexion et de décision urgentes qui n’est pas sans rappeler la stupéfiante confrontation à la COVID […], à cette différence près que l’IA n’est pas un virus passager”. Par ailleurs, la conférence prévue en décembre dernier par Dominique Verpoorten portait ce titre : “L'irruption de l'intelligence artificielle est violente pour beaucoup d'enseignants”. C’est dire si le séisme est de taille. Ou représente l’occasion de repenser ce qui rend la formation universitaire irremplaçable, au-delà des technologies disponibles.
Esprit critique
Comment les professeurs s’approprient-ils – ou non – les outils d’IA générative ? Entre explorations innovantes et doutes, coups de sonde chez quelques enseignants. Leur préoccupation centrale : aiguiser l’esprit critique.
L’intelligence artificielle, le psychiatre Giovanni Briganti, chargé de cours en santé digitale en faculté de Médecine, la côtoie depuis dix ans : comment les moyens technologiques peuvent-ils améliorer les soins de santé ? Son objectif est de sensibiliser les étudiants à une utilisation optimale, via des formations pour améliorer le diagnostic clinique, l’exploration des IA médicales et l’encouragement à utiliser l’outil Copilot, en lien étroit avec la charte ULiège.
Coordinateur pour la plateforme fédérale AI4Health depuis 2020, Giovanni Briganti l’affirme : « L’IA dans les soins de santé est perçue positivement par les étudiants et les médecins en Belgique, seul pays au monde à ce jour où les cours axés sur l’IA en médecine sont obligatoires. » Pour autant, il reste prudent : « La tâche la plus importante qui incombe aux jeunes est de garder l’esprit critique et de réaliser qu’une utilisation excessive de l’IA comporte un réel risque de dommage cognitif. » Passionné par la question, plongé dans cette technologie au quotidien, il conclut : « Je n’arrêterai ces recherches et enseignements que si je me rends compte que le risque dépasse le bénéfice. Et je dois avouer que ce doute me taraude chaque jour. »
Recherche de sens
Hélène Soyeurt est professeure en data mining et machine learning à Gembloux Agro-Bio Tech. Très vite intriguée par l’IA, elle a un déclic suite à une formation et se lance dans quelques expérimentations, dans le cadre de ses cours. Responsable d’environ 150 rapports de stage d’observation rendus chaque année par des étudiants de premier bac, elle constate que « les mauvais rapports deviennent rarissimes puisque la majorité des étudiants utilisent l’IA ». « Est-ce que tout cela fait encore sens ? Quel poids va-t-on donner encore à ces comptes-rendus ? », s’interroge-t-elle. Elle réfléchit à un retour à une évaluation en présentiel : écrire ce travail en auditoire, sans accès aux outils d’IA. « Je veux être certaine que les étudiants ont la capacité de rédiger un rapport réflexif sur base de leur expérience vécue lors du stage et de leur perception personnelle du métier de bioingénieur. »
Plus largement, consciente que l’IA fait partie du quotidien des étudiants et peut générer de la qualité moyennant de bons prompts et entraînements, Hélène Soyeurt plaide pour plus de formations pratiques : « J’ai un peu désacralisé la chose auprès de collègues : l’IA est accessible à tout le monde ! » Elle encourage « l’audace » via, pourquoi pas, “les 5 minutes de l’IA” dans les conseils de Faculté. « Il est essentiel d’apprendre à s’en servir, en tenant compte des aspects écologiques, éthiques, juridiques (AI Act) avec l’objectif d’allier le plus intelligemment possible les atouts d’un professionnel, en l’occurrence ici d’une ou un bioingénieur, et ceux de l’IA. Les requêtes ne doivent pas remplacer la personne ou l’effort intellectuel, mais apporter une plus-value. »
Du côté des futurs traducteurs et interprètes, l’IA représente une menace tangible. La question est devenue à ce point cruciale qu’un cours entier lui est dédiée en première année, “Enjeux pratiques et éthiques de l'intelligence artificielle en lien avec la traduction”. Il a été conçu par Perrine Schumacher, première assistante au département des langues modernes, chercheuse dans ce domaine depuis neuf ans. « Cela fait plusieurs années que l’IA bouleverse le secteur de la traduction, avec des prédictions de disparition du métier. Je reconnais la puissance de l’outil, mais les experts langagiers et l’humain comme post-éditeurs restent essentiels », explique-t-elle [lire l’article “Une revue polyglotte“, Le Quinzième Jour, n° 292, sept. 2025].
Dans son nouveau cours, Perrine Schumacher teste des outils avec les étudiants et aborde divers enjeux – sociétaux, environnementaux, algorithmiques (« l’IA générative sur-représente la voix de l’homme blanc occidental hétérosexuel », rappelle-t-elle). Le rôle de l’enseignant, selon elle, est crucial quant à l’esprit critique et la réinvention des méthodes d’évaluation. « L’une des voies : cesser d’évaluer le produit fini et se concentrer sur le processus de travail, les compétences mobilisées tout au long de l’apprentissage. » Pour leur travail de fin d’études, les futurs traducteurs doivent désormais signer un “contrat d’authenticité”, pacte de confiance précisant leurs (éventuels) usages de l’IA.
Professeur en humanités numériques et cultures vidéoludiques en faculté de Philosophie et Lettres, Björn-Olav Dozo prend l’IA « très au sérieux » dans ses cours et étudie les discours qui l’entourent. « Je remarque que certains étudiants et étudiantes ne font pas la distinction entre les situations d’énonciation (humaines ou machiniques) des textes : ceux “extrudés” par l’IA sont désincarnés, même s’ils sont chargés idéologiquement. Ils miment des situations d’énonciation, mais ne sont que des inférences probabilistes dépendantes du corpus d’entraînement, constate-t-il. Il est important de l’expliquer en détail aux étudiants, afin qu’ils reprennent confiance en leur voix critique. »
En faculté des Sciences, Nicolas Vandewalle, professeur en physique, est soucieux d’outiller au mieux les étudiants qui ont, pour beaucoup, fait de l’IA un partenaire quotidien. Il travaille pour septembre à un module de vidéos. « Il s’agit de six capsules thématiques que les enseignants pourront intégrer à leurs cours, qui abordent ces questions : ressources consommées, rédaction des prompts, hallucinations de l’IA, création d’exercices et d’entraînements, perspectives du futur technologique. Elles sont dimensionnées pour les filières de sciences mais pourraient sans doute trouver écho ailleurs. » Selon lui, « si l’on ne veut pas être submergé ou dominé par l’outil, il est essentiel de maintenir la créativité, l’originalité de pensée. C’est cela qui redéfinira la place de l’université dans la société. »
Précieux présentiel
Partant du principe que le temps en tête-à-tête avec les étudiants est trop précieux pour être dilapidé en “simple” transmission, certains enseignants organisent leur cours en “classe inversée” : la matière est donnée à l’avance, potassée à domicile et le cours en présentiel se base sur les interrogations des étudiants. La discussion, la reformulation, l’échange liés aux expériences de chacun composent le socle du cours. Professeur en sciences sociales et sciences de l’environnement, François Mélard utilise régulièrement ce procédé. Il s’apprête, en ce second semestre, à l’appliquer à son nouveau cours “humanités environnementales” tout y en mêlant l’intelligence artificielle. Suite au visionnage du MOOC “Durabilité et transition”, les étudiants de deuxième bac devront poursuivre leur réflexion en conversation avec l’IA, en adoptant une démarche critique. « On va travailler avec un agent conversationnel RAG (“génération augmentée de récupération”), une IA maison spécifiquement créée pour ce cours et hébergée sur les serveurs de l’ULiège, qui raisonne en se basant sur un corpus de données que j’ai défini à l’avance, et pas sur l’ensemble du web », explique-t-il.
Utiliser les potentialités de l’IA au service du procédé d’abduction – « partir des questions de chacun pour en faire une démarche d’apprentissage active » –, et s’inscrire alors dans la lignée du concept de robustesse : cette voie plaît à François Mélard qui estime que « l’IA n’est intéressante que si elle est au service de la capacité des étudiants à s’étonner, réfléchir, creuser leur propos ». Au fait, de l’IA énergivore dans un cours sur l’environnement : un paradoxe ? « Nous allons ensemble mesurer les quantités d’énergie utilisées, même si le choix d’un RAG les limite déjà fortement. »
Le temps en présentiel, c’est une matière rare dont Frédéric Hatert, professeur en géologie, veut aussi prendre soin. Dès la fin du confinement, effaré par les heures passées par les étudiants devant les écrans et podcasts de cours, mais aussi interpellé par le sens à donner à son métier, il a peaufiné son “vintage teaching”. Aucun ordi ni smartphone en classe, prises de notes et dessins à la main, craies et tableau noir, rétro-projecteur avec des transparents – « dont les étudiants apprécient la douce lumière » se réjouit celui qui songe à transformer sa panoplie de photos de pierres précieuses en diapositives. « Mes cours en petites classes, et je dois reconnaitre que la méthode est plus difficile avec des grands groupes, reposent sur l’observation et la manipulation de pierres et minéraux. Je ne veux pas “dématérialiser” mon enseignement, d’où ces choix low-tech », explique Frédéric Hatert. « Dans cet esprit, je ne ressens ni le besoin ni l’envie de faire appel à l’IA générative », ajoute-t-il. Son positionnement, il l’explique par le souci de garder les interactions au centre, mais aussi par « la nécessité, d’autant plus pour de futurs géologues amenés à travailler dans l’environnement, de réfléchir à la durabilité des technologies ».
Pour aller plus loin :
- Les clés. L’IA en 4 épisodes, podcast (avec notamment Giovani Briganti) à écouter sur RTBF/La Première
- Camille Dejardin, À quoi bon encore apprendre ?, Gallimard, collection Tracts, Paris, 2025
- Anne Alombert, De la bêtise artificielle, Éditions Allia, Paris, 2025
- Hubert Guillaud, Les algorithmes contre la société, La Fabrique édition, Paris, 2025
- Juan Sebastian Carbonell, Un taylorisme augmenté. Critique de l’intelligence artificielle, Éditions Amsterdam, Paris, 2025