Intelligence artificielle dans les universités : des besoins pressants

L’arrivée en force des générateurs de texte soulève la nécessité de réflexion et de balises pour leur utilisation éthique en milieu universitaire.

20 septembre 2023
A robot hand writing on a piece of paper.

Il y a un an à peine, l’intelligence artificielle (IA) était un sujet de débat plutôt théorique. « La rentrée 2023 marque un tournant », décrit Caroline Quesnel, présidente de la Fédération nationale des enseignantes et enseignants du Québec (FNEEQ-CSN) et enseignante en littérature au Collège Jean-de-Brébeuf, alors que ChatGPT est bien entré dans les classes. D’autres formes d’IA génératives sont accessibles au grand public, comme QuillBot (rédaction et correction de textes), DeepL (traduction), ou UPDF (résumé de PDF).

Martine Peters, professeure en sciences de l’éducation à l’Université du Québec en Outaouais, a mené un sondage auprès de 900 étudiant.e.s. « Déjà 22 % disaient utiliser ChatGPT (parfois, souvent ou toujours) pour faire leurs travaux. Et ça, c’était en février », souligne-t-elle. Un constat inquiétant, comme ni les professeur.e.s ni les universités ne sont prêts à y faire face. À l’heure actuelle, tenter de bannir ces outils serait futile; de quoi donc ont donc besoin professeur.e.s et étudiant.e.s pour s’assurer d’une utilisation éthique?

Possibilités et préoccupations

Mme Peters est convaincue que ces outils peuvent être utilisés dans une visée éducative. Ceux-ci peuvent aider à comprendre un article en le résumant ou le traduisant, ou servir de point de départ et de réflexion. À son avis, sauf pour les cours de langue (comme on évalue précisément cette compétence), on pourrait aussi s’en servir pour corriger un texte ou sa syntaxe, au même titre que le soutien apporté par un correcteur en ligne, les parents ou les services de rédaction.

Le plagiat reste toutefois en tête des préoccupations du milieu universitaire. Et pour l’instant, aucun outil de détection de l’usage d’IA n’est efficace (Open AI, qui est derrière ChatGPT, a d’ailleurs abandonné son logiciel de détection cet été, faute de résultats fiables). De toute façon, « c’est une des pires solutions, la course au radar », note Mme Quesnel. Retour aux évaluations crayon papier? Débats en classe? Les solutions restent à trouver, mais ce qui est clair, c’est que l’IA « augmente les tensions, surtout considérant la pression énorme pour la performance dans le milieu universitaire », s’inquiète la présidente de la Fédération. Celle-ci est critique : « En ce moment, on consacre beaucoup d’énergie à regarder les bénéfices de ces outils plutôt qu’en contrer les écueils. »

Pour une littératie de l’IA

Au-delà de la question du plagiat, les outils d’IA soulèvent toutes sortes d’enjeux (biais, aucune garantie de la véracité des informations, etc.), sur lesquels la communauté universitaire doit être sensibilisée. « ChatGPT hallucine, invente des références… il raconte des stupidités avec assurance. Il n’est pas très bon pour résoudre des problèmes en philosophie, ou en physique avancée. On ne peut pas s’en servir les yeux fermés », avertit Bruno Poellhuber, professeur au Département de psychopédagogie et d’andragogie de l’Université de Montréal.

Pour mieux comprendre les utilisations possibles et les impacts de ces nouvelles technologies, davantage de formation sera nécessaire, autant pour les professeur.e.s que pour leurs étudiant.e.s. « Il faut connaître et comprendre la bête », remarque M. Poellhuber. « Pendant des années, on n’a jamais montré comment bien chercher sur le Web. Si on veut que nos étudiant.e.s utilisent l’IA de manière éthique, on doit leur montrer comment, et en ce moment ça semble tomber dans les mains de personne », observe Mme Peters.

Pourtant, c’est la responsabilité de l’établissement de former leurs enseignant.e.s, qui par la suite pourront sensibiliser la communauté étudiante. « Les étudiant.e.s ont besoin de savoir quand c’est pertinent de l’utiliser », ajoute Mélanie Rembert, conseillère en éthique à la Commission de l’éthique en science et en technologie (CEST).

Des initiatives pour réfléchir

L’Université de Montréal et le Pôle montréalais d’enseignement supérieur en intelligence artificielle (PIA) ont organisé en mai une journée de réflexion et d’information pour la communauté universitaire (professeur.e.s, cadres, etc.) : « l’objectif était de démystifier les possibilités de l’IA générative, en étant attentifs aux risques et enjeux », résume M. Poellhuber.

Cette journée faisait suite à une première activité organisée par le ministère de l’Enseignement supérieur du Québec et IVADO, où d’ailleurs avait été annoncé la création du comité conjoint du Conseil supérieur de l’éducation (CSE) et de la CEST. Ce comité mène en ce moment des travaux de réflexion, de consultation et d’analyse autour de l’utilisation des formes d’IA génératives en enseignement supérieur auprès d’expert.e.s diversifié.e.s. « Nos deux organismes ont constaté qu’il y avait besoin de plus de documentation, de réflexions et d’analyse autour de cette question », raconte Mme Rembert, qui coordonne les travaux du comité d’experts. Des mémoires ont été sollicités auprès d’organismes représentant la communauté étudiante et professorale et d’établissements d’enseignement supérieur. Le rapport, qui devrait être produit à la fin de l’automne, sera disponible en ligne.

Vu l’ampleur du bouleversement, les professeur.e.s pourraient aussi bénéficier des expériences des autres et du soutien d’une communauté de pratique. C’est un peu l’idée derrière LiteratIA, un groupe de partage cofondé par Sandrine Prom Tep, professeure agrégée à l’École des sciences de la gestion de l’Université du Québec à Montréal. « C’est beau la théorie, ou les dangers, mais les professeur.e.s veulent être outillé.e.s. Qu’est-ce qu’on fait avec ça? », fait valoir Mme Prom Tep. Au lieu de se faire doubler par les étudiant.e.s, qui utilisent ces outils de toute façon, celle-ci prône la carte de la transparence et le partage de la démarche. « Il faut embarquer dans le train, sinon les étudiants vont mener le bal », soulève-t-elle.

Des balises claires

Universités comme gouvernement devront rapidement se pencher sur la situation et poser des balises concrètes, pratiques et applicables. « Ça ne doit pas tarder, l’IA est dans les classes », rappelle Mme Quesnel avant d’ajouter que les professeur.e.s se retrouvent également avec un poids supplémentaire sur les épaules pour ce qui devrait être une responsabilité partagée par les établissements et le ministère. « On a besoin d’instruments sur lesquels les enseignant.e.s peuvent s’appuyer », milite-t-elle.

Jusqu’ici, très peu d’universités ont émis des lignes directrices, et celles-ci sont souvent vagues et difficiles à appliquer. « Il n’y a pas beaucoup de procédures, de ressources pour encadrer, d’outils, de règles ou de politiques. En gros, chaque professeur.e décide d’intégrer ou non l’IA, et fait ses règles », poursuit Mme Prom Tep. Les établissements devront définir des politiques claires d’utilisation admissibles ou non, qui inclut, mais ne se limite pas au plagiat (utilisation pour la correction de travaux, façon de citer ChatGPT, etc.).

Le déploiement des politiques et de législations risque de prendre du temps. « C’est comme pour le Web, on a toujours légiféré en retard », rappelle Mme Prom Tep. L’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA), financé par les Fonds de recherche du Québec, devrait entre autres émettre des recommandations au gouvernement du Québec, tout comme le comité d’expert conjoint. « Mais est-ce que ça va suffire? Est-ce qu’on a besoin de consultations plus larges? », se demande Mme Prom Tep, qui suggère la mise en place de cellules permanentes. Selon elle, pour éviter que chaque établissement réinvente la roue, ces réflexions devront être en effet collectives et partagées, et des lieux de réflexions neutres devront être créés.

This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.