Passer au contenu principal
Conseils carrière

Intelligence artificielle, intégrité universitaire et avenir de l’apprentissage

Les outils d’intelligence artificielle n’ont pas à être les ennemis de l’enseignement et de l’apprentissage.

par GAVAN P.L. WATSON & SARAH ELAINE EATON | 17 FEV 23

Quand l’outil d’intelligence artificielle (IA) ChatGPT a été lancé à la fin de 2022, c’était comme si la fiction devenait réalité. Créé par la jeune entreprise OpenAI, ChatGPT est issu des grands modèles de langage (LLM); il sert à interpréter et à générer du texte à partir de commandes humaines. Plus particulièrement, ChatGPT mémorise le contexte des commandes saisies dans l’interface de clavardage, et répond aux interactions humaines. En gros, l’outil recourt à un processus itératif et conversationnel générant ce qui a l’apparence (pour la personne qui l’utilise) de textes inédits.

C’est à la fin de 2022 qu’on a observé à quel point l’outil représentait un tournant pour la communauté enseignante : les écrits de ChatGPT sont d’une qualité s’apparentant au travail d’un humain, et non d’un robot. S’il a été démontré que certaines réponses peuvent s’avérer inexactes, on remarque que les réponses ne sont jamais reproduites, c’est-à-dire que même avec une commande identique à une autre, ChatGPT produit chaque fois une nouvelle réponse. Certaines personnes pensent que cela permet de créer des écrits « intraçables », tandis que d’autres vont jusqu’à prédire « la mort de la dissertation ».

Or, si les LLM sont bien une menace à l’intégrité universitaire, les réactions impulsives de type « il faut bannir les nouvelles technologies » ou « les étudiant.e.s qui l’utilisent trichent » n’aident en rien. Plutôt, nous pensons que maintenant que les outils d’IA sont devenus largement accessibles, il est temps de réfléchir à ce que l’on peut faire pour améliorer les nouvelles technologies et en assurer une utilisation éthique dans la vie quotidienne, y compris dans l’enseignement et l’apprentissage.

En classe, il serait possible d’intégrer ces outils aux évaluations. Pour commencer, on pourrait imaginer que les étudiant.e.s utiliseraient le texte produit par ChatGPT à titre d’ébauche pour un travail écrit. Cette ébauche serait remise avec le travail final ainsi qu’une courte description de ce qui a été fait pour réviser le texte. La créativité des professeur.e.s ne pourra jamais être égalée par une IA. Et c’est justement la créativité qui permettra de repenser les façons d’évaluer la réussite des objectifs pédagogiques par les étudiant.e.s.

Il ne fait aucun doute qu’il faudra pour cela du temps et des efforts. D’autres nouvelles réalités, comme la densification des salles de classe dans les établissements canadiens, viennent compliquer la refonte des évaluations et limiter le champ d’action des universités. Les administrations devront donc aider les professeur.e.s à essayer de nouveaux modes d’évaluation, en gardant à l’esprit les objectifs d’apprentissage. Certaines solutions débordent du cadre de la seule salle de classe : quelques politiques universitaires sont énoncées de sorte que l’utilisation de l’IA peut constituer une forme d’inconduite, tandis que dans d’autres cas, elle représente une forme de malhonnêteté universitaire ou de plagiat (mais puisque les outils comme ChatGPT produisent des écrits qui concordent avec la définition d’un « original », une accusation de plagiat ne tiendrait sans doute pas la route en appel). Cela dit, le plus important reste de favoriser l’apprentissage. Et pour ce qui est de l’intégrité, il faut à tout prix éviter d’alimenter des liens conflictuels, voire antagonistes entre professeur.e.s et étudiant.e.s.

Et soyons honnêtes : les étudiant.e.s ne sont pas les seul.e.s à utiliser des outils comme ChatGPT à l’université. Des professeur.e.s les ont déjà mis à l’essai afin d’envisager certaines manières d’enrichir le travail en classe. ChatGPT peut générer des lectures pour les plans de cours, des grilles d’évaluation de dissertation ou des diapositives pour des exposés; il peut même servir à évaluer le travail des étudiant.e.s. Devant la « menace » de ChatGPT, toute barrière éthique doit être la même pour les étudiant.e.s que pour les autres membres de la communauté universitaire. Une révision hâtée des politiques universitaires pour sanctionner les étudiant.e.s qui utilisent les outils d’IA peut malheureusement empêcher d’importantes conversations sur les utilisations éthiques de ces outils par les enseignant.e.s à des fins d’enseignement et d’apprentissage.

Dans une course aux armes d’intégrité, personne ne gagnera. En revanche, il existe toutes sortes de manières d’appuyer l’apprentissage étudiant. En ce qui concerne l’intelligence artificielle, l’idée est de faire participer chaque membre du campus à des discussions réfléchies et bienveillantes sur les utilisations éthiques de l’IA pour l’enseignement, l’apprentissage et l’évaluation. Les étudiant.e.s doivent activement prendre part aux discussions, qu’il soit question de mieux appréhender leur utilisation des LLM ou de proposer des changements aux façons de faire dans les salles de classe. Devant la montée de l’IA, les établissements qui tiennent compte de l’opinion étudiante sauront réagir avec mesure et pragmatisme.

Gavan Watson est vice-recteur adjoint aux études à l’Université Memorial. Sarah Elaine Eaton est professeure agrégée à la Faculté de l’éducation Werklund de l’Université de Calgary.

COMMENTAIRES
Laisser un commentaire
University Affairs moderates all comments according to the following guidelines. If approved, comments generally appear within one business day. We may republish particularly insightful remarks in our print edition or elsewhere.

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Click to fill out a quick survey