L’IA n’est plus un simple générateur de texte 

À l’université, on traite encore l’intelligence artificielle comme un outil de rédaction ou un enjeu d’intégrité. Ce cadrage est dépassé. L’IA commence à transformer la production même du savoir et oblige à repenser la recherche. 

04 mai 2026
Graphique par : iStock.com/Deagreez

On parle encore trop souvent de l’intelligence artificielle à l’université comme d’un simple outil de rédaction, ou comme d’un nouveau casse-tête en matière d’intégrité intellectuelle. Ce cadrage est désormais trop étroit. Penser l’IA comme un générateur de texte n’est plus une bonne référence pour comprendre ce que cette technologie peut faire, ni pour anticiper ce qu’elle changera dans la recherche. Les considérations en matière d’intégrité académique sont importantes, mais ne devraient pas nous distraire du grand bouleversement à venir: des systèmes d’IA qui touchent au cœur de la production du savoir.

Les signaux se multiplient depuis deux ans. Dans plusieurs domaines, des systèmes d’IA ne sont plus limités à l’assistance dans des tâches isolées, mais participent à des séquences complètes de recherche. En mathématiques, des agents sont désormais capables de générer, vérifier et réviser des démonstrations, allant jusqu’à résoudre certains problèmes ouverts et produire de véritables contributions théoriques. En intelligence artificielle, le système AI Scientist-v2 a formulé des hypothèses, conçu des expériences et rédigé un article accepté à un atelier avec évaluation par des pairs. Ces examples illustrent que nous sommes à l’aube de plus grands changements dans la production de savoir. Ceci n’est pas de l’autocomplétion améliorée.

Il faut évidemment garder la tête froide. Ces systèmes demeurent faillibles. Ils peuvent faire des erreurs ou encore dissimuler leurs limites derrière une apparence de cohérence. Le raisonnement complexe, la robustesse et la responsabilité scientifique restent des enjeux majeurs. Or, la prudence ne doit pas devenir une manière de refuser de voir le changement. Une technologie n’a pas besoin d’être parfaite pour transformer un milieu. Elle doit seulement être assez puissante pour déplacer les pratiques, les attentes et les rapports de comparaison.

C’est précisément ce qui est en train de se produire, tranquillement, dans le monde de la recherche. Tant qu’on réduit l’IA à un outil de rédaction, on traite le problème comme une question de fraude, de citation ou de règlement de cours. Ces questions comptent, bien sûr, mais elles ne suffisent plus. L’enjeu est désormais institutionnel. Si l’IA peut accélérer la revue de littérature, le codage, l’analyse exploratoire, la démonstration de théorèmes, la visualisation et la rédaction d’une première version de texte, elle commence alors à redéfinir ce que nous considérons comme une performance normale en recherche, premièrement en raison de l’accès aux outils.

Tous les chercheurs et toutes les institutions n’ont pas les mêmes ressources (abonnements à des modèles avancés, infrastructures de calcul, etc.).  Dans un contexte où l’IA devient un levier de productivité scientifique, ces écarts peuvent devenir importants. En plus de transformer la manière de faire de la recherche, l’IA risque aussi de reconfigurer qui peut en faire dans de bonnes conditions. Une université qui traiterait l’IA uniquement comme un enjeu d’intégrité manquerait donc une partie clé du problème : l’IA est aussi un facteur potentiel d’inégalités dans l’écosystème de la recherche.  

Cette transformation oblige donc à repenser l’évaluation de la recherche. Dans un contexte où certaines tâches peuvent être automatisées ou fortement accélérées, le cumul d’extrants devient un indicateur de moins en moins satisfaisant. Publier plus, coder plus vite ou produire davantage de texte ne dit plus grand-chose sur la valeur d’une contribution. Ce qu’il faut davantage reconnaître, c’est la capacité à poser de bonnes questions, à concevoir des démarches solides, à vérifier les résultats, à documenter de manière transparente l’usage de l’IA et à exercer un jugement critique. En somme, l’excellence ne peut pas être définie par le volume.

Le rôle professoral doit lui aussi évoluer. Former à la recherche ne consiste plus seulement à transmettre un corpus, corriger des textes et superviser des étapes méthodologiques. Il faut de plus en plus apprendre à orienter une enquête scientifique dans un environnement où certaines opérations sont partiellement automatisables. Le cœur de la recherche se déplace vers la définition des problèmes, l’interprétation et la formation du jugement. C’est une redéfinition exigeante de ce que signifie ce rôle.  

La pire réponse serait donc de s’accrocher à une image dépassée de l’IA. La deuxième pire serait de se mettre à produire plus sans souci pour la qualité. L’université a une responsabilité plus exigeante. Elle doit reconnaître que l’IA n’est plus un simple générateur de texte, et qu’à ce titre elle oblige à repenser la formation, l’évaluation et les conditions d’exercice de la recherche. Qu’on le veuille ou non, l’IA est entrée dans la recherche universitaire. La question est maintenant de savoir si nous allons laisser cette transformation imposer ses normes en silence, ou si nous allons la gouverner au service d’une science plus rigoureuse où l’humain est toujours aux commandes.  

La lecture hebdomadaire
du milieu de l’enseignement supérieur au Canada
Rejoignez des milliers de personnes qui reçoivent chaque semaine des conseils de carrière, des nouvelles, des chroniques d’opinion et des reportages d’Affaires universitaires.