Passer au contenu principal
Actualités

ChatGPT pourrait-il cosigner votre prochain article?

L’intelligence artificielle générative bouleverse l’enseignement et l’apprentissage, mais le milieu universitaire tarde à encadrer son utilisation dans la recherche.

par DIANE PETERS | 29 AOÛT 23

Les universités l’ont clairement fait comprendre : elles n’aiment pas que les étudiant.e.s utilisent l’intelligence artificielle (IA) générative pour leurs travaux, car cela pourrait être considéré comme une inconduite. Alors que les discussions se poursuivent quant à l’utilisation de l’IA dans les activités d’enseignement et d’apprentissage, certain.e.s commencent à s’interroger sur le rôle de ces technologies émergentes dans les publications scientifiques et sur la paternité des textes.

Mark Humphries, professeur d’histoire à l’Université Wilfrid Laurier et blogueur sur l’IA générative, est membre du groupe de travail de l’Université sur le sujet. Il explique que « la recherche n’est pas encore à l’ordre du jour des discussions du groupe ».

Même son de cloche du côté de la professeure à l’Université technologique de l’Ontario, Isabel Pedersen, qui a beaucoup écrit sur l’IA et la paternité des textes. « Personne ne parle des valeurs et de comment nous jugeons un auteur ou une autrice qui admet avoir utilisé l’IA ou l’IA générative. C’est arrivé si rapidement et c’est si révolutionnaire que nous n’avons pas encore un système de valeurs à appliquer pour les publications scientifiques. »

L’IA facilite déjà le processus de recherche grâce à la fouille de textes, qui aide les universitaires à reconnaître du texte et à faire le tri parmi des données génériques. Cela a suscité des débats sur les biais et sur les occasions d’emploi et de formation retirées aux étudiant.e.s aux cycles supérieurs. On a toutefois très peu parlé de l’éthique et des aspects pratiques de l’utilisation de l’IA pour rédiger et publier des articles.

Au début de 2023, bon nombre de revues scientifiques ont adopté des politiques concernant l’IA générative : pour les périodiques de Springer Nature, Elsevier et Cambridge University Press, cette technologie ne peut être considérée comme une autrice et doit être citée, tandis que les publications de la famille Science refusent carrément les textes et images générés par l’IA.

Les universités ne leur ont toutefois pas emboîté le pas et n’ont toujours pas publié de déclarations ou de politiques en la matière. « Notre bureau de la recherche n’a pas encore de politique et je crois que l’on observe quelque chose d’assez similaire dans les autres universités », souligne M. Humphries.

Directeur du Service de l’apprentissage ouvert de l’Université de Windsor, Nick Baker n’est pas surpris non plus. « C’est beaucoup plus difficile de déterminer les conséquences à imposer aux professeur.e.s titularisé.e.s qui utilisent ces outils, contrairement aux étudiant.e.s. Les eaux de l’éthique en recherche sont plus difficiles à naviguer. » M. Baker s’attend à voir des outils de plus en plus sophistiqués ainsi que des mises à jour axées sur les disciplines et les tâches individuelles.

Certain.e.s universitaires se servent déjà d’outils comme ChatGPT pour rédiger un plan ou le premier jet d’un article. « ChatGPT ne pourra tout simplement pas rédiger des articles pour des historien.ne.s, soutient M. Humphries, mais il pourrait être utile dans des disciplines où les articles sont beaucoup plus courts et où les points de vue sont uniformes. »

En outre, quiconque utilise des outils en ligne ouverts doit savoir que le matériel qui y est inscrit est conservé dans des bases de données, ce qui risque d’entraîner la perte de la paternité des textes.

Mme Pedersen affirme que l’application de politiques générales ne permettrait pas nécessairement de couvrir la diversité des styles de rédaction d’articles scientifiques. « Dans certaines disciplines des STIM, la qualité de la prose est moins importante que le résultat scientifique ou la contribution aux connaissances, tandis que dans les sciences sociales ou humaines, le style fait parfois partie de cette contribution. »

Beaucoup d’universitaires se servent déjà de correcteurs de grammaire ou d’outils de traduction basés sur l’IA. « Dans le système actuel, les personnes dont la langue maternelle n’est pas l’anglais sont assez désavantagées », soutient Yves Gendron, professeur de comptabilité à l’Université Laval, qui a écrit sur les répercussions potentielles de l’IA sur les publications scientifiques. « Un logiciel comme DeepL [pour la traduction] est pour moi un petit miracle. Je l’utilise environ cinq ou six fois par jour. »

L’IA générative peut également mener des recherches documentaires pour trouver qui a écrit sur un sujet donné et contribuer à des revues de la littérature. « Si j’utilise des opérateurs booléens dans un moteur de recherche, je vais obtenir 1 000 articles qui mentionnent mon sujet », illustre M. Baker. L’IA générative, pour sa part, puise directement dans les bonnes bases de données et propose une liste plus sélective.

Il est probable que l’IA générative soit bientôt beaucoup plus compétente en matière de mise en forme. « L’IA peut faciliter tout le processus de soumission de manuscrit, par exemple en générant les notes de bas de page, en revérifiant les références et en automatisant la soumission », explique Nasser Saleh, documentaliste pour les initiatives de formation à l’Université Queen’s et membre de Making AI Generative for Higher Education, un projet de recherche de deux ans auquel participent 17 universités d’Amérique du Nord. Mme Pedersen fait remarquer que les chercheurs et chercheuses pourraient également utiliser des outils d’IA pour colliger les données sur un site Web afin de transférer des connaissances, de produire un résumé d’une étude en préparation d’une conférence ou d’une entrevue médiatique et même d’automatiser les processus.

Certains groupes qui publient des revues se servent aussi de l’IA. C’est ce qu’a découvert M. Gendron, corédacteur en chef de Critical Perspectives on Accounting, lorsque Elsevier lui a fourni des listes de pairs pour l’évaluation. Les premiers noms étaient ceux des personnes avec le facteur h le plus élevé. « J’aime bien faire appel à un évaluateur ou une évaluatrice chevronné.e et à un.e autre plus jeune, afin de développer la communauté. L’IA ne fonctionne pas ainsi. » De plus, environ une fois par mois, il reçoit de la part de Qeios, qui s’appuie sur l’IA et qui fonctionne sans éditeur ou éditrice humain.e, des demandes pour examiner des articles.

« Je ne fais pas partie des gens qui sont optimistes quant à l’IA. Je suis dans le camp des personnes inquiètes », confie M. Gendron. Il redoute également une éventuelle mainmise de l’IA générative sur le processus de publication : des règles dictées selon les intérêts commerciaux des revues scientifiques, l’absence d’êtres humains pour assurer la ligne éditoriale et des robots simplistes décidant quels articles sont bien documentés et doivent être lus.

Voilà qui pourrait pousser des personnes qui accordent peu d’importance à l’éthique à se servir de l’IA pour produire à la chaîne des articles qui s’appuient sur des recherches douteuses. « Il est évident pour nous que ces logiciels accéléreront grandement la production de revues de la littérature », indique M. Gendron.

Mme Pedersen craint pour sa part qu’il soit difficile de distinguer les chercheurs et chercheuses qui utilisent l’IA de manière réfléchie des autres qui tournent les coins ronds. « Ça m’inquiète de voir des jeux de données falsifiés ou générés par l’IA. Comment est-ce que les humains qui évaluent pourront voir la différence? »

D’autres universitaires sont toutefois plus optimistes. « C’est une bonne chose, ça change les règles du jeu », se réjouit M. Saleh. Selon lui, les professeur.e.s qui se moquent de l’IA ou y sont réfractaires ne se rendent pas compte que ces outils peuvent leur faire gagner du temps et faciliter leurs recherches. En outre, comme cette technologie n’en est qu’à ses balbutiements, on peut encore l’encadrer de manière à ce qu’elle demeure utile pour le secteur. « Je crois qu’il est possible de l’intégrer à l’éthique de la recherche. »

M. Baker convient que plus on retarde ces conversations difficiles, plus les risques pour l’intégrité universitaire et la vie privée, notamment, sont grands. « L’IA n’est pas encore très poussée. C’est donc le moment ou jamais de mettre en place des politiques et des orientations. Si on continue de faire l’autruche, ce seront les personnes mal intentionnées qui en profiteront. »

COMMENTAIRES
Laisser un commentaire
University Affairs moderates all comments according to the following guidelines. If approved, comments generally appear within one business day. We may republish particularly insightful remarks in our print edition or elsewhere.

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Click to fill out a quick survey