L’adoption de l’IA : un contrat social
En intégrant l’intelligence artificielle dans nos milieux de vie, on ouvre la voie à certains futurs et on ferme la porte à d’autres. La société est-elle vraiment prête à en accepter les conséquences?
Une part importante du discours actuel sur l’IA dans le milieu de l’enseignement supérieur concerne surtout son intégration. Comment peut-on l’utiliser conformément aux principes de la conception universelle? Comment peut-on s’assurer que toutes les personnes y ont accès, peu importe leur genre, leur origine ethnique ou leur classe sociale? Quelles sont les implications de l’IA pour la pérennité de la carrière professorale? L’intégration des technologies de l’IA exige, à juste titre, une approche nuancée et réfléchie, et on estime essentiel d’alimenter le débat.
Pourtant, les réflexions sur le sujet reposent sur l’hypothèse que l’intégration de l’IA en salle de classe est à la fois souhaitable et inévitable. Mais on oublie souvent de se demander si l’IA a vraiment sa raison d’être dans l’enseignement supérieur. Cette hypothèse découle en fait de deux idées très répandues : 1) Le progrès technologique est inévitable. 2) La technologie est neutre en soi et ne se politise qu’à travers ses usages.
La première idée est nécessairement fausse, ou du moins illogique, puisque rien dans le cours de l’histoire n’est inévitable. Dans les faits historiques, il n’y a que des probabilités fluctuantes. Bien entendu, les gens sont contraints, conditionnés et influencés par des forces et structures sociétales. Mais croire que le cours de l’histoire ne peut être changé revient à priver les personnes de leur capacité d’agir et à réduire les notions de responsabilité et de justice à de pures fictions. Les transformations surviennent lorsque les gens prennent des décisions et passent à l’action.
La deuxième idée renvoie à ce que les philosophes et historiennes et historiens appellent la « conception instrumentale » de la technologie. Un outil, comme un marteau, semble politiquement et moralement neutre. Un marteau est considéré comme « bon » s’il est utilisé à bon escient, mais comme « mauvais » si l’on s’en sert à des fins malveillantes. Au bout du compte, c’est la personne qui utilise l’outil et ses intentions qui font l’objet d’un jugement moral, et l’outil lui-même n’est qu’un simple instrument.
L’IA n’est pas un outil comme un marteau
Devant l’ampleur et la complexité des systèmes qui caractérisent le monde moderne, les spécialistes qui étudient la technologie et son histoire ont largement rejeté la conception instrumentale de la technologie. Le politologue Langdon Winner a vigoureusement soutenu, en 1980, que les technologies ont effectivement une portée politique. Un exemple convaincant est celui de l’énergie nucléaire. Parce qu’elle est à la fois extrêmement puissante et fondamentalement dangereuse, toute société qui y recourt doit immédiatement renforcer ses dispositifs de surveillance et de sécurité. L’exploitation d’une telle forme d’énergie suppose inévitablement un système social et politique qui concentre le pouvoir au lieu de le disséminer. Et, une fois ce pas franchi, il devient presque impossible de faire marche arrière.
L’adoption de technologies de grande envergure comme l’énergie nucléaire ou l’IA revient à conclure un contrat social dont les conséquences sont comparables à celles de décisions législatives. Parce que l’on continue de percevoir de telles technologies comme de simples outils très sophistiqués, neutres et sans portée politique ou morale, elles échappent au regard critique de la démocratie. Les enjeux politiques et éthiques sont alors relégués au seul domaine des intentions des utilisatrices et utilisateurs, ce que reflète largement le débat actuel autour de l’IA.
Les philosophes et les historiennes et historiens qui s’intéressent aux technologies, mais qui rejettent la conception instrumentale, les conçoivent comme de vastes réseaux mondiaux réunissant des matériaux, des lieux, des pratiques, des gens, des établissements ainsi que des enjeux politiques et éthiques. La plupart des technologies actuelles ne sont pas de simples outils comme des marteaux. Elles ont le potentiel d’influencer notre manière d’expérimenter le monde et d’agir de façon profonde, durable et parfois inattendue. Qui aurait cru, par exemple, que l’électrification des villes au XIXe siècle transformerait à ce point la manière de parcourir et de ressentir l’espace urbain, tout en donnant naissance à de nouvelles formes d’art? En abordant l’IA sous l’angle d’un réseau, on se donne les moyens de se questionner sur les engagements sociopolitiques à long terme qu’elle implique.
Les avantages supplantent-ils les risques?
L’IA présente assurément des avantages pour l’enseignement supérieur. Elle pourrait alléger la charge de travail du corps professoral en automatisant la création de contenus pédagogiques ou d’outils d’évaluation comme des plans de cours, des pages Web ou des tests à choix multiples. Elle pourrait produire des diapositives de cours à partir de notes, permettre aux enseignantes et enseignants d’améliorer rapidement leur approche de conception universelle ou leurs stratégies d’apprentissage actif, et répondre aux questions logistiques courantes des étudiantes et étudiants. Elle pourrait même servir d’outil de tutorat pour faciliter la compréhension de notions complexes.
Cependant, les réfractaires rappellent qu’elle engendre aussi des coûts importants. Les centres de données mobilisent des volumes d’énergie considérables, et cette consommation ne cesse de croître : on estime qu’elle pourrait représenter 12 % de la consommation totale d’électricité aux États-Unis d’ici 2030. Selon MIT News, la demande en électricité des centres de données américains pourrait atteindre environ 1 050 térawatts d’ici 2026, les plaçant au cinquième rang du classement mondial à ce chapitre, entre le Japon et la Russie. Des centrales au charbon qui devaient fermer leurs portes ont maintenu leurs activités pour combler cette énorme demande en énergie. La fabrication de puces d’IA et le refroidissement des centres de données et des centrales de production d’énergie requièrent des quantités considérables d’eau, auxquelles s’ajoutent des impacts environnementaux notables, tels que la pollution et les émissions de carbone. L’IA a contribué à la prolifération de mésinformation et de désinformation, et à l’émergence des hypertrucages. Comme l’exposent Kate Crawford et Vladan Joler dans Anatomy of an AI System (en anglais seulement), la fabrication des dispositifs d’IA mobilise les chaînes d’approvisionnement exploitantes. L’emploi de l’IA pour orienter les décisions en matière d’assurance ou de détermination des peines a été remis en question en raison de préoccupations relatives aux droits de la personne. On a également observé que la mise en place de systèmes de calcul automatisés tend à réduire la responsabilisation. De plus, l’essor de l’IA a contribué à concentrer davantage la richesse et le pouvoir politique entre les mains d’une poignée d’élites.
On relève aussi, dans l’enseignement supérieur, des enjeux peu débattus et insuffisamment documentés. La dépendance à l’IA pourrait appauvrir la réflexion critique et la créativité chez la population étudiante et les membres du corps professoral. Le recours aux outils d’IA comporte, par ailleurs, certains risques en matière de sécurité des données et de protection des renseignements personnels. Et l’on considère trop souvent comme acquise l’adhésion à ces technologies par de simples « mises à jour logicielles routinières », ce qui soulève des questions épineuses concernant les conditions de travail dans le milieu universitaire.
Si l’on écarte le postulat déresponsabilisant de l’inévitabilité technologique et les idées naïves présentant la technologie comme apolitique, qui encouragent une intégration précipitée, la question suivante s’impose : l’adoption généralisée de l’IA en vaut-elle réellement le coût? Notre intention n’est pas de répondre à cette question, mais de la formuler clairement et de manière critique avant d’entamer toute réflexion sur l’intégration de l’IA. L’adoption de cette technologie pourrait s’avérer avantageuse dans plusieurs domaines comme la recherche en santé, ainsi que pour des créneaux spécialisés de l’enseignement supérieur. Mais cela suppose une analyse nuancée, attentive aux formes particulières que prend l’IA et aux coûts qui leur sont associés, plutôt qu’une adhésion naïve à un discours triomphaliste. À la manière d’une loi, l’IA ouvre la voie à certains futurs et ferme la porte à d’autres. Il faut donc s’assurer que les coûts potentiels, sur les plans environnemental, politique et social, se justifient au regard des avantages attendus. L’adoption d’une technologie, en éducation comme ailleurs, n’est jamais un geste politiquement ou moralement neutre.
Postes vedettes
- Chaire de recherche Impact+ Canada en résilience démocratique et communautaire en contexte éducatifUniversité de Montréal
- Vice-rectrice, vice-recteur aux ressources humaines et à l’administrationUniversité du Québec à Rimouski
- Médecine - Professeure adjointe ou professeur adjoint (sciences pharmaceutiques)Université d'Ottawa
Laisser un commentaire
Affaires universitaires fait la modération de tous les commentaires en appliquant les principes suivants. Lorsqu’ils sont approuvés, les commentaires sont généralement publiés dans un délai d’un jour ouvrable. Les commentaires particulièrement instructifs pourraient être publiés également dans une édition papier ou ailleurs.