Quand l’université perd le monopole de l’intelligence
Si l’expertise devient abondante et bon marché, que reste-t-il vraiment aux universités?
Et si la véritable menace de l’intelligence artificielle ne se trouvait pas dans les salles de classe, mais dans la raison même d’être des universités? Pendant que l’on débat de tricherie, d’évaluations et de politiques d’encadrement, une question bien plus dérangeante reste en suspens. Que devient l’enseignement supérieur dans un monde où l’intelligence, l’analyse et même le flair de la recherche peuvent être loués à la demande, à faible coût et à grande échelle? En se projetant vers un printemps 2032 plausible, cette chronique explore un scénario inconfortable, mais de moins en moins théorique, où l’université cesse d’être une ressource rare. Et doit, pour survivre, se réinventer radicalement.
Pour mesurer l’ampleur de ce qui pourrait être en jeu, il faut maintenant quitter le confort du présent et se projeter là où cette trajectoire pourrait nous mener.
Printemps 2032
Dans leur modèle des avenirs de l’IA (IA Futures Model), Daniel Kokotajlo et ses collègues y vont de prédictions concrètes (si ce n’est catégoriques) : d’ici 2032 environ, on pourrait voir des systèmes d’IA qui performent mieux que n’importe quelle équipe de recherche humaine, et ce, sur tous les plans, même le « flair de la recherche », ce talent de poser la bonne question de la bonne façon au bon moment. Le modèle ne présente aucune date coulée dans le béton, mais propose plutôt une chronologie probable, hypothétique et incertaine.
Maintenant, imaginons que les grandes lignes de cette prédiction s’avèrent. Plaçons-nous au printemps 2032 et supposons que nous avons affaire à un nouveau genre de capacité : un système d’IA qui arrive non seulement à générer des textes de qualité, mais aussi à effectuer toutes les étapes d’un processus de recherche. Il peut passer en revue toute la littérature scientifique plus rapidement que quiconque, coder et appliquer le code, créer des expériences, corriger les bogues, analyser les résultats, rédiger le rapport, répondre à l’équipe de révision, mais surtout recommencer le processus sans cesse et sans se fatiguer, avec une créativité méthodique difficile à atteindre quand on a besoin de sommeil, de services de garde, de réunions de comités et de l’occasionnelle remise en question existentielle.
Votre établissement est-il préparé à l’arrivée d’un tel printemps?
C’est là que la conversation, trop souvent limitée à ce qui peut être fait en classe, doit s’étendre sur le plan stratégique. Les universités constituent, entre autres choses, une technologie sociale agrégatrice d’intelligence humaine. Elles réunissent des personnes intelligentes (de tous âges, avec différents bagages et tempéraments), leur offrent du temps, des infrastructures et des normes, puis leur demandent deux choses valorisées en société : produire du savoir et former des gens.
L’érudition a perdu de son lustre il y a déjà quelques siècles, d’abord avec l’arrivée de l’imprimerie; Wikipédia n’aura été que le clou dans le cercueil. Ce qui demeure une denrée rare, ce ne sont pas les connaissances en soi, mais le jugement : la capacité à synthétiser l’information, à user de discernement, à prioriser l’essentiel, à démêler le vrai du faux et à établir les prochaines étapes à suivre (et surtout à les justifier). Pour la majeure partie de l’histoire moderne, il n’y a eu qu’une seule source possible de jugement : le cerveau humain.
Mais dans le scénario du printemps 2032, cette rareté commence à être ébranlée.
Pas de manière dramatique comme on le verrait dans un film hollywoodien, mais de façon banale, dans une logique budgétaire.
Si vous dirigez une université, vous devez vous poser cette question inconfortable : qu’arrive-t-il à ma proposition de valeur si l’on peut louer sur demande, dans le nuage, des fonctions cognitives avancées? Si tranquillement, l’« intelligence » est de moins en moins perçue comme un attribut humain et de plus en plus comme une infrastructure?
L’intelligence abordable transforme l’économie de l’expertise.
Preuves de la plausibilité de ce scénario
À ce moment-ci de la lecture, une personne raisonnée pourrait se demander : ne sommes-nous pas en train d’extrapoler à l’extrême? N’avons-nous pas affaire à un long historique de prédictions trop confiantes, suivies de résultats embarrassants, puis d’un autre cycle de financement? Absolument. Le domaine de l’IA accuse une forte tradition de triomphalisme prématuré.
Et pourtant.
Il y a une raison pour laquelle nous sommes plusieurs à entrevoir un virage, et ce n’est pas seulement parce que les démonstrations s’améliorent. C’est parce que le schéma se répète continuellement depuis la dernière décennie : les systèmes s’améliorent à force de calculs, de collecte de données et d’entraînement. Ce n’est pas métaphysique d’affirmer que « l’intelligence n’est que calcul »; c’est une observation pratique de ce qui a fonctionné jusqu’à présent.
Rich Sutton, lauréat canadien du prix Turing, a théorisé ce schéma dans ce qu’il appelle « The Bitter Lesson » (la leçon amère), qui veut que, depuis les débuts de l’IA, les méthodes reposant sur des calculs tendent à l’emporter à long terme sur les méthodes qui s’appuient sur l’encodage méticuleux du savoir humain. La leçon est « amère » (du moins pour les gens en informatique comme moi), car elle confronte l’idée que notre intelligence demeurera indispensable.
Des décennies auparavant, Hans Moravec avait apporté un point similaire dans « The Role of Raw Power in Intelligence » (le rôle du pouvoir brut en intelligence) : ce qui importe avec l’intelligence, comme on l’observe dans la nature et chez les machines, ce n’est pas l’établissement de structures ou de processus particuliers, mais simplement l’accumulation brute de capacités computationnelles et l’émergence progressive de capacités à grande échelle.
Pendant ce temps, le monde empirique trace sa propre voie. Nous assistons depuis un an ou deux à la transformation des systèmes de codage, qui sont passés d’une « fonction de remplissage automatique sophistiquée » à des outils en mesure d’effectuer plusieurs tâches avec toujours plus d’autonomie, comme créer des tests, les lancer, réviser le code, corriger les bogues et coordonner le flux de travail. Le code Claude d’Anthropic en est un exemple. Andrej Karpathy voit 2025 comme un tournant pour le codage « agentique », où l’agent conversationnel intelligent laisse place à un véritable collaborateur débutant en mesure de travailler de façon autonome.
Un logiciel ne se compare pas à une formation universitaire, mais l’historique du codage demeure un indicateur clé d’un phénomène beaucoup plus vaste : le passage graduel d’un système qui peut discuter des choses à faire vers un système en mesure d’accomplir des tâches, de façon imparfaite certes, mais tout de même utile.
Une autre piste vient des tentatives de mesurer les capacités dans un cadre structuré. METR, par exemple, s’attarde sur l’« horizon temporel » des agents d’IA, soit la longueur et la complexité des tâches qu’ils peuvent réaliser adéquatement. Selon leur analyse, on assiste à une amélioration rapide de cette dimension à un rythme tel que, si la tendance se maintient, on observerait des changements ahurissants d’ici quelques années seulement. On pourrait débattre des paramètres et des points de référence (à juste titre), mais la direction empruntée est difficile à ignorer, comme l’illustre le plus récent rapport de METR datant de décembre 2025, qui s’intitule « AI capabilitiesprogress has sped up » (Les progrès de l’IA se sont accélérés).
Puis il y a les mathématiques, longtemps considérées comme le sanctuaire du raisonnement humain. Terence Tao, titulaire d’une médaille Fields, a réfléchi publiquement à la place des outils d’IA en mathématiques et à ce qu’on pourrait voir à mesure que s’officialisera et progressera le raisonnement assisté par ordinateur. Parallèlement, on a vu en 2025 de nombreux systèmes d’IA atteindre le seuil de la médaille d’or à l’Olympiade internationale de mathématiques (OIM). Un classement à l’OIM n’équivaut pas à un programme de recherche, mais ce n’est quand même pas rien; c’est un signe que ce que nous considérions autrefois comme une « simple correspondance de modèles » entre désormais dans un territoire qui était jusqu’alors réservé à la cognition humaine.
Lentement, puis tout d’un coup
C’est rarement le manque d’intelligence qui explique les échecs qu’essuient certains établissements. Souvent, c’est le fait qu’ils servent à un monde qui n’existe plus.
Les universités carburent au changement lent : on y mène des consultations, des délibérations, des comités, des sous-comités et, au creux du désespoir, des groupes de travail. Ce n’est pas par retenue, mais par souci de légitimité, un impératif dans une communauté fondée sur le débat, l’autonomie et la gouvernance partagée. Le coût de temps est normalement un attribut, et non un bogue.
Mais les courbes de capacité de l’IA ne suivent pas les cycles des sénats.
La phrase célèbre d’Hemingway sur la vitesse de la faillite (lentement, puis tout d’un coup) est souvent citée, car elle illustre bien le rythme naturel du changement dans les systèmes complexes : une longue période pendant laquelle il est facile de justifier les signaux inconfortables, suivie d’une phase transitoire où la nouvelle réalité saute aux yeux de tout le monde, partout et tout d’un coup, lorsqu’il est trop tard pour gérer habilement la situation.
Je ne crains pas qu’un jour, les universités se rendent compte que leur rectorat a été remplacé par un robot. Ce qui me préoccupe, c’est qu’avec des capacités cognitives avancées bon marché et suffisamment fiables, les universités auraient soudainement à se rendre à l’évidence : ce qu’elles offrent au monde n’est plus une denrée rare.
Prenons un exemple banal. Une entreprise manufacturière veut des conseils sur l’utilisation de nouveaux matériaux. Aujourd’hui, elle consulterait quelqu’un d’un corps professoral, potentiellement accompagné d’une personne étudiant aux cycles supérieurs. Dans le scénario du printemps 2032, elle consulterait d’abord son agent de recherche interne pour aller plus vite, à moindre coût, et pour pouvoir explorer une masse d’information en peu de temps. La professeure ou le professeur offrirait au mieux une « deuxième opinion » (ou une certaine légitimité), et ne serait donc pas la première source d’information.
Allons-y avec un autre exemple : les politiques publiques. Une sous-ministre à Affaires mondiales Canada a besoin d’une synthèse rapide pour un dossier : les enjeux, les cas passés similaires, la cartographie des parties prenantes, une évaluation des risques et les répercussions des traités. Aujourd’hui, c’est l’expertise des corps professoraux universitaires qui serait mise à profit. Dans un monde où l’intelligence machine foisonnerait, cette sous-ministre se tournerait vers un tel outil, qui offre une grande rapidité avec calme, qui connaît toute l’histoire de l’humanité, qui a « lu » tous les textes et articles sur la science politique et les relations internationales jamais publiés, et qui est en plus (soyons honnêtes) détaché émotionnellement, ce qui n’est pas le cas des humains.
Loin de moi l’idée d’insulter les professeures et professeurs. C’est simplement la logique de la concurrence dans les économies de marché. Lorsque le monde extérieur disposera de capacités cognitives avancées, les universités cesseront de détenir le monopole de l’avantage intellectuel. Et lorsque ce monopole s’effritera, certaines autorités institutionnelles disparaîtront avec lui.
Des contrarguments à prendre au sérieux
Il serait irresponsable de ne pas tenir compte des avenues où un tel scénario ne verrait jamais le jour.
Peut-être que nous atteindrons un plateau (congestion des données, limites énergétiques, algorithmes moins performants que prévu, etc.). Peut-être que la réglementation, la responsabilisation et la méfiance du public feront obstacle au déploiement de l’IA. Peut-être que les systèmes demeureront défaillants sur des aspects essentiels pour les projets politiques et de recherche d’envergure (les hallucinations sont comiques, jusqu’à ce qu’elles soient coûteuses). Peut-être que l’avenir donnera tort à celles et ceux qui prédisaient un « flair pour la recherche » artificiel, considérant qu’il demande du vécu, des valeurs et une certaine perspective, des éléments foncièrement humains.
Tout cela est plausible.
Mais il y a quand même une certaine asymétrie : le prix à payer si l’on se trompe n’est vraiment pas le même pour tous les scénarios. Si celui du printemps 2032 est trop intense, nous aurons, dans le pire des cas, consacré du temps à réfléchir sérieusement à la capacité d’adaptation des établissements. Rien de trop grave. Mais s’il est au contraire trop conservateur et que le changement arrive plus vite que prévu, les universités auront gaspillé la seule ressource qui leur est difficile d’obtenir, soit le temps de s’adapter sans compromettre leur légitimité.
Que devraient donc faire les universités?
Je n’offrirai pas ici une « solution facile en cinq étapes ». Mais je crois tout de même que les directions d’université devraient envisager un virage dès maintenant, pendant qu’il fait encore clair.
La question n’est pas « Comment empêcher la communauté étudiante d’utiliser l’IA? ». Il s’agit au mieux d’une question tactique et au pire, d’une erreur de catégorisation.
La question est plutôt : Que devient l’université dans un monde où l’intelligence est partout?
Pour y répondre, il faut d’abord distinguer les tâches cognitives des fonctions institutionnelles. Les systèmes d’IA dans ce scénario peuvent répliquer de plus en plus fidèlement des fonctions cognitives (analyse, synthèse, prose, code). Ce qui leur est plus difficile à répliquer, ce sont les fonctions institutionnelles, lesquelles reposent sur une légitimité sociale, une autorité légale et une présence incarnée.
Pensons à la validation des acquis. Un diplôme ne prouve en rien le savoir. Ce n’est que le fruit d’une chorégraphie de mécanismes permettant aux employeurs, aux entités professionnelles et à la société de prendre des décisions sans avoir à évaluer chaque personne de zéro. Un système d’IA peut évaluer des compétences. Ce qu’il ne peut pas faire, pour l’instant, c’est offrir une certification légitime aux yeux des autres établissements. La question est de savoir si les universités vont défendre et faire évoluer cette fonction, ou la laisser se faire effacer par le premier venu.
Pensons à la formation. Il y a une différence entre savoir raisonner sur l’éthique et devenir une personne capable de repérer les enjeux éthiques en société. Séminaires, stages cliniques, débats de fin de soirée dans le salon des cycles supérieurs, accumulation graduelle de responsabilités supervisées : ce sont tous des mécanismes permettant de former son jugement, et non seulement d’acquérir des connaissances. Le fait que l’IA soit un jour capable ou non de reproduire ces mécanismes reste ouvert au débat. L’idée qu’une formation incarnée, étendue dans le temps et ponctuée de liens sociaux soit plus difficile à marchandiser que la synthèse de documents est à tout le moins une position qui se défend. Et c’est probablement là-dessus que les universités devraient miser.
Pensons au pouvoir rassembleur. Les campus demeurent l’un des rares endroits en mesure de rassembler le secteur public, le secteur privé, la société civile et le grand public dans un contexte autre que purement transactionnel. Ce pouvoir rassembleur repose sur une indépendance perçue et des horizons à long terme, deux aspects attaqués de toutes parts, mais qui constituent toujours de réels atouts. Dans un monde submergé par les analyses machine, pouvoir offrir un espace de confiance pour débattre ne deviendrait pas superflu, au contraire.
Enfin, pensons à la reddition de compte. Les consultations offertes par des cabinets-conseils sont encadrées par des contrats. Les prescriptions des médecins sont autorisées par les permis d’exercice. Les publications universitaires sont rattachées à un nom et à une carrière. La reddition de compte est une technologie sociale qui assure une expertise fiable. Elle nécessite des entités imputables et pérennes qui ont quelque chose à perdre.
Les systèmes d’IA peuvent générer des résultats grâce à l’expertise encodée. Ce qu’ils ne sont pas encore en mesure de faire, contrairement aux établissements et aux personnes, c’est de rendre des comptes. Les universités pourraient reconnaître que leur avenir réside probablement moins dans le fait d’être l’unique source de savoir et davantage dans le fait de garantir ce savoir; s’en porter garant, l’attester et en assumer les conséquences. On reviendrait alors à l’essence de ce qu’étaient les universités à l’époque médiévale : des associations qui protègent l’intégrité intellectuelle plutôt que des usines à connaissances.
Je ne prétendrai pas avoir de réponses exhaustives. « La construction du jugement » est plus facile à nommer qu’à mettre en œuvre, et l’histoire de l’enseignement supérieur est parsemée d’affirmations pieuses sur la croissance personnelle qui ont eu en réalité peu de poids. Mais le revers de la médaille, soit de tenir pour acquis que ce que nous accomplissons maintenant conservera sa valeur, simplement parce que cela a toujours été le cas jusqu’ici, est une stratégie risquée si le contexte concurrentiel se transforme devant nous.
Les universités se sont réinventées maintes et maintes fois pour mieux servir leurs collectivités. Le printemps 2032 n’est pas si lointain. Vous, qui lisez ces lignes, jouerez peut-être toujours un rôle au sein de la direction de votre établissement. Ma question pour vous est simple : si un scénario du genre finissait par se concrétiser, qu’est-ce que vous aurez souhaité avoir mis en branle aujourd’hui et que vous n’avez toujours pas fait?
Laisser un commentaire
Affaires universitaires fait la modération de tous les commentaires en appliquant les principes suivants. Lorsqu’ils sont approuvés, les commentaires sont généralement publiés dans un délai d’un jour ouvrable. Les commentaires particulièrement instructifs pourraient être publiés également dans une édition papier ou ailleurs.