Reprendre le contrôle : Joelle Pineau et la souveraineté numérique

Joelle Pineau défend une vision engagée de l’intelligence artificielle, ancrée dans l’ouverture, la rigueur et le bien commun.

16 juillet 2025
La chercheuse canadienne Joelle Pineau, professeure agrégée à l’École d’informatique de l’Université McGill Photography by  Selena Phillips-Boyle

Elle est professeure agrégée et titulaire d’une bourse William Dawson à l’École d’informatique de l’Université McGill, où elle co-dirige le Laboratoire de raisonnement et d’apprentissage. Elle est également membre du corps professoral de Mila – l’Institut québécois d’intelligence artificielle – et titulaire d’une chaire en IA Canada-CIFAR. Jusqu’en mai 2025, elle occupait le poste de vice-présidente de la recherche en IA chez Meta (anciennement Facebook), où elle dirigeait l’équipe Fundamental AI Research (FAIR).

Joelle Pineau est dans le domaine de l’IA depuis plus de 25 ans. Elle a débuté par la reconnaissance vocale dans les années 1990, avant de se spécialiser en robotique à Carnegie Mellon, puis en apprentissage automatique à McGill. Elle a cofondé le laboratoire Reasoning & Learning Lab et contribué à faire de Montréal un centre mondial de l’IA.

En avril 2025, elle a annoncé son départ de Meta, effectif fin mai, pour prendre du recul et réfléchir à ses prochaines étapes professionnelles.

Crédit: Selena Phillips-Boyle

Q. Pouvez-vous nous en dire plus sur votre expérience chez Meta ?

R. Pendant toutes ces années, la raison pour laquelle je suis allée chez Facebook (Meta), c’est que c’était, à l’époque, la seule entreprise capable de mener de la recherche en intelligence artificielle de pointe, avec des modèles à très grande échelle, tout en adoptant une approche de science ouverte. Ça voulait dire : publier nos résultats, rendre le code accessible, partager les modèles librement.

J’en tire une grande fierté, parce que j’ai contribué à mettre en place cette culture-là. Au sein du FAIR, l’organisation que je dirigeais, on a partagé plus de 1000 artefacts de recherche —du code, des modèles ou des jeux de données — sur des plateformes comme GitHub ou Hugging Face. Ces ressources ont été téléchargées plus de 2,7 milliards de fois.

« Le contexte politique américain a changé, et j’ai senti qu’il était temps de me recentrer au Canada, de contribuer à notre propre souveraineté numérique et à notre avenir en IA.»

Joelle Pineau

Un exemple marquant, c’est le modèle LLaMA, devenu l’un des plus utilisés dans la recherche. Des équipes à travers le monde s’en servent dans l’éducation, la santé, le droit… Offrir un accès ouvert à ce type de modèle, c’était vraiment mon cheval de bataille.

 Après huit ans, j’avais fait le tour. Le contexte politique américain a changé, et j’ai senti qu’il était temps de me recentrer au Canada, de contribuer à notre propre souveraineté numérique et à notre avenir en IA.

Q. Qu’est-ce que la souveraineté numérique ?
R. C’est avant tout l’indépendance technologique : ne pas dépendre entièrement d’autres pays, notamment des États-Unis, pour nos infrastructures et nos données.

Aujourd’hui, les chercheurs universitaires au Canada doivent soit utiliser les superordinateurs fédéraux – en nombre limité – soit passer par des services cloud étrangers, ce qui coûte cher et soulève des questions de souveraineté.

Nous manquons aussi d’une stratégie nationale de partage des données, qui respecterait la vie privée tout en permettant la recherche. Certains groupes commencent à développer des solutions locales, mais il faut renforcer cette capacité pour ne pas dépendre exclusivement des géants étrangers.

La collaboration internationale est importante, mais elle ne doit pas se faire au détriment de notre autonomie numérique. Nous devons absolument élaborer une stratégie robuste pour préserver cette dernière, et ne pas être à la merci des décisions ou des changements d’humeur de nos voisins.

Crédit: Selena Phillips-Boyle

Q.L’IA, ça existe depuis longtemps, mais pourquoi on en parle  autant ces derniers temps?

R. Effectivement, l’IA date des années 1950, avec un point de départ souvent situé en 1956 à la suite d’une conférence à Dartmouth. Pendant longtemps, l’IA était en arrière-plan, surtout dans les algorithmes. Par exemple : les recommandations sur Netflix ou Instagram, la recherche Google, la détection de fraudes bancaires en ligne.

L’IA faisait déjà partie de notre quotidien, mais on ne la voyait pas. Ce qui a changé récemment, c’est l’émergence de modèles comme ChatGPT, qui sont plus visibles, plus accessibles, plus « en surface », avec lesquels on peut interagir directement.

Ce changement est dû à des avancées technologiques progressives. On progresse parfois lentement, puis on fait un grand saut, comme une marche d’escalier. Et là, on est rendu à une marche où même les non-spécialistes peuvent interagir avec l’IA.

Q. Concrètement, ça ressemble à quoi l’apprentissage par renforcement ?

R.  Je peux rendre ça plus concret avec l’exemple des chatbots comme ChatGPT. Il y a deux grandes phases dans l’entraînement de ces modèles :

Le Pré-entraînement : le modèle apprend à prédire ou imiter à partir de gigantesques bases de données, souvent sans supervision humaine.

L’Affinage ou le fine-tuning ou reinforcement learning from human feedback : on interagit avec le modèle, on évalue ses réponses, on lui donne un « thumbs up » ou pas. Ce retour permet d’affiner son comportement pour qu’il soit plus socialement approprié.

L’apprentissage par renforcement est donc utilisé pour que le modèle adapte son comportement selon des signaux de récompense, dans le but de mieux répondre aux besoins humains.

Q. Qu’avez-vous à dire aux personnes qui sont plutôt inquiètes ou qui redoutent l’avancée de l’IA ?

R. D’abord, comme pour toute avancée technologique majeure, il est essentiel de réfléchir sérieusement à ses répercussions. Il ne faut pas se contenter d’en voir les avantages. Il faut aussi adopter une vision globale et responsable du développement de ces outils. L’intelligence artificielle permet des choses extraordinaires : prédictions, recommandations, applications en santé, en éducation, en productivité. Mais ces possibilités s’accompagnent de risques bien réels. C’est pourquoi j’insiste toujours sur l’équilibre.
On ne peut pas se contenter de viser la performance. Il faut développer avec rigueur et responsabilité. Là où je suis plus critique, c’est quand on bascule dans des scénarios de science-fiction, du type : « L’IA va dominer l’humanité. »

Ce genre de récit, on l’entend souvent, mais ce n’est pas fondé sur une analyse rigoureuse. À ce jour, il n’y a aucun mécanisme réaliste qui nous permet de penser que c’est la trajectoire la plus probable.

Crédit: Selena Phillips-Boyle

Ces scénarios supposent une croissance exponentielle continue, ce qui est très rare dans le monde physique. Il faut prendre en compte les limites du système dans son ensemble, pas seulement extrapoler une variable. Par exemple, les modèles d’IA demandent énormément d’énergie. Ils s’entraînent dans des centres de données géants, qui consomment énormément de ressources. Ce n’est pas évident qu’on ait l’énergie nécessaire pour soutenir une telle croissance à long terme.

Mais attention : cela ne veut pas dire qu’il n’y a pas de risques.
Il y en a, et ils sont bien réels aujourd’hui. C’est pourquoi il faut se concentrer sur les vecteurs de risque actuels, les mesurer et mettre en place des stratégies pour les atténuer.

Un exemple concret : Dans nos travaux, notamment en open source, on a mis au point des méthodes pour évaluer les risques de nos modèles. Par exemple : est-ce que le modèle pourrait divulguer des données confidentielles ? Générer de la désinformation ? Être utilisé pour concevoir des armes chimiques ou biologiques ?

« Il faut distinguer les peurs infondées des dangers concrets. Et surtout, éviter d’agir ou de communiquer sous le coup de la peur.»

Joelle Pineau

Prenons le cas d’un modèle de synthèse vocale que nous avions développé. Il était capable de reproduire la voix de quelqu’un avec un simple échantillon. Techniquement, c’était très avancé, mais le potentiel d’usage malveillant était trop élevé. Nous avons donc choisi de ne pas le rendre public, car il n’existait pas de méthode efficace à ce moment-là pour authentifier la voix synthétique comme le watermarking (filigrane) par exemple. Le risque était trop grand, et impossible à mitiger de manière fiable.

Bref, il faut distinguer les peurs infondées des dangers concrets. Et surtout, éviter d’agir ou de communiquer sous le coup de la peur. Faire peur à la population, sans donner les moyens de comprendre ou d’agir, c’est contre-productif. L’histoire récente nous montre les conséquences : la peur autour des vaccins, par exemple, a entraîné une recrudescence de maladies évitables comme la rougeole. C’est pour cela que ma démarche est rigoureuse et transparente.
Je ne minimise pas la puissance de ces technologies. Elles ont un potentiel énorme, mais elles comportent aussi des risques. Il faut simplement faire preuve de nuance, et aider le public à comprendre à quoi il est réellement exposé.

Mais faire du sensationnalisme, crier au danger total ou à l’apocalypse technologique…
Ce n’est pas responsable. Et malheureusement, ce sont souvent ces discours qui attirent les micros. Les journalistes aiment les récits catastrophes. Or, il faut du temps pour bâtir des solutions solides. Alors qu’un seul message alarmiste, parfois relayé par un influenceur ou un artiste, peut suffire à détruire la confiance du public.

Q : En tant que femme, est-ce que vous avez trouvé que c’était un milieu plus difficile ?

R : Je dirais que le domaine reste encore aujourd’hui majoritairement masculin, c’est certain. Ça a été le cas tout au long de mon parcours. Mais j’ai aussi eu la chance d’évoluer dans des contextes où il y avait une certaine « masse critique » de femmes , pas une majorité, mais disons autour de 15 à 20 %, ce qui fait une différence. Ce n’était pas du tout un ratio de 1 femme pour 50, par exemple. Et dans ces milieux-là, j’ai pu me faire de très belles amitiés, ce qui a contribué à ce sentiment de ne pas être seule.

Cela dit, je reconnais qu’il y a beaucoup de survivorship bias dans mon histoire. Si je suis encore dans ce domaine aujourd’hui, c’est aussi parce que j’ai été très bien entourée. J’ai eu beaucoup de soutien, des expériences positives, et surtout des gens qui ont cru en moi. Certains ont été des mentors,pas seulement pour me conseiller, mais pour m’ouvrir des portes. Et même si c’étaient souvent des hommes, ils m’ont offert des occasions et des responsabilités clés tout au long de ma carrière.

C’est pour ça que j’en suis là aujourd’hui, mais je sais que ce n’est pas le cas de tout le monde. Plusieurs femmes vivent des parcours beaucoup plus difficiles. Dans mon cas, j’ai eu la chance de croiser des personnes qui ont su reconnaître mon potentiel et me le dire, me faire confiance, parfois même avant que je sois totalement prête.

Diriger l’IA au sommet : une expérience fondatrice
Durant les 18 derniers mois de son passage chez Meta, Mme Pineau a occupé un poste de direction stratégique au sein de l’équipe exécutive de l’entreprise. Une période intense, structurante, et profondément humaine.
« Mark Zuckerberg, qui dirigeait l’équipe, m’a expressément invitée à le rejoindre parce qu’il voulait réorienter l’entreprise vers l’IA, et il avait besoin de quelqu’un qui comprenait la technologie en profondeur, mais aussi capable de la vulgariser », raconte-t-elle.
Chargée de concevoir une stratégie d’intelligence artificielle à l’échelle de l’organisation, elle a aussi assumé un rôle de médiatrice entre science, gouvernance et communication. « Mon rôle, c’était non seulement de bâtir une stratégie IA à l’échelle de l’entreprise, mais aussi d’expliquer clairement les opportunités, les risques, et de défendre certaines orientations comme le choix de maintenir une recherche ouverte, à un moment où plusieurs grandes compagnies fermaient leurs modèles. »
Un exercice délicat, qui a demandé du dialogue, de la pédagogie, et une grande rigueur intellectuelle. « Il a fallu avoir des discussions solides, nuancées, et j’ai senti une vraie écoute, beaucoup de respect et de curiosité. Pour moi, ça a été une école incroyable. »

Q. Comment avez-vous réussi à concilier la carrière et la vie de famille?

R. Mon conjoint est également chercheur en intelligence artificielle et nous avons quatre enfants, maintenant adolescents ou jeunes adultes, âgés entre 16 et 21 ans.

Comme pour toute famille, avec ou sans carrière très prenante, avoir quatre enfants, c’est énormément de travail. Cela dit, la carrière académique a un avantage précieux : sa flexibilité. Il y a bien sûr des heures fixes pour l’enseignement, mais en dehors de ça, on peut organiser son emploi du temps. Depuis plusieurs années, par exemple, je travaille de la maison un à deux jours par semaine, surtout l’été.

Ces dernières années, j’ai aussi beaucoup voyagé , donc il fallait pouvoir compter sur un partenaire solide à la maison. Mon conjoint a assuré, et on a eu la chance de pouvoir s’appuyer sur nos parents, qui ont été très présents, notamment quand nos enfants étaient petits.

Ce n’est pas tout le monde qui a ce genre de soutien familial, et on en est conscients. On a aussi pu bénéficier du système montréalais, et canadien en général : écoles publiques de qualité, services de garde, tout un écosystème qui aide beaucoup les familles. Quand je compare avec des collègues en Californie, par exemple, on réalise à quel point ce filet social est précieux. C’est facile de le tenir pour acquis, mais il fait une vraie différence.

Q. Que pensez-vous de la combinaison d’une carrière académique avec un rôle en milieu industriel ?

R. C’est une pratique qui existe dans certains domaines, mais dans les sciences, et plus spécifiquement à la Faculté des sciences de McGill où je travaille, c’est plutôt rare. Pourtant, il y a une volonté à McGill de trouver des formules qui fonctionnent. Je ne suis pas la seule à le faire, ça fait maintenant huit ans que je partage mon temps entre l’université et un poste en industrie.

C’est vrai que ce genre de double engagement n’est pas très courant, mais tout se fait en toute transparence, avec la déclaration des conflits d’intérêts, et une gestion rigoureuse du temps accordé à chaque partie. Quand j’ai commencé, c’était presque inédit, mais j’ai eu la chance d’avoir un chef de département ouvert d’esprit qui a accepté d’essayer. Pendant plusieurs années, j’étais à parts égales, 50-50, puis ces dernières années, j’ai plutôt travaillé à 80 % en industrie et 20 % à l’université. Je verrai comment ça s’organise l’an prochain.

Ce modèle est assez particulier, mais il est plus fréquent dans d’autres disciplines. Par exemple, les médecins partagent souvent leur temps entre le milieu universitaire et la pratique clinique. C’est aussi courant dans les écoles de commerce, de droit ou d’ingénierie, mais beaucoup moins dans les sciences fondamentales.

« Dans le milieu universitaire, on bénéficie d’une plus grande liberté pour explorer des idées nouvelles ».

Joelle Pineau

Je pense que quand c’est bien fait, ce double rôle peut être très bénéfique pour les deux environnements. Il faut cependant une certaine flexibilité. En étant présente sur le terrain industriel, on comprend mieux les enjeux concrets et cela nourrit énormément la recherche académique avec des problématiques et des stratégies très pertinentes.

Dans le milieu universitaire, on bénéficie d’une plus grande liberté pour explorer des idées nouvelles. On travaille avec des étudiants passionnés, qui apportent des perspectives fraîches et innovantes, ce qui est très stimulant.

Pour moi, ce lien avec l’industrie a été une vraie source de motivation. Quand j’ai choisi McGill, je pensais que la recherche industrielle serait très fermée et rigide, mais j’ai découvert un milieu ouvert et dynamique, ce qui m’a vraiment séduite.

Q. Que vous réservent les prochains mois?

R. J’ai maintenant accumulé beaucoup d’expérience en leadership, en recherche et en intelligence artificielle. Je me donne les prochains mois pour réfléchir à la suite, pour voir dans quelle direction je souhaite rediriger mon énergie. Je ne l’ai pas encore décidé , je suis vraiment dans une période de transition.

Je prends le temps d’explorer les possibilités, de voir où je peux me rendre utile, où j’ai envie de m’investir. Je continue encore à superviser quelques étudiants. Au fil des années, plusieurs ont obtenu leur diplôme , j’en ai cinq ou six qui ont gradué récemment, et il m’en reste deux ou trois actuellement.

C’est un point d’ancrage important pour moi, que je vais continuer à accompagner. La question maintenant, c’est : est-ce que je reprends la direction d’un laboratoire à plein régime, ou est-ce que je m’engage dans un nouveau projet? C’est ce que je suis en train de réfléchir.

Le Mila, cœur battant de l’IA à Montréal
Créé en 2019, le Mila – Institut québécois d’intelligence artificielle – est aujourd’hui un pôle névralgique de la recherche en IA au Canada. Né de l’initiative du chercheur Yoshua Bengio, il regroupe sous un même toit une quarantaine de professeurs issus principalement de l’Université de Montréal et de McGill, mais aussi de Polytechnique et d’autres institutions, ainsi qu’environ 500 étudiants et étudiantes en formation.
« L’idée était de rassembler les différentes forces vives en IA à Montréal pour créer un environnement collaboratif et stimulant », explique Mme Pineau. Le Mila s’inscrit dans le cadre de la stratégie pancanadienne en intelligence artificielle, aux côtés des instituts Vector à Toronto et Amii à Edmonton.
À la différence d’un organisme centralisé, le Mila agit comme une plateforme : « Les projets sont déterminés par les chercheurs eux-mêmes. Le rôle du Mila, c’est de fournir un cadre et des ressources pour que cette recherche puisse s’épanouir. »
Les domaines couverts sont vastes : traitement du langage, vision par ordinateur, apprentissage automatique, mais aussi IA responsable. « Certains collègues travaillent sur les biais algorithmiques, d’autres sur les impacts environnementaux de l’IA ou encore la sécurité des systèmes. Il y a aussi des applications en santé, en neurosciences, en droit… »
Mme Pineau, pour sa part, s’est spécialisée en apprentissage par renforcement – une méthode inspirée des mécanismes de conditionnement, comme ceux observés par Pavlov. « C’est une approche où la machine apprend à partir de récompenses : elle teste des actions, en mesure les effets, et ajuste son comportement pour optimiser les résultats. »

Photos de Selena Phillips-Boyle, artiste visuel·le travaillant avec l’image, établi·e à Tiohtià:ke (Montréal, Canada), dont la pratique se situe à l’intersection du travail, du genre et de la sexualité.

La lecture hebdomadaire
du milieu de l’enseignement supérieur au Canada
Rejoignez des milliers de personnes qui reçoivent chaque semaine des conseils de carrière, des nouvelles, des chroniques d’opinion et des reportages d’Affaires universitaires.