Passer au contenu principal

« Nous n’avons pas encore eu d’Hiroshima en IA »

Considéré comme étant l’un des parrains de l’intelligence artificielle, Yoshua Bengio prône désormais la prudence à l’égard de celle-ci.
par MAUD CUCCHI
24 AVRIL 24

« Nous n’avons pas encore eu d’Hiroshima en IA »

Considéré comme étant l’un des parrains de l’intelligence artificielle, Yoshua Bengio prône désormais la prudence à l’égard de celle-ci.

par MAUD CUCCHI | 24 AVRIL 24

Questionné en 2012, Yoshua Bengio affirmait que le cerveau d’une souris restait infiniment plus intelligent que n’importe quel algorithme. « Mais reposez-moi la question dans 10 ans », ajoutait-il avec prudence…et prescience. Une décennie plus tard, le fondateur et directeur scientifique de l’Institut québécois d’intelligence artificielle (IA) Mila s’évertue à alerter le monde entier sur les menaces potentielles de l’IA : risques pour la sécurité nationale, hypertrucage, désinformation, fraude, surveillance, déstabilisation de la société, perte de contrôle de l’outil, discrimination systémique…

Ces dernières années, les progrès en la matière se sont accélérés de telle sorte qu’il estime désormais qu’une intelligence artificielle surhumaine pourrait être mise au point au cours des deux prochaines décennies, « voire des prochaines années ». Comment l’informaticien le plus cité au monde, l’un des pionniers à avoir repoussé les frontières de l’IA avec des algorithmes d’apprentissage plus perfectionnés, en est-il venu à demander un arrêt net des recherches l’an dernier? À endosser le rôle de lanceur d’alerte? À pressentir une révolution, comme il y en eut dans les secteurs agricole et industriel? Retour sur son parcours scientifique fulgurant, avec tout un versant d’énigmes dont la solution serait une question vitale.

« J’ai toujours été intéressé par la compréhension de l’être humain, du cerveau, de l’intelligence », explique le professeur titulaire à l’Université de Montréal (U de M). Adolescent, ce féru d’informatique se lance dans la programmation, comme tout passionné d’ordinateur qui se respecte. Quand vient le moment de donner une direction à ses études universitaires, il explore la piste des connexionnistes et s’inspire de la structure du cerveau pour concevoir des systèmes aux frontières de l’IA. « Ce qui m’a excité à ce moment-là, et que je continue à trouver extraordinaire, c’est que l’on puisse expliquer l’intelligence un peu comme on explique la physique, sur la base d’un petit nombre de principes scientifiques », explique-t-il. En 1991, M. Bengio obtient son doctorat en informatique à l’Université McGill. Après diverses expériences à l’étranger, au Massachusetts Institute of Technology (MIT) sur l’apprentissage statistique et les données séquentielles d’abord, puis à AT&T Bell Laboratories à Holmdel, au New Jersey, sur l’apprentissage automatique et les algorithmes de vision en 1992-1993, il rentre à Montréal pour devenir professeur à l’U de M. Ses travaux trouvent une application pratique dans la reconnaissance vocale et dans celle de l’écriture manuscrite.

Si les recherches dans le domaine de l’IA fleurissent aujourd’hui, elles n’en étaient encore qu’à leurs balbutiements dans les années 1990. « Les systèmes n’étaient pas capables de faire des choses très simples comme reconnaître des chiffres manuscrits ou des phonèmes. Aujourd’hui, c’est trivial, mais à l’époque, nous n’avions pas les algorithmes, ni la puissance de calcul ou les données. » Ainsi, la possibilité d’une utilisation malveillante n’effleurait l’esprit que de peu de chercheurs et de chercheuses, soutient-il. « Seulement quelques fous comme moi disaient qu’il fallait faire attention, mais pendant longtemps, les gens n’imaginaient pas que l’informatique puisse être un outil dangereux. »

Une carrière dédiée à la recherche universitaire

Comment résumer un curriculum vitae dont la version officielle compte 35 pages? Précurseurs dans le domaine de l’IA, les travaux de Yoshua Bengio en matière d’apprentissage profond lui ont valu le Prix A.M. Turing 2018, sorte de « prix Nobel de l’informatique », avec Geoffrey Hinton et Yann LeCun. Contrairement à ses acolytes – le premier a travaillé pour Google, le second pour Meta – M. Bengio a consacré l’essentiel de sa vie professionnelle à la recherche universitaire. En plus de ses responsabilités à l’U de M, il codirige le programme Apprentissage automatique, apprentissage biologique de CIFAR. Il est également directeur scientifique d’IVADO, l’Institut de valorisation des données qui regroupe professionnels de l’industrie ainsi que des chercheurs et chercheuses universitaires.

Quand ses collègues rejoignent Google et Meta, il pressent des dérives potentielles en IA. « Ces compagnies se sont jetées sur l’apprentissage profond, explique M. Bengio. Sans le dire, elles cherchaient à utiliser l’IA pour améliorer leur système de publicité en ligne. » Influencer les consommateurs ou consommatrices pour les pousser à acheter une marque plutôt qu’une autre, passe encore, mais « on pouvait très bien imaginer d’autres choix, bien plus conséquents, sans parler de l’influence sur les opinions politiques, et c’est ce qu’on voit aujourd’hui se dérouler », s’indigne-t-il. Pourtant, il aura fallu 10 années pour sonner l’alerte générale. Réaliser que le fruit d’années de recherches et d’efforts à les promouvoir puisse être néfaste, « c’est une rivière difficile à traverser » pour un chercheur, illustre M. Bengio, qui a aussi été titulaire de la Chaire de recherche du Canada en algorithmes d’apprentissage statistique de 2000 à 2019. « Tant qu’on ne comprend pas ce qu’on fait, on reste des apprentis sorciers, prévient-il. Il faut d’abord comprendre les risques avant d’agir, ça me semble évident mais ça ne l’est pas pour beaucoup de gens. »

« Science sans conscience… »

En 2017, l’Université de Montréal lance les premiers jalons de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Elle représente l’un des premiers efforts concertés pour un développement responsable de l’IA en s’appuyant sur des principes éthiques et des valeurs fondamentales comme la justice, le bien-être, la vie privée, la démocratie ou encore la responsabilité. Mais il faut attendre 2023 pour qu’une prise de conscience mondiale sur les dangers de l’IA ait lieu quand il demande, avec ses confrères et d’autres sommités mondiales en technologies, un moratoire sur le développement de l’IA. « Évidemment, depuis, les compagnies ont continué de faire ce qu’elles faisaient, déplore-t-il. Mais il y a eu un changement absolument radical dans l’opinion publique, celle des décideurs et même des chercheurs. Beaucoup de gens craignaient ces risques mais n’en parlaient pas de peur d’être mal vus. »

Cette mobilisation internationale n’est pas sans rappeler celle des pères du nucléaire, mobilisés sur le tard pour préserver l’avenir de l’humanité compromis par leur science et faire en sorte que leur expertise soit mise au service du bien collectif. « On n’a pas encore eu d’Hiroshima en IA », fait remarquer le professeur qui, depuis le moratoire, tente d’éveiller les consciences sur toutes les tribunes d’influence. Il est membre du Conseil scientifique consultatif de l’ONU pour les percées de la science et de la technologie depuis 2023 et préside le prochain rapport « State of the Science » sur les capacités et les risques des systèmes d’IA de pointe commandé par le Royaume-Uni. Début février, il a témoigné devant un comité fédéral chargé d’étudier l’encadrement législatif de l’intelligence artificielle, au Canada. « Les progrès à venir risquent de provoquer de nombreuses perturbations et on ne peut pas prévoir quand cela se produira », a-t-il déclaré. Il y a donc urgence à encadrer le développement et l’utilisation de l’IA. « Ce ne sont pas des décisions que l’on peut laisser entre des mains individuelles, ce n’est pas raisonnable. Certains intérêts individuels ne sont pas alignés avec les intérêts collectifs et dans ce cas-là, ça peut être grave », estime-t-il.

Par souci d’efficacité, Yoshua Bengio n’hésite pas à comparer le développement de l’IA à un grizzly domestiqué et devenu si intelligent qu’il trouverait le moyen de sortir de sa cage pour se servir lui-même en poissons, son système de récompenses. « Pour l’IA, assurer sa survie signifie soit contrôler les humains, soit s’en débarrasser. » Ici, il n’est nullement question de « conscience existentielle », simplement de raisonnement mathématique. « Si cette entité-là veut maximiser ses récompenses, ce qu’elle a de mieux à faire, c’est de prendre le contrôle sur son environnement, incluant nous. » ChatGPT usurpe-t-il son nom cajoleur?

Rédigé par
Maud Cucchi
Maud Cucchi a été journaliste culturelle pendant une décennie au quotidien Le Droit et reporter pour Radio-Canada en Ontario, en Alberta, en Colombie-Britannique et à Montréal. Sa curiosité la conduit aussi bien à publier des critiques en arts et spectacles qu'à contribuer à la réalisation d'une émission radiophonique matinale à Montréal (Radio-Canada).
COMMENTAIRES
Laisser un commentaire
University Affairs moderates all comments according to the following guidelines. If approved, comments generally appear within one business day. We may republish particularly insightful remarks in our print edition or elsewhere.

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Click to fill out a quick survey