Encadrer l’essor de l’intelligence artificielle

De nombreux chercheurs canadiens se regroupent sous différentes structures pour étudier les questions d’éthique et de gouvernance de l’IA.

15 mai 2019
I A

Le potentiel économique de l’intelligence artificielle (IA) agit comme un chant des sirènes sur les gouvernements, auquel le Canada n’échappe pas. On y retrouve 0,7 pour cent de l’ensemble des investissements privés et du financement public mondiaux en IA entre 2013 et 2018, selon Statista. Cela lui confère le cinquième rang sur la planète, loin derrière la Chine (60 pour cent) et les États-Unis (29,1 pour cent).

L’IA soulève cependant de nombreuses questions d’éthique et de gouvernance. Les innombrables applications de cette technologie transversale peuvent avoir des effets négatifs dans plusieurs domaines. Certains déplorent le peu d’intérêt accordé à la dimension éthique de la gouvernance de l’IA au Canada, comme par exemple Daniel Munro, dans un récent article publié dans Options politiques. La récente Stratégie pancanadienne sur l’intelligence artificielle se contentait d’ailleurs d’une vague intention de soutenir la recherche académique sur ces questions. Le Canada et la France ont tout de même annoncé, en décembre dernier, la création d’une alliance pour promouvoir une IA éthique et inclusive.

Adopter des principes clairs

Au pays, des acteurs de la recherche s’unissent pour mettre des garde-fous au développement de l’IA. En décembre 2018, au Québec, des universitaires ont lancé la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. À ce jour, près de 1 400 citoyens et 41 organisations l’ont signée.

« Il s’agit d’encadrer un développement et un déploiement responsables de l’IA, avec des principes capables de s’adapter à différentes réalités et contextes, mais aussi de participer à la grande discussion sur l’éthique de l’IA », explique Nathalie Voarino, doctorante en bioéthique et coordonnatrice scientifique de la Déclaration. Le document a été coconstruit avec près de 500 citoyens.

Il comprend 10 articles, dont certains présentent des aspects moins souvent discutés, comme la notion de protection de l’intimité. « Il faut préserver des espaces d’intimité dans lesquels les gens ne sont pas soumis à des évaluations ou des intrusions numériques », explique Mme Voarino. D’autres principes concernent la contribution au bien-être de tout être sensible, le respect de l’autonomie ou encore la participation démocratique et l’inclusion de la diversité.

La Déclaration invoque aussi la prudence et la responsabilité des personnes impliquées dans le développement, mais aussi dans l’utilisation de l’IA. « Les chercheurs doivent se responsabiliser, puisqu’il est difficile de revenir en arrière après une découverte, note Mme Voarino. Toutefois, il est souvent ardu d’imaginer les utilisations futures qui peuvent être faites de ces avancées, donc les décideurs, les développeurs, les utilisateurs et les éthiciens d’applications doivent eux aussi se montrer prudents. »

Un sujet de recherche populaire

Un peu partout au Canada émergent des centres de recherches consacrés à l’éthique de l’IA. Au Québec, l’Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique a adopté une approche basée sur l’innovation responsable. « Elle repose sur les principes d’anticipation, d’inclusion, de réflexivité et de réactivité », explique Lyse Langlois, directrice scientifique de l’Observatoire. Ce dernier réunit 160 chercheurs de neuf universités et d’autant de cégeps. L’Université Laval l’hébergera pendant cinq ans, suivi d’une autre en région, puis d’un établissement montréalais.

« L’Observatoire a quatre fonctions, soit la recherche et la création, avec huit axes de recherche, la veille scientifique et stratégique, la délibération publique et les politiques publiques, explique Mme Langlois. Nous souhaitons faire ressortir les principaux enjeux éthiques et acquérir une réelle capacité d’influence. »

Également en décembre dernier, l’Université de Guelph annonçait le lancement du Centre for Advancing Responsible and Ethical Artificial Intelligence (CARE-AI). Près de 90 chercheurs de différentes disciplines y seront liés. Graham Taylor, professeur associé à l’Université de Guelph, en est le directeur académique. « Son objectif sera de s’assurer que l’IA bénéficiera aux humains et d’en réduire les impacts négatifs », résume-t-il.

L’approche du centre repose sur trois piliers. D’abord la méthode, c’est-à-dire le développement d’algorithmes efficaces, mais compatibles avec les humains. Ensuite la responsabilité, afin d’éviter les biais dans les algorithmes et d’assurer que ces derniers soient équitables, explicables et qu’ils permettent de rendre des comptes. Enfin, la construction d’applications de l’IA qui améliorent la vie de tous les humains.

De son côté, l’Université de Toronto annonçait récemment la création du Schwartz Reisman Innovation Centre. Le centre inclura le Reisman Institute for Technology and Society, lequel étudiera l’impact social de l’IA et de la technologie. « Il s’agit d’observer l’effet des technologies, y compris de l’IA, sur l’emploi, les institutions démocratiques et tous les autres secteurs de la société qu’ils peuvent toucher », explique Vivek Goel, vice-président, Recherche et innovation à l’Université de Toronto.

Il rappelle que le nouveau centre d’innovation rassemblera beaucoup de gens affairés à développer des applications commercialisables. « Mais nous souhaitons valoriser l’apport des philosophes et des chercheurs en sciences humaines et sociales pour aider à déceler les impacts éventuellement négatifs de ces technologies, avant qu’elles ne passent au stade de l’application », poursuit M. Goel.

Plusieurs chercheurs semblent donc décidés à travailler pour que le chant des sirènes de l’IA ne nous envoie pas nous fracasser contre des récifs. Reste à voir si les gouvernements et les entreprises privées démontreront la même prudence.

This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.