Passer au contenu principal
ARTICLES DE FOND

L’utilisation éthique des robots

Selon les universitaires, l’autonomie croissante des nouvelles technologies robotiques automatisées exige un examen éthique approfondi.

par TIM JOHNSON | 10 JUIN 15

feature_junejuly2015_robotethics_644

Machines automatisées suprêmes, les robots suppléent de plus en plus l’être humain dans l’exécution de tâches quotidiennes très courantes. Les usines de fabrication y ont recours depuis des décennies. Or, de l’avis des experts, les technologies automatisées devraient conduire nos voitures, mener nos guerres et remplacer l’être humain dans sa sphère intime d’ici dix à vingt ans.

Par conséquent, on constate l’apparition de la roboéthique, une disci-pline en émergence qui réunit des personnes disparates de divers domaines. Ces ingénieurs, éthiciens et philosophes posent des questions qui permettront de façonner notre avenir collectif.

L’ingénieur Jason Millar, doctorant en philosophie à l’Université Queen’s, enseigne la roboéthique à l’Université Carleton. Selon lui, l’éthique s’enseigne depuis longtemps au sein des facultés de génie, mais la portée en est limitée en raison des inventions d’aujourd’hui : « Nous ne construisons pas des ponts. Nous créons des robots à qui nous confions la vie des gens. Il s’agit d’un enjeu de taille. »

Les trois célèbres lois de la robotique formulées par l’écrivain de science-fiction Isaac Asimov (un robot ne peut porter atteinte à un être humain, doit obéir aux ordres qui lui sont donnés par un être humain et doit protéger son existence tant que cette protection n’entre pas en conflit avec les deux premières lois) demeurent vraies. Il croit toutefois que la réalité d’aujourd’hui exige plus, qu’il faut amorcer un virage culturel en matière de génie et de philosophie afin de comprendre dans quelle mesure ces deux disciplines se chevauchent dans le domaine de la robotique.

Il est également urgent d’établir un processus décisionnel en matière de conception éthique. Neil McArthur, directeur adjoint du Centre de l’éthique professionnelle et appliquée de l’Université du Manitoba, souligne que les robots ressemblent de plus en plus à des êtres vivants, tant sur le plan physique que mental. Ces machines remplaceront (elles le font déjà) l’être humain dans plusieurs de ses rôles : « robots familiaux » qui racontent des histoires à nos enfants, machines qui tiennent compagnie aux personnes âgées et esclaves mécaniques pour satisfaire nos désirs sexuels. Au Japon, on retrouve déjà des robots sexuels dans les bordels et les foyers de Tokyo à Yokohama. M. McArthur estime que ces robots deviendront monnaie courante en Amérique du Nord d’ici dix ans.

Ce rapprochement intime entre l’humain et la machine a des répercussions sur le comportement humain. Les jeunes hommes qui optent pour les robots sexuels – lesquels sont stylisés selon des proportions pornographiques et dotés de personnalités passives – pourraient acquérir une vision tordue de l’apparence et du comportement habituels de la femme. Ils risquent aussi de s’isoler avec pour seuls compagnons leur téléphone, leur ordinateur et leur robot sexuel.

À l’opposé, certaines machines seront davantage capables de fonctionner de façon indépendante. Ian Kerr, titulaire de la Chaire de recherche en éthique, en droit et en technologie de l’Université d’Ottawa, est d’avis qu’un jour les décisions de vie ou de mort seront entre les mains des robots.

Le perfectionnement des systèmes d’armement de pointe préoccupe énormément M. Kerr, qui craint que la décision suprême de vie ou de mort soit confiée à des machines. D’un côté, il semble raisonnable de laisser les robots mener nos guerres puisqu’ils peuvent être programmés de façon à respecter des codes moraux et nous éviter d’avoir à sacrifier la vie de nos enfants. Toutefois, la guerre est régie par des facteurs complexes et variables. Les soldats effectuent des évaluations de risques complexes et leur intervention doit être mesurée en conséquence. M. Kerr s’inquiète du fait que les supposés « robots à tuer » auront de la difficulté à exécuter ce genre de tâches.

Qui plus est, l’humain a tendance à trop se fier aux systèmes experts, indique Darren Abramson, professeur agrégé de philosophie à l’Université Dalhousie et titulaire d’une maîtrise en informatique. Il nous faut comprendre que malgré leur « apparente intelligence », ces machines présentent de nombreuses lacunes. Une voiture à système de pilotage automatique ne ressent aucune responsabilité sociale. Elle ne pourra pas empêcher les adolescents de l’utiliser à mauvais escient (par exemple, pour tirer leur planche à roulettes). « Je ne crains pas que la voiture prenne le contrôle, explique-t-il. Je crains que l’être humain ne détienne plus les compétences nécessaires pour conduire un véhicule sur une route complexe. »

Les experts conviennent que les décisions de programmation et de conception ont un caractère de plus en plus vital et qu’elles ne doivent pas relever d’un seul ingénieur en laboratoire. Ingénieur en robotique qui étudie l’interaction entre l’être humain et le robot ainsi que la roboéthique à l’Université de la Colombie-Britannique, AJung Moon a participé à la création de l’Open Robot Initiative, un groupe de réflexion qui sollicite également la participation de la population. Bien qu’il soit difficile de prédire l’avenir et que la technologie semble progresser toujours plus rapidement chaque jour, l’adoption d’une stratégie collective pourrait contribuer à assurer le caractère responsable et éthique de la robotique.

 

COMMENTAIRES
Laisser un commentaire
Affaires universitaires modère tous les commentaires reçus en fonction des lignes directrices. Les commentaires approuvés sont généralement affichés un jour ouvrable après leur réception. Certains commentaires particulièrement intéressants pourraient aussi être publiés dans la version papier du magazine, ou ailleurs.

Your email address will not be published. Required fields are marked *

« »