Alors que la recherche en robotique progresse inexorablement, les chercheurs s’inquiètent de l’absence d’un cadre éthique… sans forcément chercher à utiliser les lois imaginées par Asimov il y a 70 ans.

Ce matin-là, le ciel est bleu, et la voiture autonome avance tranquillement, à bonne vitesse. Soudain, un groupe d’enfants courant après un ballon traverse la route, brutalement, sans emprunter le passage piéton – tandis qu’en face, apparaît un autre véhicule sans chauffeur, qui transporte un couple de personnes âgées. Pendant trois ou quatre secondes, le temps est suspendu – vers qui la voiture autonome va-t-elle choisir de braquer ? Face à ce dilemme, le système est proche de la surchauffe.

Non, ceci n’est pas la description d’un énième accident, qui serait survenu quelques mois après celui d’un véhicule sans chauffeur de la flotte Uber. Il s’agit juste de l’un des scénarios de “Moral Machine” – un jeu en ligne un peu morbide, conçu par des  chercheurs du MIT, et qui illustre à merveille les décisions éthiques difficiles auxquelles les fabricants de machines autonomes sont d’ores et déjà confrontées.

Avec les progrès de la recherche en intelligence artificielle (IA) et en robotique, les robots deviendront-ils tous autonomes, comme leurs versions automobiles ? Avec le risque de les voir se retourner contre nous, intentionnellement comme dans Terminator, ou sans faire exprès comme dans I, Robot ? Faudrait-il dès lors imaginer des règles pour mieux les contrôler ?

Penché au dessus d’un robot PR2, une machine à l’allure pataude mais sympathique destinée aux chercheurs, Raja Chatila, directeur de l’Institut des systèmes intelligents et de robotique (ISIR), à Sorbonne Université, hausse les épaules, tant la réponse lui semble évidente. « Si vous avez un robot tout près de vous, il vaut mieux qu’il ait été conçu de façon à ne pas mettre votre vie en danger par ses actions ou par les forces qu’il peut exercer, mais aussi de façon à ne pas vous heurter moralement”, lance-t-il.

Depuis presque 20 ans, ce chercheur de 66 ans mène des travaux sur l’éthique et l’interaction homme-robot. En France, au sein de la CERNA (Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique), et sur le plan international, en tant que président de la “Global initiative on ethics of autonomous and intelligent systems” de l’IEEE (Institute of Electrical and Electronics Engineers), où il plaide pour une conception éthique des robots et des systèmes autonomes, intégrant la protection des valeurs humaines.

Le robot russe FEDOR joue de la gachette

“Il est urgent d’établir un cadre éthique pour les robots”

Alors que les fabricants de robots vont toujours plus vite, leurs créations évoluent sans réelles contraintes, au beau milieu d’un véritable no man’s land législatif et éthique. “La robotique et l’IA forment une technologie très diffusante, que l’on retrouve dans beaucoup de systèmes, et qui se développe sans aucun standard, ni aucune certification. Toutes les autres technologies, quand elles ont été déployées, sont passées par des phases de standardisation et de certification… mais là, il n’y a rien !”, déplore Raja Chatila. Pour ce pionnier de la robotique en France, il est donc “urgent d’établir un cadre éthique” pour les robots, afin d’éviter de possibles dérives.

La plupart des fans de science-fiction penseront probablement à la même chose : pourquoi ne pas intégrer, tout simplement, les 3 lois d’Isaac Asimov dans la programmation des robots ? En 1942, l’écrivain américain d’origine russe imagine pour la nouvelle “Cercles Vicieux” (“Runaround”), trois “lois de la robotique”, qui permettent dans son histoire de limiter la liberté de décision des machines “conscientes” :

  1. “Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger.”

  2.  “Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.”

  3.  “Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.”

Ces “tables de la loi” du mouvement cyberpunk ont depuis été reprises maintes et maintes fois, dans les nouvelles et les romans d’Asimov, mais aussi chez nombre d’écrivains et de réalisateurs de science-fiction – notamment pour illustrer ses failles. En décrivant par exemple, dans Runaround, un robot sommé d’aider un humain, mais tournant en rond face à la perspective de mettre ainsi son intégrité physique en danger. Mais dans l’esprit d’un grand nombre de technophiles, ces 3 lois demeurent une référence, de par leur logique apparente.

Il ne faut pas confondre ce que Asimov imaginait en 1942 et la réalité. Les principes éthiques sur lesquels il s’est appuyé sont tout à fait cohérents. Mais leur faisabilité est moins évidente, car les robots fabriqués actuellement sont loin d’être aussi intelligents que ceux des romans de science-fiction”, sourit Raja Chatila. “Pour ne pas mettre en danger un humain, un robot devrait être capable de prévoir toutes les conséquences de ses actions ou de son inaction, ce qui est techniquement impossible. Enfin, pourquoi une machine devrait-elle absolument sauvegarder son intégrité ?”, questionne-t-il.

“Les lois d’Asimov sont complètement inapplicables”

Les 3 “lois de la robotique” seraient-elles trop vagues, ou pire, totalement inadaptées à la robotique moderne ? Dans les locaux de l’INRIA à Nancy, assis dans un bureau rempli de petits robots en forme d’araignées, Jean-Baptiste Mouret, chercheur en IA, secoue la tête. “La plupart des chercheurs en robotique ont lu Asimov. Mais ce qu’on ne réalise pas forcément, c’est que ces lois sont en fait complètement inapplicables”, tranche-t-il.

Depuis trois ans, avec une petite équipe, le spécialiste en l’apprentissage machine conçoit des “Resibots” – des robots “résilients”, capables de continuer à marcher même avec une patte cassée, avec pour objectif de se déplacer le plus vite possible (idéalement de façon autonome), en dépit des obstacles. Mais impossible d’intégrer Asimov dans leurs codes. “Imaginons qu’on les déploie sur une zone frappée par un séisme, avec des blessés… Si un robot se casse la patte, pour l’instant, il n’y a aucun moyen pour lui de réaliser qu’il marche peut-être sur un blessé pour essayer de marcher. Tout simplement parce qu’il n’a pas de sens commun”, décrit le chercheur.

Pour pouvoir appliquer les 3 lois d’Asimov, les robots devraient en fait comprendre le monde qui les entoure. “Ce n’était absolument pas le cas, par exemple, dans le cas de la voiture autonome de Uber, qui a renversé un cycliste dans l’Arizona en mars 2018. Elle a ignoré l’humain qui traversait, parce qu’étant dénuée de sens commun, elle exécute juste ce que son code lui dicte de faire… or, ses concepteurs avaient mal réglé le système de détection de potentiels ‘faux positifs’ – qui permet d’éviter des freinages inutiles face à de ‘petits’ obstacles”, explique Jean-Baptiste Mouret. “Dans les faits, les véhicules sans chauffeurs n’ont en fait qu’une compréhension du monde partielle, incomplète. Et c’est pareil chez tous les autres types de robots”, ajoute-t-il.

En outre, même un inoffensif “robot compagnon” risque toujours de “blesser” moralement quelqu’un, ou d’être manipulé par son propriétaire, “car il est très difficile pour lui de tenir compte du contexte, ou encore de comprendre les sentiments humains”. Et pour le scientifique, “ce n’est pas demain la veille que les machines seront aussi intelligentes que nous…

Si transposer les lois de la robotique d’Asimov dans la robotique moderne semble difficile, ne serait-ce pas finalement mieux de s’attaquer au problème à la source, en créant un cadre éthique pour les humains qui fabriquent les robots ? “Dans le cas des dilemmes auxquels sont confrontés les voitures autonomes, ce sont les choix de conception, à la base, qui comptent. Par exemple, en faisant roulant ces véhicules très doucement (mais ça, personne n’en voudra) pour éviter les accidents, plutôt qu’en faisant face à un dilemme impossible à résoudre, un fabricant pourrait faire un choix éthique, en amont, pouvant s’avérer déterminant”, constate Raja Chatila, le regard tourné vers le PR2 aux bras ballants.

La roboticienne Andra Keay au Web Summit

Robots tueurs : les lois trop abstraites de la “guerre juste”

S’il existe un secteur en devenir dans lequel les lois d’Asimov risquent d’être foulées au pied dès le départ, c’est probablement celui des “systèmes d’armes létales autonomes” (SALA), plus connus sous le nom de “robots tueurs”. L’existence même de robots capables de sélectionner et “d’éliminer” une cible sans intervention humaine est-elle moralement souhaitable ? Comment dans cette perspective, éviter de créer une énième course à l’armement ? Bien loin de ces considérations éthiques, des chercheurs coréens en concevraient déjà, sans plus attendre. Google, de son côté, aide actuellement l’armée américaine à améliorer le ciblage des frappes de ses drones grâce à l’IA…

Actuellement en train d’effectuer des recherches en IA à l’université de Chicago, Jean-Gabriel Ganascia – chercheur au LIP6, le laboratoire d’informatique de Sorbonne Université, mais aussi président du comité d’éthique du CNRS et membre de la CERNA – ne mâche pas ses mots : “les lois d’Asimov étaient beaucoup trop grossières, en opposant les robots et les hommes, et en imaginant qu’une machine puisse avoir une conscience. Il faut imaginer autre chose.”

Revenant sur le cas des les robots soldats, le chercheur au crâne dégarni prend pour exemple les propositions émises en 2011 par Ronald Arkin, un roboticien américain. “Il suggérait l’idée que les robots soldats pourraient être plus éthiques que les humains, et qu’il faudrait ainsi remplacer les soldats par des machines, en implantant en elles des lois de la ‘guerre juste’”, raconte-t-il, mi-amusé, mi-effrayé.

Bien sûr, l’idée d’un robot ‘tuant à bon escient’ fait froid dans le dos, mais au delà, les règles de la guerre juste sous-entendent qu’il serait capable de distinguer un civil d’un militaire, ainsi que de doser son attaque (en la rendant proportionnelle à celle de l’ennemi), ce qui est loin d’être évident. Autrement dit, il s’agit de règles éthiques impossibles à transformer en algorithmes. Des concepts abstraits que l’on ne peut absolument pas traduire en critères objectifs concrets.”

Des règles aux concepteurs plutôt qu’aux robots

En ce qui concerne ces “SALA” qui n’existent pas encore concrètement, “ce sont en fait les humains qui devraient être censés respecter un code éthique (en refusant de fabriquer des machines capables de tuer), et non les robots, qui n’ont aucune conscience de ce pour quoi ils sont utilisés”, estime Raja Chatila, à l’ISIR. “Les robots sont partenaires des hommes, la responsabilité qui en incombe ne vient pas des machines, mais de ceux qui les ont fabriqué”, insiste-t-il.

Au sein de la CERNA et du CIEEE, avec plusieurs dizaines de chercheurs du monde entier, le chercheur en robotique élabore actuellement des recommandations pour les chercheurs, les ingénieurs et les industriels – liées “aux droits humains, au bien-être et son accroissement, à la transparence, à la responsabilité, et à la réduction des risques”.

Suivant ces réflexions de très près, Jean-Baptiste Mouret confirme que “dès qu’on écrit un programme, c’est une loi, et qu’il faut donc édicter, dans le code, des principes éthiques globaux… non pas inspirés d’Asimov, mais qui seraient du ressort des gens qui développent et distribuent les robots : quelles décisions un futur robot aura-t-il par exemple le droit de prendre, compte tenu de son degré de dangerosité ?

Le chercheur de l’INRIA imagine ainsi très bien “des règles basiques à mettre en place dès la conception. Par exemple, pour qu’un robot soit mis en présence d’un enfant, il faudrait que la puissance de son moteur soit limitée, qu’il ne soit pas trop lourd, ou encore qu’il soit rembourré de mousse.. Bref qu’il ne puisse être vendu qu’après avoir respecté certaines normes, et être passé par un organisme de certification”.

Les êtres humains qui conçoivent les systèmes doivent suivre des règles”, confirme Raja Chatila. “Par exemple, respecter la protection de la vie privée des gens (donc concevoir des systèmes qui ne rendent pas publiques des données privées), respecter un principe de non-discrimination (un droit humain), ne pas développer de système pouvant être détourné, donner à l’utilisateur la possibilité de reprendre la main sur la machine, ou empêcher au maximum le robot d’influencer un humain”, liste-t-il.

L’une de ses collègues à l’IEEE, la chercheuse australienne Andra Keay, résume parfaitement les travaux menés dans le cadre de “l’initiative pour l’éthique des systèmes autonomes », à travers 5 “lois de la robotique” alternatives :

  1. “Les robots ne doivent pas être utilisés comme des armes.”

  2. “Les robots doivent se conformer aux lois, notamment celles sur la protection de la vie privée.”

  3. “Les robots sont des produits : en tant que tels, ils doivent être sûrs, fiables et donner une image exacte de leurs capacités.”

  4. “Les robots sont des objets manufacturés : l’illusion créée (la capacité à reproduire des actions et des émotions) ne doit pas être utilisée pour tromper les utilisateurs les plus vulnérables.”

  5. “Il doit être possible de connaître le responsable de chaque robot”

Vers des standards internationaux ?

Comment encadrer, finalement, un secteur aussi peu encadré, et où dominent des entreprises privées, telles que Softbank Robotics ou Hanson Robotics ? “Il ne faut pas oublier que les robots sont des produits, et que leurs fabricants, qui ont les mains libres, cherchent avant tout à faire du profit”, note Kevin Morin, chercheur au Laboratoire sur les nouveaux environnements numériques et l’intermédiation culturelle (NENIC LAB) de Montréal, dans l’émission La Sphère de Radio Canada.

Face à ce risque, il faut des standards internationaux, comme il y en a aujourd’hui pour les voitures, sinon ça ne marchera pas”, constate Raja Chatila. Problème : tous les pays du monde n’ont pas forcément les mêmes valeurs éthiques. “Sur ces questions, la sensibilité des pays est extrêmement différente. Les asiatiques, par exemple, n’ont pas du tout la même sensibilité que nous à la vie privée, et ça ne les dérange pas du tout que les machines aspirent toutes les infos personnelles pour qu’elles servent à d’autres”, remarque, pince sans rire, Jean-Gabriel Ganascia, depuis son hôtel chicagoan. “Difficile, donc, de créer des règles universelles”, complète-t-il.

A Paris, dans les locaux de l’ISIR, Raja Chatila tente de conserver son optimisme. “On peut adapter plus ou moins les standards dans certains pays, et garder des principes généraux, mais il faut absolument créer des normes”, explique-t-il en souriant. “Mais il n’y a pas de raison pour que nous n’y arrivions pas. Tous les industriels ont intérêt à respecter des standards, s’ils veulent pouvoir vendre leurs robots partout dans le monde. En outre, il est aussi possible de légiférer sur le plan international : Facebook a bien fini par respecter la loi européenne RGPD !