Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

L' avenir de l'humanité repose-t-il sur les robots ?
L' avenir de l'humanité repose-t-il sur les robots ?

La première loi de la robotique d' Isaac Asimov stipule que :

«Un robot ne peut blesser un être humain ni, restant passif, laisser un être humain exposé au danger."

Cette loi semble assez simple à mettre en oeuvre mais une expérience récente montre à quel point il est difficile d'obtenir qu'une machine, un robot puisse se conformer à cette loi de manière efficace.

Le chercheur en roboltique Alan Winfield du Bristol Robotics Laboratory au Royaume-Uni de tester une version simplifiée de la première loi d'Asimov. Lui et son équipeont programmé un robot (A) que je préfère appelé Albert, afin de prévenir d'autres robots (H) que je préfère appeler Henri et Hugo, agissant comme représentants pour l'homme, de tomber dans un trou (Hole)

Dans un premier temps, Albert est parvenu à accomplir sa tâche. Comme Henri avançait vers le trou, il se précipita pour le pousser hors de la trajectoire qui le menait vers le danger.

Mais quand l'équipe, sans doute très malintentionnée à l'égard des robots, a ajouté Hugo qui lui aussi se dirigeait vers le trou en même temps que Henri, Albert a été contraint de choisir.

Parfois, il a réussi à sauver henri tout en laissant Hugo périr, quelques fois, il a même réussi à sauver Henri et Hugo.

Mais dans 14 essais sur 33, Albert a perdu beaucoup de temps en hésitant sur son choix de sauver Henri ou Hugo et les deux automates sont tombés dans le trou.

Winfield décrit Albert comme un "zombie éthique» qui n'a pas d'autre choix que de se comporter comme il le fait. Bien qu'il puisse sauver les autres selon un code de conduite programmée, il ne comprend pas le raisonnement derrière ses actions

Est-ce qu'il sera possible pour un robot de faire des choix éthiques par lui-même? Aujourd'hui, Winfield répond qu'il n'en a aucune idée.

Des expériences comme celles-ci sont importantes, dans la perspective des voitures automates et connectées que nous prépare un avenir proche sans que nous ayons à les piloter. Elles devront peser la sécurité de leurs passagers contre le risque de nuire à d'autres automobilistes ou des piétons dans des scénarios très complexes avec beaucoup de zones grises éthiques comme :

A) Tuer un enfant qui traverse la rue en le percutant pour vous sauver la vie plutôt que de précipiter l' auto contre un mur.

B) Tuer un enfant qui traverse de la gauche vers la droite plutôt que la mère et son bébé dans sa poussette qui traverse de la droite vers la gauche

C) Tuer un enfant qui traverse de la gauche vers la droite plutôt qu' un vieil homme qui traverse de la droite vers la gauche

D) Tuer cet obèse à l'espérance de vie réduite qui attend à un arrêt de bus en déviant la trajectoire de la voiture pour ne pas percuter deux personnes qui traversent la route.

 

Mais comme Ronald Rutkin un informaticien au Georgia Institute of Technology d'Atlanta le souligne dans l'article de New Scientist, les robots conçus pour le combat militaire peuvent offrir des solutions : Il a construit un ensemble d'algorithmes pour les robots militaires, surnommé «gouverneur éthique» qui vise à les aider à prendre des décisions intelligentes sur le champ de bataille, qu'il Il a déjà testé en combat simulé, montrant que les drones avec une telle programmation peuvent choisir de ne pas tirer, ou d'essayer de minimiser les pertes lors d'une bataille près d'une zone protégée selon les règles de la guerre, comme une école ou un hôpital.

 

Au fond nous nous retrouvons confrontés au dilemme du tramway qui est décrit par Foot ainsi :

« Imaginez qu'un juge se retrouve face à des émeutiers qui demandent qu'un coupable soit trouvé pour un certain crime et, si cela n'est pas fait, qui menacent de se venger de manière sanglante sur une partie spécifique de la communauté. Le coupable réel étant inconnu, le juge se retrouve avec pour seule solution de condamner à mort un innocent pour prévenir le bain de sang. Imaginons parallèlement un autre exemple où le pilote d'un avion qui est sur le point de s'écraser se doit de choisir un point de chute dans une aire plus ou moins habitée. Afin de rendre les deux situations le plus semblables possibles, imaginons plutôt le conducteur d'un tramway hors de contrôle qui se doit de choisir sa course entre deux voies possibles : cinq hommes travaillent sur l'une et un homme est situé sur l'autre. La voie prise par le tram entraînera automatiquement la mort des personnes qui s'y trouvent. Dans le cas des émeutiers, ces derniers ont en otage cinq personnes, ce qui fait en sorte que les deux situations amènent le sacrifice d'une vie pour en sauver cinq. »

— Philippa Foot, The Problem of Abortion and the Doctrine of the Double Effect

http://fr.wikipedia.org/wiki/Dilemme_du_tramway

D'un point de vue utilitariste on doit choisir la voie occupée par un seul homme. Cette solution n'est pas seulement permise, mais elle est la meilleure option morale.

Le dilemme du tramway peut prendre plusieurs formes lorsqu'il est conjugué à d'autres dilemmes moraux.

Une variante est celle de l'homme obèse formulée ainsi par Judith Jarvis Thomson :

« Imaginez une situation — que j'appellerai « Homme obèse » — où vous êtes sur un pont sous lequel va passer un tramway hors de contrôle se dirigeant vers cinq ouvriers situés de l'autre côté du pont. Que faites-vous ? Étant un expert en tramways, vous savez qu'une manière sûre d'en arrêter un hors de contrôle est de placer un objet très lourd sur son chemin. Mais où en trouver un ? Au moment des événements, il y a un homme obèse, vraiment très obèse, à côté de vous sur le pont. Il est penché au-dessus du chemin pour regarder le tramway. Tout ce que vous avez à faire est de lui donner une petite poussée pour qu'il tombe sur les rails et bloque le tramway dans sa course. Devriez-vous donner cette poussée ? Tous ceux à qui j'ai posé cette question m'ont répondu non. Mais pourquoi ?. »

— Judith Jarvis Thomson, The Trolley Problem7

La résistance à ce scénario semble très grande. La plupart des gens qui approuvent le sacrifice d'une personne pour en sauver cinq dans le cas du scénario classique n'approuvent pas le geste lorsque la situation leur est présentée ainsi. 

Cela a mené à des tentatives pour trouver une distinction morale significative entre les deux cas.

Le scénario de la bombe à retardement (ticking time bomb scenario) est une expérience de pensée notamment utilisée en éthique afin de débattre si la torture est ou non justifiable. Dans cette expérience, une bombe, ou un autre type d'arme de destruction massive, va très bientôt être utilisée et risque de tuer plusieurs personnes. Dans cette situation, est-il justifié de recourir à la torture sur un suspect récalcitrant soupçonné de détenir des informations capitales sur cette arme ?

La réponse à la question varie selon les écoles de pensée. Ainsi, l'argument conséquentialiste affirme que, même pour les nations interdisant légalement la torture, une telle situation justifie la torture.

Le conséquentialisme, comme son nom l'indique, affirme que dans un débat moral, on doit attribuer plus de poids aux résultats d'une action qu'à toute autre considération et même que l'agent moral doit agir de manière à produire de bonnes conséquences, même s'il ne produit pas les meilleurs résultats possibles.

La doctrine du double effet de Thomas d'Aquin vise à expliquer dans quelles circonstances il est permis de commettre une action ayant à la fois de bonnes et de mauvaises conséquences (c'est-à-dire un double effet). Elle énonce plusieurs conditions nécessaires pour qu'une action puisse être moralement justifiée alors même qu'elle comporte de mauvais effets :

  • L'action elle-même doit être bonne ou moralement neutre

  • Le bon effet doit résulter de l'acte et non du mauvais effet

  • Le mauvais effet ne doit pas être directement voulu, mais doit être prévu et toléré

  • Le bon effet doit être plus fort que le mauvais effet, ou bien les deux doivent être égaux.

Cette thèse soutient donc qu'il est parfois justifié de produire une conséquence mauvaise si elle est seulement un effet secondaire de l'action, et non pas intentionnellement recherchée.

Cette doctrine a de nombreuses applications, notamment dans les théories de la guerre juste. On trouve aussi le principe du double effet en médecine par rapport aux effets des thérapeutiques.

Mais qu'est-ce qui détermine la valeur des conséquences ? En d'autres termes, qu'est-ce qui détermine un bon effet ?

Qui juge ce qu' est le bon effet d'une action ?

On peut imaginer un observateur parfait, omniscient, neutre, chargé de déterminer quel est le bon effet, capable de prendre en compte toutes les conséquences d'une action ou au moins un observateur bien informé, qui sait tout ce que l' on peut raisonnablement savoir, tant des circonstances que des conséquences éventuelles du choix.

John Rawls, critique ce point de vue d'un tel observateur parfait ou bien informé, faisant remarquer que l'on est loin de l'observateur réel qui n'est ni parfait ni toujours bien informé.

Il préfère imaginer un observateur dans une position en dehors de la société qu' il s'apprête à rejoindre. Cette personne ignore si elle sera pauvre ou riche, puissante ou faible et si la société adhèrera à ses convictions ou si elle sera en minorité ou pas. Il affirme que dans cette position, n'importe qui choisira un système éthique reposant sur le respect de valeurs telles que la liberté d'expression et des droits fondamentaux. Craignant le risque d'une position minoritaire, cet observateur ignorant préférera qu'existent des protections des minorités et des droits humains. Il se déterminera dans son choix non en fonction des conséquences de son choix mais en fonction de ses impératifs de respect des libertés et des droits fondamentaux qu' il a choisis pour éviter de les voir non respectés par les autres.

Mais revenons à notre petit robot Albert, dont nous avons vu tout le mal qu'il a à sauver Henri et Hugo les automates humains. Il échoue dans sa tâche 14 fois sur 33, d'une manière totale puisqu'il ne sauve ni Henri ni Hugo qu'il a pour devoir de sauver, incapable de choisir entre les deux.

Dans une optique transhumaniste, favorable à la technique, nous pourrions penser que c'est parce que son équipe de scientifiques malintentionnés n' a voulu n'en faire qu' un "zombie éthique" ne se conformant qu'à la première loi de la robotique d' Asimov qu 'Albert ne parvient pas à assurer sa tâche, première loi qui, je le rappelle, s' énonce ainsi,

"Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger",

sans ajouter à son programme les deux autres lois qui nous allons le voir sont en effet trois :

a) Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.

b) Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième loi.

et surtout

c) Loi zéro, un robot ne peut pas faire de mal à l'humanité, ni, par son inaction, permettre que l'humanité soit exposée au danger,

ce qui modifie les trois lois précédentes de la robotique ainsi :

Première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro.

Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro.

Troisième Loi : Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.

Les conséquences de la Loi Zéro sont considérables : elle donne le droit aux robots de s’attaquer à des hommes si ceux-ci mettent l’humanité en danger.

Mais si les robots en arrivent à la conclusion, qui n'est pas loin d'être la notre aujourd'hui avec les menaces que nous faisons peser sur notre planète, que la plus grande menace pour l' humanité est l'homme lui-même, ils pourraient décider d'enfreindre la Première Loi de la robotique et d' exterminer tous les hommes pour protéger l'humanité puisque  la loi zéro leur commande  que l'humanité ne soit pas exposée à ce danger de disparition. On voit l' aporie.

C'est pourquoi Roger Clarke qui a écrit des analyses sur les complications dans l'application de ces lois, dans l'hypothèse que les systèmes soient un jour capables de les employer. conclut : Il n'est pas possible de limiter de manière fiable le comportement des robots en concevant et en appliquant un ensemble de règles » 12.

et que  l'Institut Singularity a lancé une campagne Internet appelée 3 Lois dangereuses : "3 Laws Unsafe" (les 3 lois d'Asimov) pour sensibiliser aux questions de la problématique de l'intelligence artificielle et de l'insuffisance des lois d'Asimov en particulier. (Singularity Institute for Artificial Intelligence 2004)13.

Pourquoi s'intéresser à ces lois de la robotique, parce que nous allons entrer de plus en plus dans le règne des robots et de l' intelligence Artificielle et que notre vie va de plus en être dépendante :

http://korben.info/samsung-nous-devoile-un-futur-technologique-effrayant.html?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+Korben_nl+%28Korben%29

En tant qu'être humains, nous serons connectés à cette intelligence artificielle, à ces robots, élaborés par de grandes firmes telles Google, Samsung, Apple et autres qui comme, déjà aujourd'hui sur Internet où nos désirs sont devancés pour nous proposer toutes sorte de produits à acheter, connaîtront tout de nous pour nous rendre la vie plus confortable et en même temps faire de nous des consommateurs de leurs produits.

Ainsi dans la vidéo de présentation de Samsung au CES 2015, le salon de l'électronique grand public se déroulant actuellement à Las Vegas, nous voyons un homme réveillé par son téléphone portable, qui se retrouve environné de sa musique préférée, peut découvrir sur son écran de TV les dernières informations, TV qui se met sur pause quand il quitte la pièce; un autre appuyer sur les boutons de sa smartwatch pour faire sortir sa voiture de son garage; les données de santé collectée par des bracelets de même type, être utilisées par les médecins pour mieux soigner leur patient.

Ces sociétés sus-nommées développent ces machines qui rendront  notre maison plus confortable à vivre parce qu'elle aura en mémoire nos comportements, nos habitudes, nos goûts, nos paramètres médicaux, qu'elle détectera quand nous y rentrons pour ajuster sa température à celle qui correspond justement à nos goûts, nos habitudes, nos paramètres médicaux, pour nous plonger dans notre musique préférée, nous présenter sur les écrans géants de notre TV les dernières informations, qui, quand nous nous couchons veillera à notre sommeil pour qu'il ne soit pas perturbé, qui le matin nous réveillera avec notre musique préférée... 

Non seulement nous serons en interconnexion avec notre logement, notre maison qui saura tout de nous mais notre logement, notre maison sera connectée avec les autres logements, les autres maisons. Nous vivrons dans des villes connectées où tout sera fait par les machines, les robots nous rendre la vie plus agréable en s'adaptant à nos habitudes, nos désirs.

"Par exemple, si dans une même ville, plusieurs personnes sortent de chez elles en même temps pour se rendre au même arrêt de bus, peut être que ce n'est pas 1 mais 2 bus qui seront dirigés vers cet arrêt. Ou peut être qu'on vous dira "Non, tu restes chez toi et tu prends le bus suivant car ton travail est moins important que celui des autres gens qui eux doivent arriver à l'heure".

Et que fera votre voiture si elle doit choisir entre écraser un enfant qui traverse la rue ou écraser ce vieil homme assis sur ce banc public ? Connectée au smartband du vieil homme elle saura qu'il est atteint d'une maladie incurable, qu'il n'en a plus que pour quelques semaines à vivre. Elle choisira de manière délibérée et en toutes connaissances de causes de l'écraser, devenu cet "observateur parfait"  faisant les "meilleurs choix".

Nous serons dans un monde connecté où nous ne pourrons plus ignorer que nous nous précipitons vers notre mort en ne faisant pas les exercices nécessaires :

" Vous n'avez pas fait les 5000 pas recommandés par votre médecin, cher M. Latina"

ou en mangeant trop :

" Cher M. latina, arrêtez immédiatement de manger ce hamburger et ce paquet de frites ! Sinon vous réduisez votre espérance de vie de trois mois six jours, huit heures, dix minutes, et trente six secondes...."

"Cher M. latina en continuant de manger votre hamburger, vous abrégez votre vie de trois mois, sept jours, quatre minutes et trois secondes..."

" Cher M. latina..."

Vous voyez les robots veilleront sur nous pour nous préserver de tous les dangers et ils sauveront l'humanité si nous continuons à "déterraformer" notre planète comme nous le faisons, en la détruisant à coups de gaz à effet de serre et autres, en nous exterminant...

L' avenir de l'humanité repose-t-il sur les robots ?
L' avenir de l'humanité repose-t-il sur les robots ?
L' avenir de l'humanité repose-t-il sur les robots ?
Tag(s) : #Science, #innovation, #Prévisions, #Robot

Partager cet article

Repost 0
Pour être informé des derniers articles, inscrivez vous :