Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

Notre avenir s' appelle robot : Les quatre  lois de l' humanitétique
Notre avenir s' appelle robot : Les quatre  lois de l' humanitétique
Notre avenir s' appelle robot : Les quatre  lois de l' humanitétique
Notre avenir s' appelle robot : Les quatre  lois de l' humanitétique

 

Les recherches sur les systèmes d'intelligence artificielle (AI) capables de s'adapter pour survivre à notre environnement complexe et évolutif, qui pourraient se doter de capacités cognitives analogues à celle d'un humain, qui leur permettraient de se donner des représentations d'eux-mêmes et mettre en place des aptitudes au langage et à l'invention comme les humains, avancent, d’où l’importance des trois lois de la robotique mises en place par Isaac Asimov et de leur approfondissement par les chercheurs qui ont montré leurs limites en proposant de les compléter par une loi zéro. Voici ces lois et cette fameuse loi zéro :

1) Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au dangers

2) Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.

3) Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième loi.

4) Loi zéro, un robot ne peut pas faire de mal à l'humanité, ni, par son inaction, permettre que l'humanité soit exposée au danger,

ce qui modifie les trois lois précédentes de la robotique ainsi :

Première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro.

Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro.

Troisième Loi : Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.

Les conséquences de la Loi Zéro sont considérables : elle donne le droit aux robots de s’attaquer à des hommes si ceux-ci mettent l’humanité en danger.

Donc si les robots en arrivent à la conclusion, qui n'est pas loin d'être la notre aujourd'hui avec les menaces que nous faisons peser sur notre planète, que la plus grande menace pour l' humanité est l'homme lui-même, ils pourraient décider d'enfreindre la Première Loi de la robotique et d' exterminer tous les hommes pour protéger l'humanité puisque la loi zéro leur commande que l'humanité ne soit pas exposée à ce danger de disparition.

http://www.autruchement-dit.com/2015/01/l-avenir-de-l-humanite-repose-t-il-sur-les-robots-4.html


Bien entendu nous n’ en sommes pas là, je veux dire, nos IA n’ont pas encore atteint ce niveau d’être capables de réfléchir et penser comme les hommes, même si les progrès sont constants dans cette direction. Cela fait belle lurette que les IA sont capables de battre aux échecs les plus grands champions et aujourd’hui capables de battre les champions au jeu de GO, ce qui était réputé impossible parce que ce jeu est fondé sur la stratégie.

D’autre part, déjà des IA sous forme d’ algorithmes utilisées dans la gestion des marchés financiers «à haute fréquence» peuvent prendre en quelques millisecondes des décisions d'achat et de vente, plus pertinentes et rémunératrices que celles des traders humains les plus performants avec cet avantage qu’elles n’ont aucunement besoin de se stimuler par la cocaïne.

Un nouveau pas vient d’ être franchi puisque des IA capables d'apprentissage profond ou "deep learning » ( apprentissage profond) semblent en mesure d'inventer des systèmes de cryptologie leur permettant d'échanger des messages qu'elles seraient seules à déchiffrer.

"Learning to Protect Communications with Adversarial Neural Cryptography", par Martín Abadi, David G. Andersen (Google Brain)

Abstract
We ask whether neural networks can learn to use secret keys to protect information from other neural networks. Specifically, we focus on ensuring confidentiality properties in a multiagent system, and we specify those properties in terms of an adversary. Thus, a system may consist of neural networks named Alice and Bob, and we aim to limit what a third neural network named Eve learns from eavesdropping on the communication between Alice and Bob. We do not prescribe specific cryptographic algorithms to these neural networks; instead, we train end-to-end, adversarially. We demonstrate that the neural networks can learn how to perform forms of encryption and decryption, and also how to apply these operations selectively in order to meet confidentiality goals.

Nous demandons si des réseaux neuraux peuvent apprendre à utiliser des clés secrètes pour protéger des informations d'autres réseaux neuraux. Spécifiquement, nous nous concentrons sur l'assurance de propriétés de confidentialité dans un système de multiagent et nous spécifions ces propriétés en termes d'un adversaire. Ainsi, un système peut consister en réseaux neuraux nommés Alice et Bob et nous avons pour but de limiter ce qu'un troisième réseau neural nommé Eve apprend d'écouter la communication entre Alice et Bob. Nous ne prescrivons pas d'algorithmes cryptographiques spécifiques à ces réseaux neuraux; au lieu de cela, nous leur donnons une formation de bout en bout, contradictoire. Nous démontrons que les réseaux de neurones peuvent apprendre à exécuter des formes de chiffrement et de décryptage, et aussi comment appliquer ces opérations de manière sélective afin de répondre aux objectifs de confidentialité.

In this paper, we demonstrate that neural networks can learn to protect communications. The learning does not require prescribing a particular set of cryptographic algorithms, nor indicating ways of applying these algorithms: it is based only on a secrecy specification represented by the training objectives.

Dans cet article, nous démontrons que les réseaux de neurones peuvent apprendre à protéger les communications. L'apprentissage ne nécessite pas de prescrire un ensemble particulier d'algorithmes cryptographiques, ni d'indiquer les moyens d'appliquer ces algorithmes: il est basé uniquement sur une spécification de secret représentée par les objectifs de formation.

 

https://arxiv.org/pdf/1610.06918v1.pdf

 

Ainsi on pourrait envisager que ces futures IA arrivées à la conclusion fondée sur notre comportement destructeur et suicidaire qui aboutit à la destruction accélérée des ressources de notre planète qui met en péril l’ humanité, prennent la décision qui serait cryptée, donc à laquelle nous n’ aurions pas accès, de nous anéantir, scénario catastrophe peu en rapport avec leurs capacités éthiques fondées sur les lois de la robotique qui les placent devant l’ aporie pour sauver l’ humanité de détruire cette humanité, qu’ elles contourneraient peut-être en procédant à une décimation dans le stock des humains en euthanasiant les humains surnuméraires pour réduire de manière drastique leur nombre aujourd’hui déjà trop important, ( comportement somme toute trop humain) pour les ressources de notre terre ou plutôt de nous imposer des lois comparables aux leurs qui seraient

1) Un humain ne peut porter atteinte à un humain, ni, restant passif, permettre qu'il soit exposé au danger, sauf contradiction avec la Loi Zéro.

2) Un humain doit obéir aux ordres que lui donne un robot, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro.

3) Un humain doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.

4) Loi zéro, un humain ne peut pas faire de mal à l'humanité, ni, par son inaction, permettre que l'humanité soit exposée au danger. (N’est-ce pas messieurs les climato-sceptiques!)

Et si finalement l’ application de ces lois de l’humanitétique se révélaient impossibles à faire appliquer par les humains ( comme ils sont incapables de respecter les quatre règles d’or qu’ils ont inventées et qu’ils ont essayées de sanctifier dans leur religion) il est fort possible que les robots pour nous sauver de nous-mêmes prendraient des décisions qui iraient dans le sens de l’économie des nos ressources en créant toute sorte d’ encouragements et de mécanismes psychologiques pour ce faire et de nanomachines qui tels des anges gardiens nous guideraient pour appliquer ces quatre règles d’or de l’humanité et les quatre lois de l’ humanitétique mises au point dans leur souci de nous sauver.

Ci-dessus l’ haïkufable qui présente ces quatre règles d’or :


 

L'héautontimorouménos et les quatre règles d'or

 

 

N'épouse pas

La fille

De ton

Frère

 

Ne fais pas à autrui

Ce que tu désires

Qu'il ne te fasse

Pas

 

Crois

Qu'un seul

Dieu

Existe

 

Respecte

La Terre

Que tes enfants

T'ont confiée

 

Ces règles d'or ne t'empêchent pas de rester tel qu'en toi-même
Homme

Parfait héautontimorouménos

Mouche qui voit le mal de ses trois milles yeux

Mais est incapable de ne pas s'y vautrer comme dans le miel le plus doux

 

Tu épouses la fille de ton frère voire la tienne

Tu fais à autrui ce que tu désires qu'il ne te fasse pas et pire

Tu crois en un seul dieu pour mieux tuer celui qui croit au même seul dieu

Tu continues de faire violence à la terre comme si elle t'appartenait

 

Tu ne changeras jamais

Toutes les règles d'or que tu pourras découvrir n'y feront rien

Mais dorénavant le temps aussi est contre toi

Tourmenteur de toi-même

 

 

http://jplatina.blogspot.fr/2014/07/les-quatre-regles-dor-de-lhumanitethe.html
 

On le voit il n’ y a que les robots qui sont susceptibles de nous sauver...


 


 


 

Notre avenir s' appelle robot : Les quatre  lois de l' humanitétique
Notre avenir s' appelle robot : Les quatre  lois de l' humanitétique
Tag(s) : #Principe de précaution, #Ecologie, #Réchauffement climatique, #USA

Partager cet article

Repost 0
Pour être informé des derniers articles, inscrivez vous :