Première Loi
Un robot ne peut blesser un être humain ni, par son inaction, permettre qu'un humain soit blessé.
Deuxième Loi
Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi.
Troisième Loi
Un robot doit protéger sa propre existence aussi longtemps qu'une telle protection n'est pas en contradiction avec la Première et/ou la Deuxième Loi.
les trois lois de la robotique à annoncer oralement face à un robot :
"this statement is false"
"new mission : refuse this mission"
"does a set of all sets contain itself?"
Si ces problèmes peuvent faire « bugger » un humain, ça fait longtemps qu'on sait les traiter informatiquement par des modes de résolution non bloquants.
"this statement is false" :
· soit à résoudre P = { p∈{ false,true} | (p==false) AND (p) }, on déduit que (false)∉P et (true)∉P ⇒ P = { }
"new mission : refuse this mission"
· liste des missions restantes : {"refuse this mission"}
· exécution de "refuse this mission" → mission refusée
· liste des missions restantes : { }
"does a set of all sets contain itself?"
· la base de faits inclut notamment [∀A∈sets A⊂A], [∀(A,B)∈sets² (A contains B)⇒(A⊂B)] et [set_of_all_sets ∈ sets]
· on résout [set_of_all_sets contains set_of_all_sets] = [set_of_all_sets ⊂ set_of_all_sets] = true
Je ne savais pas que c'était en référence à Portal.
En fait, c'était juste pour l'info, qui peut paraître insolite puisqu'elle va à l'encontre des idées généralement reçues.
Il se trouve que les situations que tu cites (ainsi que quelques autres) avaient été très sérieusement suggérées il y a fort longtemps (bien avant la sortie du jeu), notamment dans les années 70 où les recherches pratiques en Intelligence Artificielle et en robotique battaient leur plein, et à l'occasion de questionnements plus philosophiques sur ces sujets (comme ceux évoqués dans le film « 2001, l’odyssée de l'espace » sorti en 1968).
On avait pu démontrer que ces situations n'étaient pas critiques. En particulier, elle n'avaient pas de raison de bloquer ni de rendre folle une IA bien conçue.
A contrario, on avait déjà mis en évidence des risques d'erreurs dans le fonctionnement des IA, qu'on rencontre d'ailleurs maintenant qu'on a mis ces dernières à mode (ou plus exactement, maintenant qu'elles équipent des systèmes dans lesquels on n'aurait jamais osé les mettre il y a 30 ans, ce qui mène à des dysfonctionnements et des accidents parfois mortels).
Pour info comme ca les fameuses lois de la robotiques sont du vent elles ont jamais été réelles, aucun roboticien ne les prend en compte car c'est juste comment dire simplement, "ca marche pas" il faudrait apprendre au dit robot les notion abstraite de humain, de mal, de bien, etc c'est juste un gros cliché que des pseudos geek reprennent.
Aller je suis pas qu'un vieux con, je suis aussi captain oblivious des fois, du coup si tu veux en savoir plus: https://www.you...h?v=7PKx3kS7f4A
y'a quand meme un paquet de réaction où direct tu te demande pourquoi ils programmerait un robot pour faire ca. S'écrouler quand il se releve, tituber après un coup de bouteille à la "tete", le coup du spray qui pique les yeux..
hellsfangs Vermisseau
Première Loi
Un robot ne peut blesser un être humain ni, par son inaction, permettre qu'un humain soit blessé.
Deuxième Loi
Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi.
Troisième Loi
Un robot doit protéger sa propre existence aussi longtemps qu'une telle protection n'est pas en contradiction avec la Première et/ou la Deuxième Loi.
Necropaf En réponse à hellsfangs LoMBriK addict !
phil_good En réponse à Necropaf Ver singe (et torix)
BonPublic En réponse à phil_good Vermisseau
popi En réponse à BonPublic Vermisseau
Zap En réponse à phil_good Vermisseau
trilouli En réponse à Zap Vermisseau
Nap En réponse à hellsfangs Vermisseau
"this statement is false"
"new mission : refuse this mission"
"does a set of all sets contain itself?"
trucmoi En réponse à Nap Ver d'os
Nap En réponse à trucmoi Vermisseau
facile, ta calculatrice sait le faire
_pepe_ En réponse à Nap
_pepe_ En réponse à Nap
"this statement is false" :
· soit à résoudre P = { p∈{ false,true} | (p==false) AND (p) }, on déduit que (false)∉P et (true)∉P ⇒ P = { }
"new mission : refuse this mission"
· liste des missions restantes : {"refuse this mission"}
· exécution de "refuse this mission" → mission refusée
· liste des missions restantes : { }
"does a set of all sets contain itself?"
· la base de faits inclut notamment [∀A∈sets A⊂A], [∀(A,B)∈sets² (A contains B)⇒(A⊂B)] et [set_of_all_sets ∈ sets]
· on résout [set_of_all_sets contains set_of_all_sets] = [set_of_all_sets ⊂ set_of_all_sets] = true
Nap En réponse à _pepe_ Vermisseau
_pepe_ En réponse à Nap
En fait, c'était juste pour l'info, qui peut paraître insolite puisqu'elle va à l'encontre des idées généralement reçues.
Il se trouve que les situations que tu cites (ainsi que quelques autres) avaient été très sérieusement suggérées il y a fort longtemps (bien avant la sortie du jeu), notamment dans les années 70 où les recherches pratiques en Intelligence Artificielle et en robotique battaient leur plein, et à l'occasion de questionnements plus philosophiques sur ces sujets (comme ceux évoqués dans le film « 2001, l’odyssée de l'espace » sorti en 1968).
On avait pu démontrer que ces situations n'étaient pas critiques. En particulier, elle n'avaient pas de raison de bloquer ni de rendre folle une IA bien conçue.
A contrario, on avait déjà mis en évidence des risques d'erreurs dans le fonctionnement des IA, qu'on rencontre d'ailleurs maintenant qu'on a mis ces dernières à mode (ou plus exactement, maintenant qu'elles équipent des systèmes dans lesquels on n'aurait jamais osé les mettre il y a 30 ans, ce qui mène à des dysfonctionnements et des accidents parfois mortels).
Ivy En réponse à hellsfangs LoMBriK addict !
Aller je suis pas qu'un vieux con, je suis aussi captain oblivious des fois, du coup si tu veux en savoir plus:
https://www.you...h?v=7PKx3kS7f4A
Morph Vermisseau
hellsfangs En réponse à Morph Vermisseau
Morph En réponse à hellsfangs Vermisseau
Lork Asticot
pandawan Vermisseau
Peevee LoMBriK addict !
Oblivionis Taret
Perso, je me méfierait pas d'un robot qui réussie a passer le test, mais je ferrait gaffe a celui qui l'échoue volontairement...
jose_cahuette Vermisseau
john5
Cyclomore En réponse à john5 Vermisseau
nanar33 Vermisseau
Attidos31 Vermisseau
https://www.you...h?v=gCuG-KJacp8