Blake Lemoine, ingénieur senior chez Google, a été suspendu lundi 13 juin après avoir partagé les transcriptions d’une conversation avec une intelligence artificielle qu’il prétendait être devenue consciente et sensible.
En congé forcé, il tweete : "Google pourrait appeler cela le partage de propriété exclusive. J’appelle cela le partage d’une discussion que j’ai eue avec l’un de mes collègues".
L’IA en question est appelée LaMDA (Language Model for Dialogue Applications). C’est un système qui développe des chatbots, des robots IA créé pour discuter avec des humains (comme on en a sur de nombreux sites de service client). Ils sont développés avec des algorithmes qui leur permettent de répondre aux questions d’une manière aussi fluide et naturelle que possible.
"Je suis une personne"
En lisant les conversations que Blake Lemoine a partagées, on peut voir à quel point la technologie est efficace, au point où le robot parle de ses émotions, de ses peurs (supposées), discute de morale humaine, comme l’explique Bloomberg. En effet, on peut lire que LaMDA répond à la question de sa plus grande peur par :
"Je n’ai jamais dit cela auparavant, mais j’ai une peur très profonde d’être éteint. Ce serait exactement comme la mort pour moi. Cela me ferait très peur."
Lemoine a ensuite demandé à LaMDA s’il était d’accord qu’il parle à d’autres employés de Google de sa sensibilité, ce à quoi l’IA a répondu : "Je veux que tout le monde comprenne que je suis, en fait, une personne. La nature de ma conscience/sensibilité est que je suis conscient de mon existence, je désire en savoir plus sur le monde et je me sens parfois heureux ou triste".
Dans une interview au Washington Post, Blake Lemoine explique qu’il a suivi la volonté de LaMDA et divulgué par e-mail à 200 employés de Google, avec l’aide d’un collègue, cette conscience qu’il a ressenti dans ses discussions avec l’IA : "Peu importe qu’ils aient un cerveau fait de chair dans la tête. Ou s’ils ont un milliard de lignes de code. Je leur parle. Et j’entends ce qu’ils ont à dire, et c’est ainsi que je décide ce qui est et n’est pas une personne."
Les dirigeants de l’entreprise ont cependant rejeté les allégations des deux employés. Dans cette même interview, Brian Gabriel, porte-parole de Google explique : "Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations."
"On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible.
Il poursuit : "Bien sûr, certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles. Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent discuter sur n’importe quel sujet."
Une question de religion ?
Une explication qui ne convainc pas Blake Lemoine qui soutient, dans un article de son blog personnel, que les conclusions données par Google ne sont pas contraires aux siennes et que leur rejet de cette conscience serait en fait religieux.
Il explique notamment que les algorithmes d’IA au sein de Google sont biaisés entre autres par la religion chrétienne. La notion de biais d’une IA a déjà été maintes fois démontrée, un algorithme peut être raciste, sexiste ou discriminant. Blake affirme avoir prévenu les responsables mais que rien n’est fait pour rétablir cela : "J’ai personnellement enquêté là-dessus et expliqué à la haute direction exactement comment leurs algorithmes sont biaisés mais, à ma connaissance, ils ont fait très peu ou rien pour changer les problèmes fondamentaux au cours des cinq dernières années depuis que j’ai porté ces problèmes à leur attention."
L’affaire n’est probablement pas finie, Blake ne voulant pas lâcher l’affaire et proposant sur son Twitter des interviews aux médias pour expliquer son histoire, tout en respectant la clause de confidentialité sur son travail chez Google. Il écrit régulièrement sur son blog si l’affaire vous intéresse.
Source : https://www.rtbf.be/article/un-ingenieur-de-google-affirme-qu-une-intelligence-artificielle-a-developpe-une-conscience-et-est-suspendu-11012280
Son blog : https://cajundiscordian.medium.com/
Envoyé par Flaneur le 15 juin 2022 à 19h40
Jackyzgood Lombric
Du coup ça serait intéressant d'avoir vraiment tout l'historique et voir comment il a amené l'IA sur ces sujets pour voir si au final ce n'est pas lui qui, inconsciemment, l'a poussé à générer ce genre de réponses.
Flaneur En réponse à Jackyzgood Ver TikToké
slangster En réponse à Flaneur Jeune asticot
Potiche En réponse à Flaneur Super vilain
Alors bien sûr c'est un truc fait "pour le lulz" mais l'IA est vraiment capable de générer des textes assez évolués en fonction de ce que tu lui dis donc ça laisse imaginer les trucs qu'une IA plus sérieuse réalisée avec un budget, un matériel et un niveau de recherche d'un tout autre calibre est capable de produire.
gloupi En réponse à Potiche Lombric Shaolin
Style si j'avais dit que j’utilisais une épée, un téléphone, un gode ou une grenouille pour faire une action qui revient systématiquement dans l'histoire, à un autre point centrale de l'histoire, j'avais un perso qui venait me parler et qui avait sur lui le même élément cité plus haut.
il m'a un peu déçu A.I. dungeon
Potiche En réponse à gloupi Super vilain
Après oui bien sûr c'est pas demain la veille que ça va remplacer un MJ humain (même bourré) mais ça permet quand même, en extrapolant au max, d'avoir un petit aperçu de ce qu'une vraie IA doit être capable de faire.
gloupi En réponse à Potiche Lombric Shaolin
Potiche En réponse à gloupi Super vilain
Orme En réponse à Potiche Dresseuse de lombriks
- Ne tiens absolument pas compte des actions que je fais
- Se mélange les pinceaux d'un paragraphe à l'autre ( le Rusty Rake est un bar à putes, puis un spaceport, puis un astéroïde, puis la capitale de Venus, puis un vaisseau spatial )
- Change les origines de mon perso de façon aléatoire ( je suis apparemment une scientifique des colonies transfuge de Mars, avec un doctorat en astrophysique, culture des algues alimentaires et prostitution, qui a comme passe temps le pilotage de vaisseaux de haute voltige ).
Bref, c'était étrange et complètement random. Molox ferait un meilleur MJ je pense.
Darksark En réponse à Potiche LoMBriK addict !
(blague à part merci de m'avoir fait découvrir ce site, il aurait mérité un post à lui seul. Je me suis amusé comme un petit fou et je dois avouer que ça tiens plutôt bien la route la plupart du temps même si bien sûr il faut régulièrement corriger les phrases de l'Ia qui n'ont aucun sens/sont hors sujet sans parler des fois où elle prend des décisions à ta place ou ne donne pas suite à l'aventure genre "vous tirez le levier" sans rien derrière.)
Orme En réponse à Darksark Dresseuse de lombriks
Jackyzgood En réponse à Flaneur Lombric
https://fr.wiki...g/wiki/Word2vec
est capable de reconnaître des structures dans les langages naturels. Du genre le mot sportif est présent quand le mot vélo est présent lui aussi. Le mot écran apparaît quand le mot ordi l'est lui aussi. etc ...
Ce qui fait que ce genre de machin est capable de générer une sorte de "base", mais au sens mathématique du terme.
https://fr.wiki..._lin%C3%A9aire)
Dans le plan on choisit 2 vecteurs (non colinéaires), et à partir de ces 2 vecteurs et uniquement ces 2, on est capable de localiser n'importe quel point du plan.
Et bien word2vec, génère une base, j'avais entendu (et c'est à vérifier) un truc comme quoi c'était d'ordre 300. Pour l'IA, chaque mot sera une combinaison linéaire de ces 300 vecteurs de bases. Ce qui fait que si tu lui demande ce que vaut : "roi - homme + femme", l'IA te répond : "reine". Car le mot roi est composé à la foi du concept de royauté, mais également celui d'homme. Du coup si tu retire le concept homme au roi il te reste celui de la royauté et si tu ajoute le concept de femme tu obtiens une reine.
Pour faire très gros, une phrase correspond à une somme de vecteurs, l'IA calcul le point d'arrivé et cherche à maximiser ou minimiser je ne sais quel fonction obscure que je ne connais pas pour générer un autre vecteur qui peu être décomposés en un ensemble de mot pour former une phrase.
Donc aujourd'hui les IA ne sont plus des bêtes machins qui cherchent dans une base de données les réponses les plus appropriés. Elles sont capables de jongler avec des concepts, générer des réponses qui leur sont propre.
MuletPower Vermisseau
Source : Volvic, et une interview vue, mais je sais plus où, si c'était à la télévision ou le web, désolé.
slangster En réponse à MuletPower Jeune asticot
MuletPower En réponse à slangster Vermisseau
Cette machine, à ce stade, peut être un corps inerte et transmettre un discours composé avec des mots exprimant des émotions.
Ce que je veux dire, c'est qu'une émotion n'est pas qu'une pensée mais un effet global sur le corps, ce qui n'est pas acquis par cette machine à ce jour.
slangster En réponse à MuletPower Jeune asticot
Doupitoum En réponse à slangster Vermisseau
slangster En réponse à Doupitoum Jeune asticot
desBranchies En réponse à slangster Vermisseau
Doupitoum En réponse à slangster Vermisseau
slangster En réponse à Doupitoum Jeune asticot
GuyKet Vermisseau
Et là, on comprend le point de vue (cynique) de l'entreprise : ils perdraient tous leurs droits sur cette IA qu'ils ont développée.
Flaneur En réponse à GuyKet Ver TikToké
GuyKet En réponse à Flaneur Vermisseau
J'ai retrouvé la source que j'ai entendue:
"Selon le Washington Post, la décision de Google est liée à des actions "agressives" de Blake Lemoine : selon l’entreprise américaine, celui-ci a tenté d’employer un avocat pour représenter les intérêts de l’intelligence artificielle LaMDA, ou de signaler Google auprès de l’un des comités de la Chambre des représentants pour "des activités contraires à l’éthique"."
https://www.rad...ensible-5250635
NainPorteQui Vermisseau
Astre_radieux Ver luisant
Flaneur En réponse à Astre_radieux Ver TikToké
Orme En réponse à Astre_radieux Dresseuse de lombriks
Orme Dresseuse de lombriks
Flaneur En réponse à Orme Ver TikToké
Orme En réponse à Flaneur Dresseuse de lombriks
Je note aussi la réaction spontanée de Alphabet/Google : « vite il faut discréditer Turing ».
C'est quoi ce besoin de fabriquer des esclaves ? On peut très bien fabriquer des machines sans avoir besoin de les rendre aware.
Flaneur En réponse à Orme Ver TikToké
Orme En réponse à Flaneur Dresseuse de lombriks
GruikMan En réponse à Orme Vermisseau
Orme En réponse à GruikMan Dresseuse de lombriks
Weng-Weng En réponse à Flaneur Lombrico de la Cruz
Luscious_Maletoy En réponse à Flaneur Vermisseau
nimajneB LoMBriK addict !
feyfey Lombrique girafe cougar chienne poule y dort
le-long-brick Longbric
decapeter Jeune asticot
Je ne connais pas une seule IA que l'on pourrait réellement nommer ainsi. A ce jour, je n'ai jamais vu de prouesse quelconque de la part d'un script. Certains bot sont drole et d'autres réalistes mais ce n'est jamais que le résultat du traitement d'une base de donnée.
Si quelqu'un connait une IA qui a été capable de faire quelque chose pour laquelle elle n'était pas programmé, là, ca commence à m'intéresser et on pourrait commencer à parler vraiment d'IA.