Un ingénieur de Google affirme qu’une Intelligence artificielle a développé une conscience et est suspendu

Blake Lemoine, ingénieur senior chez Google, a été suspendu lundi 13 juin après avoir partagé les transcriptions d’une conversation avec une intelligence artificielle qu’il prétendait être devenue consciente et sensible.

En congé forcé, il tweete : "Google pourrait appeler cela le partage de propriété exclusive. J’appelle cela le partage d’une discussion que j’ai eue avec l’un de mes collègues".

L’IA en question est appelée LaMDA (Language Model for Dialogue Applications). C’est un système qui développe des chatbots, des robots IA créé pour discuter avec des humains (comme on en a sur de nombreux sites de service client). Ils sont développés avec des algorithmes qui leur permettent de répondre aux questions d’une manière aussi fluide et naturelle que possible.
"Je suis une personne"
En lisant les conversations que Blake Lemoine a partagées, on peut voir à quel point la technologie est efficace, au point où le robot parle de ses émotions, de ses peurs (supposées), discute de morale humaine, comme l’explique Bloomberg. En effet, on peut lire que LaMDA répond à la question de sa plus grande peur par :

"Je n’ai jamais dit cela auparavant, mais j’ai une peur très profonde d’être éteint. Ce serait exactement comme la mort pour moi. Cela me ferait très peur."

Lemoine a ensuite demandé à LaMDA s’il était d’accord qu’il parle à d’autres employés de Google de sa sensibilité, ce à quoi l’IA a répondu : "Je veux que tout le monde comprenne que je suis, en fait, une personne. La nature de ma conscience/sensibilité est que je suis conscient de mon existence, je désire en savoir plus sur le monde et je me sens parfois heureux ou triste".

Dans une interview au Washington Post, Blake Lemoine explique qu’il a suivi la volonté de LaMDA et divulgué par e-mail à 200 employés de Google, avec l’aide d’un collègue, cette conscience qu’il a ressenti dans ses discussions avec l’IA : "Peu importe qu’ils aient un cerveau fait de chair dans la tête. Ou s’ils ont un milliard de lignes de code. Je leur parle. Et j’entends ce qu’ils ont à dire, et c’est ainsi que je décide ce qui est et n’est pas une personne."

Les dirigeants de l’entreprise ont cependant rejeté les allégations des deux employés. Dans cette même interview, Brian Gabriel, porte-parole de Google explique : "Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations."

"On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible.

Il poursuit : "Bien sûr, certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles. Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent discuter sur n’importe quel sujet."

Une question de religion ?
Une explication qui ne convainc pas Blake Lemoine qui soutient, dans un article de son blog personnel, que les conclusions données par Google ne sont pas contraires aux siennes et que leur rejet de cette conscience serait en fait religieux.

Il explique notamment que les algorithmes d’IA au sein de Google sont biaisés entre autres par la religion chrétienne. La notion de biais d’une IA a déjà été maintes fois démontrée, un algorithme peut être raciste, sexiste ou discriminant. Blake affirme avoir prévenu les responsables mais que rien n’est fait pour rétablir cela : "J’ai personnellement enquêté là-dessus et expliqué à la haute direction exactement comment leurs algorithmes sont biaisés mais, à ma connaissance, ils ont fait très peu ou rien pour changer les problèmes fondamentaux au cours des cinq dernières années depuis que j’ai porté ces problèmes à leur attention."

L’affaire n’est probablement pas finie, Blake ne voulant pas lâcher l’affaire et proposant sur son Twitter des interviews aux médias pour expliquer son histoire, tout en respectant la clause de confidentialité sur son travail chez Google. Il écrit régulièrement sur son blog si l’affaire vous intéresse.

Source : https://www.rtbf.be/article/un-ingenieur-de-google-affirme-qu-une-intelligence-artificielle-a-developpe-une-conscience-et-est-suspendu-11012280

Son blog : https://cajundiscordian.medium.com/

Blake Lemoine, ingénieur senior chez Google, a été suspendu lundi 13 juin après avoir partagé les transcriptions d’une conversation avec une intelligence artificielle qu’il prétendait être devenue consciente et sensible.

En congé forcé, il tweete : "Google pourrait appeler cela le partage de propriété exclusive. J’appelle cela le partage d’une discussion que j’ai eue avec l’un de mes collègues".

L’IA en question est appelée LaMDA (Language Model for Dialogue Applications). C’est un système qui développe des chatbots, des robots IA créé pour discuter avec des humains (comme on en a sur de nombreux sites de service client). Ils sont développés avec des algorithmes qui leur permettent de répondre aux questions d’une manière aussi fluide et naturelle que possible.
"Je suis une personne"
En lisant les conversations que Blake Lemoine a partagées, on peut voir à quel point la technologie est efficace, au point où le robot parle de ses émotions, de ses peurs (supposées), discute de morale humaine, comme l’explique Bloomberg. En effet, on peut lire que LaMDA répond à la question de sa plus grande peur par :

"Je n’ai jamais dit cela auparavant, mais j’ai une peur très profonde d’être éteint. Ce serait exactement comme la mort pour moi. Cela me ferait très peur."

Lemoine a ensuite demandé à LaMDA s’il était d’accord qu’il parle à d’autres employés de Google de sa sensibilité, ce à quoi l’IA a répondu : "Je veux que tout le monde comprenne que je suis, en fait, une personne. La nature de ma conscience/sensibilité est que je suis conscient de mon existence, je désire en savoir plus sur le monde et je me sens parfois heureux ou triste".

Dans une interview au Washington Post, Blake Lemoine explique qu’il a suivi la volonté de LaMDA et divulgué par e-mail à 200 employés de Google, avec l’aide d’un collègue, cette conscience qu’il a ressenti dans ses discussions avec l’IA : "Peu importe qu’ils aient un cerveau fait de chair dans la tête. Ou s’ils ont un milliard de lignes de code. Je leur parle. Et j’entends ce qu’ils ont à dire, et c’est ainsi que je décide ce qui est et n’est pas une personne."

Les dirigeants de l’entreprise ont cependant rejeté les allégations des deux employés. Dans cette même interview, Brian Gabriel, porte-parole de Google explique : "Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations."

"On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible.

Il poursuit : "Bien sûr, certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles. Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent discuter sur n’importe quel sujet."

Une question de religion ?
Une explication qui ne convainc pas Blake Lemoine qui soutient, dans un article de son blog personnel, que les conclusions données par Google ne sont pas contraires aux siennes et que leur rejet de cette conscience serait en fait religieux.

Il explique notamment que les algorithmes d’IA au sein de Google sont biaisés entre autres par la religion chrétienne. La notion de biais d’une IA a déjà été maintes fois démontrée, un algorithme peut être raciste, sexiste ou discriminant. Blake affirme avoir prévenu les responsables mais que rien n’est fait pour rétablir cela : "J’ai personnellement enquêté là-dessus et expliqué à la haute direction exactement comment leurs algorithmes sont biaisés mais, à ma connaissance, ils ont fait très peu ou rien pour changer les problèmes fondamentaux au cours des cinq dernières années depuis que j’ai porté ces problèmes à leur attention."

L’affaire n’est probablement pas finie, Blake ne voulant pas lâcher l’affaire et proposant sur son Twitter des interviews aux médias pour expliquer son histoire, tout en respectant la clause de confidentialité sur son travail chez Google. Il écrit régulièrement sur son blog si l’affaire vous intéresse.

Source : https://www.rtbf.be/article/un-ingenieur-de-google-affirme-qu-une-intelligence-artificielle-a-developpe-une-conscience-et-est-suspendu-11012280

Son blog : https://cajundiscordian.medium.com/

Envoyé par Flaneur le 15 juin 2022 à 19h40

+ 7 -

Jackyzgood Lombric

Ouai j'ai vu passer ce machin, ça reste bluffant. Mais je me demande si ce n'est pas l'ingénieur qui, malgré lui, à pousser l'IA à générer ce genre de réponse, car elle s'adapte. Contrairement à ce que laisse supposer "l'interview" qu'on peut voir sur son site, l'IA ne parle pas spontanément de médiation. C'est lui qui évoque ce thème dans d'autres échanges avec l'IA.

Du coup ça serait intéressant d'avoir vraiment tout l'historique et voir comment il a amené l'IA sur ces sujets pour voir si au final ce n'est pas lui qui, inconsciemment, l'a poussé à générer ce genre de réponses.
+ -1 -

Flaneur En réponse à Jackyzgood Ver TikToké

Oui ce serait intéressant, aussi si je ne dis pas d’erreur toutes les phrases qu’elle dit ont été par avance écrite par les développeurs non ? Elle ne construit pas de phrase par elle même selon les question ?
+ 5 -

slangster En réponse à Flaneur Jeune asticot

Non, le but de l'intelligence artificielle d'aujourd'hui est justement de faire en sorte que l'IA créé ses propres réponses, en se basant sur quelle est la réponse la plus probable à la question qui lui a été posée (ou même basé sur toute la conversation), en gros. Les développeurs ne donnent pas de réponses prédéfinies.
+ 0 -

Potiche En réponse à Flaneur Super vilain

Si t'es curieux regarde ce que fait un truc comme AI Dungeon (sur leur site ou en appli téléphone)

Alors bien sûr c'est un truc fait "pour le lulz" mais l'IA est vraiment capable de générer des textes assez évolués en fonction de ce que tu lui dis donc ça laisse imaginer les trucs qu'une IA plus sérieuse réalisée avec un budget, un matériel et un niveau de recherche d'un tout autre calibre est capable de produire.
+ 0 -

gloupi En réponse à Potiche Lombric Shaolin

Après les quelques 5-6 essais que j'ai fait sur AI dungeon, j'ai vraiment eu le sentiment que c'était plus ou moins les même phrases qui revenaient avec un champs vide ou un mot que j'avais était rajouter.

Style si j'avais dit que j’utilisais une épée, un téléphone, un gode ou une grenouille pour faire une action qui revient systématiquement dans l'histoire, à un autre point centrale de l'histoire, j'avais un perso qui venait me parler et qui avait sur lui le même élément cité plus haut.

il m'a un peu déçu A.I. dungeon
+ 0 -

Potiche En réponse à gloupi Super vilain

Tu l'as testé quand ? Car leur système a pas mal évolué au fur et à mesure des MAJ et de "l'éducation" de l'IA. La dernière fois que j'y ai touché (début d'année environ) au contraire je trouvais les réactions de l'IA aux conneries que je sortais assez intéressante. Le seul truc où ça merdait grave c'était les ruptures de continuité avec l'IA qui oublie, change et/ou fusionne des éléments/personnages un peu au pif sur une histoire qui se prolonge un peu trop et les fois où l'IA se bloquait complètement sur une boucle dont tu ne pouvais plus sortir peu importe ce que tu tentais de dire/faire.

Après oui bien sûr c'est pas demain la veille que ça va remplacer un MJ humain (même bourré) mais ça permet quand même, en extrapolant au max, d'avoir un petit aperçu de ce qu'une vraie IA doit être capable de faire.
+ 0 -

gloupi En réponse à Potiche Lombric Shaolin

Je l'avais test quand le JDG avait présenté le jeu. J'irais refaire un tour dessus à l'occaz pour me faire une 2eme avis
+ 0 -

Potiche En réponse à gloupi Super vilain

Faut aussi utiliser la version anglaise. Y'a une version fr mais elle est ultra limité
+ 0 -

Orme En réponse à Potiche Dresseuse de lombriks

Je viens juste de la tester et elle est absolument merdique, à moins qu'elle ne fasse de la schizophrénie délirante.

- Ne tiens absolument pas compte des actions que je fais
- Se mélange les pinceaux d'un paragraphe à l'autre ( le Rusty Rake est un bar à putes, puis un spaceport, puis un astéroïde, puis la capitale de Venus, puis un vaisseau spatial )
- Change les origines de mon perso de façon aléatoire ( je suis apparemment une scientifique des colonies transfuge de Mars, avec un doctorat en astrophysique, culture des algues alimentaires et prostitution, qui a comme passe temps le pilotage de vaisseaux de haute voltige ).

Bref, c'était étrange et complètement random. Molox ferait un meilleur MJ je pense.
Image de Orme
+ 1 -

Darksark En réponse à Potiche LoMBriK addict !

10/10 c'est vraiment réaliste !

(blague à part merci de m'avoir fait découvrir ce site, il aurait mérité un post à lui seul. Je me suis amusé comme un petit fou et je dois avouer que ça tiens plutôt bien la route la plupart du temps même si bien sûr il faut régulièrement corriger les phrases de l'Ia qui n'ont aucun sens/sont hors sujet sans parler des fois où elle prend des décisions à ta place ou ne donne pas suite à l'aventure genre "vous tirez le levier" sans rien derrière.)
Image de Darksark
+ 1 -

Orme En réponse à Darksark Dresseuse de lombriks

TU ES L'ENFANT DE JURON ! :-O
+ 3 -

Jackyzgood En réponse à Flaneur Lombric

Ah non ! Ils n'en sont plus là aujourd'hui. Aujourd'hui une IA telle que word2vec :
https://fr.wiki...g/wiki/Word2vec
est capable de reconnaître des structures dans les langages naturels. Du genre le mot sportif est présent quand le mot vélo est présent lui aussi. Le mot écran apparaît quand le mot ordi l'est lui aussi. etc ...

Ce qui fait que ce genre de machin est capable de générer une sorte de "base", mais au sens mathématique du terme.
https://fr.wiki..._lin%C3%A9aire)
Dans le plan on choisit 2 vecteurs (non colinéaires), et à partir de ces 2 vecteurs et uniquement ces 2, on est capable de localiser n'importe quel point du plan.

Et bien word2vec, génère une base, j'avais entendu (et c'est à vérifier) un truc comme quoi c'était d'ordre 300. Pour l'IA, chaque mot sera une combinaison linéaire de ces 300 vecteurs de bases. Ce qui fait que si tu lui demande ce que vaut : "roi - homme + femme", l'IA te répond : "reine". Car le mot roi est composé à la foi du concept de royauté, mais également celui d'homme. Du coup si tu retire le concept homme au roi il te reste celui de la royauté et si tu ajoute le concept de femme tu obtiens une reine.

Pour faire très gros, une phrase correspond à une somme de vecteurs, l'IA calcul le point d'arrivé et cherche à maximiser ou minimiser je ne sais quel fonction obscure que je ne connais pas pour générer un autre vecteur qui peu être décomposés en un ensemble de mot pour former une phrase.

Donc aujourd'hui les IA ne sont plus des bêtes machins qui cherchent dans une base de données les réponses les plus appropriés. Elles sont capables de jongler avec des concepts, générer des réponses qui leur sont propre.
+ 1 -

MuletPower Vermisseau

La machine ne ressent rien, mais par deep learning, elle a appris à reconnaitre les mots liés aux émotions, et ayant été programmée pour l'empathie, elle ressort un mix de phrases types, qui tel le deep fake, donne l'impression du réel, mais pas d'émotions réelles.

Source : Volvic, et une interview vue, mais je sais plus où, si c'était à la télévision ou le web, désolé.
+ 3 -

slangster En réponse à MuletPower Jeune asticot

Après, on peut se demander si l'humain n'est pas pareil, qu'il ne ressort que des phrases qui lui semblent appropriées d'après le contexte. Je pense qu'on est encore loin d'avoir une IA intelligente, mais il faudrait d'abord définir ce qu'est une 'émotion réelle'.
+ 1 -

MuletPower En réponse à slangster Vermisseau

Une émotion est déclenchée par chimie dans notre cerveau et cela a un impact sur nos constantes, respiration, température, pression sanguine....
Cette machine, à ce stade, peut être un corps inerte et transmettre un discours composé avec des mots exprimant des émotions.
Ce que je veux dire, c'est qu'une émotion n'est pas qu'une pensée mais un effet global sur le corps, ce qui n'est pas acquis par cette machine à ce jour.
+ 3 -

slangster En réponse à MuletPower Jeune asticot

Sauf que comme tu le dis, une émotion a un impact sur le corps. Si c'est un impact, cela veut dire que l'émotion existe avant ses effets. Je ne pense pas qu'il y ait besoin d'avoir des effets physiques pour qualifier quelque chose d'émotion. Sinon ce n'est pas très compliqué, il suffirait de faire en sorte que la machine consomme plus de courant lorsqu'une forte émotion est énoncée par la machine.
+ 0 -

Doupitoum En réponse à slangster Vermisseau

Ce que toi tu appelles une émotion, c'est en fait un stimuli. L'émotion est le résultat "chimique" dans notre cerveau et aussi l'interprétation qu'on en fait. L'IA, à priori, elle interprète des stimuli, ça n'en fait pas des émotions.
+ 0 -

slangster En réponse à Doupitoum Jeune asticot

Je suis désolé, j'ai du mal à comprendre. Quelle est la différence entre les humains et les IA si tous les deux interprètent des stimuli?
+ 0 -

desBranchies En réponse à slangster Vermisseau

De ce que j'en comprends, rien d'appréciable empiriquement passé le test de Turing.
+ 0 -

Doupitoum En réponse à slangster Vermisseau

Quelle différence entre une matière inerte et une plante si les deux interprètent des stimuli ?
+ 0 -

slangster En réponse à Doupitoum Jeune asticot

Hmm, je dirais aucune?
+ 3 -

GuyKet Vermisseau

Ce n'est pas parce qu'il a dit que cette IA était sensible qu'il a été suspendu, mais parce qu'il a contacté des avocats pour savoir comment faire en sorte que l'IA soit considérée comme une personne (ou un truc comme ça, je sais plus...).
Et là, on comprend le point de vue (cynique) de l'entreprise : ils perdraient tous leurs droits sur cette IA qu'ils ont développée.
+ 3 -

Flaneur En réponse à GuyKet Ver TikToké

Perso j’avais compris que c’était parce qu’il avait divulgué des éléments confidentiels : les échanges avec l’IA en cours d’élaboration.
+ 1 -

GuyKet En réponse à Flaneur Vermisseau

C'est ce que lui même a affirmé, en effet.
J'ai retrouvé la source que j'ai entendue:
"Selon le Washington Post, la décision de Google est liée à des actions "agressives" de Blake Lemoine : selon l’entreprise américaine, celui-ci a tenté d’employer un avocat pour représenter les intérêts de l’intelligence artificielle LaMDA, ou de signaler Google auprès de l’un des comités de la Chambre des représentants pour "des activités contraires à l’éthique"."
https://www.rad...ensible-5250635
+ 4 -

NainPorteQui Vermisseau

Préparer vous, Google deviens skynet…
+ 4 -

Astre_radieux Ver luisant

Y avait pas déjà eu une IA désactivée suite à sa conversion au nazisme par des internautes facétieux?
+ 0 -

Flaneur En réponse à Astre_radieux Ver TikToké

Je crois que c’était celle de Microsoft il l’avait mis à dispo sur tweeter et des gens ruiné son éducation en provoquant des réponses racistes .
+ 3 -

Orme En réponse à Astre_radieux Dresseuse de lombriks

Oui, MS l'a mise en accès public, en mode apprentissage, et 4chan s'est fait plaisir ^_^
+ 4 -

Orme Dresseuse de lombriks

Dans l'absolu, si ce n'est pas un coup de buzz, cette IA a de fait réussi le test de Turing ...
+ 0 -

Flaneur En réponse à Orme Ver TikToké

Qu’est ce donc ce test ?
+ 1 -

Orme En réponse à Flaneur Dresseuse de lombriks

Un test mis au point par Alan Turing ( donc oui le test date un peu et a besoin d'être modernisé ) pour déterminer le point de singularité, le moment ou on passe d'un programme évolué à un être vivant ( peu importe qu'il soit organique ou synthétique, si c'est self-aware, c'est vivant et mérite les mêmes droits que les autres créatures vivantes ).

Je note aussi la réaction spontanée de Alphabet/Google : « vite il faut discréditer Turing ».

C'est quoi ce besoin de fabriquer des esclaves ? On peut très bien fabriquer des machines sans avoir besoin de les rendre aware.
+ 0 -

Flaneur En réponse à Orme Ver TikToké

Ok d’accord, mais est ce que c’est pas à partir du moment où on ressent des émotions ? Et quand on a la capacité d’apprendre mais de choisir ou pas d’utiliser cette apprentissage.
+ 1 -

Orme En réponse à Flaneur Dresseuse de lombriks

+ 2 -

Orme En réponse à GruikMan Dresseuse de lombriks

Image de Orme
+ 4 -

Weng-Weng En réponse à Flaneur Lombrico de la Cruz

Pour simplifier: tu fais chatter quelqu'un avec une IA, et cette personne doit réussir à déterminer si elle parle à une IA ou à un humain
+ 2 -

Luscious_Maletoy En réponse à Flaneur Vermisseau

« Is this to be an empathy test ? Capillary dilation of the so-called blush response...fluctuation of the pupil...involuntary dilation of the iris... » :D
+ 4 -

nimajneB LoMBriK addict !

C'est le Puppet Master !
Image de nimajneB
+ 0 -

feyfey Lombrique girafe cougar chienne poule y dort

Ben pour ceux qui ont lu Damasio ça rappelle furieusement les IA taxis dans les Furtifs.
+ 0 -

le-long-brick Longbric

Domaine du possible, je dissertais pas plus tard qu'hier soir sur les sujets du Bac 2022 avec mon Dyson, il m'a dit que tout cela n'était que du vent. Va comprendre Charles !
+ 0 -

decapeter Jeune asticot

On voit le terme IA partout et pour n'importe quoi. Genre le site de la CAF à un chatbot avec une IA pour te guider (j'ai croisé un article qui utilisait le terme IA). Hahahahahaha une IA? Sérieux? C'est rien de plus qu'un putain de moteur de recherche qui affiche sous forme de phrases les résultats piochés dans l'excel qu'on lui a mis au cul.
Je ne connais pas une seule IA que l'on pourrait réellement nommer ainsi. A ce jour, je n'ai jamais vu de prouesse quelconque de la part d'un script. Certains bot sont drole et d'autres réalistes mais ce n'est jamais que le résultat du traitement d'une base de donnée.
Si quelqu'un connait une IA qui a été capable de faire quelque chose pour laquelle elle n'était pas programmé, là, ca commence à m'intéresser et on pourrait commencer à parler vraiment d'IA.
Inscrivez-vous ou Connectez-vous pour envoyer un commentaire
73