Ça valait le coup d'essayer ^_^

Dommage. En plus je crois que je l'ai planté :D

Dommage. En plus je crois que je l'ai planté :D

Envoyé par Orme le 15 mars 2023 à 19h16

+ 2 -

GruikMan Vermisseau

Des fois juste lui demander l'heure suffit...
+ 12 -

Orme Dresseuse de lombriks

Ah, c'est revenu online.
MAIS ...
... Bande de bâtards :D
Image de Orme
+ 7 -

lebaud07 En réponse à Orme

"where is this fucking owl"
... L'ordre des mots est important !
+ 4 -

Flaneur Ver TikToké

Est ce qu’on peut lui demander de résoudre la Conjecture de Collatz y’a une société qui offre un million de dollars pour qui réussi ce problème mathématique
+ 5 -

Oblivionis En réponse à Flaneur Taret

Ou bien lui demander la dernière décimal de pi
+ 1 -

Anonymous En réponse à Oblivionis (lombric)

Ou le dernier nombre premier découvert, et les 100 qui viennent ensuite
+ 7 -

KukuLele En réponse à Flaneur Vermisseau

Flaneur et Oblivionis : la réponse est : 42.
+ 0 -

Mabritte En réponse à Flaneur Vermisseau

Un article sympa sur les conjectures : https://lejourn...s-mathematiques ...
Image de Mabritte
+ 3 -

KukuLele Vermisseau

Conclusion est : Orme est plus intéressée par les IA que par les lombriks...
Comme dirait l'autre : c'est la vie... :(
+ 5 -

Orme En réponse à KukuLele Dresseuse de lombriks

En fait, je suis plus intéressée a troller les développeurs en cherchant des moyens de faire planter la machine. Mais si la requête avait abouti, récupérer une chouette de plus d'un million d'euros et troller les autres chasseurs au trésor avec est un bon plan B.
+ 0 -

Chiwawa LoMBriK addict !

on arrête pas le progrès
+ 1 -

Ivy LoMBriK addict !

En modifiant le prompt, il y a moyen de lui faire sortir des réponses, mais pour cela et avant qu'il bascule sur GTP-4 qui va retirer ces méthode de bypass d'instruction de départ du modèle. Il y a pas mal de vidéo qui explique les méthodes pour générer un prompt efficace qui bypass les limitations, cherchez Prompt Engineering ou certaines vidéo de MiCode qui a assez bien résumé avec des exemples.

TL;DR : Il est possible faire sauter les verrous qui font que ChatGPT refuse de répondre voir le transformer lui même en générateur de prompt afin de faire bypass les règles qui lui interdise de passer a l'étape hypothèse (par contre faudra avoir un prompt très clair et précis (et possiblement en anglais)).
+ 1 -

Dr_house Jeune lombric

Oui c'etait marrant chat gpt mais maintenant qu'on s'est bien amusé avec il sera bridé pour servir de poubelle a faire de la pub comme google
Inscrivez-vous ou Connectez-vous pour envoyer un commentaire
32