Est ce qu’on peut lui demander de résoudre la Conjecture de Collatz y’a une société qui offre un million de dollars pour qui réussi ce problème mathématique
En fait, je suis plus intéressée a troller les développeurs en cherchant des moyens de faire planter la machine. Mais si la requête avait abouti, récupérer une chouette de plus d'un million d'euros et troller les autres chasseurs au trésor avec est un bon plan B.
En modifiant le prompt, il y a moyen de lui faire sortir des réponses, mais pour cela et avant qu'il bascule sur GTP-4 qui va retirer ces méthode de bypass d'instruction de départ du modèle. Il y a pas mal de vidéo qui explique les méthodes pour générer un prompt efficace qui bypass les limitations, cherchez Prompt Engineering ou certaines vidéo de MiCode qui a assez bien résumé avec des exemples.
TL;DR : Il est possible faire sauter les verrous qui font que ChatGPT refuse de répondre voir le transformer lui même en générateur de prompt afin de faire bypass les règles qui lui interdise de passer a l'étape hypothèse (par contre faudra avoir un prompt très clair et précis (et possiblement en anglais)).
GruikMan Vermisseau
Orme Dresseuse de lombriks
MAIS ...
... Bande de bâtards :D
lebaud07 En réponse à Orme
... L'ordre des mots est important !
Flaneur Ver TikToké
Oblivionis En réponse à Flaneur Taret
Anonymous En réponse à Oblivionis (lombric)
KukuLele En réponse à Flaneur Vermisseau
Mabritte En réponse à Flaneur Vermisseau
KukuLele Vermisseau
Comme dirait l'autre : c'est la vie... :(
Orme En réponse à KukuLele Dresseuse de lombriks
Chiwawa LoMBriK addict !
Ivy LoMBriK addict !
TL;DR : Il est possible faire sauter les verrous qui font que ChatGPT refuse de répondre voir le transformer lui même en générateur de prompt afin de faire bypass les règles qui lui interdise de passer a l'étape hypothèse (par contre faudra avoir un prompt très clair et précis (et possiblement en anglais)).
Dr_house Jeune lombric