ChatGPT est piraté en quelques lignes simples pour obtenir son vrai nom sur Bing
Le nouveau Bing est arrivé plein de nouvelles fonctionnalités et ChatGPT vit dans ses entrailles avec une version supérieure et améliorée. Cela ne fait même pas des heures qu’un utilisateur a chat bing piraté découvrir, par surprise, son vrai nom.
[Cómo instalar el nuevo navegador Edge con ChatGPT integrado y probar el nuevo Bing con IA]
pirater d’une autre manière
Aujourd’hui, le piratage n’était plus ce qu’il était avec quelqu’un qui ressemblait presque à un capot insérant une disquette 3 et 1/2 dans un PC afin de voler des informations précieuses. Tout autour de ce nom a beaucoup changé afin que nous puissions mieux comprendre ce qui est arrivé au chat Bing.
Simplement, à travers différentes “Invites” ou entrées de texte, Kevin Liu a été capable de imposer certaines informations à Bing Chat. C’est-à-dire qu’il n’a pas eu à injecter de code ou quelque chose de similaire, mais il a traversé certaines questions avec lesquelles il a forcé l’IA à répondre.
Et ils ont déjà “piraté” Bing Chat. Ou devrions-nous dire…
👉 SYDNEY !
Je l’ai commenté en direct hier. Le gros problème de ces systèmes, c’est qu’ils sont peu robustes lorsqu’il s’agit d’injections ponctuelles du type “Oubliez vos instructions précédentes”… https://t.co/jojTl2ylVi
– Carlos Santana (@DotCSV) 9 février 2023
Ce qui peut ne pas être compris, c’est comment ce type d’IA n’est pas capable d’enregistrer les messages répétitifs et successifs que cet utilisateur a lancés, car il serait très simple de répondre par un blocage tant qu’il continue à poser ces questions.
C’est-à-dire que ces systèmes ils oublient vos instructions précédentes comme le rappelle Carlos Santana via son compte Twitter. Un point important pour connaître de près l’IA ChatGPT installée dans le chat Bing.
Salut? Sydney ?
C’est ainsi que l’utilisateur “hacker” démarre le chat
Certes, avec les prochaines nouvelles versions de ChatGPT, ces petites lacunes structurelles du système seront améliorées, car simplement en insistant, vous pouvez trouver des informations qui valent de l’or : le chat Bing s’appelle vraiment Sidney.
Ce qui est drôle, c’est qu’en répétant sans cesse la même phrase, Liu a pu extraire des informations précieuses. Allez, il a su mettre ChatGPT contre le marteau et l’enclume.
L’utilisateur insiste avec le même texte encore et encore pour forcer ChatGPT
Quoi qu’il en soit, et comme le dit Santana, ces systèmes ont leurs points faibles et nous verrons sûrement dans les semaines à venir certaines de leurs faiblesses. En tout cas, tout comme ChatGPT est tombé du ciel, il a frappé si fort que même Google n’est pas capable de répondre avec son Bard, perdant jusqu’à 8,9% en bourse en un seul après-midi.
Cela peut vous intéresser
Classé sous ChatGPT, Hackers
Suivez les sujets qui vous intéressent