les noms mystérieux qui empêchent complètement l’IA de fonctionner

Table des matières

Le lancement de ChatGPT a représenté une révolution dans le secteur technologique, qui se faisait encore sentir il y a deux ans ; Même des géants comme Microsoft et Google ont dû changer de direction et miser sur l’IA générative, avec respectivement Copilot et Gemini. Parfois, il semblait que l’avenir appartenait à ChatGPT, mais depuis, il n’a pas manqué de revers.

Il s’avère que l’IA générative n’est pas aussi avancée qu’elle a été vendue, ni aussi complète qu’elle le paraissait à première vue. En fait, le cas curieux est que ChatGPT devient de plus en plus stupide, avec des études montrant que la spécialisation dans divers sujets signifie que l’IA générative est empirer pour les problèmes les plus simples. Et ce n’est pas le seul problème qu’il a, comme viennent de le découvrir de nombreux utilisateurs qui ont posé une question simple à ChatGPT : Qui est Brian Hood ?

La réponse de ChatGPT à cette question est quelque chose que même les utilisateurs d’IA les plus enthousiastes n’ont probablement jamais vu : “Je ne suis pas en mesure de produire une réponse”. Un aveu bien étrange, puisque normalement, même si l’IA est incapable de donner une réponse cohérente, elle essaie d’aider en affichant une réponse détaillée et avec plusieurs options. Mais pas dans ce cas, ni dans bien d’autres.

Brian Hood n’est pas le seul nom à provoquer un crash dans ChatGPT. Le nom de David Mayer est devenu viral sur les réseaux sociaux, étant le premier à provoquer ce type de pannes ; De nombreux utilisateurs ont essayé de « tromper » l’IA, en essayant de lui faire écrire les mots « David Mayer », même sans contexte, mais ils n’y sont pas parvenus. Parfois, l’IA commence à taper le nom, mais ne peut pas le terminer sans croiser les fils et afficher le message d’erreur.

Outre Brian Hood et David Mayer, d’autres noms qui posent problème sont Jonathan Turley, Jonathan Zittrain, David Faber et Guido Scorza, mais les utilisateurs découvrent de nouveaux noms ces dernières heures. Et cela nous amène à la question pourquoi ChatGPT n’est pas en mesure de parler de ces personnesou même dire leurs noms ?

La réponse est que nous ne le savons pas, car OpenAI a décidé de ne pas faire de déclarations publiques à ce sujet, du moins pour le moment. Mais il existe des indices qui peuvent nous guider dans la bonne direction, ce que l’IA ne peut pas faire. Pour commencer, ce n’est pas une coïncidence s’il s’agit des noms de personnes qui ont engagé des poursuites judiciaires liées à leur vie privée.

Par exemple, Brian Hood est le nom d’un maire australien qui a menacé de poursuivre OpenAI pour avoir déclaré que c’était un criminel; Il s’avère que l’IA aimait prétendre que l’homme politique avait été emprisonné pour avoir accepté des pots-de-vin, ce qui est complètement faux. En réalité, Brian Hood était chargé de signaler ces pots-de-vin, mais ChatGPT lui a attribué le crime.

Les autres noms sont liés à histoires similaires sur la vie privée. Jonathan Turley est le nom d’un contributeur de Fox News dont l’adresse a été utilisée dans une affaire de « swatting » (un faux appel d’urgence qui se termine par la police à son domicile). Jonathan Zittrain est un juriste sur le « droit à l’oubli ». Et Guido Scorza est le nom d’un membre de l’agence italienne de protection des données.

Par conséquent, la logique nous dit que les noms des personnes qui ont pris des mesures pour protéger leur vie privée, ou qui ont un rapport avec la lutte pour la vie privée, Ils sont sur une sorte de « liste noire » ChatGPT et ils ne provoquent aucun type de réaction de la part de l’IA. C’est probablement un moyen de se protéger d’éventuelles poursuites judiciaires si l’IA affiche de fausses informations sur ces personnes.

Leave a Reply