Internet regorge de faux textes créés avec ChatGPT. Ses créateurs ont la solution et ils ne vont pas la publier

Table des matières

Le lancement public de ChatGPT restera dans l’histoire comme l’un des moments les plus importants du secteur technologique, pour le meilleur et pour le pire. C’est le moment où l’on a découvert les possibilités de l’IA générative, et où elle est devenue la priorité absolue d’entreprises comme Google, qui ont dû lancer Gemini pour pouvoir rivaliser sur un pied d’égalité.

Cependant, l’IA générative a également ouvert une « boîte de Pandore » de faux contenus qu’il n’est pas clair qu’elle puisse être fermée. Les réseaux sociaux sont remplis de « robots » très convaincants qui écrivent comme de vraies personnes ; De même, de nombreux textes sur des pages Web, et même dans des emplois pour l’écolesont désormais créés à l’aide de ChatGPT et d’autres outils d’IA générative.

Les textes créés par ChatGPT sont difficiles à détecter, à moins que l’IA ne se trompe sur quelque chose que nous connaissons. Maintenant, Le journal de Wall Street a révélé qu’OpenAI, l’organisation qui a créé ChatGPT, J’avais déjà une méthode pour détecter les faux textes créé avec l’IA, et a décidé de ne pas le rendre public pour continuer à promouvoir l’utilisation de ChatGPT.

Selon des sources de l’entreprise consultées par la publication, OpenAI est consciente qu’il existe une forte demande pour un outil capable de détecter les textes créés avec l’IA ; et donc, une équipe interne développé une méthode de « filigrane »qui serait inséré dans tous les textes générés par ChatGPT.

Ces « filigranes » seraient des mots ou des phrases placés de telle manière qu’ils forment un motif détectable par un outil, qui serait à la disposition des enseignants souhaitant détecter les faux travaux de leurs élèves, par exemple. La méthode est efficace à 99% et n’affecterait pas la qualité des textes générés par ChatGPT.

Malgré cela, OpenAI a décidé de ne pas publier cet outil de détection pour une raison simple : une étude interne a révélé que 30% des utilisateurs de ChatGPT arrêteraient de l’utiliser s’il existait un moyen de détecter leurs textes comme étant faux.

Suite à la publication du Wall Street Journal, OpenAI s’est défendu avec une mise à jour dans votre blog officiel, dans lequel il confirme l’existence de l’outil. Cependant, l’organisation a nié la motivation financière pour ne pas le publier, affirmant qu’elle pourrait “stigmatiser l’utilisation de l’IA comme un outil pour les utilisateurs non anglophones” ; en outre, il estime que des utilisateurs mal intentionnés pourraient contourner les mesures de l’outil.

Pour cette raison, OpenAI a annoncé qu’elle développait d’autres mesures pour détecter les textes créés avec l’IA, comme les métadonnées; Cependant, il dit qu’il en est aux « premiers stades » de l’exploration de cette méthode et qu’il est trop tôt pour savoir si elle sera efficace.

OpenAI a été fondée à l’origine en tant qu’ONG pour explorer les « dangers et défis » des nouvelles IA ; Mais au fil du temps, elle est devenue une entreprise dotée d’une « poule aux œufs d’or » : ChatGPT et Dall-E, son IA créatrice d’images. Depuis, elle a été impliquée dans plusieurs scandales, comme la voix de ChatGPT dénoncée par Scarlett Johansson pour l’avoir imité, ou encore quand Elon Musk, l’un de ses fondateurs, les a accusés de « se concentrer davantage sur les profits que sur l’éthique ».

Leave a Reply