Les fausses critiques créées avec l’IA envahissent Amazon et Twitter, comment elles se distinguent des vraies

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest
Share on reddit
Share on whatsapp
Table des matières

Lorsque ChatGPT a gagné en popularité, la première crainte que beaucoup de gens ont eue a été qu’il soit utilisé à des fins malveillantes. Si une IA est déjà capable d’écrire du texte d’une manière indiscernable d’un humain, il est inévitable que certains l’utilisent pour se faire passer pour un. Il arrivera un moment où nous ne pourrons plus croire tout ce qui est publié sur Internet.

[Si creías que ChatGPT era bueno, prepárate para GPT-5: sería indistinguible de un humano]

De faux utilisateurs créés avec l’intelligence artificielle

Au moins en partie, c’est une crainte infondée. Pour commencer, il ne faut jamais croire ce qui est publié sur Internet, et c’était déjà un bon conseil avant l’avènement de nouveaux modèles de langage comme GPT-4. Les menteurs existent depuis aussi longtemps que l’humanité existe, il est donc inutile d’avoir peur maintenant que quelqu’un puisse utiliser l’IA pour publier des mensonges.

Ce qui est certain, c’est que ChatGPT et d’autres IA génératives similaires (telles que celles capables de créer des images) ont rendu le processus de création de mensonges et de faux contenus beaucoup plus facile ; Si vous voulez créer une image du Pape François dans une veste à la mode, vous pouvez l’avoir en quelques secondes, sans avoir à apprendre Photoshop.

C’est pourquoi nous constatons une augmentation de la quantité de faux contenus publiés sur Internet, en particulier sur les réseaux sociaux et tout site permettant de laisser des commentaires. Comme ils l’expliquent dans carte mèrele problème a déjà atteint Amazon, qui inonde de fausses critiques de produits, toutes positives, bien sûr.

Ces fausses critiques sont plus difficiles à distinguer des autres créées en copiant et collant du texte. Ironiquement, les phrases qu’une IA est capable d’écrire sont beaucoup plus naturelles et convaincantes que celles d’un humain. Cependant, ils ne sont pas parfaits.

La clé pour distinguer les avis alimentés par l’IA des vrais est de prêter attention aux petits détails, et pas si petits, qui trahissent l’IA. Par exemple, bon nombre de ces fausses critiques incluent des “aveux” tels que “en tant que modèle de langage d’IA, je suis incapable de donner un avis sur une question subjective”, ou des messages d’erreur tels que ceux qui apparaissent dans ChatGPT lorsque vous tapez plusieurs réponses consécutives. . . De plus, Amazon affirme avoir déjà des équipes dédiées à l’enquête sur ces types de fausses critiques.

Mais le problème n’est pas qu’Amazon. Twitter se remplit également de bots (malgré la promesse d’Elon Musk de les supprimer entièrement) ; et ils ont tous en commun qu’à un moment donné ils publient ces types d’erreurs.

Cela peut vous intéresser

Suivez les sujets qui vous intéressent

Leave a Reply