On sait maintenant pourquoi ChatGPT vous insulte ou vous ment, et ce n’est pas que l’IA essaie de se rebeller

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest
Share on reddit
Share on whatsapp
Table des matières

Cela fait un peu plus d’une semaine que Microsoft a annoncé son nouveau Bing avec Intelligence Artificielle, basé sur le “chatbot” le plus populaire, ChatGPT ; En si peu de temps, le moteur de recherche a réussi à devenir viral à de nombreuses reprises, et pas toujours pour de bonnes raisons.

[ChatGPT en modo desenfrenado: su “cerebro” es hackeado y responde sin pelos en la lengua]

Bien que ChatGPT sur Bing ait beaucoup de potentiel, il y a aussi des moments où il se trompe. Le plus surprenant est peut-être lorsque l’IA semble devenir consciente d’elle-même et commence à se battre contre l’utilisateur ou à donner des données qu’elle ne devrait pas, comme son “vrai nom”.

Pourquoi ChatGPT échoue

Microsoft a profité de l’anniversaire pour faire le point sur ce qu’il a appris des utilisateurs durant cette première semaine, et c’est beaucoup. Peut-être que la chose la plus importante est que la société a confirmé que dans certaines situations, Bing peut répondre “d’une manière qui n’est pas notre intention”donnant lieu aux insultes précitées ou à l’ironie avec laquelle il explique parfois la réponse.

Ce n’est pas que le ChatGPT AI a réalisé à quel point il doit répondre à tant de questions de tant de personnes différentes, mais plutôt que c’est un “bug” que Microsoft a déjà trouvé.

ChatGPT sur Bing

L’Android gratuit

Les ingénieurs de la société ont découvert que le bogue se produisait lors de longues sessions de chat, avec 15 questions ou plus. Dans de tels cas, Bing peut devenir répétitif ou apparaître susceptible d’être influencé par l’utilisateur; dans cet état, l’IA peut être amenée à adopter le ton des questions de l’utilisateur, ou à répondre à des questions qui n’ont pas été posées.

La vraie raison pour laquelle cela se produit est que Microsoft ne s’attendait pas au succès de ChatGPT sur Bing. La société a avoué qu’elle n’avait pas prévu que Bing serait utilisé pour des tâches telles que “divertissement social” ou pour “découvrir le monde” de l’IA ; Microsoft a cru que Bing n’allait être utilisé que pour ses exemples (comme demander des recettes ou écrire des textes sur un sujet), et a oublié qu’Internet regorge de “trolls” qui ont immédiatement cherché un moyen de “pirater” Bing pour montrez-le réponses indésirables.

La bonne nouvelle est qu’un tel “trolling” aidera Microsoft à améliorer l’expérience. Pour l’instant, il affinera le contrôle de l’IA et envisage également d’inclure un contrôle dans l’application qui nous permettra d’ajuster le degré de “libre” de l’IA dans les réponses.

Cela peut vous intéresser

Leave a Reply