Cela fait un peu plus d’une semaine que Microsoft a annoncé son nouveau Bing avec Intelligence Artificielle, basé sur le “chatbot” le plus populaire, ChatGPT ; En si peu de temps, le moteur de recherche a réussi à devenir viral à de nombreuses reprises, et pas toujours pour de bonnes raisons.
[ChatGPT en modo desenfrenado: su “cerebro” es hackeado y responde sin pelos en la lengua]
Bien que ChatGPT sur Bing ait beaucoup de potentiel, il y a aussi des moments où il se trompe. Le plus surprenant est peut-être lorsque l’IA semble devenir consciente d’elle-même et commence à se battre contre l’utilisateur ou à donner des données qu’elle ne devrait pas, comme son “vrai nom”.
Pourquoi ChatGPT échoue
Microsoft a profité de l’anniversaire pour faire le point sur ce qu’il a appris des utilisateurs durant cette première semaine, et c’est beaucoup. Peut-être que la chose la plus importante est que la société a confirmé que dans certaines situations, Bing peut répondre “d’une manière qui n’est pas notre intention”donnant lieu aux insultes précitées ou à l’ironie avec laquelle il explique parfois la réponse.
Ce n’est pas que le ChatGPT AI a réalisé à quel point il doit répondre à tant de questions de tant de personnes différentes, mais plutôt que c’est un “bug” que Microsoft a déjà trouvé.
Les ingénieurs de la société ont découvert que le bogue se produisait lors de longues sessions de chat, avec 15 questions ou plus. Dans de tels cas, Bing peut devenir répétitif ou apparaître susceptible d’être influencé par l’utilisateur; dans cet état, l’IA peut être amenée à adopter le ton des questions de l’utilisateur, ou à répondre à des questions qui n’ont pas été posées.
La vraie raison pour laquelle cela se produit est que Microsoft ne s’attendait pas au succès de ChatGPT sur Bing. La société a avoué qu’elle n’avait pas prévu que Bing serait utilisé pour des tâches telles que “divertissement social” ou pour “découvrir le monde” de l’IA ; Microsoft a cru que Bing n’allait être utilisé que pour ses exemples (comme demander des recettes ou écrire des textes sur un sujet), et a oublié qu’Internet regorge de “trolls” qui ont immédiatement cherché un moyen de “pirater” Bing pour montrez-le réponses indésirables.
La bonne nouvelle est qu’un tel “trolling” aidera Microsoft à améliorer l’expérience. Pour l’instant, il affinera le contrôle de l’IA et envisage également d’inclure un contrôle dans l’application qui nous permettra d’ajuster le degré de “libre” de l’IA dans les réponses.
Cela peut vous intéresser
Suivez les sujets qui vous intéressent