Beaucoup a été dit sur les nouvelles Intelligences Artificielles et leur potentiel, grâce à la popularité de ChatGPT, mais peut-être pas sur les nouveaux dangers qui leur sont associés.
[ChatGPT para relojes, la Inteligencia Artificial en tu muñeca con esta app]
Le créateur de ChatGPT lui-même a déjà averti du danger de l’IA, mais curieusement, la première grande polémique du projet n’a pas porté sur ses éventuelles utilisations malveillantes, mais sur l’utilisation des données personnelles et comment un bug a facilité son accès.
Le plus gros bug de ChatGPT à ce jour
Mardi dernier, OpenAI a été contraint de fermer temporairement le service ChatGPT après avoir découvert un bug qui a amené certains utilisateurs à voir l’historique d’utilisation d’autres personnes. Plus précisément, dans la barre latérale que nous pouvons ouvrir avec les dernières questions que nous avons posées au chatbot, des phrases dans d’autres langues que nous n’avions jamais posées ont commencé à apparaître.
Aujourd’hui, OpenAI a expliqué exactement ce qui s’est passé, et au passage, a avoué que le problème était plus grave qu’il n’y paraissait initialement. L’enquête menée par l’entreprise a révélé que, pendant quelques heures, il était possible voir les données privées des autres utilisateurs Les utilisateurs enregistrés de ChatGPT, y compris les informations qui pourraient être utilisées pour usurper votre identité ou effectuer des paiements frauduleux avec vos cartes de crédit.
Les données publiées par erreur étaient les suivantes :
- Le prénom et le nom de l’utilisateur
- Compte email
- Les quatre derniers chiffres de la carte de crédit associée au compte
- La date d’expiration de la carte de crédit
- L’adresse associée au paiement.
Évidemment, les seuls concernés sont les utilisateurs enregistrés qui ont associé leur carte de crédit à leur compte pour payer ChatGPT Plus, le service de paiement qui permet d’accéder à divers avantages avec l’IA.
Les ingénieurs ont découvert que le problème était un ‘bug’ dans le code source d’une librairie utilisé par le site Web ChatGPT, redis-py. C’est pourquoi OpenAI a tenté de calmer le jeu en déclarant que le problème n’affectait pas directement le ‘chatbot’, et qu’il était vraiment difficile de prendre les mesures nécessaires pour que des informations personnelles fuient.
Plus précisément, il y avait deux manières possibles d’obtenir des données privées. Dans le premier, ChatGPT a envoyé des e-mails de confirmation contenant des informations personnelles aux mauvais utilisateurs, dans le délai imparti entre 9h00 et 18h00 (heure péninsulaire) le 20 mars. Dans le second, il fallait que l’utilisateur entre son compte, et dans la section gérer l’abonnement de configuration ; Au cours de la même période, des informations incorrectes d’autres utilisateurs ont été affichées.
OpenAI a déjà contacté les utilisateurs concernés par cette violation de données, et affirme avoir déjà pris les mesures nécessaires pour éviter que cela ne se reproduise, en ajoutant des redondances au code source.
Cela peut vous intéresser
Suivez les sujets qui vous intéressent