L’IA est déjà utilisée pour commettre des crimes

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest
Share on reddit
Share on whatsapp
Table des matières

Le potentiel de l’IA que ChatGPT nous a révélé ne fait aucun doute, mais ce potentiel peut être utilisé non seulement à des fins positives, mais aussi à des fins malveillantes.

[ChatGPT filtró datos de los usuarios como correos y datos de tarjetas de crédito por un error]

En d’autres termes, beaucoup de gens ont vu de quoi ChatGPT est capable, et la première chose à laquelle ils ont pensé est de l’utiliser pour profiter des autres. Nous avons déjà vu des cas de fraude créés avec l’intelligence artificielle, mais nous n’imaginions pas que le problème était si grave qu’Europol lui-même était déjà au courant de l’affaire.

Europol met en garde contre ChatGPT

L’organisation policière européenne a publié cette semaine son premier rapport liés à l’utilisation de modèles linguistiques tels que GPT, sur lesquels ChatGPT est basé, à des fins criminelles. Bien qu’il n’ait pas partagé d’informations sur les crimes présumés qui se déroulent grâce à l’IA, il a détaillé les dangers possibles de cette technologie.

Europol est pessimiste quant à l’amélioration des capacités de ChatGPT et d’autres modèles linguistiques, affirmant qu’ils peuvent être exploités par des criminels, qui sont souvent très prompts à exploiter les nouvelles technologies. Plus précisément, Europol définit trois sections dans lesquelles ChatGPT peut être d’une grande aide pour commettre des crimes.

Pour commencer, la capacité de ChatGPT à créer des textes « réalistes » en fait un outil très utile pour le « phishing », la technique par laquelle l’attaquant se fait passer pour une autre personne ou organisation. Par exemple, lorsque vous recevez un e-mail de votre banque vous demandant de vous connecter pour approuver un transfert important sur votre compte.

ChatGPT vous permet de générer du texte qui semble avoir été écrit par un humain

Les e-mails de phishing peuvent être détectés en partie grâce à la façon dont ils sont formatés et rédigés, mais GPT-4 pourrait apprendre à les écrire dans le style couramment utilisé dans les vrais e-mails, ce qui nous permettrait de tomber plus facilement dans le piège. Et ces faux emails peuvent être créés très rapidement et il serait plus difficile de les détecter.

De même, la capacité de ChatGPT à créer du texte pourrait être utilisée pour créer de la propagande et de la désinformation, et même pour faciliter des activités terroristes, selon Europol. Nous avons déjà vu d’autres projets d’IA générative utilisés pour créer de fausses images liées aux dernières nouvelles, et il ne serait pas surprenant que ChatGPT puisse également être utilisé de cette manière.

Enfin, Europol avertit que les mesures prises par OpenAI pour empêcher l’utilisation de ChatGPT pour la cybercriminalité sont insuffisantes, car elles ne fonctionnent que si le modèle comprend ce qu’il fait. Les criminels peuvent créer du code malveillant, demandant à l’IA d’écrire des logiciels malveillants pour eux mais en morceaux pour empêcher l’IA de comprendre ce qu’elle crée.

Cela peut vous intéresser

Suivez les sujets qui vous intéressent

Leave a Reply