L’application Instagram recommande des comptes avec pédophilie aux utilisateurs

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest
Share on reddit
Share on whatsapp
Table des matières

Les algorithmes de recommandation de contenu sont les grands piliers sur lesquels reposent les réseaux sociaux. Bien que la plupart des utilisateurs les nient, il a été démontré que ces algorithmes les amènent à passer plus de temps sur les réseaux sociaux, générer plus d’interactions et regarder plus de publicité. Facebook est arrivé là où il en est grâce en grande partie à ses algorithmes de recommandation.

Le problème survient lorsque ces algorithmes échouent. Un simple changement de code peut avoir des conséquences désastreuses, et manquer un petit détail peut créer un vrai gâchis. ‘boule de neige’ qui n’arrête pas de grandir. Parce que lorsque l’algorithme voit qu’un utilisateur visite un lien recommandé, à partir de là, il recommandera plus de comptes similaires, au point de ne montrer que ce type de contenu.

Et lorsque ce contenu est illégal et inhumain, le réseau a un sérieux problème entre les mains. C’est ce qu’une enquête publiée par Le journal de Wall Street, en collaboration avec des experts de l’Université de Stanford et de l’Université du Massachusetts. Les conclusions sont dévastatrices : Instagram a un gigantesque réseau de distribution de contenus sexuels avec des mineursfacile à trouver et facile à intégrer.

Honte Instagram

La présence de comptes de distribution de contenus basés sur la pédophilie est, malheureusement, quelque chose de commun dans n’importe quel réseau social ; la clé est la réaction du propriétaire du réseau. La grande majorité des services ont des systèmes qui analysent tous les messages partagés à la recherche de contenu illégal, avec des mesures telles que le blocage automatique ou limite de distribution, allant même jusqu’à porter plainte auprès des autorités. Cependant, quelque chose a très mal tourné sur Instagram, car au lieu de limiter ce contenu illégal, il en fait la promotion.

Les chercheurs ont découvert que découvrir la pédophilie est absurdement facile, avec des termes qui mentionnent explicitement cette paraphilie. De cette façon, il est possible de se connecter directement avec une variété de comptes qui proposent un contenu basé sur des “menus” avec toutes sortes d’images, chacune plus perverse.

Que ces comptes existent sur Instagram serait déjà mauvais, le vrai problème est qu’Instagram promeut ce type de contenu et étend sa portée. Lorsque les chercheurs ont créé un compte à partir de zéro et consulté le contenu partagé par ces comptes, l’application a recommandé des comptes plus similaires quoi suivre Et si l’utilisateur fait cela, très vite l’application est complètement remplie de contenu sexuel avec des enfants. Lorsque les chercheurs ont tenté de signaler des comptes à l’aide des outils de l’application, ils ont constaté qu’ils étaient fréquemment ignorés ou rejetés. En comparaison, ils ont trouvé un plus petit nombre de comptes sur Twitter (moins d’un tiers de ce qu’ils ont trouvé sur Instagram), et ont constaté que sur TikTok, ce contenu ne semble pas pouvoir proliférer.

Meta a déjà répondu au rapport, assurant qu’il a mis en place un groupe de travail interne pour s’attaquer aux problèmes révélés par l’enquête. L’entreprise s’est défendue en déclarant qu’au cours du seul mois de janvier, elle avait fermé près d’un demi-million de comptes qui violaient sa politique de sécurité pour les mineurs, et que a supprimé 27 réseaux de distribution au cours des deux dernières années. Malgré cela, il avoue qu’il n’a pas donné suite aux plaintes en raison du grand nombre de celles-ci et qu’il revoit ses processus internes.

Cela peut vous intéresser

Suivez les sujets qui vous intéressent

Leave a Reply