L’application Lensa avec son IA génère des images indésirables qui sexualisent les femmes

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest
Share on reddit
Share on whatsapp
Table des matières

La semaine dernière, Lensa est devenu une tendance grâce à l’excellent travail réalisé par son Intelligence Artificielle capable de transformer n’importe quelle photo d’un utilisateur dans un idéal pour passer aux réseaux sociaux. Maintenant, il est venu au premier plan car il a tendance à sexualiser le corps de la femme avec cette IA.

[Dream, una especial app que con su IA retoca tus fotos para crear increíbles ilustraciones pictóricas]

Lensa dans le tournage

Une application lancée en 2018, mais grâce à sa nouvelle version en Novembre 2022 est venu grandir en popularité grâce à ses avatars magiques ou “Magic Avatar”.

Lensa elle-même a indiqué qu’elle utilise un modèle de synthèse d’image appelé Stable Diffusion de sorte que Magic Avatar utilise une méthode de formation similaire à Dreambooth, un processus toujours élaboré via le cloud lors du téléchargement d’images utilisateur.

Une photo de Lensa avec l’IA

L’Android gratuit

Il y a quelques semaines à peine, l’IA de Lensa a commencé à sexualiser certaines images qui impliquait même partiellement de la nudité. En d’autres termes, la plupart des images générées sont habillées, de sorte que certaines apparaissent de cette manière, ce qui a généré une grande controverse.

En effet, et via Ars Technicales médias américains ont repris diverses informations connexes telles que Lensa déshabillant certains utilisateurs, sexualisant leur corps ou créant simplement des photos qui ne peuvent tout simplement pas être montrées en raison de leur contenu.

lentille

La chose curieuse à ce sujet est que cette sexualisation n’apparaît pas dans les images générées pour les utilisateurs masculins dans Magic Avatar. Ces apparaissent comme des astronautes, des explorateurs et des inventeurs.

Cela s’explique par le fait que le modèle de synthèse Stable Diffusion 1.x contient un grand nombre d’images sexualisées dans son ensemble de données d’image d’apprentissage.

lentille

En réponse à tout ce qui s’est passé, Prisma Labs, la société derrière Lensa, a signalé qu’il était travailler pour empêcher la génération d’images nues ou sexualisé avec Lensa AI. En fait, ces types d’images ne sont actuellement plus générés, il semble donc que Prisma Labs se mette au travail pour limiter ce type de contenu.

Cela peut vous intéresser

Leave a Reply