Avec une recherche d’images de plus en plus puissante dans Google Photos pour identifier les personnes ou les animaux domestiques, l’application de la société Mountain View (Californie) continue de perdu pour l’identification des gorilles. Un fait plutôt curieux qui devient un front de bataille pour cette application. La vérité est que le problème n’est pas propre à Google et que d’autres systèmes de classification intelligents tels qu’Apple, Amazon ou Microsoft échouent également à cet égard.
La vérité est que si Google Photos s’est démarqué par quelque chose, c’est simplement pour sa capacité à réorganiser la grande quantité de photos pouvant être stockées sur un téléphone mobile. Son analyse d’images, lors de son lancement en 2015, a été une révolution dans la possibilité de taguer des personnes, des lieux et des choses et ainsi permettre à l’utilisateur d’effectuer toutes sortes de recherches rapides.
Ce n’est que quelques mois après sa sortie qu’un développeur de logiciels, Jacky Alciné, a découvert que Google avait tagué ses photos et celles d’un ami, tous deux à la peau foncée, comme “gorilles” ; un terme offensant par nature. La réponse de Google était empêcher que quoi que ce soit soit catalogué dans votre application en tant que videurs.
Avec toute l’irruption de l’IA cette année et son grand pouvoir d’étonner la moitié du monde, Le New York Times a mis cette application à l’épreuve pour vérifier si ce problème déroutant a été résolu. En fait, ont vérifié si les mêmes applications d’Apple, Amazon et Microsoftqui utilisent l’IA pour identifier des objets ou des personnes, sont également capables de cette recherche.
Après avoir prouvé que l’application des garçons de Mountain View était très utile pour rechercher parmi une collection d’animaux, parmi lesquels des chats ou des kangourous, à l’époque où le même test était effectué pour les gorilles, il échoué lamentablement. Ils ont même étendu la recherche à d’autres types de primates tels que les chimpanzés, les orangs-outans ou les singes, pour échouer à nouveau.
Échec chez Apple, Microsoft et Amazon
Pire encore, cette expérience a également été réalisée sur Apple Photos pour se retrouver dans la même situation : retrouver certains animaux, mais la même chose se produit avec les primates. La chose intéressante est que dans l’application Cupertino n’a trouvé une photo associée que lorsque le texte était écrit qui décrit le gorille.
Sans oublier Microsoft OneDrive, incapable de rechercher des animaux, alors que Amazon Photos s’est consacré à montrer trop de résultatsmême s’il est vrai que lors de la recherche de primates, il en a visualisé une variété, mais pas du tout de manière concise avec un terme comme “gorille”.
Il existe une exception pour Apple Photos et Google Photos, les lémuriens, un membre de la famille des primates que tous deux ont pu identifier. C’est peut-être parce que ce type de primate a plus de traits caractéristiques que les singes ou les orangs-outans, comme ses grands yeux et sa longue queue.
Les craintes de Google et Apple
Parfois, dans la vie, il faut être pratique, et ici, les deux géants de la technologie n’ont pas tourné autour du pot, de sorte que leur décision est de désactiver l’identification d’image pour les résultats de recherche liés aux primates ; surtout pour lui peur de commettre une infraction à certains des millions d’utilisateurs qui utilisent leurs applications quotidiennement.
[Google I/O 2023: arranca una nueva era basada en la Inteligencia Artificial]
Nous continuons avec la curiosité d’être confrontés à une technologie qui, en ce moment, a pratiquement fait le tour du monde, et même ainsi, les systèmes d’apprentissage, sur lesquels ChatGPT lui-même est basé, se retrouvent face à une supposée défaite lorsqu’un utilisateur recherche simplement ” gorille” dans vos applications.
Alciné lui-même était frustré lorsqu’il a découvert que Google, après 8 ans, n’avait toujours pas résolu le problème et il a laissé tomber qu’il n’avait aucune confiance en cette IA. Tel que collecté Le journal de Wall Street dans son rapport : les erreurs peuvent refléter des attitudes racistes parmi ceux qui programment les données.
En fait, comme le cite le point de vente new-yorkais, face à l’incident du gorille, deux employés de Google qui travaillaient sur cette technologie ont déclaré que le problème résidait dans le fait que l’entreprise n’avait pas mis le suffisamment de photos de personnes de couleur dans la collection d’images qui ont été utilisés pour former leur système d’intelligence artificielle.
Par conséquent, le système rencontrait des difficultés lors de l’identification des personnes à la peau plus foncée et, par conséquent, le confondait avec ce primate.
L’ambiguïté de l’IA d’aujourd’hui
Toutes les peurs qui ont été générées depuis que ChatGPT a fait irruption sur la scène sont dues à peu près à la même chose, que l’intelligence artificielle fait de plus en plus partie des tâches quotidiennes de millions de personnes, et qu’elle interprète mal certains aspects ou toute expérience vitale dans un manière inappropriée. , n’ayant pas été correctement formé selon les principes éthiques et moraux.
La la discussion dure depuis quelques moiset le comportement inapproprié de ChatGPT a été presque une constante, de sorte que Google se vante de Bard en indiquant que sa formation est basée sur des principes éthiques pour correspondre à l’intérêt de millions de personnes à travers la planète, quelle que soit leur couleur, leur race ou genre.
L’IA OpenAI elle-même a parfois répondu de manière très abrupte aux utilisateurs afin de limiter l’utilisation avec le chatbot. Ici, Vicente Ordóñez, professeur à l’Université Rice de Houston (Texas), entre en scène, qui soutient que la résolution de ces problèmes est d’une grande importance, car comment faire confiance à ce logiciel dans d’autres types de scénarios.
Revenant à Google Photos et aux applications d’autres sociétés, Michael Marconi, un porte-parole de Google, a déclaré qu’ils avaient empêché l’application d’identifier quelqu’un comme un singe ou un chimpanzé parce que le bénéfice ne l’emporte pas sur le risque de préjudice. Apple a refusé de commenter son application, tandis que Microsoft et Amazon maintiennent qu’ils sont toujours à la recherche de moyens d’améliorer leurs produits.
Et c’est qu’il n’est pas devant une exception, mais plutôt d’autres produits technologiques sont critiqués pour son incapacité à détecter les personnes à la peau foncée ; ou la même Apple Watch, que selon une demande, n’a pas réussi à mesurer avec précision les niveaux d’oxygène dans le sang sur différentes couleurs de peau. N’oublions pas non plus comment HP a dû se rétracter publiquement pour affirmer que ses webcams n’étaient pas racistes.
Il existe de nombreux autres exemples de la manière dont il y a une sorte de “vagueza” former les systèmes pour offrir la même expérience à tous, quelle que soit la couleur de leur peau. La même caméra Google Nest, qui utilise l’IA pour déterminer si quelqu’un dans le ménage est ou non un membre de la famille, a identifié plusieurs personnes de couleur comme des animaux. Heureusement, Google a corrigé le problème avant que le produit ne soit lancé sur le marché, selon un employé qui travaillait pour la technologie à l’époque.
Oui, il est vrai que Google est plus motivé ces derniers temps avec l’inclusion de Real Tone, une série de filtres disponibles dans son application photo qui montre la vraie couleur pour les personnes à la peau plus foncée ; un autre sujet lié à la photographie qui devrait être traité séparément car il est étroitement lié à tout ce qui précède. Ce qui reste, c’est le sentiment de “paresse” de la part des géants de la technologie dans la formation à l’IA et tous ces systèmes d’identification d’image utilisés dans une grande variété de produits qui arrivent enfin sur le marché.
Cela peut vous intéresser
Suivez les sujets qui vous intéressent