de l’utilisation de colle sur la pizza au fait que le python est un mammifère

Table des matières

La semaine dernière s’est tenu le Google I/O 2024 avec l’intelligence artificielle comme axe principal de chacune des innovations présentées par le géant technologique. L’un d’eux était Activation des aperçus de l’IA dans la recherche Googleet en quelques jours, cela a commencé à être un petit cauchemar pour les intérêts du géant de la recherche en ligne.

Cela est principalement dû à l’un des problèmes liés aux chatbots à intelligence artificielle générative : l’hallucination. C’est juste lorsque le modèle génère des informations fausses, incorrectes ou inventées qui n’est pas pris en charge par vos données ou connaissances de formation ; qu’il s’agisse de fournir des faits numériques ou des statistiques incorrects, des affirmations sur des événements ou des personnes qui n’existent pas, ou de contredire vos propres connaissances antérieures.

Google a déployé l’intelligence artificielle générative dans la recherche aux États-Unis avec AI Overviews et c’est un lancement colossal à tous les niveauxpuisqu’il s’agit tout simplement du moteur de recherche par excellence avec une part de marché presque comme un monopole par rapport à Bing, le seul qui a pu gratter quelques dixièmes depuis un an et demi.

Il y a quelques jours, certains comptes sont apparus sur X (anciennement Twitter) capturant certaines des recherches effectuées et Les résultats sont des plus variés et aussi fous.. Il faut être prudent, car certains utilisateurs profitent du moment « d’hallucination » des chatbots IA pour inventer de fausses réponses (avec l’intention de recevoir de nombreux likes et reproductions de leurs tweets), mais certains le font. vrai.

L’une des plus frappantes était la recommandation de Google d’ajouter de la colle « non toxique » à la pizza pour répondre à la question que le fromage n’est pas assez ferme. La réponse vient d’un commentaire d’un utilisateur de Reddit il y a 11 ans.

Mais il y a plus, une autre réponse donnée est à la question de savoir pourquoi les chats se lèchent les mains et parmi l’un des points donnés, cela indique qu’ils peuvent le faire. savoir si la personne peut être « consommée ». Une autre réponse tirée du réseau social Reddit et qui y a été utilisée sur un ton humoristique.

AI Overviews est la fonction de recherche IA de Google qui est chargée de fournir ces résumés et qui n’a pas du tout réussi dans un autre : à la question de savoir quel est le mammifère possédant le plus grand nombre de osrépond avec le python qui peut avoir 600 vertèbres ou 1 800 os.

Publié par @miasato.2

Afficher dans les discussions

Réponses incorrectes dans le moteur de recherche que des millions de personnes utilisent quotidiennement à toute heure et, il faut le dire, a une grande responsabilité car elle fait partie de la vie quotidienne. Même si Google étiquette « l’IA générative est expérimentale » sur chaque réponse, quiconque lit cette recommandation peut la croire ; Si les canulars sont l’un des plus gros problèmes aujourd’hui, la réponse de Google de cette manière est la fin.

Google répond

Un porte-parole de Google a répondu à un message de The Verge Pour clarifier quelques points : « Certaines de ces erreurs proviennent de requêtes qui ne sont pas très courantes et ne représentent pas la majorité des expériences des gens. L’entreprise prend des mesures contre les violations de ses politiques et utilise ces « exemples isolés » pour continuer à optimiser. le produit.”

Et ce n’est pas seulement Google, des entreprises comme OpenAI, Meta et Perplexity souffrent d’hallucinations et d’erreurs de l’IA. Que se passe-t-il, selon Le bordc’est que Google est le premier à déployer cette technologie à plus grande échelle et il est plus facile que davantage d’erreurs apparaissent.

Leave a Reply