Le projet Astra est le début d’une nouvelle ère dans le domaine des wearables qui nous aident

Table des matières

Aujourd’hui, Google a renouvelé son engagement envers l’intelligence artificielle avec la présentation de Gemini 2.0, son nouveau modèle qui s’appuie désormais sur des agents pour étendre son potentiel. Les agents, qui sont également utilisés par d’autres IA telles que Microsoft Copilot, sont des systèmes autonomes qui effectuent des tâches sans nécessiter l’intervention de l’utilisateur, ouvrant ainsi la porte à davantage de possibilités.

Une bonne démonstration de la façon dont les agents peuvent changer la façon dont nous utilisons l’IA se trouve dans le projet Astra. Les lecteurs d’EL ESPAÑOL – El Androide Libre se souviendront probablement que dans le passé Google I/O, la société avait fait une petite présentation d’une IA capable d’utiliser la caméra mobile pour répondre à nos questions ; la tournure du scénario arrive quand Ils font la même chose avec les lunettes intelligentesce qui a alimenté les rumeurs selon lesquelles l’entreprise allait lancer un nouveau type de « portable ».

Eh bien, à l’occasion de l’arrivée de Gemini 2.0, Google a encore une fois parlé du Projet Astra, précisant que c’est plus qu’une simple curiosité et qu’il est en passe de devenir un véritable produit. Il faut préciser que le Projet Astra ne concerne pas les lunettes intelligentes, mais plutôt l’IA qui les fait fonctionner ; mais en pratique, ils semblent être deux concepts qui vont de pair, comme le montre la vidéo de démonstration du Projet Astra publiée aujourd’hui.

Lunettes intelligentes Google pour le projet Astra

Google

L’Android gratuit

La vidéo est basée sur une idée très curieuse : voir comment le Projet Astra peut nous aider au quotidien en utilisant la caméra de notre téléphone portable et l’IA de Gemini 2.0 ; Un bon exemple de ce dernier cas est que nous pouvons demander à l’IA de nous rappeler le code d’accès au travail qui nous a été envoyé par courrier électronique à Gmail.

Là où le Projet Astra démontre vraiment son potentiel, c’est lorsqu’il utilise la caméra mobile pour répondre à nos questions ; Par exemple, capturer l’étiquette de nos vêtements et expliquer comment nous devons les laver, voire capturer le panneau de commande de la machine à laver et indiquer les étapes spécifiques que nous devons suivre. Idéal pour ceux d’entre nous qui ne savent toujours pas comment cela fonctionne.

Dans la vidéo, Project Astra est capable d’utiliser la caméra pour capturer des monuments, de la nourriture ou des livres, et d’utiliser ces informations pour répondre à des questions telles que la façon de prononcer un bonbon. Astra est capable de parler plusieurs langues à la fois, passant de l’une à l’autre selon la personne qui lui parle.

Le moment de vérité arrive avec les lunettes intelligentes de Google. L’IA utilise dans ce cas les caméras intégrées à la monture des lunettes pour obtenir des vidéos en temps réel et répondre aux questions qu’elle capte avec les microphones intégrés. Par exemple, si nous faisons du vélo, nous pouvons nous renseigner sur le parc que nous traversons.

L’entreprise précise que ces lunettes sont un prototype créé pour le développement du projet Astra, et pas un produit commercial. Cependant, ce n’est pas un hasard si Google a créé ce prototype dans ce format, et tout indique qu’en effet, des lunettes intelligentes basées sur cette technologie arriveront très prochainement sur le marché.

Cependant, Google ne sera probablement pas le premier à lancer des lunettes intelligentes avec le projet Astra ; Les dernières fuites pointent vers présentation des lunettes intelligentes Samsung lors de l’événement attendu en janvier 2025. Cet appareil serait le fruit d’une collaboration entre Samsung, Google et Qualcomm, chacun axé sur un aspect. Bien entendu, Google se chargera du logiciel et utilisera probablement Project Astra avec Gemini 2.0.

Leave a Reply