Avec le mode vocal avancé déjà lancé en Espagne, ChatGPT se dirige désormais vers sa prochaine étape ou étape : le déploiement général de sa fonction Vidéo en direct. Et cela a à voir avec une expérience importante pour l’intelligence artificielle générative, qui peut « voir » et ainsi commenter, répondre ou réagir à l’environnement ou là où l’utilisateur pointe avec la caméra mobile.
Et cela va complètement changer l’usage qui peut être fait de l’intelligence artificielle générative, même si cela va réellement améliorer l’expérience en pouvant converser naturellement grâce à la vidéo; et actuellement, un seul type de contenu multimédia peut être téléchargé sur ChatGPT : ce sont les images.
Désormais, tout semble indiquer que les capacités de visualisation en direct de ChatGPT via le mode vocal avancé seraient prêtes pour un déploiement général. À l’époque, il a montré ses capacités impressionnantes, permettant à l’IA d’OpenAI de reconnaître le sujet de la vidéo comme étant un chien, mémoriser son nom, reconnaître le ballon avec lequel il jouait et associer la même chose pour l’animal à travers une activité telle que la recherche.
en essayant #ChatGPTle nouveau mode vocal avancé de qui vient de sortir dans Alpha. C’est comme rencontrer un ami très compétent, qui dans ce cas a été très utile – nous rassurant avec notre nouveau chaton. Il peut répondre aux questions en temps réel et utiliser également la caméra comme entrée ! pic.twitter.com/Xx0HCAc4To
– Manuel Sainsily (@ManuVision) 30 juillet 2024
L’expérience presque se transforme en appel vidéo avec une autre personnepuisque l’attitude de ChatGPT est similaire et qu’il répond avec des phrases à tout ce qu’il « voit ». Cette expérience apparaît déjà chez certains utilisateurs qui ont pu partager comment ChatGPT comprend la scène et est même capable de faire des commentaires précis.
L’un d’eux a mis en ligne une vidéo sur Et c’est ça le commentaire est fait à l’instant pour reconnaître immédiatement ce qui se passe, presque au moment où le bol apparaît sur la scène, même pour donner des informations sur la raison pour laquelle un chat laisse une partie de la nourriture.
Cette expérience, passionnante pour les quelques utilisateurs qui la tentent déjà, peut être idéal pour les personnes ayant des problèmes de visioncar sortir le téléphone portable en main peut donner des informations très précises sur tout ce que ChatGPT « voit ».
A propos de l’arrivée de cette fonction, OpenAI n’a à aucun moment proposé de date précise pour les capacités avancées de vision en mode vocal, bien qu’il semble maintenant se préparer au déploiement bêta, comme le montrent certaines lignes de code de la version bêta v.1.2024.317.
Ces lignes de code indiquent que la fonctionnalité pourrait être appelée comme “Caméra en direct” quand il sera finalement déployé en version bêta. Des avis apparaissent également dans le code pour ne pas utiliser cette expérience à certains moments où la sécurité de la personne pourrait être mise en danger.
La date à laquelle OpenAI devrait déployer la version bêta est inconnue, tout comme si elle le fera uniquement via l’abonnement à ChatGPT Plus ou certains des autres plans qu’elle propose actuellement en Espagne, selon ce qu’elle maintient. Autorité Android.