En attendant toujours l’arrivée de GPT-5, OpenAI a annoncé depuis son compte X (anciennement Twitter) le Disponibilité de GPT-4 Turbo en dehors du précédent comme une grande amélioration par rapport aux versions précédentes. Il n’a pas donné de détails précis sur les améliorations, mais il affirme que sa capacité de « raisonnement » s’est améliorée de façon exponentielle.
Dans cette ‘guerre’ continue et est vécue A cette époque entre OpenAI, Google et l’arrivée de Vids pour générer des vidéos avec l’IA, et même Meta avec le déploiement prochain de Llama 3, les créateurs de ChatGPT ont bien frappé la table en supprimant GPT-4 Turbo du précédent et en prenant ainsi la dernière étape afin qu’il puisse être utilisé ouvertement.
OpenAI a communiqué depuis son compte X (anciennement Twitter) que GPT-4 Turbo a finalement émergé du précédent comme un modèle qui est un belle amélioration par rapport aux précédents. En fait, il précise que le modèle s’est amélioré en mathématiques et dans sa capacité de « raisonnement ».
GPT-4 Turbo n’est (enfin !) plus disponible en avant-première ! Ce modèle est une méga amélioration par rapport aux précédents (surtout en mathématiques), allez l’essayer ! https://t.co/B3RQUblCcV
– Owen Campbell-Moore ✪ (@owencm) 9 avril 2024
Un « raisonnement » qui, appliqué à Vision, rend GPT-4 Turbo beaucoup plus utile pour les développeurs. Justement, le compte développeur OpenAI a montré depuis X (anciennement Twitter) quelques exemples d’entreprises qui travaillent déjà avec son modèle : Healthify, pour être capable d’analyser la valeur nutritionnelle d’un plat avec une photographie en utilisant Vision, ou Cognition, qui avec sa plateforme propose de nouvelles expériences d’aide à la programmation.
OpenAI a partagé que GPT-4 Turbo a pu mieux « raisonner » grâce au améliorations de la formation et de l’utilisation de différents types de données. Une annonce dans laquelle il n’y a pas beaucoup de détails pour vraiment évaluer la raison de l’amélioration massive avec GPT-4 Turbo.
Le @healthifyme L’équipe a créé Snap à l’aide de GPT-4 Turbo avec Vision pour donner aux utilisateurs des informations nutritionnelles grâce à la reconnaissance photographique d’aliments du monde entier. pic.twitter.com/jWFLuBgEoA
– Développeurs OpenAI (@OpenAIDevs) 9 avril 2024
À partir de Plateforme OpenAI Vous pouvez lire la description du nouveau GPT-4 Turbo avec ses capacités de vision et ses spécifications afin que les développeurs puissent commencer à l’intégrer.
On s’attend à ce que bientôt les créateurs de ChatGPT puissent préciser avec des données ce que représente la grande avancée de GPT-4 Turbo par rapport aux différents modèles précédents. Et comme le reflètent ses paroles dans X, Ils ont besoin des retours des développeurs pour mieux comprendre cette grande étape franchie et qui a été qualifiée de « méga-avancée ».
Comme on pourrait le dire, un bon coup a été porté aux intérêts de Google avec Gemini Pro et cette grande avancée montrée il y a quelques heures pour que des vidéos puissent être créées depuis Workspace en quelques secondes grâce à l’intelligence artificielle générative.
