Mark Zuckerberg est arrivé en force à Meta Connect, le plus grand événement de l’année de l’entreprise. Il a à peine présenté le nouveau Meta Quest 3S, et s’est immédiatement lancé dans l’autre gros pari de Meta : l’intelligence artificielle.
A cette occasion, Meta veut faire plus que simplement rattraper les meilleurs modèles de langage, avec de nouvelles fonctionnalités que l’on ne trouve pas sur d’autres plateformes. Pour commencer, Meta a évité les problèmes de ChatGPT avec Scarlett Johansson et a embauché des acteurs et d’autres personnalités célèbres pour donner leur voix à Meta AI, qui pourra désormais parler à l’utilisateur. Parmi les voix disponibles figurent celles de John Cena, Judi Bench, Kristen Bell et bien d’autres.
Pour continuer avec la voix, l’une des nouvelles les plus surprenantes a peut-être été la traduction vidéo automatique dans Reels. Meta expérimente la traduction IA des Reels qui non seulement crée une fausse voix dans notre langue, mais est également capable de modifier les lèvres de la personne pour qu’elle parle dans notre langue. Pour le moment, il est capable de traduire du latin espagnol vers l’anglais, et dans la démonstration présentée par Zuckerberg, l’effet était quelque peu effrayant.
Meta AI est intégré à toutes les applications Meta, y compris Instagram, WhatsApp et Facebook Messenger, vous permettant de démarrer des conversations textuelles ou vocales avec accès à toutes ses fonctionnalités ; Cependant, ces fonctions ne peuvent être exercées en Espagne ni dans le reste de l’Union européenne, et Mark Zuckerberg a envoyé un message à la Commission européennedéclarant qu’il est “éternellement optimiste” quant à la possibilité de résoudre le problème. Parmi ces fonctions figure désormais la création d’images IA.
Les utilisateurs n’auront qu’à écrire ou dire une description de ce qu’ils veulent, et l’IA leur enverra un message avec l’image créée, qui pourra être partagée dans d’autres applications ou directement sur Instagram et Facebook ; Par conséquent, nous pouvons nous attendre à rencontrer désormais encore plus de fausses images sur ces plateformes. La capacité de l’IA à éditer nos photosajouter ou supprimer des éléments, changer l’arrière-plan ou changer de vêtements. Mais cela signifie aussi que n’importe qui peut nous prendre en photo et faire la même chose.
Les nouvelles fonctionnalités sont accompagnées d’une nouvelle version du modèle de langage Meta, Llama 3.2 ; C’est le premier avec des fonctions de vision, et l’entreprise espère pouvoir comprendre les images comme jamais auparavant, avec la possibilité de donner des titres à nos photos ou créations.
Pixabay | OpenAI
L’Android gratuit
Llama 3.2 est « open source », et Mark Zuckerberg a déclaré qu’il le considère comme le moyen le plus avancé et le moins cher de développer l’IA, même si cela signifie que des tiers peuvent l’utiliser et le modifier. Llama 3.2 comprend deux modèles de vision, avec 11 milliards de paramètres et 90 milliards de paramètres, et deux modes texte plus légers pouvant fonctionner sur mobile, avec 1 milliard de paramètres et 3 milliards de paramètres.