ChatGPT peut déjà être utilisé sur un téléphone mobile pour interagir avec la voix, mais pour que cela fonctionne, il doit se connecter à Internet, soit via WiFi, soit via des données mobiles. La proposition de NVIDIA avec Chat With RTX est d’offrir à tout utilisateur la possibilité de installez un chatbot qui fonctionne hors ligne sur votre PC pour être un modèle de langage plus large qui se connecte au contenu stocké localement.
C’est “extrait” les données de tout ce que l’utilisateur sélectionne sur son PC et à aucun moment il ne se connecte à un serveur externe. C’est la belle proposition de NVIDIA à travers une démo qui peut être installée aujourd’hui grâce à l’annonce faite. En fait, NVIDIA appelle cela un LLM local.
Et le meilleur de tout c’est que place la confidentialité comme protagoniste principal de votre expérience, puisque le même utilisateur peut sélectionner les dossiers pour que Chat with RTX se charge de les analyser et reçoive ainsi ses requêtes. Tout le contraire des ChatGPT, Gemini ou Copilot de Microsoft, qui nécessitent une connexion Internet et l’utilisation des données des utilisateurs ; La décision prise par Google de lire les messages de l’application Messages pour entraîner son IA a été récemment annoncée.
Comment ça marche et ce dont Chat with RTX a besoin
Logiquement, lorsqu’il s’agit d’un modèle de langage plus vaste, une bonne quantité de ressources est nécessaire pour pouvoir l’utiliser et C’est là que les graphiques ou GPU NVIDIA entrent en jeu.. Ce sont les conditions nécessaires pour disposer d’un chatbot local complet avec des expériences tout simplement incroyables :
- Un GPU NVIDIA GeForce RTX 30 ou 40 ou un GPU NVIDIA RTX Ampere ou Ada avec au moins 8 Go de VRAM.
- RAM : 16 Go minimum.
- Windows 11.
- Pilote Geforce : 535.11 ou supérieur.
Image d’une requête effectuée sur le chat de NVIDIA avec RTX
Nvidia
L’Android gratuit
Une fois téléchargée et installée, vous pouvez connecter l’application Chat with RTX au contenu stocké localement tel que des documents, des fichiers PDF, des vidéos, etc. Vous pouvez même sélectionnez les données locales que vous souhaitez que le chatbot gère afin que l’utilisateur puisse effectuer des requêtes sans avoir à parcourir le contenu. Tout ce qui apparaît dans le contenu sélectionné par l’utilisateur peut être consulté comme s’il se trouvait devant le ChatGPT ou Gemini de Google.
De plus, vous avez la possibilité de Discutez avec RTX et trouvez des informations dans les vidéos YouTube. Tout ce que vous avez à faire est de copier l’URL de la vidéo dans l’application, puis de faire les requêtes nécessaires sur le contenu de la vidéo. Discuter avec RTX fournira les réponses appropriées.
Créez un chatbot IA personnalisé avec Chat With RTX – NVIDIA
Manuel Ramírez
Et le meilleur de tout : une application LLM locale comme Chat with RTX ne transmettra aucun type de données aux serveurs cloud de l’entreprise pour entraîner votre propre IA ou un autre ensemble de cibles. La seule chose dont vous avez besoin est un PC très puissant, capable de gérer le chatbot comme un modèle de langage plus grand. Discuter avec RTX peut être téléchargé ci-dessous avec un Taille du fichier de 35 Go:
NVIDIA, selon NéoWin, a marqué cette application comme démo technique gratuite, ce qui pourrait laisser penser qu’il envisage à terme de le rendre payant ou de passer à un abonnement mensuel avec de nouvelles fonctionnalités. Ce qui est clair, c’est qu’il s’agit d’une excellente alternative à Copilot dans Windows 11, et encore plus lorsque l’expérience Microsoft nécessite une connexion Internet.
Cela peut vous intéresser
Suivez les sujets qui vous intéressent