Si vous posez une question à un chatbot IA, il répondra par quelque chose de drôle, utile ou totalement inventé. Les outils d’IA comme ChatGPT fonctionnent en devinant quelles chaînes de mots vous donneront la meilleure réponse. Ils ne peuvent pas penser logiquement ou comprendre pourquoi les résultats qu’ils vous donnent n’ont pas de sens.
En d’autres termes, l’IA va parfois dans la mauvaise direction lorsqu’elle essaie de vous rendre heureux. C’est comme avoir une “hallucination”. Mais l’un des meilleurs est ChatGPT. De nombreuses règles ont été mises en place pour contrôler son fonctionnement. Certains d’entre eux l’empêchent de dire des choses blessantes, et d’autres l’empêchent de faire des sauts logiques stupides ou d’inventer de faux faits historiques.
Que sont les hallucinations de l’IA ?
Les hallucinations de l’IA, également appelées «hallucinations d’intelligence artificielle», sont des expériences que les systèmes d’IA ont qui ne sont pas basées sur des informations de sens réel. Ceux-ci peuvent être vus, entendus ou nécessitent plus d’un sens à la fois.
Les hallucinations de l’IA sont souvent causées par des modèles d’apprentissage en profondeur comme les réseaux antagonistes génératifs (GAN) ou les réseaux de neurones profonds (DNN). Ces modèles peuvent créer de nouveaux matériaux en fonction des tendances qu’ils trouvent en examinant de nombreuses données.
En ce qui concerne les hallucinations visuelles, les systèmes d’IA peuvent créer des images qui ressemblent à des choses ou à des scènes réelles, mais qui comportent des parties étranges ou déformées. Par exemple, une hallucination de l’IA peut montrer une image d’un chat avec des membres supplémentaires ou des motifs de couleurs étranges qui n’existent pas dans la vie réelle. De la même manière, les systèmes d’IA peuvent émettre des sons qui ressemblent à des personnes ou à de la musique, mais qui ne sont pas réels ou qui n’ont aucun sens. Le nom de ceci est “illusion sonore”.
Les rêves d’IA sont intéressants car ils montrent comment les modèles d’IA peuvent être créatifs et penser à de nouvelles idées. Mais ils n’ont rien à voir avec la réalité. Au lieu de cela, ils sont fabriqués par des modèles à l’intérieur du système d’IA. Les rêves d’IA sont souvent étudiés par des chercheurs et des artistes qui souhaitent en savoir plus sur le fonctionnement des modèles d’IA et repousser les limites de ce que l’art peut faire.
Il est important de se rappeler que les symptômes de l’IA ne sont pas les mêmes que ceux causés par des problèmes physiques ou mentaux chez les personnes. Dans les hallucinations humaines, les gens ont des pensées subjectives, souvent bouleversantes, qu’ils peuvent penser réelles même s’il n’y a pas de causes extérieures.
Pourquoi l’IA Hallucination se produit-elle ?
À cause d’exemples hostiles, qui sont des morceaux de données qui incitent les logiciels d’IA à les placer dans le mauvais groupe, l’IA peut avoir des rêves. Par exemple, les programmes d’IA apprennent à partir de matériaux tels que des images, des écrits et d’autres choses. Si les données sont modifiées ou altérées, la machine les lira différemment et proposera la mauvaise réponse.
D’autre part, même si l’information a été modifiée, elle peut toujours être connue et utilisée correctement. Si l’interprète (modèle d’apprentissage automatique) ne fait pas du bon travail avec de grands modèles basés sur le langage comme ChatGPT et ses alternatives, les rêves peuvent devenir réalité.
En IA, un transformateur est un modèle d’apprentissage en profondeur qui utilise l’auto-attention ou les liens de sens entre les mots d’une phrase, pour créer un texte qui ressemble à ce qu’une personne écrirait à l’aide d’un encodeur-décodeur ou d’une série d’entrées-sorties.
Ainsi, les transformateurs, un modèle d’apprentissage automatique semi-supervisé, peuvent utiliser le vaste corpus de données textuelles utilisé pour l’entraîner (entrée) pour créer un nouveau corps de texte (sortie). Pour ce faire, il détermine le mot suivant d’une série en examinant les mots qui le précèdent.
Dans le cas des rêves, si un modèle de langage était enseigné avec des connaissances et des ressources insuffisantes et erronées, le résultat serait probablement inventé et erroné. Le modèle de langage pourrait être utilisé pour écrire une histoire ou un conte qui a du sens et qui n’a pas de liens déroutants.
Comment repérer l’hallucination de l’IA ?
Maintenant, il est clair que les programmes d’IA peuvent rêver, ou donner des réponses différentes du résultat attendu (fait ou vérité), et que cela n’a rien à voir avec le fait d’être mauvais. Les personnes qui utilisent ces applications doivent trouver et comprendre les rêves de l’IA.
Si un grand modèle de traitement comme ChatGPT fait une erreur de langue dans le contenu, ce qui n’arrive pas très souvent, vous devriez demander si vous voyez des choses. De la même manière, lorsque le matériel généré par du texte n’a pas de sens, ne correspond pas au contexte donné ou ne correspond pas aux informations que vous lui avez données, vous devez penser que vous l’inventez.
Les gens peuvent dire quand un texte n’a pas de sens ou ne correspond pas à la réalité, donc l’utilisation de l’opinion humaine ou du bon sens peut les aider à trouver des erreurs. La vision par ordinateur fait partie de l’informatique, de l’intelligence artificielle et de l’apprentissage automatique. Il permet aux ordinateurs de voir et de comprendre les images de la même manière que nos yeux. Ils apprennent à partir de nombreuses données vidéo et de réseaux de neurones convolutifs.
Les gens remarqueront des hallucinations si le matériel utilisé pour entraîner leurs sens ne suit pas les mêmes schémas. Si une machine n’avait jamais vu l’image d’une balle de tennis, par exemple, elle pourrait penser qu’une balle de tennis est de couleur vert-orange. Ou, l’IA est devenue folle si une machine pense qu’un cheval à côté d’une photo d’une personne est un cheval à côté d’une personne réelle.
Vous voudrez peut-être savoir si votre voiture pilotée par l’IA devient folle si vous en possédez une. Un signe est que votre voiture ne se comporte pas comme elle le fait habituellement lorsque vous vous déplacez. Par exemple, votre voiture AI pourrait penser si elle s’arrête soudainement ou tourne d’une manière qui n’a pas de sens.
Comment prévenir les hallucinations de l’IA ?
Les enseignants doivent être conscients de certaines choses. Assurez-vous que les données de formation utilisées pour enseigner le modèle d’IA sont complètes et variées, et donnent une bonne image de la façon dont vous voulez que le système d’IA fonctionne dans le monde réel. Des données d’entraînement trompeuses ou incomplètes peuvent entraîner des hallucinations.
Faire de bons plans est une bonne idée. Regardez comment les systèmes d’IA sont construits et modifiés de près. Vérifiez souvent les chiffres et apportez des modifications pour vous assurer qu’ils n’ont pas de trous qui pourraient mener à des rêves. Intégrez des outils de vérification des erreurs et des fonctions de sécurité dans le système pour détecter les rêves et les rendre moins probables.
Le modèle doit être vérifié pour s’assurer qu’il est correct. Le modèle d’IA doit être essayé et démontré qu’il fonctionne bien avant d’être utilisé dans le monde réel. Cela signifie passer en revue le modèle en détail, l’utiliser dans différents scénarios et le soumettre à des tests de résistance pour trouver les points faibles ou les endroits où des hallucinations sont susceptibles de se produire. Il est important de garder les choses à jour et corrigées afin que vous puissiez faire face à de nouveaux problèmes.
Dis-moi ce que tu sais faire et ce que tu veux faire. Les gens devraient pouvoir utiliser les outils d’IA et voir ce qu’ils peuvent faire. Aidez les gens à créer des outils qui peuvent nous aider à comprendre comment le modèle d’IA décide quoi faire. Cela permet de déterminer facilement ce qui pourrait causer les symptômes et de les corriger.
Les gens regardent les choses et les regardent. Gardez les gens en charge de la gestion et de la surveillance des systèmes d’IA afin que toute erreur ou rêve puisse être trouvé et corrigé. Configurez des boucles de rétroaction afin que les utilisateurs ou les travailleurs puissent signaler tout problème causé par l’IA afin qu’il puisse être examiné et résolu.
Commentaires et engagement des utilisateurs. Demandez aux personnes qui utilisent et s’intéressent au système d’IA de parler de son bon fonctionnement. Parlez aux gens pour en savoir plus sur leur vie et ce qu’ils pensent des rêves. Ces informations peuvent aider à trouver des problèmes et des modèles qui n’étaient pas clairs lorsque l’algorithme a été créé.
Conclusion
Gardez à l’esprit que les moyens d’empêcher l’IA de rêver pourraient ne pas être en mesure de les arrêter complètement, mais ils peuvent réduire les risques qui les accompagnent. Pour éviter les problèmes, il est important de garder un œil sur les systèmes d’IA et de continuer à y apporter des modifications.