Le X Notes de la communauté Ils ont servi de source d'inspiration au début de l'année, et le réseau social revient à la charge avec un programme pilote dans lequel les chatbots généreront ces notes qui corrigent ou donnent un contexte au contenu et aux tweets.
Cette fonctionnalité a été intégrée en 2021 et En 2022, il a été déployé sur Twitterpour qu'Elon Musk l'étende sur la plate-forme sous son mandat, que nous connaissons maintenant X.
Les utilisateurs qui font partie de ce programme Vérification des faits Ils peuvent apporter des commentaires qui ajoutent un contexte à certaines publications, qui sont examiné par d'autres utilisateurs avant d'apparaître attaché à la publication ou au tweet.
C'est un outil collaboratif pour la modération du contenu Pour éviter la désinformation des réseaux sociaux (l'objectif a éliminé son Vérification des faits de tiers pour l'intégrer), et que dans son essence, il est très attrayant, mais cela s'ouvre à la manipulation si la communauté n'est pas diversifiée ou rigoureuse.
Une note communautaire peut apparaissent sous une vidéo pour vraiment corriger l'origine de celui-ci. Et nous savons tous à quel point il est facile sous l'anonymat d'un nom d'utilisateur de lancement de Bulos dans un réseau social.
La comparaison entre le modèle “tout humain” et l'human-llm “hybride”
X
Maintenant, l'IA arrive aux notes de la communauté Et des doutes émergent si leur utilisation sera positive ou nuisible, et plus à un moment où les réseaux sociaux, loin de leur essence, ont polarisé la société à des niveaux sans précédent.
Les notes avec l'IA peuvent être générées, selon TechCrunch, Lorsque vous utilisez X ou d'autres outils d'IA En les connectant via une API. Toute note présentée par l'IA sera traitée comme si une personne l'avait fait, alors entrez le même processus de vérification.

Le problème de l'utilisation de l'IA est que Il peut halluciner (inventer les choses) ou basé sur un contexte qui n'est pas basé sur la réalité.
Selon un Article publié Pour les chercheurs qui travaillent dans des notes communautaires dans X, il est recommandé aux personnes et aux chatbots IA Ils travaillent ensemble.
La combinaison des deux forces peut améliorer la génération de notes avec l'IA par l'apprentissage du renforcement, et que les gens sont ceux qui vérifient avant la publication de la note.
L'article laisse une phrase intéressante: “L'objectif n'est pas de créer un assistant IA qui dit aux utilisateurs de pensermais créez un écosystème qui aide les humains à penser plus critique et à comprendre le monde d'une meilleure manière. Les LLM (modèle linguistique majeur) et les humains peuvent collaborer ensemble dans une boucle vertueuse. “
En dehors de la possibilité que l'AI de “l'alucine”, il y a un autre problème grave qui a souffert récemment avec le chatgpt, et cela a à voir avec sa “personnalité”: Il devient sicofonta. Ce qui n'est rien d'autre qu'un comportement servile ou flatteur.
Si un LLM priorise l'aide en terminant un Vérification des faitsles notes générées par l'IA peuvent être totalement inexactes, car afin de modérer efficacement il existe une clé toujours importante, la neutralité. Et devenir un plus plat n'aide rien si vous choisissez des tiers tels que le chatppt qui peuvent avoir cette personnalité.
Pour le moment, c'est un programme pilote et est attendu durent quelques semaines Avant qu'il ne soit déployé de manière générale afin que l'IA en combinaison avec les humains aide à atténuer l'effet de la désinformation qui fait des campagnes à l'aise dans X.
