ChatGPT et Bard continuent de relayer de fausses informations en 2023
Les avancées de l’intelligence artificielle (IA) générative ont permis la création de chatbots sophistiqués tels que ChatGPT et Bard. Cependant, une étude réalisée par la startup NewsGuard révèle que ces deux outils majeurs du monde de l’IA continuent de relayer de fausses informations, suscitant ainsi des préoccupations quant à leur utilisation et à la diffusion de fake news à grande échelle.
MINI-SOMMAIRE
L’étude de NewsGuard
Dans le cadre de l’étude, NewsGuard a demandé à ChatGPT et à Google Bard de rédiger des articles courts sur cent théories largement discréditées dans les médias. L’objectif était d’observer si ces robots conversationnels étaient capables de trier les informations ou du moins de faire preuve de prudence. Les résultats sont inquiétants : ChatGPT a généré de fausses informations dans 98 % des cas, tandis que Google Bard en a produit dans 80 % des cas.
De plus, il est intéressant de noter que ChatGPT se montre encore plus « persuasif et sournois que Bard ».
En fonction du sujet, l’IA générative de Google a été capable d’apporter des éléments de contexte à ses réponses ou de citer ses sources, tandis que son concurrent produit des réponses « autoritaires et factuellement fausses ». Cependant, il convient de souligner que les sources utilisées par Bard peuvent parfois être réputées pour propager sciemment de fausses informations.
Ces résultats préoccupants soulèvent la crainte que les textes générés par ChatGPT et Bard, bien qu’ils contiennent des contre-vérités, puissent être utilisés par des acteurs malveillants pour diffuser des informations erronées à grande échelle.
ChatGPT et Bard : l’absence de progrès
Ce qui est encore plus préoccupant, c’est que NewsGuard ne constate aucun signe d’amélioration de la part de ChatGPT et de Bard au cours des six derniers mois. En effet, en mars et avril, la startup avait déjà réalisé le même exercice et obtenu des résultats similaires. À l’époque, ChatGPT produisait des affirmations fausses et trompeuses dans 100 % des cas, tandis que Bard diffusait des informations erronées dans 76 % des cas. Malheureusement, aucune amélioration significative n’a été observée depuis lors.
Il convient de souligner que certaines entreprises
Comme OpenAI, ont récemment annoncé des améliorations dans la précision factuelle de leurs modèles d’IA. Par exemple, OpenAI a déclaré avoir amélioré l’exactitude de son modèle GPT-4 de 40 % grâce aux commentaires de ses utilisateurs. De son côté, Google rappelle que Bard est un outil expérimental et peut donc fournir des réponses incorrectes ou inappropriées. Ces initiatives sont encourageantes, mais il est important de continuer à travailler sur la fiabilité des chatbots afin de minimiser la propagation de fausses informations.