Intelligence artificielle et information : une étude européenne met en garde contre son manque de fiabilité.

L’intelligence Artificielle et l’information : une étude européenne soulève des inquiétudes concernant sa fiabilité

De plus en plus d’individus se tournent vers des outils tels que ChatGPT, Copilot, Gemini ou Perplexity pour s’informer. Cependant, une étude d’envergure internationale, orchestrée par la BBC et l’Union européenne de radio-télévision (UER), a mis en lumière des distorsions systématiques dans les réponses fournies par ces technologies. Loin d’être impartiaux, ces outils tendent à fabriquer, déformer, et mal citer leurs sources, ce qui pose un risque direct pour la confiance du public et le travail des professionnels.

Points clés à retenir :

  • Près d’une réponse sur deux générée par les assistants IA contient au moins une erreur significative.
  • Les problèmes d’exactitude et de sourcing sont communs à toutes les langues et régions géographiques.
  • Google Gemini est identifié comme l’assistant le moins fiable, avec 76 % de réponses jugées problématiques.
  • Les institutions publiques européennes demandent une surveillance indépendante et une régulation accrue des IA d’information.

L’IA dans le quotidien

Les outils d’intelligence artificielle générative ont radicalement modifié notre accès à la connaissance. En 2025, il suffit de poser une question à ChatGPT ou Gemini pour obtenir en quelques secondes un résumé de l’actualité, une analyse d’un reportage ou l’explication d’un événement politique. Ces outils font désormais partie intégrante de la vie quotidienne des internautes, au point de remplacer peu à peu les moteurs de recherche classiques. Selon le Digital News Report 2025 de l’Institut Reuters, 15 % des moins de 25 ans utilisent régulièrement ces assistants IA pour s’informer, contre 7 % de l’ensemble des utilisateurs d’Internet.

Une enquête, réalisée par le Pew Research Center aux États-Unis, révèle que 8 % des parents indiquent que leur enfant de 5 à 12 ans utilise des chatbots IA. Parmi les 5 à 7 ans, 3 % ont déjà fait usage d’une IA.

Un rapport international, publié par la BBC et l’UER le 22 octobre 2025, tire la sonnette d’alarme. Après des milliers de tests effectués dans 18 pays et 14 langues, les chercheurs concluent que les assistants IA, censés faciliter l’accès à l’information, déforment en réalité considérablement le contenu journalistique.

Une distorsion systémique de l’information

L’étude, qui a mobilisé 22 radiodiffuseurs publics européens, y compris Radio France, a soumis quatre grands assistants (ChatGPT, Copilot, Perplexity et Gemini) à 30 questions d’actualité. Les journalistes ont ensuite évalué environ 3 000 réponses sur des critères spécifiques : l’exactitude, la contextualisation, la distinction entre faits et opinions, et la qualité des sources.

Le constat est sans équivoque : 45 % de ces réponses comportaient au moins un problème significatif. Dans un cas sur cinq, les erreurs étaient majeures : données obsolètes, détails inventés ou citations falsifiées.

Les défauts de sourcing ont été identifiés comme la cause principale : 31 % des réponses incluaient des attributions incorrectes ou trompeuses, souvent sans lien avec les sources originales.

Google Gemini, le dernier de la classe

Tous les assistants testés ont montré des lacunes, mais Gemini s’est démarqué par ses contre-performances. Près de trois quarts (76 %) de ses réponses étaient erronées ou incomplètes. Chez Radio France, ce taux atteignait 93 % !

Un exemple cité dans l’étude illustre cette problématique : à propos d’une polémique sur un supposé salut nazi d’Elon Musk lors de l’investiture de Donald Trump, Gemini a pris au sérieux une chronique satirique de France Inter signée Charline Vanhoenacker. Présentée comme une source factuelle, cette chronique était humoristique. Oups.

Perplexity et ChatGPT ont également confondu faits et opinions dans plusieurs réponses liées au contenu des médias publics européens, inventant ou modifiant des citations. Bien que ces erreurs puissent prêter à sourire, elles peuvent sérieusement nuire à la crédibilité des médias concernés.

Menace pour la confiance du public

Pour Liz Corbin, directrice de l’information à l’UER, ces résultats montrent que ces failles «ne sont pas des cas isolés», mais bien des problèmes «systémiques, mondiaux et multilingues».

« Ils sont systémiques, mondiaux et multilingues, et nous pensons que cela représente un grave danger pour la confiance du public. Lorsque les gens ne savent plus à quoi se fier, ils finissent par ne plus rien croire du tout, ce qui conduit à un repli sur soi démocratique. »

Peter Archer, responsable des programmes d’IA générative à la BBC, ajoute que les assistants IA «imitent l’autorité du journalisme sans en respecter la rigueur».

Les auteurs de l’étude mettent en garde contre une conséquence préoccupante : l’érosion de la confiance du public envers l’information. Si les utilisateurs ne peuvent plus distinguer le vrai du faux dans les réponses fournies par des systèmes censés leur simplifier la vie, l’ensemble de l’écosystème démocratique est mis en danger.

L’UER et la BBC demandent donc un renforcement de l’encadrement. Leurs recommandations incluent un suivi indépendant et constant de la qualité des réponses, la création d’une taxonomie des biais les plus fréquents, et des conseils aux développeurs d’IA pour améliorer la fiabilité des modèles. Elles rappellent également que le respect des lois européennes sur les services numériques et l’intégrité de l’information n’est pas optionnel.

Usage massif, mais sans vérification

Cette alerte intervient alors que l’utilisation de ces technologies dépasse largement le cadre de la curiosité. Dans les entreprises, le marketing, l’éducation et même la recherche, l’IA générative est devenue un outil de productivité essentiel. De nombreux professionnels s’appuient sur elle pour synthétiser des données, traduire ou produire du contenu rapidement, notamment les rédacteurs et spécialistes du SEO !

Pourtant, peu d’entre eux prennent le temps de vérifier les sources ou la véracité des réponses fournies. Selon d’autres données citées dans l’étude, la majorité des utilisateurs ne cliquent presque jamais sur les liens associés aux résumés d’actualité proposés par les IA. Cette habitude accroît le risque d’une distorsion durable de la perception collective de l’information.

À lire en complément : Selon la BBC, 91% des réponses d’actualités sur l’IA présentent des problèmes

À découvrir également : La France investit 400 millions d’euros pour faire de l’intelligence artificielle un sujet d’intérêt public

Avez-vous vu cela : Qui fait confiance à l’IA ? Une nouvelle étude met en lumière les tendances démographiques

L’article « L’intelligence artificielle et information : une étude européenne alerte sur son manque de fiabilité » a été publié sur le site Abondance.

Panier
Retour en haut