Quand l’IA invente une vérité alternative : les nouveaux enjeux de la désinformation
« La vérité n'existe pas, la vérité c'est ce que tu dis. » Et si cette logique troublante trouvait son apogée dans l’ère de l’intelligence artificielle ?
Par Marc Cervennansky, responsable du centre web et réseaux sociaux de Bordeaux Métropole.
Cette affirmation de Roy Cohn, mentor de Donald Trump, résonne particulièrement en ce moment. Si Trump a bâti une partie de sa communication sur les « faits alternatifs », l'ère de l’intelligence artificielle semble avoir poussé cette logique à son paroxysme.
Images, récits et statistiques générés par des IA se diffusent désormais massivement, remplaçant souvent l’analyse critique par des vérités préfabriquées. Résultat : un glissement progressif vers une société où la perception subjective supplante les faits vérifiés.
L’exemple frappant d’une photo générée par l’IA
Un cliché largement partagé illustre ce phénomène. On y voit un enfant en pleurs, tenant un chiot dans ses bras, dans une barque au milieu d’une ville inondée. L’image a été visionnée par des dizaines de millions d’Américains, alimentant l’idée que l’administration du président Joe Biden avait été incapable de protéger les citoyens face aux catastrophes climatiques. Pourtant, cet enfant n’existe pas. La photo a été créée par une IA et, cette fois, tout le monde le savait.
Ce genre de contenu, surnommé « AI slop », n’a plus besoin d’être crédible. Comme l’affirme Amy Kremer, une activiste conservatrice américaine : « Peu importe si c’est faux, c’est symbolique du traumatisme actuel. » Cette approche, qui fait écho aux « faits alternatifs » de l’ère Trump, montre que la valeur symbolique de ces images prime désormais leur véracité.
Des outils d’IA trop sûrs d’eux-mêmes
Mais le phénomène ne se limite pas aux images. Des outils comme ChatGPT ou Perplexity, en concurrence directe avec les moteurs de recherche traditionnels, participent aussi à ce brouillage de la réalité.
Benoît Raphaël, spécialiste de l’IA, pointe un problème majeur : « Quand il ne trouve pas les infos, Perplexity pourrait te dire : “Je n'ai pas trouvé” ou “Je ne suis pas sûr”. Que nenni ! Il présente un taux de surconfiance de 81 %. Autrement dit : il est sûr de lui, même quand il raconte des conneries. »
Plus inquiétant encore, une étude de l’université de Pennsylvanie révèle que les utilisateurs cliquent six fois moins sur les sources proposées par ces outils que lorsqu’ils utilisent Google. Ce désintérêt pour les vérifications pousse à accepter sans question des affirmations parfois erronées.
La désinformation, une stratégie bien rodée
La désinformation n’est pas un phénomène nouveau, mais l’intelligence artificielle l’a rendue plus rapide, plus accessible, et plus percutante. Selon la loi de Brandolini, « la quantité d'énergie nécessaire pour réfuter du baratin est beaucoup plus importante que celle qui a permis de le créer ». Aujourd’hui, il suffit de quelques clics pour générer des contenus viraux, alors que démonter ces manipulations demande des efforts considérables.
Olivier Cimelière, journaliste et expert en communication, l’analyse ainsi : « La désinformation est devenue une stratégie de communication comme une autre. » Cette stratégie est amplifiée par la capacité des IA à produire des récits émotionnels et des images marquantes, qui exploitent la confiance aveugle de nombreux utilisateurs.
Et en France, quel impact sur la communication locale ?
En France, l'impact de l'IA sur l’information se fait aussi ressentir. Le dernier Baromètre de la communication locale montre que 76 % des Français jugent l’information des collectivités locales fiable. Cependant, 55 % des 25-34 ans déclarent utiliser des outils d’IA pour s’informer sur la vie locale. Si ces chiffres semblent témoigner d’une adoption technologique prometteuse, ils posent aussi une question cruciale : comment garantir que ces outils ne véhiculent pas des informations biaisées ou incorrectes ?
Les enseignants universitaires tirent également la sonnette d’alarme. Bien que les étudiants utilisent massivement des outils comme ChatGPT, peu d’entre eux s’interrogent sur la fiabilité des informations générées. Comme le soulignait Amélie Cordier, docteure en intelligence artificielle, sur France Culture : « L'IA pourrait abêtir la population. Je m'inquiète de la confiance aveugle accordée aux intelligences artificielles pour produire du contenu, que l'on accepte parfois de manière passive et naïve. C'est renoncer à notre propre réflexion. »
Une réponse possible : éduquer à l’esprit critique
Face à ces défis, des initiatives émergent contre l’érosion de la capacité d’analyse et de décodage des informations. Parmi elles, le projet Cogito, lancé par les créateurs de L’Esprit critique ; à suivre sur YouTube et Instagram.
Les deux créateurs de contenus proposent de renforcer les capacités collectives à lutter contre la bêtise et donner des outils pour mieux réfléchir. D’abord diffusé sous forme de vidéos pédagogiques, le projet s’est développé en un parcours structuré d’apprentissage, appuyé par un comité scientifique et des professionnels de l’éducation.
De telles initiatives redonnent de l’espoir. Elles rappellent que, même dans un monde saturé par des vérités artificielles, la réflexion critique reste notre meilleure arme. La question est maintenant de savoir si nous serons suffisamment nombreux à relever ce défi.
Illustration : le fameux arbre à saucisses – création sur l’IA d’Adobe Firefly.