Quelques recommandations déontologiques pour utiliser l’IA
Le Conseil de déontologie des journalistes s’est penché sur les utilisations de l’intelligence artificielle dans les rédactions. Il publie une série de recommandations qui s’adressent aussi à tous les communicants publics.
Instance de médiation entre les journalistes, les médias, les agences de presse et les publics, le Conseil de déontologie journalistique et de médiation (CDJM) observe la montée en puissance de l’intelligence artificielle. Cette évolution pose une série de questions notamment concernant l’avenir de la profession dont les tâches peuvent désormais être réalisées par un logiciel, la juste rémunération des auteurs et des éditeurs dont les contenus alimentent les corpus des IA génératives, les risques liés à cette technologie dont les biais ont souvent été dénoncés, accentuant les discriminations subies par une partie de la population.
Mais l’usage de l’IA pose aussi des questions éthiques. « L’accélération et l’optimisation du travail permises par les outils d’intelligence artificielle ne peuvent être l’occasion de remettre en cause les principes des chartes de déontologie », rappelle le CDJM. L’exigence d’exactitude et de véracité des faits, l’indépendance nécessaire du travail éditorial, le respect de la dignité et de la vie privée des personnes comme la protection des sources, ou encore l’impératif de ne pas alimenter haines et préjugés, sont des fondements de la profession.
Le travail réalisé par le CDJM a conduit à la publication d’un document sur les utilisations possibles de l’intelligence artificielle par les journalistes et les rédactions. Il répartit les usages en plusieurs niveaux, en fonction du degré de risque qu’ils représentent au regard du respect de la déontologie.
Le public doit être informé lorsqu’un outil d’IA est utilisé
Le premier niveau est celui des usages de l’IA qui n’ont pas d’impact sur l’information délivrée au public. Des règles en interne peuvent être établies, mais ces usages ne doivent pas forcément être notifiés au lecteur, auditeur ou téléspectateur. C’est le cas par exemple du recours à l’IA pour :
- la correction orthographique et grammaticale d’un texte avant publication ;
- la traduction automatisée de textes à des fins de documentation préalable ou encore la transcription d’enregistrements pour en extraire des citations pertinentes ;
- ou même la génération d’idées de titres optimisés pour le référencement.
Le second niveau concerne les usages qui peuvent avoir un impact sur l’information publiée ou diffusée. Ils doivent rester sous la responsabilité directe des éditeurs et des journalistes, et être signalés de façon explicite à leur public. Le principe de base est que le public doit être informé lorsqu’un outil d’IA est utilisé dans la réalisation d’un contenu. Une mention doit apparaître à chaque fois que le contenu est publié ou diffusé, cette transparence permet au public de mieux comprendre les conditions de fabrication du contenu dont il prend connaissance. Elle établit en outre une distinction nécessaire entre ce qui est le fruit du travail de personnes réelles et ce qui est le produit d’une série d’algorithmes. Sont concernés par exemple :
- la traduction automatisée d’articles ;
- les résumés d’articles ;
- la mise à jour automatisée d’un contenu en fonction de nouvelles données disponibles ;
- l’utilisation de visuels générés par des outils d’IA (dessins, illustrations, vues d’artiste, reconstitutions…) qui ne doivent laisser aucun doute sur leur caractère artificiel.
De façon générale, un contenu généré directement par ces outils ne peut être publié ou diffusé automatiquement qu’à condition que le rédacteur ait pu connaître et maîtriser d’une part les informations utilisées à l’origine, d’autre part les étapes de traitement qui leur ont été appliquées. Il doit pouvoir contrôler ainsi la pertinence éditoriale.
Les usages à proscrire incompatibles avec le respect de la déontologie
Le troisième niveau regroupe les usages à proscrire qui sont, de façon intrinsèque, incompatibles avec le respect de la déontologie. Par exemple utilisation d’outils d’IA pour générer des images, des sons ou des vidéos dont le réalisme risque de tromper le public ou de le laisser dans l’ambiguïté, en lui soumettant une information contraire à la réalité des faits. De même, des contenus générés en intégralité par des outils d’IA ne peuvent être publiés sans contrôle éditorial. Les rédacteurs sont responsables de ces contenus, au même titre que des productions humaines ; leur diffusion doit donc se faire exclusivement sous leur supervision, après des étapes de relecture et de validation qui garantissent au lecteur la véracité et la qualité de l’information publiée.
Au-delà des règles déontologiques immédiates, il est recommandé que les médias ou les directions de la communication forment leurs équipes à la bonne utilisation des requêtes (prompts) utilisées dans les outils d’IA générative et encadrent les usages en mettant au point des règles internes dans ce domaine. Il importe aussi qu’ils soient associés aux travaux de mise au point et de développement des outils d’IA destinés à les assister dans leur travail d’information du public.
Les journalistes, tout comme les communicants publics, ont vite évalué que l’IA pouvait les libérer de tâches désormais automatisables, leur faire gagner du temps pour un travail à plus haute valeur ajoutée. Mais l’instance de médiation des journalistes tout comme le réseau des communicants publics sont là pour appeler au respect des valeurs éthiques qui fondent leur profession : s’assurer que les progrès de l’IA sont mis au service d’une information de qualité délivrée à tous les publics.