
Des normes pour et par l’IA
Quelle part les institutions publiques peuvent-elles prendre dans la définition de normes pour l’IA ? Interrogé en marge des dernières journées d’études du réseau communication publique de l’OCDE, Andréa Baronchelli, professeur à la City University de Londres et spécialiste du sujet, rappelle le rôle de la loi et des pratiques empiriques dans la construction d’un cadre normatif. Mais il souligne aussi l'importance pour les organismes d'adopter des normes adaptées aux enjeux de transparence, de réactivité et de personnalisation, qui garantissent une utilisation éthique et efficace de l’IA.
Lors des journées d’études organisées par le réseau communication publique de l’OCDE auxquelles Cap'Com a pris part à Paris les 25 et 26 février 2025, le thème du dialogue multilatéral, de la construction d’une résilience et du renforcement des coopérations a fait l’objet d’une conférence orientée sur l’intelligence artificielle. À cette occasion, Point commun a pu entendre Andréa Baronchelli, professeur à la City University de Londres, un des spécialistes du sujet.
Point commun : Quelles sont les manières d’introduire des usages, et même des normes, dans les relations entre une profession et l’IA ?
Andréa Baronchelli : Premièrement, il y a un cadre imposé par la loi. Des institutions comme des gouvernements peuvent imposer des pratiques ou tenter d’encadrer ces pratiques, et engager la population à adopter tel ou tel comportement.
Deuxièmement, il y a un ensemble d’usages qui vient du terrain, qui va partir des attentes, des besoins réels. Ensuite une norme va être produite, au fur et à mesure, par les personnes qui vont essayer de coordonner leurs actions, sans aucune intention à la base de codifier un comportement partagé, mais qui va s'autocodifier. Cela existe partout. Imaginez toutes les normes non écrites, par exemple on parle anglais dans une réunion multilingue, alors que personne ne nous a dit qu'on devait parler anglais, c'est une norme. Beaucoup de professions en génèrent dans leur domaine. Et l’IA suit ce chemin, avec des cloisonnements par discipline. Pensez à l'université : vous pouvez définir un code d'utilisation de l'IA à l'intérieur de l'organisation, donc à l'intérieur de l'université. Tant qu'on est dans cette université, on va respecter cette règle-là, mais si on part travailler dans une autre université, ce sera un autre ensemble de règles.
Donc, pour ce qui concerne la communication, il y a beaucoup de marge de manœuvre pour que la pratique dans une organisation soit d'adopter l'IA de telle ou telle façon, et ainsi de codifier une norme pour les personnes qui vont l'utiliser. L’enjeu sera de trouver un commun, un code généralement accepté et compris des citoyens.
Point commun : Cette approche empirique est-elle déjà suffisamment installée pour qu’elle devienne une base normative ?
Andréa Baronchelli : En grande partie, oui. Je vais vous donner trois exemples.
Premièrement une norme qui vient clairement de l'extérieur, que les institutions (notamment les collectivités locales) ne peuvent plus ignorer, à savoir la réactivité 24 heures sur 24. Je m’explique, et c’est un phénomène que le Financial Times a bien décrit en ce qui concerne la génération Z et les cryptomonnaies. Les jeunes qui échangent les cryptomonnaies ne comprennent pas que les marchés soient parfois fermés ; qu'ils ne sont pas opérationnels 24 heures sur 24.
Aujourd’hui, quand on veut poser des questions à son institution publique, on s'attend à ce qu’elle soit réactive, même en plein milieu de la nuit.
Eh bien c’est exactement la même chose en ce qui concerne le dialogue avec le service public, depuis qu’il y a des chatbots. Ceux-ci sont accessibles tout le temps. Aujourd’hui, quand on veut poser des questions à son institution publique, quand on a besoin d'une réponse, on s'attend à ce qu’elle soit réactive, même en plein milieu de la nuit. Le gouvernement britannique envisage d'utiliser des chatbots avec ce point de vue, celui d’un service permanent, et c’est la même chose dans l’administration estonienne. Et l'IA peut réellement apporter une valeur ajoutée pour répondre 24 heures sur 24 à des questions basiques et simples. Et par conséquent, avec l'IA, les « heures de bureau » deviennent de plus en plus un concept obsolète. Donc ça, c'était un exemple d’évolution des normes.
Autre exemple de normes : la communication ciblée. Dans un monde où l’on est inondé de spams, constamment, on souhaiterait une communication personnalisée. Moi, je vis dans une région et j'aimerais que l'information publique qui me parvient me concerne directement. Et ça, c'est une norme à laquelle les institutions publiques doivent s'adapter. L'IA, ici aussi, peut les y aider pour mieux segmenter le public, par exemple, et personnaliser les messages à telle ou telle catégorie, pour permettre d'améliorer l'accessibilité aux services et diversifier le public touché.
Dernier exemple, la norme de l'interaction. Ce matin lors de notre conférence à l’OCDE, il a été question de cette interaction de l’IA avec la communication pour la participation et la concertation, c’est-à-dire de sa prise en compte aussi bien de la parole descendante que de la parole citoyenne montante. Moi, je vis à Londres, par exemple, et plusieurs consultations locales ont été lancées sur la construction de nouveaux gratte-ciel. Le dispositif ne fut pas identifié ni utilisé. Pourtant, si on avait pris le temps de mesurer les prises de parole spontanées sur les réseaux sociaux, la puissance publique aurait sans doute compris que la majorité de la population disait : « Non, on ne veut pas de nouveaux gratte-ciel » ; mais aucun moyen efficace d’évaluation n’était en place ! Alors que, justement, l’IA peut facilement passer au crible une masse de messages et de publications, pour en faire ressortir d’authentiques mouvements d’opinion. Peu de temps après, la construction était engagée, au grand dam des habitants. Il y avait moyen de rapidement éviter ce réel déficit d’écoute.
Point commun : Faut-il pour autant s’occuper des normes de l’IA en tant qu’organisme public ?
Andréa Baronchelli : Les institutions doivent prendre conscience de ces nouvelles normes, sinon elles vont être de plus en plus perçues comme inefficaces, comme absentes.
Point commun : Que peuvent produire les institutions elles-mêmes, en termes de normes ?
Andréa Baronchelli : Elles doivent faire de l'IA un collaborateur et non un acteur robotisé de prise de décision. La Corée du Sud nous a parlé, lors de cette conférence, des problèmes liés aux hallucinations. Ce risque peut être réduit si on considère que l'IA est un ou une collègue et non pas « quelqu'un » chargé de la prise de décision. Donc on peut avoir une IA disponible 24 heures sur 24, pour répondre à des questions basiques et simples, mais on peut aussi entraîner l'IA pour que, pour des questions plus complexes, elle dise : « Non, il faut attendre lundi et l'ouverture des heures de bureau. » Autrement, vous risquez de perdre la confiance de votre public.
Les institutions publiques doivent prendre le lead sur les choix opérés en matière d'IA.
Une autre norme sera celle sur la transparence. Il faut indiquer aux citoyennes et aux citoyens quand il s'agit d'un contenu IA. Et là-dessus, les institutions publiques peuvent faire la différence avec les institutions privées en étant beaucoup plus transparentes.
Autre nécessité, celle de tenir compte des attentes du public. Les institutions publiques doivent prendre le lead sur les choix opérés en matière d'IA, comment l'utiliser, comment la mettre en place.
Un dialogue multilatéral sur la communication publique organisé par l’OCDE
L’Organisation de coopération et de développement économiques a mené deux journées de travaux sur le thème « Renforcer la résilience et la coopération », les 25 et 26 février 2025 à Paris. Cap’Com, le réseau français de la communication publique locale, était associé à ces travaux. Le constat de départ est lourd : « Gérer les défis persistants d'un écosystème d'information complexe est une responsabilité ardue pour les communicants gouvernementaux. Le discours public et médiatique devient de plus en plus polarisé, privant les sociétés de l'espace nécessaire pour un débat constructif, tout en semant la méfiance et la division. Les solutions audacieuses nécessaires pour faire face au changement climatique, favoriser une croissance inclusive et gérer un paysage géopolitique volatil peuvent sembler hors de portée. »
Pour autant, « les preuves pour renforcer la résilience et la confiance pointent de plus en plus vers une bonne communication comme un levier puissant pour un changement positif, aux côtés d'autres actions » et c’est sur les moyens de la restauration de la confiance que les participants ont planché, à l’initiative de la Division de la gouvernance innovante, numérique et ouverte (Indigo) de l'OCDE et la Harvard T.H. Chan School of Public Health, avec le soutien du Programme Otan pour la science au service de la paix et de la sécurité.