Digital Services Act : ce qui change pour la compublique
Il y a quelques années, l’entrée en vigueur du RGPD (Règlement général de protection des données) avait largement modifié certaines pratiques en communication numérique, notamment pour la communication publique. Depuis l’été 2023, un nouvel arsenal juridique européen est entré en vigueur : le Digital Services Act. Que va-t-il changer pour la compublique ?
Par Patrice Razet, ancien responsable numérique du département du Maine-et-Loire et consultant en communication chez Canévet et associés.
Le Digital Services Act, c’est quoi ?
Le Règlement européen sur les services numériques ou Digital Services Act (DSA) vise à protéger les citoyens européens, en matière de liberté d’expression, de droit des consommateurs et à renforcer le contrôle démocratique d’internet, en empêchant par exemple la manipulation de l’information. Cette protection s’exerce par le biais d’une meilleure régulation des activités des plateformes en ligne.
Entré en vigueur fin août 2023, le Digital Services Act concerne pour le moment 17 plateformes, celles qui enregistrent plus de 45 millions d’utilisateurs européens par mois. Pour ce qui nous intéresse, on retrouve parmi la liste publiée par la Commission européenne Meta, Google, Twitter/X, TikTok, mais aussi le moteur de recherche Bing, Snapchat et Wikipédia. Ces plateformes se voient demander de se conformer à un ensemble de nouvelles obligations, au risque d’amendes importantes, à hauteur de 6 % de leur chiffre d’affaires.
D’ici à février 2024, ce sont tous les « fournisseurs de services intermédiaires en ligne » qui seront concernés, autrement dit les hébergeurs, les réseaux sociaux, les moteurs de recherche, les plateformes de voyage et d'hébergement ou les sites marchands. En tant que telle, à ce jour, la compublique n’est donc pas directement concernée. Ce qui ne signifie pas pour autant que le DSA ne va pas avoir des effets sur elle.
5 changements pour la compublique
Cinq points pourraient changer pour les institutions publiques, suite à l’entrée en vigueur du Digital Services Act.
1. Des publicités en ligne moins ciblées
Le premier changement apporté par le DSA concerne le cœur du business model des plateformes internet : la publicité en ligne.
Sauf consentement explicite, il est désormais interdit de cibler des citoyens européens grâce à la publicité à partir de données dites « sensibles » (origine ethnique, opinions politiques, orientation sexuelle, informations de santé). Le sujet était déjà largement entendu suite à l’entrée en vigueur du RGPD, mais il se retrouve ici réaffirmé. Par ailleurs, les publicités ciblées à destination des mineurs sont également interdites. Il reste possible de leur montrer des publicités, mais avec moins d’options de ciblage (voir à ce sujet la notice du groupe Meta).
Les campagnes des collectivités ayant trait à des sujets de santé publique ou de solidarité, ou à destination des cibles jeunes vont s’en trouver encore sensiblement compliquées.
2. Des algorithmes plus faciles à comprendre
Le DSA impose désormais aux plateformes de proposer des alternatives à l’algorithme pour consulter les contenus (le fameux fil « pour vous », adopté par les différents réseaux). On attend de voir quelles autres possibilités sont proposées par les plateformes (par ex. : ordre chronologique des contenus de ses abonnements). Au-delà, le DSA demande aussi aux plateformes qu’elles expliquent le fonctionnement de leur algorithme. Cet exercice de transparence a déjà été mis en place par Meta, qui a publié un guide à ce sujet. La lecture attentive de ce guide (et de ceux que leurs concurrents ne manqueront pas de publier) semble assurément une saine lecture pour la compublique, qui tient là une occasion d’essayer, en comprenant mieux ces règles, de mieux en jouer pour augmenter sa visibilité.
3. Des outils pour faire sa veille sectorielle
Les plateformes doivent également faire la transparence sur les publicités qu’elles diffusent et leur ciblage. Celles-ci ont ainsi pour la plupart mis en ligne une « bibliothèque des publicités » permettant de vérifier qui fait de la publicité et pour quoi. Facebook l’avait déjà fait sur la publicité à enjeux politiques ces dernières années. LinkedIn, Google, TikTok et Twitter ont récemment déployé une fonctionnalité similaire. C’est sans doute une des conséquences les plus utiles pour la compublique. Voici quelques beaux outils d’inspiration pour une veille sectorielle.
4. Des recours en cas de suppression ou de bannissement
Le DSA vise ici à empêcher la diffusion de fake news et à empêcher la haine en ligne. Les plateformes concernées doivent désormais proposer un outil pour signaler facilement les contenus illicites… et rapidement traiter la demande de manière à supprimer au besoin lesdits contenus.
D’un autre côté, les utilisateurs devront désormais être informés avant la suppression d’un contenu ou avant d’être bannis d’une plateforme. La plateforme devra expliquer pourquoi elle a pris cette décision et les utilisateurs disposeront de voies de recours. Les quelques collectivités ou acteurs publics qui ont vu leur compte arbitrairement fermé ces dernières années apprécieront assurément le déploiement d’un tel dispositif.
Au-delà, gageons que cette plus grande attention à la modération des contenus contribuera à rendre les plateformes plus saines, ou à mieux identifier l’opportunité d’en délaisser d’autres...
5. Des dark patterns interdits
Le DSA a également décidé de s’attaquer aux « dark patterns », ces biais cognitifs dans les interfaces des outils et services internet qui délibérément orientent les choix des utilisateurs. À terme, ce sont bien tous les services numériques en ligne qui devront éviter de « tromper ou manipuler » les internautes par leurs choix de design.
Encore faudrait-il s’entendre sur ce qui relève précisément du « dark pattern ». On pense bien entendu au fameux « plus qu’une place disponible » des plateformes de réservation hôtelières ou culturelles ou encore à la demande répétée de consentement aux cookies jusqu’à ce que l’utilisateur craque ! Rendre la résiliation d’un service (par ex. une newsletter) significativement plus lourde que son abonnement est un autre exemple. Des pratiques dont ne sont parfois pas exemptes, volontairement ou non, certaines collectivités. Mais à l’heure où le design de l’expérience utilisateur est de plus en plus stratégique, la limite entre l’orientation (faciliter le parcours, au service des intérêts d’une institution) et la manipulation promet de longs débats techniques et juridiques, en l’absence d’une liste exhaustive des biais d’interface répréhensibles.
Une réflexion à laquelle la compublique aurait d’ailleurs tout intérêt à participer, en identifiant les pratiques contribuant à un design éthique, au service de l’intérêt général.