À peine née, déjà piratée
Alors que nombre d’entre vous hésitent encore à expérimenter les outils d'intelligence artificielle (IA), voici qu’on nous annonce déjà qu’ils peuvent être facilement piratés et générer n’importe quoi comme résultats. Effrayant, drôle ou rassurant ? Voyons voir.
Vous n'êtes peut-être pas toutes et tous des artistes ou des créateurs, mais j’en connais certains que l’intelligence artificielle énerve particulièrement.
Pourquoi ? Imaginez ça : vous avez passé des nuits blanches à concevoir une œuvre (écrite, visuelle, graphique, photographique…) que vous publiez sur internet. Et hop, l'IA la récupère sans vous demander votre autorisation, et votre production va alimenter sa base de données pour générer de nouvelles créations. Évidemment sans créditer ce que vous avez involontairement inspiré à l'œuvre imaginée.
Des chercheurs de l’université de Chicago ont trouvé la solution : ils ont créé Nightshade, un logiciel gratuit et open source, capable de jouer au chat et à la souris avec l’intelligence artificielle. Il modifie subtilement et à son insu des pixels dans les œuvres imaginées par ces applications.
Pas clair ? Voici un exemple : il suffit de faire croire à l’IA que des pixels représentant un gant de toilette sont en réalité un mouton. Le résultat : en effectuant une requête pour obtenir une prairie remplie de moutons, vous visualisez à la place une prairie remplie de gants de toilette. Et l'IA pensera avoir correctement répondu à votre requête.
Ce n’est pas fini. Voici un autre exemple de détournement de l’intelligence artificielle qui a récemment défrayé la chronique. Au Royaume-Uni, un client mécontent des services de livraison de colis de la société DPD a réussi à manipuler le chatbot de l’entreprise, géré par une intelligence artificielle générative. Conséquence : au bout d’un moment le chatbot est devenu incontrôlable et s’est mis à critiquer et à insulter la société DPD. Une faille de sécurité, appelée « prompt injection », a permis ainsi de faire dire au chatbot n’importe quoi. Cela a donné un haïku (forme de poème japonais) affiché dans la fenêtre de dialogue : « DPD est inutile – Un chatbot qui ne peut pas vous aider – Ne vous embêtez pas à les appeler ».
Des piratages qui posent question sur l'usage de l'IA dans nos métiers
Ces premiers actes de piratage de l’intelligence artificielle sont-ils inquiétants pour nos futures applications ? Ou au contraire ne sont-ils pas plutôt rassurants ?
Derrière ces deux cas de figure, l’un illustrant la lutte pour la protection des droits d’auteur et l’autre un sabotage lié au mécontentement d’un service rendu par l’entreprise, se pose la question des conditions d’usage de ces outils dans nos métiers.
Tout d’abord il s’agit d’un enjeu de protection. La sécurité de l'entraînement des modèles d’intelligence artificielle est une priorité absolue. Le détournement mal intentionné de ces modèles peut induire des résultats biaisés que beaucoup risquent de ne pas détecter. L’exemple des gants et des moutons est ici caricatural. Nous pouvons subir des biais plus subtils et moins immédiatement identifiables. Imaginez la publication d’un compte-rendu de conseil municipal, généré par l'intelligence artificielle, piraté par un groupe d’opposition politique, qui discrètement intervertit quelques mots, donnant un sens totalement différent aux propos.
Garantir une source de données fiable et sécurisée est donc essentiel pour maintenir l'intégrité des résultats. Face au piratage des IA, il est impératif pour les éditeurs de développer des mécanismes de détection des attaques. Vous m’opposerez qu’empêcher le piratage d’une intelligence artificielle qui elle-même, par nature, pirate des données pour s’alimenter, c’est cocasse ? Oui, en effet.
Se pose ensuite un enjeu de déontologie. L’utilisation éthique de l'intelligence artificielle est cruciale. Les professionnels de la communication doivent être attentifs à la manière dont les IA sont déployées, aux données qu’elles exploitent, et veiller à ce que leurs actions ne compromettent pas la confiance du public.
Ces points d’attention ne relèvent pas uniquement de la responsabilité des communicants. Cela concerne également les DSI, les développeurs, les fournisseurs de données et aussi les citoyens, qui n'hésitent pas à partager sur les réseaux sociaux tout et n'importe quoi, sans vérification préalable.
Cela ne doit pas pour autant vous décourager de découvrir les potentialités réelles de l’intelligence artificielle. Mais il va vite devenir urgent d’y mettre un pied et de bien regarder où on le pose.
Il s’agit donc d’ores et déjà de s’acculturer, de comprendre et de se former !
Illustration : « un mouton ahuri observe un vol de gants de toilette dans une prairie », générée par l’intelligence artificielle d’Adobe Firefly.