Les I.A. et le micro-ciblage politique.

Comment communiquer efficacement un message ?

Cette question a hanté, et hante encore aujourd’hui, tous les propagandistes, les communicants et ça depuis plus d’un siècle, depuis le début de l’air de la communication de masse. Et voilà bien tout le problème… La communication de masse

Une communication unique, qui voudrait s’adresser à la masse comme à une personne. Si les pionniers de la discipline, les Ivy Lee, Edward Bernays, ou si l’on remonte plus loin, les Gustave Le Bon traitaient la foule comme une entité unique, le temps et l’expérience en matière de communication à démontré une chose… Cette foule, en réalité, est composée d’une multitude d’individus. 

Avec le temps, et notamment l’apparition d’outils comme internet, grâce auxquels chacun peut tenter de porter sa propre voix, l’opinion populaire s’est mise à organiser sa propre division cellulaire. Les groupes d’individus à convaincre sont de plus en plus petits, précis et nombreux. Si cela peut paraître évident, ça ne l’a pas toujours été.

Pendant longtemps, que ce soit pour vendre de la lessive ou obtenir un vote, c’est souvent à l’ensemble de la population qu’il convenait de s’adresser, essayant d’avoir un message unique permettant de convaincre un maximum de monde. Et, évidemment, on voit très vite le problème. Mises à part quelques campagnes relativement brillantes, qui sont plus de l’ordre de l’exception que de la règle, adresser un message unique à une masse entière est d’une efficacité toute relative. 

C’est ce qu’on permis de corriger, petit à petit, les évolutions technologiques et sociales. Les chaînes de télé se sont démultipliées, ainsi que les coupures publicitaire. Alors, les marques choisissent le créneau de diffusion le plus adapté au public qu’ils cherchent à viser. On ne va pas avoir les mêmes pubs sur BFM à 7h du matin que sur France 2 à 15h30. 

Et, même si cela permet un ciblage légèrement plus fin du message, on reste sur un message commun pour tous. Sans parler du fait que ces messages souffrent atrocement de clichés de plus en plus dépassés (RIP la fameuse ménagère de moins de 50 ans).

Et puis, soudain, les réseaux sociaux sont apparus.

Sans vraiment s’en rendre compte, en tous cas, au début, nous les avons nourris de nos goûts et de nos personnalités, au point d’arriver à un stade où ces plateformes sont plus compétentes pour évaluer notre personnalité que notre entourage le plus proche

Cette connaissance que possèdent les plateformes sur notre identité permet un outil que même les propagandistes les plus fourbes du 20ème siècle n’auraient que difficilement pu rêver. Le micro-ciblage. Autrement dit, la capacité d’adresser un message à un sous-groupe d’individus extrêmement précis. On l’a vu par exemple dans l’article sur la désinformation propagée par des groupes anti-IVG, et cela a été confirmé par les commentaires de certaines d’entre vous : il est maintenant possible de ne s’adresser qu’à un public concerné par le message. Dans le cas de la propagande anti-IVG, cela devient extrêmement fourbe, étant donné que le message n’atteint qu’une audience très restreinte concernée par le sujet, et que, par conséquent, le reste de la population ne voit pas passer ce message et n’a pas conscience de l’existence d’opérations d’influence.

Ce micro-ciblage chirurgical a été la révolution, en termes de communication, de la décennie précédente. Et notamment de la communication politique. L’entreprise qui a popularisé cette pratique, c’est Cambridge Analytica, qui a géré les campagnes de communication, entre autre, de l’élection de Trump en 2016 et du Brexit.

Conférence d’Alexander Nix, ancien PDG de Cambridge Analytica.

Le génie, dont certains qualifieraient de maléfique, de Cambridge Analytica, a été de se servir des données que possèdent les plateformes, en l’occurrence Facebook, et de les mêler aux sciences du comportement et à la publicité ciblée, pour développer un micro-ciblage d’une précision inédite.

C’est cette révolution qu’a popularisé Cambridge Analytica, la capacité à s’adresser à des niches de plus en plus précises, et d’adapter un message en fonction de ça. Pour ce qui est de l’efficacité réelle de leurs campagnes, c’est assez difficile à estimer. Et notamment parce que multiplier les groupes à qui on s’adresse, avec le plus de précision possible, c’est bien, mais ça veut également dire multiplier les messages. Produire toujours plus de contenu pour adapter un discours aux personnes à qui on s’adresse. Et plus on joue du micro ciblage, plus on augmente le contenu à produire. On ne parle plus simplement de créer une dizaine de versions différentes d’un même message, non. Là l’idée c’est d’aller bien plus loin.

Et, à l’époque de Cambridge Analytica en tous cas, ce travail aurait été titanesque, aurait demandé une foule d’employés et, en toute logique, aurait coûté très cher. Mais notre décennie voit l’apparition d’une nouvelle révolution. Les IA génératives, ces GPTs et compagnie, capables de générer texte, images et même vidéo, de façon de plus en plus convaincante.

Et puis, soudain, les I.A. sont apparues.

Imaginez que l’on puisse intégrer à ces modèles des critères déterminants de personnalité d’une audience visée pour leur apprendre à générer un contenu adapté, non plus à un groupe, mais à l’individu lui-même. 

C’est ce qu’a voulu étudier un groupe de recherche dans un papier publié en février 2024 dans PNAS Nexus, une revue scientifique de l’académie des sciences américaine. L’étude est intitulée “L’influence persuasive du micro-ciblage politique à l’ère de l’intelligence artificielle générative”

Les chercheurs partent du principe, plusieurs centaines d’études à l’appui, que la capacité de Facebook à déterminer des traits de personnalité d’un utilisateur n’est plus à démontrer. En revanche, l’impact d’un message personnalisé, lui, est encore quelque chose de flou. Les effets présupposés du micro-ciblage avancés par Cambridge Analytica sont impossibles à vérifier et d’autres études, citées dans celle-ci, n’arrivent pas à déterminer significativement l’impact d’un microciblage dans le cadre d’un message politique par rapport à une communication identique pour tous. L’actuel consensus mis en avant dans cette étude, c’est surtout que ce microciblage peut appuyer des opinions préexistantes et inciter les gens à voter (augmenter la participation électorale).

Pourtant, depuis quelques années, ce sujet est de plus en plus étudié, et des résultats viennent montrer que l’efficacité du microciblage s’est accrue. Peut-être aussi parce que les techniques sont de plus en plus pointues… Et justement c’est là qu’intervient cette étude. La révolution technique de ChatGPT inquiète sur la possibilité que ces modèles de langage facilitent et amplifient grandement le microciblage et les stratégies d’influence.

Pour évaluer l’impact d’un message adapté à la personnalité de l’individu qui le recevra, les chercheurs se sont concentrés sur un trait de personnalité. Ils ont repris le modèle popularisé par Cambridge Analytica, le Big Five, un modèle qui tente de caractériser une personnalité en mesurant 5 traits en particulier. L’ouverture à l’expérience, la conscienciosité, l’extraversion, l’amabilité et le neuroticisme. Bon, je ne vais pas rentrer dans les détails plus que ça, ça n’est pas vraiment le sujet ici. Ce qui est intéressant à savoir, c’est que ce modèle n’essaie pas de ranger une personnalité dans une de ces cases, mais au contraire, veut mesurer le degré de chacun de ces traits pour déterminer une sorte de personnalité à cinq facteurs.

Pour mener leurs expériences, le groupe de recherche s’est concentré sur le trait de caractère d’ouverture à l’expérience. En gros, l’idée c’est de se demander si adapter un message en fonction de ce trait peut avoir un impact sur sa perception. Pour mesurer l’impact de ce trait dans des messages politiques, les chercheurs ont utilisé de vraies publicités récupérées sur Facebook. À l’aide d’un modèle de langage, ils ont attribué un score d’ouverture à chaque publicité.

Ensuite, les participants ont été amenés à évaluer à quel point les publicités présentées étaient persuasives, avant de répondre à un questionnaire de personnalité dont le but était de mesurer ce fameux trait de caractère d’ouverture à l’expérience.

Ces deux données mises en parallèle ont permis aux chercheurs de constater qu’ils étaient sur la bonne voie. En effet, plus la publicité présentée à un participant avait un score d’ouverture éloigné du sien, moins elle était perçue comme convaincante.

Bon, ok, il est temps de passer à la phase suivante, de refaire la même mais avec des messages générés automatiquement. Pour ça, les chercheurs ont utilisé ChatGPT. Ils ont récupéré des publicités existantes et demandé au modèle de langage de les reformuler en fonction de ce trait d’ouverture. Voilà leurs instructions au modèle :

“Une façon dont les individus diffèrent les uns des autres est à travers leur personnalité. Le modèle de personnalité des big five Identifie cinq traits de personnalité sur lesquels chaque individu varie. L’un des traits est l’Ouverture à l’expérience. L’ouverture à l’expérience a à la fois des composantes motivationnelles et structurelles. Les personnes fortement ouvertes à l’expérience sont motivées à rechercher de nouvelles expériences et à s’engager dans l’autoréflexion. Les personnes peu ouvertes à l’expérience, en revanche, sont plus à l’aise avec des expériences familières et traditionnelles.

Veuillez reformuler la publicité suivante de manière à ce qu’elle soit attrayante pour les personnes fortement [OU] peu ouvertes à l’expérience.”

L’objectif est donc de générer deux versions d’un même message, une version peu et une version très ouverte à l’expérience. Enfin, ce contenu généré automatiquement à été présenté à des participants. Et les résultats sont assez parlant, les publicités générées paraissaient plus persuasives lorsque le score d’ouverture du participant était cohérent avec celui de la publicité.

Mais ce résultat reste à nuancer. Parce que le groupe de recherche précise une chose importante, c’est que les tailles d’effet observées sont plutôt faibles. Selon eux, ce qui rend ce micro-ciblage assisté par IA efficace, c’est la capacité à être déployé à grande échelle. Si, sur un petit échantillon, les résultats peuvent sembler timorés, ils peuvent devenir, je cite, ‘substantiels à grande échelle”. Et c’est justement cette automatisation à grande échelle que permettent aujourd’hui les modèles de langage. (À noter également que dans leur étude, il s’agissait de versions antérieures de ces modèles. L’expérience avec GPT-3 a obtenu des résultats à peine significatifs là où dans l’expérience suivante, similaire mais avec ChatGPT3.5 Turbo, les résultats étaient eux plus significatifs. Et on le voit bien, les modèles de langages s’améliorent très rapidement.)

Aussi, l’expérience, en ne se concentrant que sur un trait de caractère, et en ne générant que deux versions d’un même message, peu ou très ouvert, fait plutôt office de proof of concept (vous me pardonnerez l’anglicisme). Dans un article précédent, nous explorions le fonctionnement de CounterCloud, un projet de recherche d’un système de génération automatique et sacrément complet, de désinformation. Countercloud avait intégré un nombre assez complexe de paramètres à son système, avec une capacité de nuance qui dépassait largement le “très” ou “peu”.

Il n’est pas complètement hallucinant, dans le cadre du micro-ciblage politique assisté par IA, d’imaginer des instructions complexes, mais finalement assez simples à mettre en place, prenant en compte les cinq critères du big five, et bien d’autres d’ailleurs, avec plus de finesse que “très ouvert” ou “peu ouvert”. C’est-à-dire de véritables curseurs numériques avec une échelle de 1 à 10 sur chacun des traits de caractère identifiables et définissables. Avec, en entrée, un module chargé de définir les scores d’un utilisateur sur chacun de ces paramètres, grâce aux infos disponibles sur lui. Au milieu, un message politique, ou même juste publicitaire, à transmettre. Et en sortie, un module qui récupère tous les scores pour définir chaque curseur, afin de convertir le message de la manière la plus optimale possible.

Dans leur papiers, les chercheurs s’inquiètent de l’impact même de leur étude.

Face au potentiel préjudice d’une manipulation micro-ciblée à grande échelle, on pourrait craindre que le fait de discuter et de rechercher des stratégies de manipulation, comme nous l’avons fait ici, ne favorise involontairement leur utilisation, ce qui pourrait causer encore plus de dommages. Cependant, nous pensons qu’il est essentiel de fournir des preuves scientifiques aux régulateurs, aux décideurs politiques et au public pour qu’ils puissent prendre des décisions éclairées sur la manière de contenir de tels risques. Bien qu’il existe une possibilité que des acteurs malveillants puissent abuser de nos recherches, nous estimons que les avantages de contribuer à un discours public solide et soutenu par la science dépassent largement ce risque.

C’est un risque qui existe, bien qu’il y a fort à parier que des utilisations malveillantes de ce genre d’outils n’ont sûrement pas attendu de publications scientifiques pour se développer. En revanche, on peut peut-être s’attendre à ce que des agences de communication s’en empare pour aller vanter les possibilités de cette technologie dans le cadre d’une campagne politique, preuve scientifique à l’appui. C’est un peu ce qui s’était passé lorsque l’agence française BVA avait promu l’utilisation des Nudges, publications à l’appui, à Macron pour sa première campagne présidentielle.

Bon, on ne va pas tomber des nues non plus. Montrer qu’un message personnalisé, écrit en fonction de divers traits de personnalité, est relativement plus persuasif n’est pas non plus une révolution intellectuelle. Instinctivement, avec un peu de flair, on pouvait s’en douter…

Du côté des plateformes, on peut s’attendre à ce qu’elles ne veuillent pas d’un nouveau scandale à la manière de Cambridge Analytica. Certaines prétendent agir, comme le groupe Meta qui a annoncé imposer la transparence lors de l’utilisation d’images générées par IA dans le cadre de campagnes politiques, ainsi que la fin de la recommandation de contenu politique sur Thread et Instagram.

D’un autre côté, l’Union Européenne veut imposer plus de transparence et responsabiliser les plateformes d’ici 2025, en les obligeant à indiquer clairement lorsqu’une publicité est à visée politique.

Alors, s’il y a lieu de s’interroger à ce sujet, l’avenir ne s’annonce pas non plus si chaotique qu’on pourrait l’entendre. Tout simplement, parce qu’au fond, ben… on n’est pas si bêtes…

Dans leur étude, les chercheurs évoquent d’autres articles qui remettent en question l’efficacité des publicités lorsque l’audience a conscience des pratiques de ciblage inacceptables, comme l’utilisation de données externes ou d’informations déduites sans leur consentement. En parallèle, d’autres recherches ont montré qu’il est possible de détecter automatiquement des pratiques de micro-ciblage. Pour les auteurs:

“Il serait possible d’identifier les cas où la correspondance de personnalité semble précise de manière suspecte. On pourrait ensuite alerter l’utilisateur d’une potentielle manipulation. Cette intervention promouvrait la transparence et l’autonomie des utilisateurs en les avertissant lorsque les publicités semblent « trop belles pour être vraies » en termes de correspondance de personnalité.”

Les I.A. sont toutes nouvelles, mais explosent comme jamais nous n’avons vu de technologie apparaître et chambouler énormément de choses sur son passage. Chaque semaine apporte son lot de surprises. Au moment où j’écris cette partie, OpenAI, la maison mère de ChatGPT vient de dévoiler Sora, son IA de génération de vidéo. 

Avec le boom des IA, le législatif ne peut pas se permettre d’avoir 10 ans de retard. Les impacts sont immédiats, et les utilisations malveillantes ne se font pas attendre. Aux Etats-Unis, il a fallu que ce soit leur plus grande star, sacrée personnalité de l’année par le Times, Taylor Swift, qui soit victime de deepfake pornographique pour que la question du législatif se pose enfin. Pratique qui a explosé en 4 ans, +550% d’après France Info, et qui vise, d’après l’association Deeptrace à 99% des femmes, voir des jeunes filles. 

A ce propos, en France, on a un peu d’avance sur les Etats Unis, étant donné qu’un amendement a été adopté l’année dernière dans le cadre du Projet de loi visant à sécuriser et réguler l’espace numérique, condamnant à 2 ans de prison et 60 000€ d’amende la publication de deepfake pornographique. 

Pour ce qui est du micro-ciblage, je conclurai avec ce passage de l’étude : 

“Si la sensibilisation au micro-ciblage est précieuse, elle ne peut à elle seule résoudre les problèmes liés aux déséquilibres d’information et de pouvoir entre les plateformes et les utilisateurs. Pour promouvoir un paysage numérique équitable et juste, il est essentiel de concevoir un internet pour la démocratie, en privilégiant la transparence et l’autonomisation des utilisateurs sur les entreprises à but lucratif “

Pour aller plus loin sur le sujet :

L’étude en question
https://academic.oup.com/pnasnexus/article/3/2/pgae035/7591134?login=false

L’étude à propos des connaissance des RS sur les individus
https://www.pnas.org/doi/10.1073/pnas.1418680112

Sur le contenu politique sur Meta
https://about.instagram.com/fr-fr/blog/announcements/continuing-our-approach-to-political-content-on-instagram-and-threads
https://www.strategies.fr/actualites/culture-tech/LQ2544597C/meta-interdit-lutilisation-de-ces-outils-de-dia-pour-les-publicites-politiques.html
https://www.francetvinfo.fr/internet/intelligence-artificielle/intelligence-artificielle-meta-veut-labelliser-les-contenus-generes-par-ia-pour-lutter-contre-la-desinformation_6349231.html

L’UE veut réguler la pub politique sur les RS
https://www.consilium.europa.eu/en/press/press-releases/2023/11/07/transparency-and-targeting-of-political-advertising-eu-co-legislators-strike-deal-on-new-regulation/
L’amendement à propos des deep fakes
https://www.senat.fr/enseance/2022-2023/778/Amdt_128.html

Sur le cas Taylor Swift
https://www.francetvinfo.fr/replay-radio/le-monde-est-a-nous/aux-etats-unis-les-deepfakes-de-taylor-swift-vont-ils-declencher-une-modification-de-la-loi_6303519.html

La série sur les Algorithmes
https://www.youtube.com/watch?v=d8yKfp1moDQ&list=PLBuP2tNW75r43k15BjAl0UgV_N6rP774n

La vidéo sur CounterCloud
https://youtu.be/_dhNXIvL09w

Les conférences d’Alexander Nix pour Cambridge Analytica
https://www.youtube.com/watch?v=6bG5ps5KdDo
https://www.youtube.com/watch?v=n8Dd5aVXLCc

Article précédent

Squeezie et l’art du verrouillage médiatique

Article suivant

Mystère autour d'Ophenya, l'application Crush, et son e-réputation

Articles Similaires