La démocratie, otage des algorithmes (par J.-L. Missika et H. Verdier)

Dans cet article publié par la revue en ligne Telos1, Jean-Louis Missika et Henri Verdier2 s’interrogent sur le recours dans le champ politique à des algorithmes mis au point par le marketing numérique. Usagers du web, nous recevons quotidiennement des messages « calés » sur ce qu’une intelligence artificielle « trouve » que nous aimerions voir, entendre, faire, acheter et même plus… si affinités, nous divisant ainsi en « segments » et s’adressant en nous à ce qui est susceptible de prédétermination. Leurs propositions n’ont cure de ce que nous pourrions penser, elles ne nous offrent que ce que nous sommes censés attendre ; elles ne s’exposent pas à la discussion, mais enjoignent des comportements. Le débat et le projet politique seraient-ils réductibles à des demandes calculables qu’il faudrait contenter secteur par secteur ? Ne relèvent-ils pas de sujets libres en relation dialogique inépuisable, délibérant de la conduite et des fins d’une commune association politique ?

« Que devient la démocratie si une campagne électorale cesse d’être ce moment où la communauté nationale, par le débat public et la controverse, décide collectivement de son destin ? Si elle devient la résultante de stratégies d’investissements publicitaires fondées sur un micro-découpage de l’opinion et des micromanipulations quotidiennes ? Que devient, même, la Nation ? »

Et si le politique vise la pure et simple satisfaction, c’est une étouffante conception de l’être humain comme case à remplir, aspirant à un gouvernement des choses, qui se révèle alors.

Article publié par la revue en ligne Telos le 5 juin 2021, repris ici avec l’aimable autorisation de la revue et des deux co-auteurs que je remercie vivement. Voir la publication d’origine.
Attention le texte ci-dessous n’est pas libre de droits3.

Il s’appelle Brad Parscale, ancien responsable de la campagne numérique de Donald Trump. Dans une interview au Guardian, il explique qu’il publiait en moyenne « 50 000 à 60 000 variantes d’un message publicitaire sur Facebook, chaque jour »4. Lawrence Lessig nous demande de nous arrêter un instant sur ce chiffre5. Seule une machine peut produire 50 000 variations d’une publicité chaque jour. Pour Lessig, Parscale utilisait une technologie, devenue classique, où l’intelligence artificielle fabrique des messages qui produisent les réponses voulues par l’émetteur. L’objectif de ces milliers de micro-variations est de trouver, pour chaque lecteur, la formulation la plus efficace pour provoquer une réaction : un don, un clic, un like, un partage, ou bien sûr un vote.

La liberté d’expression, comme nous l’entendions jusqu’à présent, reposait sur l’idée que des humains parlaient à d’autres humains. Il y a toujours eu une asymétrie entre ceux qui parlent et ceux qui écoutent, mais cette asymétrie demeurait dans le cadre de l’humanité. Qu’en est-il de cette asymétrie quand ce sont des machines et des algorithmes qui s’adressent aux humains ? Quand les humains qui reçoivent les messages n’ont aucune idée de ce que les machines savent sur eux et de la raison pour laquelle ils les reçoivent.

En 2016, la société Cambridge Analytica innovait en permettant aux organisateurs de la campagne du Brexit d’élaborer et diffuser dans une quinzaine de communautés des messages anti-européens ciblés (“L’Europe, c’est l’impôt”, pour la City, “L’Europe c’est le chômage” et “l’immigration” pour les ouvriers et les chômeurs du nord, “les quotas de pêche” pour les pêcheurs, « la fermeture des services de la NHS » pour les malades), alors que les “remainers”, qui défendaient le maintien dans l’Union Européenne, tentaient de proposer un discours unique, global et cohérent.

C’est ainsi que la vie politique change de nature. L’agenda de la campagne électorale compte beaucoup moins. La bataille pour le contrôler perd de son importance. Il y a encore des débats ou des échanges d’arguments entre responsables politiques, mais l’important se passe en-deçà ou au-delà de l’espace public. Comme le souligne Lessig : « L’économie moderne de la liberté d’expression n’est pas pilotée par des éditeurs qui cherchent à publier ce que leurs lecteurs pourraient comprendre, mais par des machines qui fabriquent un discours fondé sur le comportement que l’on désire obtenir. Dans la plupart des cas, ce comportement est simplement commercial : cliquer sur une publicité. De façon plus préoccupante, ce comportement va parfois au-delà du commercial : prendre d’assaut le Capitole ».

Un nouvel espace civique, artificiel et fragmenté

Que devient la démocratie si une campagne électorale cesse d’être ce moment où la communauté nationale, par le débat public et la controverse, décide collectivement de son destin ? Si elle devient la résultante de stratégies d’investissements publicitaires fondées sur un micro-découpage de l’opinion et des micromanipulations quotidiennes ? Que devient, même, la Nation ? La fragmentation de la communauté nationale en de multiples cibles, l’envoi de messages spécifiques à ces micro-segments, dans le secret et sans contradiction, interdisent une réelle délibération politique, préalable au vote. La démocratie est née dans l’agora. Elle a besoin d’un espace public qui soit réellement public. Le microciblage et la publicité politique personnalisée désintègrent l’espace public.

Certes le RGPD (règlement général sur la protection des données) et l’interdiction de la publicité politique protègent l’Europe de certaines de ces pratiques. Un parti politique français ne pourrait pas constituer une base de données de près de 200 informations différentes sur 80 % du corps électoral pour cibler ses messages, comme le font tous les candidats à la présidentielle américaine. Mais cette protection est largement insuffisante. Les réseaux sociaux et les moteurs de recherche dessinent le territoire numérique dans lequel nous évoluons, sans possibilité d’en sortir, ni, bien sûr, de débattre collectivement des règles du jeu pour choisir celles que nous accepterons. Il ne s’agit pas seulement de publicité : leurs algorithmes nous proposent nos “amis”, filtrent les contenus qui nous sont présentés, choisissent, sur YouTube, les “deuxièmes” vidéos proposées, ou, sur Facebook, les 12% seulement de contenus de nos amis qui sont visibles. Sur Tik Tok, ils sélectionnent les vidéos non datées qui sont proposées, quand nous cherchons un hashtag.  Ils nous constituent en cohortes pour les annonceurs. Et la somme de ces décisions construit une camisole algorithmique propice aux stratégies d’influence politique invisibles dans l’espace public. Cette machinerie peut fonctionner malgré l’interdiction de la publicité politique. Les manipulateurs peuvent adresser des messages non publicitaires, ou non politiques, à des communautés identifiées comme potentiellement réceptives. La société Cambridge Analytica a amplement raconté la manière dont elle a inversé le cours d’une élection à Trinidad et Tobago grâce à une campagne de promotion de l’abstention, dont elle savait qu’elle aurait un impact différencié selon les ethnies. Les hackers et les bots d’Evgueni Prigojine sont très friands de la thématique de la défense des animaux, par exemple. Et nous ne sommes qu’au début d’un processus dont les perspectives sont vertigineuses. Une expérience de psychologie sur les « deepfake » a montré qu’en croisant légèrement les traits d’un homme ou d’une femme politique avec ceux d’une personne, cette dernière trouve le politique plus sympathique et est plus encline à lui accorder sa confiance. Qu’est-ce qui empêchera de concevoir une stratégie présentant à chaque électeur une image du candidat légèrement mêlée à la sienne ?

Les nouvelles règles du jeu politique

Sans aller jusqu’à ces scénarios extrêmes, pourtant probables, la publicité ciblée et les algorithmes changent déjà en profondeur les règles de la vie politique. Avec quelques millions d’euros d’investissements, il est possible d’influencer significativement le résultat d’une élection dans de nombreux pays. Nous verrons de telles tentatives lors de l’élection présidentielle française de 2022.

Créer de fausses identités pour infiltrer des communautés, créer de faux médias pour donner au mensonge l’apparence d’une information vérifiée, produire de fausses informations, fondées sur de fausses preuves quasiment indétectables, le “faire paraître vrai” a changé de nature avec les réseaux sociaux et l’intelligence artificielle. Il s’est sophistiqué et éloigné des techniques rudimentaires de la propagande. Ce qu’on appelle à tort “post-vérité”, n’est rien d’autre que ce changement de registre du “vraisemblable” et de sa mise en forme.

De nombreux groupes militants jouent de ces cartes. C’est regrettable : ils affaiblissent la démocratie. Mais surtout, parce qu’un petit groupe d’États ont théorisé l’importance de la “guerre informationnelle”, et adapté les anciennes méthodes des “opérations psychologiques”, certaines de ces opérations sont de véritables ingérences d’États étrangers. Si la démocratie est parfois affaiblie par les usages militants des réseaux sociaux, elle est menacée en son cœur lorsqu’un État tente d’inverser le résultat d’une élection, et donc de changer l’expression de la volonté du peuple souverain.

Nous sommes aujourd’hui dans une situation inédite où les principes énoncés par John Stuart Mill sur la liberté d’expression semblent atteindre leurs limites. Il n’est plus vrai que c’est grâce au débat d’idées ouvert que l’on peut combattre les opinions erronées, quand ces opinions sont fabriquées à grande échelle par des machines. La liberté d’expression renvoie à l’idée d’un espace public ouvert et transparent, où tous les messages sont potentiellement visibles et critiquables. Dans l’univers numérique contemporain, cette condition n’est plus réalisée. Non seulement le micro-message nourrit une cible spécifique, mais il l’isole du reste de la communauté. Il n’a pas vocation à être discuté, au contraire même, il a vocation à ne pas être débattu. Le message n’est pas une opinion, mais une fiction dont l’objectif est de stimuler l’aversion pour l’adversaire. La théorie conspirationniste du « Pizzagate » affirme ainsi l’existence d’un réseau de pédophilie organisé par l’ancien directeur de campagne d’Hillary Clinton, et situé dans une pizzeria de Washington. Ce n’est pas une opinion politique que l’on peut discuter, elle a pourtant des effets politiques considérables qui sont allés jusqu’au mitraillage de la pizzeria désignée. Comme le montre Giuliano da Empoli dans Les Ingénieurs du chaos6, les gaffes, les frasques et les excès des Trump, Bolsonaro, Salvini et autres Orban ne sont pas des dérapages. Ils ressortissent à une stratégie visant l’amplification par les réseaux sociaux et la résonance maximale dans de petites communautés isolées par les bulles de filtre. L’algorithme est le collaborateur zélé du démagogue. Le phénomène Qanon en est une illustration extrême.  Ce mouvement ne s’appuie pas sur une rhétorique extrémiste, comme le Tea Party. Certains ont même souligné à quel point il ressemble beaucoup plus à un gigantesque jeu vidéo7 . Chaque joueur se voit proposer, non pas un discours, mais un rôle dans un immense jeu de rôles. Jouer, s’insérer dans un personnage, avoir le sentiment d’agir, c’est encore plus fort comme stratégie d’engagement politique. Le « jeu » Qanon bénéficiait d’un propagandiste de taille, Donald Trump et ses 80 millions d’abonnés, et d’une amélioration substantielle des règles du jeu, puisque le scénario, comme dans les meilleures sessions de Minecraft, était quotidiennement écrit et réécrit par les joueurs eux-mêmes. Cette « gamification » de la politique est aussi ce qui distingue le nouveau régime des campagnes électorales.

Le nouvel écosystème médiatique de “l’économie de l’attention”

La vie publique se déroule donc aujourd’hui de manière croissante – et plus encore après les confinements successifs dus à la pandémie – dans un univers virtuel et fragmenté. Cet univers ne se résume pas aux seuls géants du numériques. C’est au contraire un écosystème foisonnant qui comprend des plateformes de blog, des plateformes de vidéo comme Youtube (sur lesquelles passent 1,9 milliards d’internautes par mois), des moteurs de recherche (qui déterminent largement l’information “trouvée” sur Internet), des services d’actualité, qui peuvent émaner d’un moteur de recherche (comme Google News), mais peuvent être indépendants (comme BuzzFeed) ou se nicher dans d’innombrables applications (comme les informations proposées par les smartphones), des réseaux sociaux commerciaux (Facebook, Twitter, TikTok, Snapchat, Instagram, etc.), dans lesquels les internautes partagent leurs messages, leurs photos et leurs vidéos, mais aussi des informations de presse (parfois les internautes se révèlent être des robots, et les sites de presse sont faux, créés pour une opération publicitaire, par des militants politiques, ou par un État), des réseaux sociaux militants  (comme Parler, ou Gab, où se réfugient les extrémistes chassés des grands réseaux sociaux), des sites communautaires variés, (Reddit, forums de jeux vidéo, forums confessionnels, 4chan ou le sulfureux 8chan, etc.), des messageries instantanées (WhatsApp, Telegram, Signal…), insensiblement devenues le support de groupes de plus en plus vastes, et le principal canal d’information et de communication pour un nombre croissant de personnes, enfin le “darknet”, terme sensationnaliste créé pour désigner des serveurs Internet qui ne sont pas référencés par les moteurs de recherche, et accueillent la plupart des activités illicites.

Même si quelques acteurs vertueux résistent dans ce paysage, comme Wikipédia ou le réseau social Mastodon, ouvert et décentralisé, qui se présente comme un antidote aux excès des plateformes centralisées, ils ne suffisent pas à inverser la tendance.

L’ensemble de ces services provoquent une somme inouïe de partages de contenus : 1,8 milliards d’utilisateurs quotidiens de Facebook qui partagent en moyenne dix liens par mois, 500 millions de tweets envoyés chaque jour. Cet impressionnant écosystème modifie à son tour celui des médias, qui sont enclins à créer des contenus ayant de bonnes chances de susciter le “buzz” dans les réseaux sociaux, voire parfois à reprendre directement les contenus générés par ces services. Ce nouveau dispositif médiatique, par sa puissance et son agilité, a pris l’ascendant sur l’ancien. En quelques années, la télévision a perdu son statut de média dominant8, les anciens médias qui survivent sont ceux qui réussissent à trouver leur place dans le nouveau dispositif. Celui-ci les absorbe et les transforme.

Sans entrer dans le détail des modèles économiques de ces plateformes, qui peuvent être très différents, il est possible de repérer le principe qui les unit. Il s’agit de bâtir des communautés d’individus à partir de leurs affinités, en accumulant le plus possible d’informations sur ceux-ci, à multiplier les contacts avec ces communautés en leur proposant des contenus qui confortent leur engagement et leur envie de revenir, à enfermer ces communautés dans des bulles pour éviter qu’elles se dispersent. Le simple énoncé de ces principes montre à quel point ils s’opposent au modèle classique de la délibération politique dans les sociétés démocratiques et de la transparence des débats. Pour conforter l’engagement, il faut des contenus qui choquent, qui indignent ou qui divertissent. Selon Avaaz9, 70 % des internautes américains qui cherchent sur Youtube une vidéo sur le réchauffement du climat, tomberont sur une vidéo “climatosceptique”. Youtube conteste ces résultats en arguant qu’aucun internaute ne reçoit exactement les mêmes messages qu’un autre, mais se garde bien de publier les données brutes de ses recommandations. Un tel résultat ne provient pas d’une adhésion aux thèses conspirationnistes. Il vient d’un algorithme de renforcement à qui l’on a demandé de proposer en priorité les vidéos qui provoquent le plus de pulsion à les regarder.

De même, si Facebook a fait scandale en 2017, parce qu’il proposait parmi ses cibles, une catégorie antisémite (« jew haters »), c’est tout simplement parce que ses outils permettent d’identifier des groupes d’individus ayant quasiment n’importe quelle caractéristique : pratique sportive, orientation sexuelle, orientation politique, marques préférées, films préférés, pratiques alimentaires, religion, choix de vacances, possession d’armes, titres de propriété, école des enfants, etc. Il était inéluctable que la puissance et la précision de ces outils attirent des clients politiques.

L’urgence d’une riposte démocratique

Ce panorama inquiétant ne menace pas seulement la vie publique. Les mêmes mécanismes sont à l’œuvre dans la radicalisation et l’extrémisme violent, comme l’a remarquablement démontré la Commission royale10 mise en place par la Nouvelle-Zélande après l’attentat de Christchurch. Ils jouent également un rôle dans les phénomènes de haine en ligne, dans le succès des théories conspirationnistes, probablement même dans des phénomènes de harcèlement.

En matière de vie publique, ils posent de nouvelles questions d’une complexité sans égale. Et les fausses solutions abondent, simples et radicales.  En particulier la tentation, absurde, de “nettoyer” la toile de la haine, de l’erreur ou de la colère, par la censure ou par une improbable police de la pensée. Non seulement ces réponses sont absolument inefficaces, puisque le problème ne vient pas de la parole violente mais de ce nouvel espace public de débat, artificiel et cloisonné, qui isole puis radicalise, mais elles menacent à leur tour les fondements de la démocratie et de l’état de droit. La liberté d’expression est un des droits les plus précieux de l’homme, comme le rappelle notre propre Constitution. Elle ne saurait être la variable d’ajustement pour contrer ces nouveaux périls. Ce problème systémique appelle des réponses systémiques. Le nœud gordien se trouve dans la conception même de ces services numériques, pilotés par un modèle économique bien particulier, celui de l’économie de l’attention. Pour résoudre le problème, il faudra une transformation profonde de la conception de ces services, qui fera nécessairement évoluer leurs modèles économiques. Le chemin a commencé, et la France y tient son rôle, dans sa contribution à la conception du “Digital Service Act” que prépare la Commission européenne, par exemple, tout comme avec l’Appel de Christchurch lancé avec la Nouvelle-Zélande. Mais il sera encore long, et demandera une réelle compréhension de la nature des problèmes, une grande créativité juridique, et beaucoup de détermination politique.

Notes

2 – Jean-Louis Missika est Visiting Senior Fellow, London School of Economics ; Henri Verdier est Ambassadeur pour les affaires numériques, ministère de l’Europe et des Affaires étrangères

3 – Lire le protocole rédactionnel de la revue Telos, qui en a la propriété intellectuelle : https://www.telos-eu.com/fr/protocole-redactionnel/ .

8 – Jean-Louis Missika, La Fin de la télévision, Paris, Seuil/La République des idées, 2006.

Cette entrée a été publiée par le dans Politique, société, actualité, Revue et indexée avec , , , , .

Pour citer cet article

URL : https://www.mezetulle.fr/la-democratie-otage-des-algorithmes-par-j-l-missika-et-h-verdier/ "La démocratie, otage des algorithmes" par Jean-Louis Missika et Henri Verdier, Mezetulle, juin 2021

A propos de Co-auteurs

Wordpress ne permettant pas d'attribuer plusieurs auteurs à un même article, j'ai créé la catégorie "Co-auteurs" pour suppléer (très imparfaitement) à cette absence.
Il n'y a donc rien dans cette rubrique "À propos...", les articles ayant des auteurs divers. Voir les renseignements en cliquant sur le nom de chaque auteur ou sur la note en début d'article.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.