Ces derniers mois, plusieurs élues se sont insurgées. Quel que soit le sujet abordé, leur contenu politique est majoritairement diffusé, sur les réseaux, à des publics masculins. Rien de surprenant. Tout cela est, depuis quelques années, bien documenté. On pourrait vouloir crier au complot. Même pas. Il ne s’agit ici que de mathématiques algorithmiques.

Les plateformes ne programment pas (directement) le sexisme, elles programment la performance. Leur obsession : maximiser le temps passé et l’engagement. Or, dans nos sociétés traversées par des biais culturels bien réels, cette logique produit mécaniquement ce qu’on appelle des effets de renforcement. L’algorithme apprend vite, très vite, ce qui déclenche clics, commentaires et partages. Il se fiche de l’équité dans la visibilité politique ou l’importance d’un débat. Pourvu qu’on amplifie ce qui fonctionne déjà.

Les systèmes de recommandation, qui segmentent l’audience en fonction des signaux d’engagement prédits, tendent à plus largement cibler les segments masculins lorsqu’il s’agit de contenus féminins et politiques parce que les algorithmes ont compris que, face à ce type de contenu, les segments hommes génèrent plus d’interactions, le plus souvent sexistes, des commentaires déplacés, parfois des menaces. Et cela déplace le débat du fond vers le corps, de l’idée vers la personne.

Quand la performance algorithmique amplifie les biais de genre

Le sujet, qui dépasse largement les clivages politiques, touche en réalité une question plus fondamentale encore : quel est l’impact réel des algorithmes sur la démocratie quand leur unique boulot est d’optimiser l’attention ?

La visibilité politique sur les réseaux sociaux dépend majoritairement de ce qu’on nomme « ranking algorithmique ». En gros, sur quoi on mise et qui va le plus réagir à quoi ? Plus de 70 % de la visibilité des contenus politiques sur les grandes plateformes provient de la recommandation algorithmique et non de la recherche volontaire. Autrement dit, ce que nous, utilisateurs, voyons, dépend considérablement plus de ce qui nous est montré que de ce que nous cherchons.

Et en période électorale, ça devient problématique. Tout est déséquilibré, à commencer par la représentation. Ce mécanisme purement basé sur l’attention crée des bulles d’exposition asymétriques, fragilise certaines voix, en surexpose d’autres. Celles et ceux qui ne correspondent pas aux profils historiquement favorisés par l’économie de l’attention payent parfois très cher leur prise de parole.

Selon le rapport d’Amnesty International de 2023, les contenus politiques publiés par des femmes génèrent jusqu’à 2 fois plus de commentaires abusifs lorsqu’ils sont diffusés prioritairement à des publics masculins.

La conséquence ? Les femmes politiques se retirent des plateformes. 38 % des femmes engagées en politique déclarent avoir réduit ou abandonné leur présence en ligne en raison du harcèlement algorithmique. Ce taux chute à 17 % chez les hommes (UNESCO & International Center for Journalists, “The Chilling Effect”, 2021)

À l’ère des algorithmes, protéger la démocratie consiste à lutter contre la désinformation, oui, mais pas que. Cela consiste aussi à garantir que personne ne soit invisibilisé(e), surexposé(e) ou rendu(e) vulnérable par défaut, au nom de performances.

Vers une démocratie algorithmique en période électorale

Nous nous limitons à exiger plus de modération humaine et plus de transparence déclarative, ce qui est nécessaire, mais insuffisant. Il existe pourtant des mesures réalistes, réalisables et compatibles avec le règlement sur les services numériques de la Commission européenne (DSA) qui amélioreraient structurellement l’état de fait.

Comme, au hasard, un mode de diffusion électorale distinct. Les grandes plateformes activeraient, en période électorale, une logique de recommandation spécifique aux contenus politiques. Très concrètement, il s’agit de remplacer un objectif par un autre. Pour les contenus non politiques, la recommandation serait axée sur l’engagement brut (modèle actuel). Pour les contenus politiques en période électorale, la recommandation serait axée, par exemple, sur l’équité et le pluralisme.

Séparer logique commerciale et logique démocratique

Concrètement, on distingue dans la recommandation la logique commerciale de la logique politique ; ce qui n’est tout bonnement (comment c’est possible ?) pas le cas aujourd’hui. La bonne nouvelle, c’est que c’est techniquement assez simple à exécuter. On parviendrait ainsi à plafonner la surexposition d’un même profil, à garantir une exposition minimale aux comptes politiques identifiés et surtout, à lisser la distribution par genre, territoire et courant politique ; tout ça sans regarder le taux de clics comme indicateur principal.

Notons à ce stade que les plateformes savent parfaitement identifier les contenus politiques ne serait-ce que la modération renforcée ou tout simplement pour le respect du DSA. Resterait à établir une autodéclaration du compte du candidat, d’une classification NLP par thèmes et mots-clés (c’est la manière dont une machine range des textes dans des catégories en lisant leur langage) et des signaux contextuels (comme la période électorale ou la géolocalisation). Les briques proposées pour élaborer un système de recommandation alternatif existent aussi. Là encore, pas de difficulté technique nouvelle.

Imposer des règles claires aux plateformes en période électorale

Ces règles, qui seraient temporelles (sur les périodes électorales uniquement), circonscrites (contenu politique uniquement) et surtout (et c’est le nerf de la guerre) auditables. Les autorités compétentes et les tiers de confiance pourraient mesurer les métriques clés comme le taux d’exposition par genre, par catégorie politique, par territoire et par période, de sorte qu’elles soient vérifiées par les autorités compétentes. Là seulement, nous toucherions du doigt la démocratie algorithmique.

Tout cela évidemment sans éroder la santé économique des plateformes. N’en seraient affectés ni les feeds, ni les contenus de divertissement, ni (par tous les saints !) la publicité commerciale. Alors que les élections locales sont souvent présentées comme les plus proches des citoyens, elles deviennent, dans l’espace numérique, les plus distantes, les plus filtrées et les plus déformées.

J’entends déjà les « elle ne va pas non plus demander aux GAFAM de faire de la politique ! » Justement, c’est tout le contraire. Je leur demande de ne pas la faire à notre place. En revanche, les plateformes laisseront les algorithmes commerciaux dicter la danse électorale sur les réseaux tant que nous, citoyens, n’exigeons rien de plus que l’état actuel des choses. Finalement, peut-être que tout va bien.