Décryptage par Benoit Zante
21 novembre 2021
21 novembre 2021
Temps de lecture : 5 minutes
5 min
11544

Comment reprendre le contrôle sur les algorithmes ?

Sur la scène de la Maddy Keynote 2021, l’ex-ingénieur de Youtube Guillaume Chaslot dénonce les dérives de ces systèmes de recommandations automatisées et appelle à un éveil collectif sur la transparence des algorithmes.
Temps de lecture : 5 minutes
Partager
Ne passez pas à côté de l'économie de demain, recevez tous les jours à 7H30 la newsletter de Maddyness.
Légende photo :
Maddy Keynote 2021

Article initialement publié le 22 septembre 2021

"Facebook, YouTube, Instagram, TikTok... ces réseaux sociaux ont une chose en commun : derrière, il y a un algorithme, une IA, qui décide de ce que les gens voient" , rappelle Guillaume Chaslot, expert de l’intelligence artificielle et de la data science, passé par YouTube et Google et désormais expert scientifique au sein du Pôle d'Expertise de la Régulation Numérique (PEReN) et fondateur du site AlgoTransparency. Sur YouTube, ce sont ainsi plus de 70% des contenus visionnés qui sont issus de recommandations automatisées. Chez TikTok, c’est la quasi-totalité.

"Faire rester les gens le plus longtemps possible"

Avant de dénoncer les pratiques des plateformes, cet expert de l’IA a justement passé trois ans chez YouTube à Los Angeles à travailler sur les algorithmes de recommandation. Il explique : "On essayait de faire rester les gens le plus longtemps possible. La raison, c'était que plus les gens restent longtemps sur la plateforme, plus ils peuvent voir de publicités et donc plus ça rapporte à la plateforme sur le long terme. On se disait aussi que si les gens restaient, c'est qu’ils devaient être heureux."

Un tel raisonnement a vite montré ses limites : l’algorithme enferme les utilisateurs et utilisatrices dans des bulles de filtres et ne leur montre que les informations supposées pertinentes pour eux. "Les recommandations sont basées sur vos vues précédentes. Par exemple, si vous avez regardé beaucoup de vidéos de chats, l’algorithme va se dire que vous aimez ces vidéos et va proposer naturellement une autre vidéo de chat."

Sortir de ce cercle vicieux devient alors très difficile, à moins d’introduire une part d’aléatoire et de sérendipité dans les algorithmes. Mais les tentatives en la matière n’ont pas convaincu les équipes de YouTube. "On a fait des essais, mais faire des recommandations avec des sujets nouveaux ne permettait pas d'augmenter les durées de visionnage. Du coup, pour augmenter le temps de vue, il fallait enfermer les gens dans des bulles. J’ai essayé de proposer d’autres algorithmes, mais YouTube n’était pas intéressé."

"Les théories du complot génèrent énormément de temps de vue"

Lorsqu’il s’agit de vidéos de chat, les conséquences de telles bulles sont heureusement limitées. Mais qu’en est-il lorsqu’il s’agit de vidéos complotistes ? "C'est un des biais des algorithmes : les théories du complot génèrent énormément de temps de vue. Il y a eu d'autres biais qui ont été démontrés, par exemple avec le contenu pédophile sur YouTube" . Un constat qui vaut aussi pour les autres plateformes, comme Facebook et TikTok, qui ont aussi leurs lots de scandales liés aux algorithmes de recommandation.

Le fondateur du site AlgoTransparency pointe du doigt deux problèmes inhérents à la façon dont sont construits ces algorithmes : la polarisation (ils ont tendance à recommander des contenus extrémistes, parce qu’ils sont plus efficaces pour booster le temps de visionnage) et la diffusion de fausses informations (ils ne se préoccupent pas de savoir si les contenus sont vrais ou faux). "Il est beaucoup plus facile de produire un contenu viral avec de la fiction qu'en prenant un événement réel" , reconnaît-il.

Pour ce repenti de la Silicon Valley, ces biais algorithmiques tiennent à deux "oublis" lors du design de ces algorithmes : la méthode scientifique et la dialectique. "Ce que YouTube et TikTok font, c’est de recommander la même chose encore et encore, sans permettre de faire un débat constructif.”

"Faire une nouvelle startup, ça ne marchera pas"

Mais comment lutter efficacement contre ces biais ? "Faire une nouvelle startup en disant qu’on va faire un meilleur produit, ça ne marchera pas. Le business model de ces boîtes, c’est le revenu publicitaire. Donc pour battre Facebook et TikTok, il faut faire des produits plus addictifs, faire passer plus de temps aux utilisateurs en ligne. C’est d’ailleurs ce que Tik Tok a fait par rapport à Facebook : il a réussi à être plus addictif et à faire passer plus de temps aux enfants sur son application. Surtout, il a trouvé des enfants plus jeunes, qui s’y mettaient plus tôt et qui vont rester plus longtemps.”

Sa solution : réfléchir à d’autres hypothèses. Parler de ces problèmes le plus largement possible et expliquer que les algorithmes ne sont pas là pour nous aider, mais pour nous rendre accro. "Les algorithmes qui nous gouvernent n’ont pas notre intérêt en tête. Il faut une prise de conscience collective" , martèle-t-il. 

Une fois ce constat posé, il propose trois axes de travail : 

  • (faire) prendre conscience de ces biais algorithmiques et les étudier,
  • avoir une régulation qui a du sens, en informant les utilisateurs sur ces biais algorithmiques, 
  • développer de nouveaux produits qui convergent vers des informations plus justes et plus utiles pour les internautes.

Au sein du du Pôle d'Expertise de la Régulation Numérique (PEReN) créé par le gouvernement, le rôle de Guillaume Chaslot est justement d’informer le public et les régulateurs sur ces sujets. Objectif affiché : contribuer à la mise en place des régulations et des dispositifs qui donneront aux utilisateurs et utilisatrices davantage de contrôle sur les IA qui les entourent.