Maddyness

L’Europe se plonge dans les boîtes noires des algorithmes

Comments
Partager :
Up
Partie précédente
1 —
Partie suivante
Down
Maddyness
Up
Menu
Partie 1
Down
Technologies

L’Europe se plonge dans les boîtes noires des algorithmes

Pepper Pepper Pepper
1008 - trending  |  
Comments
Par Maddyness avec AFP - 11 décembre 2020 / 12H00

En imposant aux géants du web une plus grande transparence sur leurs algorithmes, l'Europe ambitionne d'éclairer ces boites noires qui régissent l'information, le divertissement et la consommation sur internet, un projet qui pose de nombreuses questions.

L’exécutif européen entend utiliser la future réglementation européenne sur les plateformes internet (Digital Services Act) , devant être présentée le 15 décembre, pour imposer aux géants du web plus de transparence sur les sources de désinformation, et le fonctionnement de leurs algorithmes. Un algorithme est un système informatique qui permet de prendre des décisions personnalisées à très grande échelle – pour faire apparaître dans un certain ordre les résultats d’une recherche internet, pour organiser le flux de publications sur un réseau social, pour passer des ordres en Bourse à très grande vitesse etc.

Les grandes plateformes « devront nous dire comment elles décident des informations et produits qu’elles nous recommandent, et de ceux qu’elles cachent, et nous donner la possibilité d’influencer ces décisions. Elles devront nous dire qui paye pour les publicités que nous voyons et pourquoi nous avons été ciblés » , a déclaré fin octobre la vice-présidente de la Commission européenne Margrethe Vestager.

A lire aussi

Pourquoi réguler les algorithmes ?

Les réseaux sociaux disent être neutre politiquement « mais est ce qu’ils le sont vraiment ? Personne ne peut observer aujourd’hui leur comportement » , expliquait récemment lors du colloque Médias en Seine, Benoit Loutrel, qui a dirigé une mission d’étude de hauts fonctionnaires français chez Facebook. « Quand les plateformes disent ‘on diminue la visibilité’ de certains contenus » litigieux – comme Facebook et Twitter l’ont fait pendant la campagne électorale américaine – « on ne sait pas de combien ils diminuent cette visibilité, on ne sait pas ce que cela veut dire exactement » , observe de son côté Christine Balagué, professeur à l’Institut Mines Telecom.

A lire aussi

Dans une note diffusée par la Fondation Jean-Jaurès, la députée Paula Forteza estime que les réseaux sociaux ne sont ni des médias (soumis à des règles éditoriales), ni de simples plateformes d’hébergement, mais des « espaces publics » où le « secret des affaires » ne peut être invoqué. « Lorsque 53% de la population française a accédé a un lieu ouvert sans restriction pour s’y rencontrer et y débattre, ça s’appelle un espace public et c’est l’intérêt général qui prime » , souligne-t-elle.

Quels moyens peuvent être mis en oeuvre ?

De nombreux rapports sur le sujet préconisent la création d’un régulateur, associant à ses travaux des communautés techniques, des scientifiques et des journalistes. L’ONG Algorithm Watch suggère différents paliers, allant de l’examen des données d’entraînement du modèle d’intelligence artificielle, à la relecture du code en passant par un « test » permettant de comparer les données d’entrée et de sortie.

« Dans le cas des machines très complexes, même les ingénieurs qui les ont développées ne savent pas nécessairement pourquoi tel résultat en sort, donc pour déterminer si un système perpétue des biais, il faut pouvoir procéder à des expérimentations » , explique à l’AFP Mackenzie Nelson, qui dirige le projet sur la gouvernance des plateformes pour l’organisation. « Il y a tellement de paramètres que la relecture du code ne permet pas de savoir ce qui va se passer » , appuie Guillaume Chaslot, l’un des premiers à avoir alerté sur les biais de l’algorithme de recommandation de Youtube. Ces systèmes nécessitent d’être observés « au jour le jour » pour vérifier ce qu’ils produisent, et « si les plateformes continuent de répéter les mêmes erreurs, il faut qu’on arrive à des sanctions » .

Quelles sont les objections des plateformes ?

Les plateformes s’accommoderaient d’une boucle d’échanges avec un régulateur, mais « on ne ne veut pas que quelqu’un nous dise par avance pour chaque innovation ce qu’on peut faire ou pas » , dit à l’AFP un responsable d’un géant du web, qui a demandé à ne pas être identifié. Facebook fait lui valoir, dans ses réponses à la consultation publique sur le projet de réglementation, que « le partage de détails sur le fonctionnement des algorithmes (…) pourrait permettre aux mauvais acteurs de contourner plus efficacement les mécanismes de détection » .

Il alerte aussi sur le risque de fuite de données personnelles : « Nous pensons qu’il est essentiel de disposer d’une structure de protection concernant toute information partagée avec les autorités, en définissant clairement les conditions du partage de données, les personnes qui y auront accès et en assurant la confidentialité des données » .

Maddyness avec AFP

Par

Maddyness avec AFP

11 décembre 2020 / 12H00
mis à jour le 11 décembre 2020
Articles les plus lus du moment

Fondateurs, et si vous cédiez votre place à un (vrai) CEO ?

Business
Par Geraldine Russell - 15H00jeudi 14 janvier 2021
Next
Business
Menu
Entrepreneurs
Menu
Finance
Menu
Innovation
Menu
Technologies
Menu
MaddyShop
MaddyShop
Agenda
Agenda
MaddyEvent
MaddyEvent
MaddyJobs
MaddyJobs
MaddyStudio
MaddyStudio
Search
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Articles les plus consultés
Les guides
Entreprises Structures d’accompagnement MaddyBasics
Maddyplay
Newsletter
À propos
Mentions Légales
Search
Nos services
Les catégories
Maddynews
Hmm... Il y a visiblement eu un soucis :(
Maddyness

Comme vous le savez, Maddyness est à la pointe de l'innovation.
Malheureusement il semble que votre navigateur ne le soit pas encore...

Pour une bonne expérience de navigation
(et être au top de la modernité) pensez à passer sur :
Chrome
Chrome
Safari
Safari
Firefox
Firefox
Edge
Edge