Republication du 13 janvier 2021
Imaginer un réseau social en travaillant particulièrement sur la modération et la sécurité des utilisateurs·rices, c’est le pari de Yubo depuis 2015. La startup, lancée par trois anciens étudiants en ingénierie – Sacha Lazimi, Jérémy Aouate et Arthur Patora – propose aux 18-25 ans de se retrouver en groupes pour discuter de leurs passions sous forme de livre-streaming ou par chat. Les propos restent confinés dans la conversation, il n’y a pas de « mur » public où poster des contenus, ni de like possible. Pour autant, la question de la modération a tout de suite fait partie de la politique des trois associés qui ont mis en place plusieurs gardes fou pour tuer dans l’oeuf d’éventuelles dérives. Retour sur leur méthode à un moment où la modération des contenus sur les plateformes enfle avec les suppressions successives des comptes de Donald Trump.
Algorithmes et modérateurs veillent sur vos enfants
Leur stratégie débute lors de l’inscription sur la plateforme. « Un important travail de vérification est réalisé en amont. Nous encourageons vraiment les utilisateurs à ajouter une photo à leur profil et si un compte nous paraît suspect, nous le bloquons en attendant d’avoir reçu une preuve de l’identité de la personne” , dévoile Marc-Antoine Durand, COO de la société.
C’est ensuite au tour des algorithmes d’entrer en action. « Nous disposons de plusieurs algorithmes textuels et visuels qui analysent et repèrent à la fois les mots utilisés et les images partagées pour vérifier qu’elles respectent nos règles : pas de nudité, de sang ou de violence” , détaille Lucien Grandval, Communication and policy Lead au sein de Yubo. En cas de suspicion, les modérateurs sont informés et peuvent intervenir dans le live pour « évaluer la situation dans un premier temps et sanctionner si cela est nécessaire » . Les utilisateurs·rices sont d’abord alerté·e·s via un pop up qui leur demande de rester dans les clous. Si leur comportement ne change pas, ils peuvent être bannis temporairement ou totalement de l’application et le live peut même être arrêté. L’interpellation des modérateurs peut aussi être effectuée par les participant·e·s eux-mêmes.
Interrogée, Yubo n’a pas communiqué sur les effectifs mis en place pour gérer cette sécurité durant les live. Pourtant, ce sujet fait débat. De nombreux articles ont relaté le calvaire d’employés de Facebook ou YouTube et de sous-traitants devant modérer et vérifier les messages, photos et vidéos publiés par les utilisateurs.
Une politique qui doit évoluer
Pour aller encore plus loin, Yubo a même testé en France un projet pilote avec l’association e-enfance qui pourrait être généralisé. « Si un utilisateur·rice se sent mal, il peut contacter et discuter avec un membre d’e-enfance sans sortir de l’application et sans avoir à appeler un numéro de téléphone, ce qui constitue parfois un frein” , renchérit Marc-Antoine Durand.