Portfolio par Manuel Davy
8 août 2019
8 août 2019
Temps de lecture : 4 minutes
4 min
6787

L’intelligence artificielle menacée par le « fake »

Si l'intelligence artificielle est un sujet à la mode, certaines innovations se révèlent plus artificielles qu'intelligentes. Et menacent l'émergence de véritables technologies de rupture. C'est le coup de gueule de Manuel Davy, fondateur de Vekia.
Temps de lecture : 4 minutes
Partager
Ne passez pas à côté de l'économie de demain, recevez tous les jours à 7H30 la newsletter de Maddyness.

Article initialement publié en octobre 2018

Fake. Sans doute l'une des nouvelles expressions issues de la langue anglaise les plus utilisées durant les dernières semaines. Souvent associé au mot " news " pour désigner des informations délibérément biaisées, ce vocable pourrait également s’appliquer à l’intelligence artificielle (IA). Ou plus exactement à certaines entreprises prétendument spécialisées dans l’IA.

En plein cœur de l’été 2018, le quotidien britannique The Guardian s’est intéressé à six d’entre elles, dont Spinvox, une startup qui s’était positionnée dès 2008 comme une experte de cette technologie. La société de Christina Domecq prétendait en effet recourir à l’IA pour convertir les messages vocaux en SMS. Dans les faits, point d’intelligence artificielle. Juste des armées d’opérateurs enrôlés dans des centres d’appels situés à l’étranger.

Pour se dédouaner, certaines entreprises qui se sont fait rattraper par la patrouille ont allégué la " jurisprudence Amazon ". Effectivement, derrière leurs services de retranscription de réunions ou d’identification de personnes sur des photos, se cachent des petites mains appelées " travailleurs du clic " ou " Turc mécanique d’Amazon ". Si les conditions de travail et les salaires font légitimement débat, la transparence d’Amazon sur ce sujet est totale. D’ailleurs la firme a joué carte sur table en créant un logiciel accessible à tous pour accéder à cette " intelligence humaine ".

Fake it until you make it

Évidemment l’IA n’a pas le monopole du fake. Depuis quelques années, la question environnementale est aussi devenue le théâtre d’impostures. Par exemple, de nombreux acteurs économiques feignent l’éco-responsabilité en incrustant du vert et du bleu – des couleurs associés au développement durable – sur leur emballage sans pourtant autant changer leur pratique industrielle. Toutefois, le cas de l’IA diffère tant elle déchaine les passions.

L’intelligence artificielle fait rêver. Le grand public y voit le chainon manquant entre la réalité et la science-fiction, les médias ne jurent que par elle et les investisseurs en ont fait un veau d’or.

La preuve : en juin 2018, le fonds d’investissement Serena a publié la troisième édition de son étude annuelle consacrée aux investissements en Europe dans les jeunes pousses spécialisées en IA. Et les chiffres sont éloquents : les startups ayant levé des fonds dans l’intelligence artificielle sont passées de 71 à 211 avec un ticket moyen frôlant les 4 millions d’euros. Faute de parvenir à développer une intelligence artificielle véritable, certains font donc le choix du fake pour avoir leur part du gâteau tout en s’agitant dans la coulisse pour se doter le plus vite possible d’une réelle intelligence artificielle. C’est le fameux fake it until you make it.

Dans ce contexte favorable aux dérives, l’écosystème aurait tout intérêt à s’inspirer de la façon dont le monde scientifique s’emploie contre les fraudes dans ses revues spécialisées.

Une intelligence artificielle labellisée

D’après les chercheurs finlandais Cenyu Shen et Bo-Christer Bjork, la quantité d’articles douteux publiés dans la presse scientifique a été multipliée par huit, entre 2010 et 2014, passant de 50 000 à 400 000. Un bond lié, en partie, à l’obligation faite aux scientifiques de publier le plus régulièrement possible les résultats de leurs travaux de recherche dans les supports scientifiques sous peine de disparaitre des radars.

Pour contrer ce phénomène, des agences d’évaluation ont été créées. En France celles-ci sont sous l’autorité du Haut Conseil d’Evaluation de la Recherche et de l’Enseignement Supérieur (HCERES). Mais comme l’expliquait récemment son président, Michel Cosnard, " les certificats de qualité émis par les agences peuvent être achetés tout comme les citations de source. Pour réellement protéger le monde scientifique, il importe de revenir au b-a ba en sélectionnant des experts dont on est certain de la qualité afin d’évaluer la fiabilité des publications de leurs pairs ".

Une approche similaire pourrait voir le jour dans le monde de l’intelligence artificielle. Pourquoi ne pas envisager la création d’un label d’authentification sous l’impulsion du secrétariat d’état au numérique ? Serait considéré comme une IA toute technologie faisant appel à des données et des algorithmes pour réaliser de manière autonome des tâches intellectuelles complexes précédemment réalisées par, ou avec, l’Homme. Rendu public, ce label faciliterait l’identification des véritables acteurs de l’IA, et éliminerait les fraudeurs tout en retenant les fonds d’investissement de miser sur des startups ayant fait le choix de la supercherie. Dans de nombreux domaines – notamment ceux où la sécurité des consommateurs est en jeu – les labels ont fait leurs preuves. Pourquoi ne pas envisager leur utilisation dans le cas de l’intelligence artificielle ?

Si les modalités d’application de ce dispositif sont évidemment discutables, la finalité ne saurait l’être. Si nous voulons favoriser l’acceptation de l’intelligence artificielle, commençons par faire le ménage en notre sein.