" Avec vos méthodologies vous pouvez prévoir la survenue d’une crise ? ", " vous avez un algorithme qui fait de la détection automatique de fake news ? ", ou encore " serait-il possible de récupérer l’ensemble des données historiques sur mes sujets ? ". Bien qu’elles ne soient aucunement dénuées d’intérêt et témoignent d’une volonté, de la part des donneurs d’ordres, d’être en adéquation avec les grandes tendances qui structurent l’écosystème numérique dans sa globalité, ces interrogations n’en sont pas moins symptomatiques d’un hiatus manifeste entre le discours sur les potentialités inhérentes à l’analyse de données et l’effectivité des méthodologies aujourd’hui disponibles.

Ce type d’interrogations débouche logiquement pour les agences sur un choix binaire duquel il est difficile de se départir. Faut-il accorder la primauté à la transparence, au risque de faire montre d’une forme de faiblesse, ou bien à une rhétorique qui, plus ou moins étayée, pourrait très bien, l’espace de quelques temps, faire illusion. Cette dernière approche, du seul ressort de consultants, directeurs conseil et autres dirigeants d’agences, est progressivement en train de devenir le péché originel du domaine, somme toute encore émergent, bâti sur la promesse d’une symbiose entre les pratiques idoines de la communication et l’analyse de données. L’effet Minority Report, en référence à la nouvelle de l’auteur de science-fiction Philip K. Dick, qui a été portée au cinéma par Steven Spielberg en 2002, est la résultante logique de la sédimentation de ces discours opportunistes afférents.

Cette situation, qui résonne singulièrement avec le concept de dépendance au sentier propre à la sociologie politique, est perverse du fait de ses externalités négatives. Si l’étiologie du phénomène est aisément intelligible, sa symptomatologie est tout aussi intéressante et entretient des rapports qui n’ont rien à envier à l’addiction et aux conséquences de la consommation de drogue. Comment renouer avec le réel, certes quelque peu prosaïque et trivial, alors que la surenchère applicative de l’intelligence artificielle connaît ses heures les plus fantasmagoriques à coup de posts LinkedIn ? Engagés dans cette course effrénée, aux likes et aux leads, de nombreux acteurs sont en train de brûler leurs vaisseaux, et par ricochet d’engager le secteur de la communication digitale dans une voie sans issue et retour.

L'intelligence artificielle n'existe pas

Cette post-vérité permanente érigée en mode d’existence, de survie et de conquête n’est possible que parce qu’aucune autorité ou conseil ne vient chapeauter le vaste champ de la communication, à l’instar de la structuration des secteurs de la médecine, de la pharmacie ou encore du droit. Le Conseil national de l'ordre des médecins laisserait-il exercer, sans réagir, un praticien qui promettrait à ses patients la vie éternelle ? À n’en pas douter, les sanctions suivraient avec célérité ; ce qui permet ainsi de séparer le bon grain de l’ivraie et d’éviter qu’à terme la légitimité propre à un domaine entier ne vienne à voler en éclats.

Si nous n’appelons pas forcément à la création d’une telle entité, la transparence tant en termes de discours, de méthodologies et de process nous semble au contraire plus que jamais d’actualité. L’intelligence artificielle n’existe pas. Ou du moins pas telle que d’aucuns tendent à la mettre en récit. Le plus souvent à la promesse d’IA se succède une réalité plus prosaïque que les chercheurs, à la suite notamment d’Antonio Casili ou de Dominique Cardon, appellent digital labor. Cette illusion collective autour de l’IA est d’ailleurs très bien déconstruite par ce mème repris par de nombreux développeurs sur les réseaux : " If it is written in Python, it’s probably machine learning. If it is written in Powerpoint, it’s probably AI ".

Il n’est qu’à regarder les déboires en termes de modération de contenus, que ce soit en sémantique ou en reconnaissance d’image, de la part des GAFAM, via la conjonction de modèles poussés et de l’externalisation massive de tâches pénibles et répétitives, pour se convaincre que la toute-puissance de l’IA relève davantage du discours commercial que de la réalité en termes de programmation et de data analysis.

Si la communication doit nécessairement tendre vers une hybridation poussée avec les données et métadonnées produites sur les réseaux sociaux, le web social ou encore les données mises en open data, il s’agit de basculer d’un paradigme mythologique à un paradigme méthodologique. Au flou et aux discours superfétatoires autour de l’IA, il faudrait opposer la transparence conceptuelle et méthodologique. Rappeler, par exemple, qu’un modèle de machine learning nécessite…du travail humain. De la labellisation de corpus par des consultants qualifiés et formés aux SHS, l’élaboration de dictionnaires sur mesure dédiés à une thématique données, des partis pris méthodologiques quant aux paramètres à prendre en compte dans la construction des modèles ou encore des ajustements nécessaires pour augmenter la précision du modèle. Quant aux modèles à utiliser, en plus de leur foisonnance, il faut également souligner qu’aucun n’est jamais réellement parfait. Les erreurs résiduelles entre les corpus train et test sont une réalité qu’il ne faut pas passer sous le boisseau. Rappeler les limites de ces pratiques ne revient pas à les délégitimer. C’est même tout le contraire qui est en jeu pour ces prochaines années.

Sortir de cette vision prométhéenne et éthérée permet d’arrimer à nouveau l’analyse de données et ses potentialités dans le monde réel, fût-ce dans sa déclinaison virtuelle. La promesse est forcément moins forte, mais au moins elle a l’insigne mérite de la transparence et de l’honnêteté. Deux caractères constitutifs d’une éthique professionnelle et qui, lorsqu’ils sont observés, permettent de se différencier des pêcheurs en eaux troubles.

Xavier Desmaison, CEO du groupe Antidox, Jean-Baptiste Delhomme, Directeur associé d'IDS Partners et Damien Liccia, Directeur associé d'IDS Partners