Dans une tribune, Serge Descombes, ancien collaborateur de Google Analytics et aujourd’hui senior data insight manager chez Fifty-five, dévoile les manquements en termes de fiabilité et de précision de Google Analytics. Penchons-nous sur cette problématique : comment adresser le big data pour en tirer des enseignements utiles et des actions qui vont faire bouger les lignes ?

La fin de l'exactitude des données

Nous entrons dans une nouvelle ère qui signe la fin de l’exactitude des données, l’avènement des données non structurées, et le deuil de la causalité. Le résultat sera le même en utilisant une donnée totalement juste et une donnée ‘à peu près juste’. Les questions que se posent les décideurs du numérique aujourd’hui concernent davantage des valeurs relatives que des valeurs absolues : quel est mon levier d’acquisition le plus efficace ? Quel segment de clients a le plus gros potentiel de croissance ? Quelle est la page de mon site que je dois en priorité refondre car elle manque cruellement d’ergonomie ? L’heure est au pragmatisme. Nous sommes maintenant dans un monde où le nombre de sources de données, au-delà du volume de données lui-même, a explosé.

Faisons une rapide liste des différentes bases de données et autres ERPs : base CRM, base web analytics, back-office, plateformes de paiement, comptabilité… C’en est devenu un travail de bénédictin que d’essayer de réconcilier ces informations. D’ailleurs, la raison d’être de ces sources de données n’est pas la même, et il est normal d’avoir des différences, il suffit juste de savoir les expliquer. Nous pouvons considérer par exemple qu’un écart entre les données du back-office et les données de la plateforme de web analytics inférieur à 10% est tout à fait acceptable : la plateforme web analytics n’a en effet pas vocation à comprendre les annulations et retours par exemple, ce que fait très bien le back-office.

La conséquence : il faut apprendre à piloter par la data malgré ses imperfections

Attention, le point n’est pas de défendre une situation chaotique où toutes les sources de données seraient discordantes ! Un travail régulier de nettoyage des données, de surveillance des comptes analytics est nécessaire et indispensable. Sans cela, les données ne seront pas juste imprécises mais totalement fausses. La vie d’un site internet est pleine de mouvance et chaque frémissement doit être suivi d’une vérification de la bonne intégration des tags Google Analytics et du paramétrage de la plateforme, sous peine de voir ses courbes s’effondrer ! Plus le site est complexe et sujet à des évolutions, plus cette surveillance et cette ‘hygiène’ analytique est importante afin que les tendances restent justes.

A partir de là, comment peut-on améliorer la data dans Google Analytics ? Par exemple, par la mise en place de filtres avancés qui vont pouvoir par exemple enrichir les mots clés ‘not provided’ de la page de destination de l’internaute (le lecteur aura donc le titre de la page de destination plutôt que le mot-clé tapé, ce qui va pouvoir l’orienter dans son analyse), par la bonne réattribution du trafic aux sources d’acquisition (il est indispensable de ne pas avoir ses sources polluées par la trop grande part du trafic direct ou de robots qui crawlent le site) voire par la mise en place de scripts qui vont empêcher les doublons de transactions dans Google Analytics.

Des astuces et, oui, une certaine expertise et une connaissance du fonctionnement de la plateforme sont nécessaires à qui veut piloter son activité digitale par la donnée. Pour se rapprocher de la vérité, prendre du recul et adopter les meilleures décisions pour son business digital. Bref, apprendre à piloter par la data malgré ses imperfections tout en travaillant à la rendre chaque jour plus juste. Donc oui, continuons à faire confiance à Google Analytics et aux autres plateformes de webanalyse, en les maîtrisant pour mieux les exploiter !

Article rédigé par Marjolaine Baratte, Data Scientist chez Alphalyr et auteure du blog Je veux être data scientist