" Une erreur d’IA peut avoir des conséquences catastrophiques en termes d’éthique et faire perdre énormément d’argent à une société. La société Zillow a ainsi perdu 569 millions d’euros à cause d’un algorithme défaillant, qui estimait la valeur de biens immobiliers ", rappelle Alex Combessie, cofondateur de la startup Giskard, aux côtés de Jean-Marie John-Mathews et Andrei Avtomonov. Pour éviter les erreurs, ces trois experts - qui développaient auparavant des systèmes d'IA critiques chez Dataiku et Thales – ont mis au point une plateforme d’assurance qualité pour les algorithmes d’intelligence artificielle. Un outil qui permet également de s’adapter à la régulation européenne sur l'IA, qui appliquera bientôt des amendes de 6 % du chiffre d'affaires en cas d'incidents sur des algorithmes à haut risque. Car le problème n’est pas rare. Au total, plus de 2.000 incidents ont été signalés sur la AI Incident Database depuis 2019.

Investir de nouveaux domaines techniques

Pour que l’outil de Giskard soit capable de limiter les risques pour toutes les sortes d’IA, la société créée il y a un an annonce sa première levée de fonds. Un tour de table d’1,5 million de dollars mené par Elaia avec la participation de Bessemer Venture Partners et de business angels reconnus : " Avec ces fonds, nous souhaitons sécuriser les IA qui travaillent sur l’image, ce qu’on ne fait pas encore, et investir de nouveaux domaines techniques pour s’étendre dans la détection de fraudes par exemple ", détaille Alex Combessie. En parallèle, Giskard envisage également de se concentrer sur les algorithmes de vision, de séries temporelles et d'IA générative. Pour ce faire, la société de 8 salariés veut quasiment doubler ses effectifs en recrutant 7 personnes. Des recrutements qui visent à étoffer son service tech mais qui permettront également d’accélérer la commercialisation de la plateforme. 

Giskard cible les développeurs d’intelligence artificielle et travaille déjà avec des sociétés telles que Webedia, CGI, Citibeats, Altaroad, ou Unifai.

" C’est très frustrant pour les ingénieurs car il est complexe de garantir la sécurité d’un algorithme. Et cela peut avoir de lourdes conséquences ", complète le dirigeant. Dans le cas des véhicules autonomes, cela peut en effet provoquer des accidents voire la perte de vies humaines. " Plus l'IA devient omniprésente, plus elle aura d'impact sur nos vies. Cela augmente le besoin de tester les algorithmes ", estime Sébastien Lefebvre, Partner chez Elaia.

Prévenir les risques d’incident en production

La plateforme propose aujourd’hui deux fonctionnalités. D’abord, elle permet de visualiser et d'expliquer les algorithmes d'IA afin d'identifier les erreurs. Ensuite, l’outil offre la possibilité de construire des tests automatisés sur les algorithmes pour mesurer des critères de qualité critiques, comme l'éthique et la robustesse. Les entreprises peuvent ainsi prévenir les risques d’incident en production et mettre en œuvre un processus d’évaluation continue.