Avec l'avènement des IA génératives comme ChatGPT, Bard ou encore MidJourney, l’IA est devenue omniprésente dans notre tissu économique, transformant radicalement les industries et les modes de vie. Selon Accenture, seulement 12 % des entreprises ont atteint la maturité nécessaire pour booster leur croissance et leur transformation, mais ces pionniers connaissent une croissance jusqu'à 50 % supérieure à celle de leurs concurrents. En France, le mapping 2023 de France Digitale révèle que 590 startups ont intégré l'IA au cœur de leur modèle économique, avec un total de 3,2 milliards d'euros de fonds levés depuis leur création.

Cependant, malgré cette forte croissance, l'adoption globale de l'IA est freinée par plusieurs obstacles. L'un des plus importants est le défi de l'explicabilité. Imaginez une entreprise du secteur financier qui utilise l'IA pour évaluer la solvabilité des clients. Si un algorithme décide de refuser un prêt à un individu, comment cette décision peut-elle être justifiée de manière transparente et compréhensible ?

C'est dans ce contexte que nous abordons un sujet central et crucial : l'importance de l'IA explicable, ou xAI (Explainable Artificial Intelligence), comme un impératif éthique, légal et pratique pour l'adoption en entreprise et la confiance du grand public.

L'importance de l'explicabilité

Au-delà des chiffres impressionnants qui témoignent de l'omniprésence croissante de l'IA, une question émerge : comment rendre cette technologie à la fois puissante et compréhensible pour le grand public et les entreprises ? L'IA explicable s'impose comme une réponse. Devenue une caractéristique incontournable pour le déploiement pratique de l'IA, l'explicabilité répond à des exigences multiples. Elle est non seulement une question de confiance, mais aussi une obligation légale, notamment en Europe et aux États-Unis, où des réglementations comme l'IA Act et le RGPD imposent la transparence des algorithmes.

L'absence d'explicabilité en IA peut poser de sérieux problèmes, surtout dans des secteurs comme l'assurance. Imaginons une compagnie d'assurance qui utilise un algorithme de machine learning pour déterminer les indemnités suite à un accident corporel. Si un client conteste la somme allouée, l'entreprise serait dans l'incapacité de justifier clairement les critères ayant mené à cette décision. Cela pourrait non seulement éroder la confiance du client, mais aussi entraîner des complications réglementaires.

Cette nécessité d'explicabilité est également un levier d'adoption dans divers secteurs. Dans le domaine de la relation client, par exemple, les entreprises sont davantage enclines à intégrer des solutions d'IA qui peuvent justifier leurs décisions et actions, permettant ainsi une amélioration continue de leurs services. Cette transparence est d'autant plus importante dans des secteurs sensibles comme la défense et la santé, où l'évitement de certains biais (comme dans le choix d'un candidat lors d'un processus de recrutement) est non négociable.

L'explicabilité technique en IA : un défi multidimensionnel

Le machine learning, notamment les architectures complexes comme les réseaux de neurones profonds, pose un problème d'explicabilité. Bien que des méthodes comme LIME et SHAP tentent de rendre ces modèles plus compréhensibles, la réalité est que ces techniques ne fournissent qu'une approximation de la logique interne du modèle. En d'autres termes, une IA basée sur le machine learning ne peut jamais être pleinement explicable en raison de la complexité et de la non-linéarité de ses algorithmes, ainsi qu’en raison de sa dépendance à une approche statistique. L'IA générative n'est qu'une hyperbolisation du ML. Il en hérite donc des mêmes limites. Cette opacité constitue un obstacle majeur, surtout dans des secteurs comme la santé, la sécurité, et la finance où la prise de décision doit être transparente et justifiable.

À l'opposé du spectre, l’IA Symbolique est conçue pour être explicable "by design". Elle fonctionne selon des règles logiques prédéfinies, ce qui permet de retracer chaque décision à un ensemble spécifique de conditions et de règles, et appuyée sur des connaissances structurées. Cette transparence est cruciale dans des domaines où les enjeux sont élevés et où chaque décision doit être justifiée de manière rigoureuse.

Pour une IA véritablement explicable, il est impératif de suivre l'ensemble du processus, du sourcing des données à la prédiction finale. Cela inclut la vérification de la provenance des données, l'analyse des données d'entrée et de sortie, et la compréhension du caractère déterministe ou non des algorithmes employés. Un système déterministe, qui offre des sorties prévisibles pour des entrées données, est souvent plus facile à expliquer, mais cela ne résout pas les problèmes d'explicabilité inhérents aux modèles de machine learning.

L’explicabilité en bonne voie ?

Il est réjouissant de constater que de nombreuses entreprises prennent au sérieux la question de l'explicabilité en IA. L'investissement dans des projets open source dédiés à rendre les algorithmes plus transparents est en hausse, ce qui est un signe positif pour l'avenir de l'IA explicable. Ces initiatives open source permettent une collaboration plus étroite entre les chercheurs, les développeurs et les entreprises, accélérant ainsi le développement de solutions explicables.

L'Europe, et en particulier l'Union européenne, est à l'avant-garde en matière de réglementation et de recherche sur l'IA explicable. De nombreux experts soulignent l'importance de la réglementation légale, de l'investissement dans la formation et du développement de centres de recherche spécialisés. Cette avance réglementaire et académique place l'UE dans une position favorable pour diriger le monde vers une IA plus responsable.