Alors que l’intelligence artificielle bouleverse les stratégies des entreprises et des États, le Sommet de l’Action pour l’IA s’impose comme un moment clé pour débattre de son adoption responsable. Régulation, souveraineté, impact environnemental et formation : autant de défis que les acteurs doivent relever pour en faire un levier de transformation durable. Présent au Grand Palais, Sylvain Duranton, Directeur monde de BCG X, a livré à Maddyness son analyse sur les grandes tendances de l’IA et les priorités à venir.

Maddyness - L’intelligence artificielle soulève de nombreuses interrogations sur sa responsabilité, qu’il s’agisse de son impact éthique, social ou environnemental. Quelles actions doivent être mises en place par les entreprises et les gouvernements pour garantir une IA plus responsable ?

Sylvain Duranton - L’un des premiers leviers est l’EU AI Act, qui impose un cadre réglementaire structurant pour encadrer l’usage de l’IA en entreprise. Cette régulation vise à réduire les risques liés aux IA à haut risque, à garantir plus de transparence et à encourager la formation des employés. Il y a une véritable nécessité d’éduquer les collaborateurs qui manipulent l’IA afin qu’ils comprennent ses limites et ses dangers. On parle souvent de la question des biais et de la fiabilité des modèles, mais il y a aussi un enjeu de culture et de gouvernance.

Toutefois, la réglementation seule ne suffit pas. Il faut que les entreprises aillent plus loin en développant leur propre gouvernance interne de l’IA. Cela passe par une meilleure formation des employés, la mise en place de protocoles de tests rigoureux et surtout, une politique de transparence envers les utilisateurs. Par exemple, lorsqu’une entreprise utilise un agent conversationnel, elle doit s’assurer que le client sait qu’il échange avec une IA et non un humain.

Sur le plan environnemental, la question est plus complexe. L’IA représente aujourd’hui environ 4 % des émissions mondiales de CO₂, mais ce chiffre pourrait croître rapidement avec l’augmentation de la demande. Nous devons donc à la fois optimiser nos modèles pour les rendre plus sobres et repenser notre manière de consommer l’IA. Aujourd’hui, certains usages mobilisent des ressources disproportionnées alors qu’ils pourraient être réalisés de façon plus frugale. Nous devons progresser sur cette approche.

L’intelligence artificielle consomme énormément de ressources, qu’il s’agisse d’énergie ou de composants électroniques. L’explosion de la demande peut-elle être compatible avec un développement durable ?

C’est une question essentielle. Aujourd’hui, nous avons deux dynamiques qui s’opposent. D’un côté, les modèles d’IA deviennent de plus en plus efficaces, avec des avancées qui permettent de réduire leur consommation énergétique. De l’autre, la demande explose et risque d’entraîner une consommation exponentielle.

Pour trouver un équilibre, plusieurs axes doivent être travaillés. D’abord, il faut optimiser les modèles d’IA en privilégiant des IA plus légères et spécialisées plutôt que des systèmes généralistes extrêmement gourmands en énergie. Ensuite, il y a des avancées majeures dans l’architecture des puces, qui permettront d’exécuter des calculs complexes avec une consommation moindre. Enfin, il est essentiel d’adopter une approche plus responsable dans l’utilisation de l’IA. Aujourd’hui, de nombreuses entreprises utilisent des ressources informatiques colossales pour des tâches qui pourraient être réalisées avec des modèles plus simples et moins consommateurs d’énergie.

Il y a un vrai travail à faire pour mieux mesurer et gérer l’impact environnemental de l’IA. Contrairement à d’autres secteurs, il est encore difficile pour une entreprise de savoir précisément quelle est la consommation énergétique de ses usages IA. Des initiatives comme la Green Software Foundation tentent d’apporter des solutions, mais nous sommes encore au début du chemin.

L’adoption de l’IA se généralise dans les entreprises, mais toutes n’y sont pas préparées. Comment s’assurer que les salariés acquièrent les compétences nécessaires et éviter qu’une fracture se creuse entre ceux qui maîtrisent ces outils et les autres ?

Nous sommes en train d’assister à une montée en compétences accélérée sur l’IA. En un an, nous sommes passés de 6 % à 30 % des entreprises ayant formé au moins un quart de leurs employés à l’IA. C’est une évolution très rapide, mais elle reste insuffisante pour accompagner la transformation en cours.

Il y a un double défi. D’abord, les grandes entreprises sont en mesure de former leurs collaborateurs, mais ce n’est pas le cas des PME et des indépendants qui n’ont pas les mêmes moyens. Ensuite, il y a un enjeu d’acculturation du grand public. Comme cela a été le cas avec la bureautique dans les années 90, nous devons mettre à disposition des outils pédagogiques qui permettront à chacun de mieux comprendre et utiliser l’IA.

L’autre grand défi concerne l’éducation. L’IA générative bouleverse déjà les méthodes d’apprentissage. Aujourd’hui, une grande partie des travaux académiques peuvent être réalisés avec ces outils, ce qui rend obsolètes certaines formes d’évaluation. Les écoles et universités doivent intégrer cette nouvelle réalité et repenser leurs méthodes d’enseignement. Nous devons préparer les étudiants à un monde où l’IA sera omniprésente dans leur vie professionnelle, et leur apprendre à collaborer intelligemment avec ces technologies plutôt que de chercher à les contourner.

Les États-Unis et la Chine dominent la course à l’IA, notamment en matière d’investissements. Comment l’Europe peut-elle se positionner face à ces superpuissances ?

L’Europe a souvent du mal à s’imposer dans la course mondiale à l’IA. À Davos, par exemple, on a clairement ressenti un manque de présence européenne face aux annonces majeures venues des États-Unis, notamment avec DeepSeek et OpenAI. Ce Sommet de l’Action pour l’IA est une bonne occasion pour l’Europe et la France de reprendre l’initiative et structurer leur approche.

Un point positif est l’annonce récente du financement de 109 milliards d’euros pour soutenir l’IA en Europe. Jusqu’ici, nous accusions un retard considérable en matière d’investissements : les montants engagés étaient souvent dix fois inférieurs à ceux déployés aux États-Unis ou en Chine. Avec cette initiative, nous commençons enfin à atteindre une échelle compétitive.

L’Europe a des atouts uniques. Elle peut notamment s’appuyer sur un cadre réglementaire structurant, qui pourrait devenir une référence mondiale pour une IA éthique et responsable. Nous avons aussi un écosystème de recherche performant, notamment en cybersécurité et IA frugale, deux domaines clés pour le futur de l’IA.

Si nous voulons peser face aux géants américains et asiatiques, nous devons combiner régulation intelligente, investissements massifs et innovation technologique. Ce sommet est un premier pas, mais il faudra aller encore plus loin pour garantir une place à l’Europe dans la compétition mondiale.