Dans un amphithéâtre bondé au sein du campus d'Epitech à Kremlin-Bicètre, plusieurs groupes d'étudiants en 5ᵉ année attendent le verdict. Au total, 14 équipes lauréates sont en lice pour remporter les trophées remis le vendredi 26 janvier dernier. Le projet Innuendo, une application d'aide au diagnostic de l'endométriose, reçoit le coup de cœur du jury et très vite, les autres équipes comprennent que le podium est vacant. 

En 3ᵉ position, on retrouve Dyspra, un outil ludique d'aide à la rééducation des dyspraxiques. Puis Camille, un assistant contre la dépression et enfin en première position, une équipe toulousaine qui explose de joie à l'annonce de leur victoire : les porteurs du projet Nema Studio, une plateforme cloud de production musicale collaborative en temps réel.

GreenIT et optimisation, comment éviter le greenwashing ?

La journée n'est pas terminée et un cycle complet de conférences est organisé tout l'après-midi pour explorer les grands défis auxquels devront faire face les ingénieurs de demain. Une des premières sessions se focalise sur le GreenIT, autrement dit la technologie au service de la réduction d'impact du numérique sur l’environnement. « Cela revient souvent à de l'optimisation et on peut se demander finalement si ce n’est pas du greenwashing », introduit Antoine Perrin, journaliste pour Maddyness, tout en expliquant que le numérique représente près de 5% des émissions globales de gaz à effet de serre. 

James Martin, Content & Environment Lead de Scaleway, l'hébergeur internet fondé par Xavier Niel, assure que ce travail d'optimisation de la partie software est un moyen efficace de réduire la consommation électrique de ses datacenters. En parallèle, tout est mis en œuvre pour améliorer l'efficacité énergétique : « notre datacenter à Saint-Ouen bénéficie d'un PUE (Power Usage Effectiveness) très bas notamment grâce à un système adiabatique qui refroidit l'espace sans climatisation », vante James Martin. 

Évidemment, cela ne suffit pas étant donné que les ¾ de la pollution numérique sont liés aux étapes de fabrication du hardware. Romane Clément, cofondatrice de l'agence d'innovation et de design du numérique responsable Ctrl S pointe justement les conditions de travail en amont de la chaîne de cette fabrique du numérique. « L'engagement responsable seulement sous l'angle de l'environnement n'est pas suffisant », insiste-t-elle tout en remettant en cause le recours systématique au numérique.

Clément Marche, cofondateur de l'atelier du numérique responsable Nuageo, partage cet avis et rappelle que ces efforts d'optimisation sont largement compensés par des effets rebonds. « La multiplication des applications mobiles en fait partie et il est urgent de se demander si ces usages servent la société qu'on veut construire pour demain », déroule-t-il. Tous s'accordent sur ce point et évoquent la nécessité de développer des solutions écologiques "by design" qui répondent à un enjeu utile. 

Le Web3 ou l'enjeu de "digérer la complexité"

C'est ensuite au tour de Jonathan Llamas, fondateur de la plateforme de données peer-to-peer Vetri, d'animer une conférence depuis Zurich en visio. Il présente l'implémentation du protocole IPFS (InterPlanetary File System) comme un moyen viable de changer la manière dont les entreprises exploitent les données personnelles à des fins monétaires. « C'est un système de partage de fichiers décentralisé qui n'a pas besoin d'identifier l'utilisateur comme dans un protocole https classique », explique-t-il. 

Plus encore, ce système contribue à ériger « une démocratie digitale qui remet l'internaute au centre et lui permet d'échapper au web totalitaire pensé par les Big Tech ». Toutefois, l'enjeu d'adoption massive de ces pratiques est crucial : « ce protocole est prometteur mais il ne suffit pas à attirer les utilisateurs du Web2 vers le Web3 ». Les ingénieurs en herbe présents dans la salle auront donc la mission de « digérer la complexité car les usagers s'attendent à un service optimisé et non pas à le comprendre ».

Dans les profondeurs du deep learning

En matière de complexité, l'intelligence artificielle est justement à propos - encore plus s'agissant du deep learning. Jean-Claude Heudin, scientifique français expert du domaine, est chargé de formuler une définition : il s'agit d'une classe d'algorithmes qui s'emploient à reproduire de manière simplifiée le fonctionnement de notre cerveau. Référence est faite à la première représentation mathématique et informatique d'un neurone biologique imaginée par Warren McCulloch et Walter Pitts en 1943, puis, dans les années 1950 au premier réseau de neurones de l'Histoire créé par le psychologue américain Frank Rosenblatt.

Jusqu'aux années 2000, il est question de simuler sur un ordinateur les capacités d'apprentissage d'une machine. Mais trop souvent les résultats ne sont pas assez fiables pour en faire des cas d'usage tangibles. Aujourd'hui, grâce aux travaux de chercheurs contemporains comme Yann Le Cun ou Geoffrey Hinton, ce taux d'erreur devient de plus en plus minime. Et l'augmentation de la puissance de calcul informatique ainsi que l'accès à des données de plus en plus enrichies ont joué un rôle déterminant.

Des IA d'apprentissage toujours complexes

Katya Lainé, cofondatrice de la plateforme no code de chatbots Talkr.io et membre du board du syndicat du numérique Numeum, rejoint cette vision en pointant l'accélération permise grâce au cloud. En revanche, celle-ci tient à rappeler que les IA conversationnelles type ChatGPT ne sont pas stricto sensu des outils de deep learning. « II est difficile de pouvoir reproduire et expliquer un système qui fonctionne grâce à un réseau de neurones, déplore-t-elle. Et les entreprises ne peuvent par exemple pas se permettre d'avoir un chatbot qui délivre des réponses inexactes ». 

De son côté, Yann Prudent, CTO chez MASA Group, explique que cet écueil est d'autant plus critique lorsque des vies humaines sont en jeu. Ce dernier est à l'origine d'un "serious game", un jeu de simulation de guerre qui permet d'entraîner et d'évaluer les militaires. « Ce ne serait pas possible en deep learning car il est difficile d'expliquer le cheminement arrivant à une décision plutôt qu'une autre, précise-t-il. Mais ce qui est important, c'est de pouvoir définir pourquoi la réponse donnée est bonne, il n'y a pas besoin de savoir comment ». La complexité des IA d'apprentissage nous échappe, mais cela ne leur empêchera pas d'être de plus en plus performantes. Yann Prudent entrevoit d'ailleurs déjà le jour où la voiture autonome sera plus sûre que le conducteur humain.

En attendant, les élèves d’Epitech seront demain en première ligne pour opérer cette mission de "gestion de la complexité" afin de s'assurer que les technologies soient éthiques, vertueuses et utiles.