"Ce n'est pas celui qui a le meilleur algorithme qui gagne, c'est celui qui a le plus de données de qualité".
Les mots du chercheur en intelligence artificielle, Jean-Claude Heudin, illustrent le caractère essentiel des données au sein des algorithmes d’IA (2). Cependant la collecte/ production, le traitement et le stockage des données sont des processus longs et coûteux. Les systèmes de machine learning et leurs objectifs sont de plus en plus difficile à caractériser au fil de leur montée en complexité. Le défis d’aujourd’hui est donc de concevoir des systèmes d’IA nécessitant un volume de données moins important tout en garantissant une certaine robustesse au sein du domaine d’emploi envisagé. C’est dans cette optique que les chercheurs et ingénieurs travaillent à développer des intelligences artificielles dites frugales à la fois moins gourmandes en quantité de données et en puissance de calcul nécessaire pour les fabriquer.
L’enjeu climatique est aujourd’hui crucial de part l’impact environnemental des data centers, on estime que la consommation électrique des data centers double tous les quatre ans. Et cela sans considérer le coût environnemental nécessaire pour leur fabrication. Ces derniers pourraient consommer 10 % de la production mondiale d'électricité d'ici 2030, contre seulement 3 % aujourd'hui (1). Cependant, les entreprises sont, surtout, à la recherche d’une IA frugale dans le but de pallier au manque de données dont elles disposent.
En effet, dans certains cas d’applications il n’est pas forcément possible d’obtenir un nombre suffisant de données. Nous pouvons citer par exemple le domaine militaire au sein duquel des systèmes d’IA sont, par exemple, entraînés à reconnaître des véhicules. Hors, pour des raisons évidentes, certaines nations ne vont pas fournir pas une base de données complète contenant des images de leurs propres véhicules. Mais la Défense n’est pas le seul secteur où le besoin en IA frugale est nécessaire. Le domaine médical pourrait, à l’avenir, profiter des capacités de médecine personnalisée à chaque patient. En effet, chaque maladie et patient étant uniques, un algorithme s’adaptant à chaque patient pourrait l’aider à mieux gérer sa douleur ou sa récupération. Ici l’apprentissage frugal est indispensable car le système n’apprend qu’à partir d’une seule source de données : le patient lui-même.
L’IA frugale n’en est encore qu’à ses débuts et est aujourd’hui un champ de recherche actif. Il est, aujourd’hui encore, difficile d'entraîner un modèle à partir d’un nombre de données relativement réduit, voire d’une unique instance (one shot learning). Cependant il existe des méthodes pour pallier ou contourner ce manque de données.
Cette méthode consiste à réutiliser un système d’IA existant ayant commencé à apprendre à partir d’un dataset suffisant. L’idée est de partir d’une IA ayant appris à partir de données un peu similaires à celles qui manquent. L’objectif par exemple n’est plus d’identifier des voitures mais des véhicules blindés. Dans un premier temps le système d’IA est entrainé à reconnaître des voitures, mais sans pour autant être très performant. Le but est de lui faire apprendre à reconnaître seulement des caractéristiques qui seront communes ou relativement proches de celles que le système final aura à apprendre. Les data scientistes réalisent l'apprentissage du second système en y injectant les données du premier puis en complétant son apprentissage en s’appuyant sur les quelques données dont ils disposent.
La génération de données consiste à utiliser un environnement virtuel pour générer le plus fidèlement possible les conditions d’un environnement réel. L’objectif est de générer les données qui manquent pour l'entraînement directement à partir de cet environnement de simulation. Ainsi, revenons à notre exemple de système d’IA visant à reconnaître un véhicule blindé. Certaines entreprises spécialisées vont construire une reproduction fidèle du véhicule en 3D pour ensuite générer les images du véhicule dans les scénarios appropriés. Dans l’idée, il devient alors possible d’obtenir une quantité presque infinie de données contenant des images de l'objet à détecter et ce dans de multiples scénarios. Le défi principal de cette approche est le passage en condition réelle, où les performances du système ne se maintiennent pas forcément. D’une part car il est difficile de reproduire de manière totalement réaliste un environnement réel. D’autre part car il existe un risque que l’IA apprennent plus les biais de la modélisation que l’objet modélisé.
A défaut de générer ex nihilo les données, il également possible de générer de nouvelles données à partir de données existantes avec des techniques d’augmentation de données. Pour ce faire, cette technique décline en perturbant un dataset existant (rotation, ajout de flou, dégradation d’image). Il est possible par ailleurs, de lier génération de données et augmentation de ces dernières afin de rendre un dataset plus complet. Cependant, l’augmentation de données n’est pas une solution miracle. En effet, elle ne permet pas d’étendre le domaine d’emploi d’un système d’IA,mais de seulement renforcer sa robustesse dans un environnement déjà couvert.
L’IA frugale semble avoir de beaux jours devant elle de par la politique volontariste de l’Europe qu’elle suscite. À travers plusieurs projets Horizon Europe et EDIDP, les 27 cherchent à réduire l’empreinte numérique des IA mais aussi de manière indirecte à augmenter son indépendance et sa souveraineté numérique face aux GAFA et aux BATX (3).
Écrit par Arnault Ioualalen & Léo Limousin
Crédits images : Gerd Altmann