Publications

L’IA : de la différence entre apprendre et généraliser

14 janvier 2021

Est-ce qu’une IA “apprend” réellement ? Ce terme est une nouvelle fois un abus de langage, l’IA relève plutôt de capacités calculatoires et de généralisation.

L’intelligence artificielle est souvent victime d’abus de langage et d’une mauvaise utilisation de son vocable. Ces erreurs sont causées par une tendance à l’anthropocentrisme, qui pousse à représenter l’IA au travers d’un prisme humain. Or, même si la notion “d’apprentissage” existe en IA, elle est à nuancer car elle est en fait assez éloignée de l’idée que l’on peut se faire de la notion de raisonnement. Ce terme est à regrouper au panthéon des autres termes incompris dans l’IA tels que “l’autonomie” ou “l’intelligence” des IA (cf. nos articles précédents {1}). Il est bon de noter que l’on ne parle pas d’apprentissage d’une connaissance ou d’un savoir, mais d’apprentissage d’un modèle. Un modèle n’est rien de plus qu’une combinaison de valeurs numériques (des poids) et d’une architecture. Dans ces conditions, il est difficile de faire une équivalence entre l’apprentissage humain centré sur le raisonnement, et l’apprentissage machine fondé sur le réglage des poids d’un modèle.

Comment définir l’intelligence artificielle ?

Pour mieux comprendre, il faut revenir aux différentes notions d’intelligence artificielle. Les IA se conçoivent aujourd’hui sous une forme dite faible, qui vise à accomplir des tâches très spécifiques, elles sont donc très spécialisées. Elles sont meilleures que l’Homme dans ces tâches car bien plus rapides et capables de manipuler des volumes de données beaucoup plus grands et de manière efficace. Le rêve d’une IA généraliste est encore très loin de se réaliser, et les IA dites faibles constituent le cœur opérationnel de l’IA d’aujourd'hui. Une IA reste un programme informatique, elle est encore bornée par leur logique sous-jacente. Même si le réglage du modèle reste un processus automatisé, qu’on qualifie d’apprentissage, il ne relève pas de l’intelligence. Il se consacre à adapter un programme informatique comme les autres aux données qui lui sont présentées. La différence fondamentale que l’on peut observer entre un programme classique (rédigé par un programmeur) et un programme d’IA, se situe dans la manière dont l’intention du concepteur est introduite. Dans un programme classique l’intention du programmeur se lit (plus ou moins facilement) directement dans le code source. Dans le cas d’une IA l’intention du programmeur se retrouve dans les choix des données qu’il va décider de lui soumettre pour lui faire réaliser son apprentissage machine.

Qu’est ce que le machine learning ?

Le machine learning est une approche spécifique de l’IA, il se fonde sur l’usage de techniques statistiques dans la réalisation d’algorithmes d’apprentissage. Ainsi, en s’appuyant sur de nombreuses données, l’algorithme d’apprentissage va approximer une fonction qui mime les données en entrée. 

Comment l’IA fonctionne ?

L’IA n’a rien appris au sens propre du terme, elle a dérivé un modèle qui tend à reproduire le comportement attendu depuis un jeu de données. L’idée centrale est que, si le jeu de données est suffisamment représentatif, alors l’IA pourra (peut-être) généraliser correctement son fonctionnement sur de nouvelles données. Dans le même ordre d’idée, le deep learning s’appuie sur des réseaux de neurones dont les poids reliant les neurones sont adaptés durant l’apprentissage. {2}

En quelque sorte, l’IA paramètre un modèle grâce aux données et à une méthodologie d’apprentissage. Ces dernières peuvent être amenées à évoluer et à modifier la représentation qui a été faite du modèle {3}. Il faut ensuite espérer que ce modèle soit capable de généraliser correctement sur le reste du domaine d’emploi auquel il sera confronté. Effectivement, on a compris que l’IA se base sur de la généralisation à partir de ses données d'entraînement afin de déterminer les résultats. C’est le principe des algorithmes de DeepMind comme AlphaGo ou AlphaStar qui sont respectivement des champions du jeu de Go ou du jeu vidéo Starcraft. C’est en s’entraînant sur un nombre de parties colossal que l’algorithme arrive à se rapprocher presque toujours d’une situation qu’il connaît pour choisir l’action ayant le plus de chances de le mener à la victoire {4}. L’efficacité de ces démarches “d’apprentissage” ou plutôt “d’entrainement” dépend donc fortement des données qui doivent être en nombre suffisantes, variées et de qualité. {5}

L’IA “n’apprend” pas, du moins pas dans le sens d’un humain. Comme le rappelle Yaan Le Cun, responsable de la recherche en IA chez Facebook, les méthodes d’apprentissage d’un humain et d’une IA sont bien différentes. Là où un enfant a besoin de 3 photos pour pouvoir reconnaître un éléphant sur n’importe quelle image, il en faudra des milliers pour une IA. Selon lui, l'IA manque d’observation et d’intuition, qui seraient l’essence de l’intelligence. {6}

Pour Luc Julia, inventeur de Siri, l’IA ne serait effectivement pas intelligente car elle se contente d’obéir à des règles. Son apprentissage est normalisé, purement calculatoire.  L’IA ne peut donc pas imiter stricto sensu l’humain mais elle peut, par contre, lui permettre d’améliorer ses capacités en des points très précis, notamment concernant l’analyse de données. {7}

Pour conclure :

Encore une fois le vocabulaire associé à l’IA est trompeur. L’apprentissage pour la machine n’est pas un apprentissage semblable à celui d’un humain ; tout comme “l’intelligence” de l’algorithme n’en est pas vraiment une. Une IA va être nourrie de nombreuses données qui vont lui permettre de déterminer un modèle purement mathématique afin de résoudre un problème précis. Si l’IA peut réussir à obtenir des résultats satisfaisants pour des données qui ne font pas parties de son jeu de données d'entraînement, c’est grâce à sa capacité de généralisation de son modèle. Cependant, cette généralisation a toujours ses limites, la capacité à résoudre des situations suffisamment similaires à celles de l'entraînement ne permettra de résoudre des situations qui en sont très éloignées. Et savoir déterminer la frontière entre ce qui est proche ou éloigné des situations connues reste un problème difficile.

 

Retrouvez tous nos articles en cliquant ici !

 

Numalis

We are a French innovative software editor company providing tools and services to make your neural networks reliable and explainable.

Contact us

Follow us