L’autonomie des IA, peut-on vraiment en parler ? La notion est différente par rapport à ce que nos médias en font comme illustration.
L’intelligence artificielle est une notion complexe qui aujourd’hui n’a toujours pas de définition unique. Elle est souvent présentée comme un outil faisant du mimétisme des fonctions cognitives propres aux humains. Or, ce sont souvent des définitions floues et anthropocentrées qui portent préjudice au domaine. Il ne faut alors pas s’étonner que la présentation mentale que chacun se fait de l’IA se rapproche des fictions hollywoodiennes. On comprend que les problèmes de définitions sont importants pour ce domaine, le choix des mots s’avère crucial. C’est ce sur quoi nous allons nous pencher. Lorsque l’on dit que l’IA est autonome, est-ce vraiment le cas ? La réponse est non.
Pour commencer, il faut revenir à l’origine étymologique du mot “autonomie”. Le mot vient du grec : “auto” et “nomos” qui signifie : “qui fait ses propres règles”. Ce qui signifie que quelque chose d’autonome ne suit pas les règles qui lui sont imposées, il construit son propre ensemble de règles. Une population déclarant son autonomie ne cherche pas à continuer à obéir aux règles extérieures, bien au contraire. Or ce n’est absolument pas le cas des IA. Il serait plus juste d’utiliser le mot “automatique”, pour désigner un système qui fonctionne sans intervention humaine [1].
Si l’on prend l’exemple de la voiture autonome, elle n’a rien d’un système présentant un fonctionnement autonome, elle est en fait “hétéronome”, elle obéit à des règles externes. Si l’on souhaite que la voiture nous amène à un endroit, elle n’a d’autre choix que de nous y conduire, en respectant le code de la route. Si elle était autonome, elle pourrait décider que l’endroit ne lui convient pas ou que la route est trop encombrée et donc qu’elle souhaiterait conduire sur les trottoirs pour s’y rendre plus vite. Les questions relevant de “l’autonomie” des IA prennent alors une toute autre dimension. Effectivement, les systèmes autonomes n’existent pas vraiment aujourd’hui. On parlerait dans ce cas là d’IA “forte”, ce qui n’est actuellement pas près de voir le jour.
Si l’on s’intéresse aux débats liés à l’IA dans le domaine militaire, on se rend compte que les systèmes automatiques existent déjà depuis bien longtemps. Le cas du missile SCALP [6] est éclairant. Le système reçoit une mission par une description d’une cible et d’un lieu où elle est censée se trouver. Ensuite le système calcule automatiquement une trajectoire, des manœuvres d’évitement et d’identification pour aller jusqu’à valider que la cible est bien identifiée et donc qu’elle peut être engagée comme prévu. Si l’on prend un exemple un peu plus provocateur on peut parler du cas d’une mine anti-char qui explose dès qu’un véhicule suffisamment lourd roule dessus, et ce automatiquement. L’Homme la pose et la mine opère ensuite seule et c’est un cas système totalement admis [1]. On peut imaginer que l’IA peut améliorer ce fonctionnement et ne détonner que si un véhicule détecté est bien un char et non un camion. Le système devient un peu plus intelligent mais il peut encore évidemment se tromper. Mais pour autant la mine anti-char sans IA ne distingue aucun des deux cas et constitue un cas légitime d’emploi d’un système automatisé. Du coup, il est intéressant de se demander pourquoi le système avec IA poserait soudainement un problème d’adoption ? Le débat est pourtant bien présent et les craintes, que l’IA suscite dans le domaine militaire, qu’elles soient rationnelles ou non, doivent être adressées. Personne ne souhaite de systèmes d’armes pouvant lui-même désigner ses cibles et décider de ses actions sans qu'aucune règle soit imposée par l’Homme [2].
Rappelons que l’IA est surtout un moyen d’améliorer les capacités humaines, par exemple concernant l’analyse des flux d'informations. Les intérêts principaux de l’IA faible sont qu’elle permet entre autres un traitement des données efficace, la possibilité d’effectuer des actions avec plus de souplesse sur un sujet précis, ou encore une automatisation de certaines tâches relativement répétitives.
Pour aller plus loin, on peut aussi s’interroger sur le terme même “d’Intelligence” de l’Intelligence Artificielle. Ces systèmes sont-ils vraiment intelligents ? Il faut ici revenir à la caractérisation de leurs fonctions et de leurs façons de procéder. Actuellement, les IA sont très spécialisées pour effectuer une action mais s’y limitent. Pour y arriver, les IA comme les réseaux de neurones découvrent un modèle qui essaye de généraliser les données qu’elles ont apprises. Elles ne deviennent pas aussi intelligentes que l’humain. Elles se contentent de traiter des données en appliquant le modèle qu’elles ont appris [3]. Les IA ne restent pas moins que des systèmes créés par l’homme et elles sont donc la résultante de leur intention.
L’intention et la créativité restent des compétences fondamentales de l’être humain. Dans les IA faibles qui sont conçues aujourd’hui ces compétences n’ont pas d’équivalent. Seul le mimétisme de leurs actions nous pousse à croire incorrectement à leur intelligence. Encore une fois, les termes employés portent à confusion, les IA restent des automatismes [4].
Ainsi, il faut faire attention au choix des mots lorsque l’on parle d’IA. Les systèmes ne sont pas autonomes mais automatiques. Leur intelligence n’en est pas vraiment une, elle s’exprime plutôt par une très forte spécialisation qui lui permet de dépasser les capacités humaines dans une tâche précise. Il est en fait important de comprendre fondamentalement ce qu’est l’IA afin de ne pas alimenter de faux débats. Les instances internationales l’ont bien compris et se penchent depuis quelques années sur les questions de définition d’IA et de normalisation des IA [5]. Engager le dialogue et anticiper la manière de réguler des IA fortes est peut-être intéressant. Mais il ne faut pas que leur hypothétique apparition pollue le débat sur les IA qui elles existent déjà et méritent notre attention.
[1] Cahier de la RDN : La révolution de l’Intelligence Artificielle (IA) en autonomie : https://hal.archives-ouvertes.fr/hal-02503378/
[2] RDN : autonomie et létalité en robotique militaire : https://www.defnat.com/e-RDN/sommaire_cahier.php?cidcahier=1166
[4] https://www.blogdumoderateur.com/intelligence-artificielle-existe-pas/
[5] Commission européenne : LIVRE BLANC, Intelligence artificielle, Une approche européenne axée sur l'excellence et la confiance : https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf
[6] MISSILE SCALP : http://defens-aero.com/2015/12/armee-de-l-air-tire-premiers-missiles-croisiere-scalp-irak.html
Écrit par Arnault Ioualalen & Baptiste Aelbrecht
Sources images :
Image 1&2 : PIRO4D (Pixabay)