Publications

Comment favoriser une utilisation éthique de l'IA dans l'éducation ?

16 mars 2023

Si l’industrialisation de l’intelligence artificielle (IA) n’en est qu’à ses débuts dans certains secteurs, cette technologie est d’ores et déjà de plus en plus intégrée dans le secteur de l’éducation.

Malgré ses résultats encourageants et son formidable potentiel, l’IA entraîne cependant de sérieux risques pour les plus jeunes [1].

Tandis que l’Europe se dote de solides outils de régulation avec l’EU AI-Act notamment en précisant les usages interdits au sein de l’UE pour participer à la construction d’une IA éthique et de confiance, la France se prépare également à encadrer l’IA.

En attendant l’évolution du cadre législatif, la CNIL (Commission Nationale de l'Informatique et des Libertés) régule déjà des systèmes d’IA impliquant des données personnelles [2], afin de garantir la protection des droits fondamentaux et plus particulièrement le droit à la protection des données. 

Concernant l’inclusion de l’Intelligence Artificielle dans l’éducation, le ministère de l'Éducation nationale, de la Jeunesse et des Sports est aux commandes en suivant la Stratégie nationale pour l'intelligence artificielle (SNIA) et les recommandations de la CNIL [3].

Cela suffira-t-il, au vu de la complexité des défis à relever en matière d’usage éthique de l’IA ?

Les considérations éthiques liées à l'utilisation de l'IA dans l'éducation

L’IA peut être utilisée par les élèves comme les enseignants, au sein des établissements scolaires et en dehors. Parmi les principaux usages potentiels, il y a surtout l’apprentissage adaptatif, qui personnalise le parcours d’apprentissage d’un élève, à l’instar de la plateforme Knewton ou Google Classroom. Citons également la correction ou la traduction de textes, à l’aide d’algorithmes de NLP (Natural Language Processing), comme Deepl par exemple. Et l’automatisation de tâches par l’IA, sur les plateformes telles que Google Classroom, facilite à la fois l’apprentissage et l’enseignement. Par exemple, au fur et à mesure que les élèves complètent les exercices, ils reçoivent un retour d'information en temps réel qui leur permet de savoir s'ils sont ou non sur la bonne voie. Si un élève a du mal à résoudre un problème, il peut obtenir des conseils par le biais d'explications visuelles et de vidéos [4]. Ce sont des tâches qui seraient normalement impossibles à réaliser pour les professeurs, le manque de temps ne permettant pas l’accompagnement individuel en temps réel. Mais l’automatisation apportée par l’IA permet de répondre à ce genre de problématique.

Les bénéfices de l’IA dans l’éducation sont multiples, mais ils s’accompagnent de défis spécifiques, comme dans de nombreux autres domaines sensibles, que ce soit dans la santé, la justice ou la défense. Dans l’éducation, le principal risque concerne les biais que peut induire l’IA qui peuvent s’avérer néfaste aux élèves de plusieurs façons, par exemple en entretenant des stéréotypes ou en accentuant des inégalités.

Les autres considérations éthiques se rapportent au risque de déshumanisation de l’apprentissage [5]. Il inquiète en raison du possible appauvrissement des relations entre élèves et enseignants. Nous reviendrons également sur les risques liés à la fuite de données, qui est une problématique majeure.

Avec le risque de déshumanisation, des craintes sont également portées sur un remplacement des enseignants par des algorithmes. Or, l’IA est mise en place dans un but de coopération homme-machine avec les enseignants, et non dans un but de substitution. Les enseignants seront assistés par l’IA pour leur permettre de mieux suivre et mieux accompagner les élèves. Les autorités agissent dans une démarche qui prend en compte cette préoccupation : « La stratégie de l’IA en éducation doit proposer des solutions aux professionnels de l’enseignement et de la formation, aider aux apprentissages et aux décisions sans jamais se substituer aux personnes. » [6]. Les professeurs sont une composante indispensable de la société, pour faire référence à Sénèque, “Les hommes apprennent en enseignant”.

Qu’est-ce qui garantit une utilisation éthique de l'IA actuellement dans l’éducation ?

Selon la Stratégie nationale pour l'intelligence artificielle [6], la meilleure prévention en matière d’éthique dans l’éducation consiste à commencer par correctement former les enseignants et les élèves sur le sujet.

Les objectifs sont une meilleure compréhension et un « usage raisonné » de l’IA. Pour ce faire, l’éducation nationale a mis en place de nombreux projets et partenariats, tels que P2IA (Partenariat d'innovation et intelligence artificielle) [7]. Celui-ci a par exemple permis le développement de Mathia ou Adaptativ’Math, logiciels destiné aux élèves de CP, CE1 et CE2, pour l’apprentissage des mathématiques [8]. Des classes sont actuellement en train d’expérimenter l’utilisation de ces logiciels dans l’apprentissage des mathématiques [9]. D’autres projets sont également menés avec d’autres pays européens, comme AI4T (l’intelligence artificielle pour et par les professeurs) [10].

Le dispositif Edu'Up, soutenu par le ministère de l’Éducation nationale, a donné lieu à un soutien pour le développement de plusieurs applications [11], à l’instar de Beegup. La plateforme pour les lycéens est dédiée à la pratique orale des langues étrangères. Quant aux solutions basées sur l’IA pour l’enseignement supérieur, elles sont très nombreuses, surtout en raison du partenariat entre le ministère de l’Éducation et Moodle [12], même si cette plateforme est utilisée dès le collège. Les établissements d’enseignement utilisent en grand nombre ce LMS (Learning Management System) pour individualiser les parcours ou créer des MOOC (Massive Open Online Courses), de Sciences Po à l’ESSEC en passant par HEC.

Ajoutons que les développeurs travaillant sur l’IA sont les premiers confrontés aux défis éthiques qui se posent à son usage dans le secteur de l’éducation. Pour respecter des principes éthiques de développement des IA, au sens des “Ethics guidelines for trustworthy AI” de la Commission Européenne [13], les entreprises doivent notamment faire preuve d’une plus grande transparence en ce qui concerne le traitement des données. La promulgation et le développement d’IA fiables sont des sujets à la fois techniques et sociétaux, qui impliquent de plus en plus d’organisations et d’entreprises, comme dans les organismes Partnership on AI ou l’Alliance européenne de l’IA [14].

Au cœur des défis éthiques de l'IA pour le secteur éducatif : validation algorithmique, gouvernance et protection des données

Les défis introduits par l’utilisation des systèmes d’IA sont à la fois sociétaux, légaux et techniques. Pour y répondre, un cadre éthique décliné dans un contexte normatif et législatif est nécessaire ; nous reviendrons dessus dans la prochaine partie. Il faut permettre d’encadrer et de sécuriser au mieux ces technologies, notamment afin d’éviter des dérives telles que l’exploitation des données des mineurs à des fins commerciales ou d’influence sur leurs choix scolaires. Les entreprises qui travaillent dans le domaine de l'éducation se doivent de mettre en place des politiques fortes permettant de répondre aux enjeux de protection des données et de validation de l’IA.

La protection des données est déjà un sujet primordial pour les entreprises depuis la mise en place du RGPD. Avec l’utilisation massive des données, un des enjeux est de tout simplement protéger les données à caractère personnel et de limiter leurs potentielles fuites. La gestion de la gouvernance des données est alors importante en ce sens, une mauvaise gouvernance ou une gouvernance insuffisante peut être un facteur de fuite de données. Effectivement, derrière la “gouvernance des données” se cachent des principes tels que la gestion de la qualité des données, leur localisation ou encore l’identification des acteurs pouvant prendre telles mesures, sur telles données, dans telle situation et par telle méthode. Or, avec le Cloud Act des États-Unis [15] ou encore la Global Data Security Initiative de la Chine [16], les pays mentionnés peuvent récupérer toutes les données transitant sur leur territoire si elles en jugent la nécessité. La gouvernance des données est donc un réel enjeu pour les Européens qui ont tout intérêt à conserver leurs données en Europe, pour les protéger et se prémunir de possibles exploitations à leur insu.

Outre les problématiques liées aux données, il est également nécessaire de valider les systèmes d’IA, pour s’assurer de leur fiabilité. Le secteur de l’éducation ne déroge pas à la règle, la sûreté y est importante car l’utilisation de l’IA dans ce secteur peut être jugée comme critique puisqu’elle affecte directement les personnes influençables que sont les enfants. Ainsi, sans faire une liste exhaustive, faire valider un système d’IA vise à prendre en compte de nombreuses notions dont la robustesse, la transparence et l’explicabilité des algorithmes font partie. Ces thématiques sont notamment fortement liées aux problématiques connues des biais dans le fonctionnement des IA et visent entre autres à les éliminer. Avec la validation algorithmique de l’IA, les utilisateurs sont assurés de leur fiabilité et peuvent avoir une certaine compréhension du fonctionnement d’un système IA, ce qui dans certains cas est vital pour établir la confiance dans un système d’IA. Par ailleurs, l’éducation a bien pris en compte ces développement technologiques et leurs enjeux sociétaux, puisque depuis 2015, les nouveaux programmes scolaires comprennent l’enseignement de l’algorithmique à partir du CM1 [17].

Les initiatives de cadrage de l’IA pour l’éducation : la place du RGPD et de la réglementation IA de l’EU AI-Act

La CNIL définit comment être en conformité avec le RGPD (Règlement général sur la protection des données) dans le cadre d’une utilisation de l’IA [18]. Le RGPD est généralement considéré comme un texte efficace pour la protection des droits en matière de collecte et traitement de données. Il est européen, mais toute entreprise où qu’elle soit est tenue de le suivre, si elle collecte des données au sein de l’UE. Respecter ce règlement est une première étape obligatoire et essentielle pour faire un pas vers une utilisation éthique de l'IA dans l’éducation.

En termes de réglementation de l’IA, l’un des textes les plus prometteurs est l’EU AI Act, qui est en cours d’élaboration depuis avril 2021. Ce règlement européen, le premier du genre, catégorise les applications utilisant l’IA en plusieurs niveaux de risques : les applications interdites (risque inacceptable), les applications à haut risque, les applications à risque modérée et les applications sans risque. Avec son EU AI-Act, l’UE vise à instaurer un cadre éthique propre à développer la confiance pour le développement et l’utilisation des IA [19]. En particulier, il définit les exigences attendues pour les IA à haut risque qui constituent la principale catégorie d’intérêt pour les concepteurs d’IA à destination de l’éducation.

Le plan d’action de l’UE en matière d’éducation numérique (2021-2027) est une autre initiative incontournable [20]. Il soutient les systèmes éducatifs des pays membres dans leurs projets d’éducation numérique. Un volet important est consacré à l’IA et à l’utilisation des données dans le secteur, avec des lignes directrices éthiques et des axes de formation des enseignants.

Différents supports pour favoriser une IA éthique

Outre la formation et la sensibilisation des responsables, différents supports visent à favoriser une utilisation de l'IA de confiance dans l'éducation. Il est par exemple possible de citer :

  • La CNIL : l’organisme, consulté par le gouvernement, est étroitement impliquée sur le sujet  de l’IA en France. Ses publications s’adressent au public, comme aux professionnels et aux experts de l’IA. Selon le Conseil d’État, pour prévenir la fuite de données, la CNIL devrait être la principale responsable de la surveillance de l’IA [21]. 

  • Les standards ISO (24029-1 & 24029-2), Assessment of the robustness of neural networks [22] : ils définissent comment valider des réseaux de neurones, ce qui permet de s’inscrire dans une démarche de robustesse de l’IA, tel que défini par le groupe d’experts IA de l'Union Européenne [23].

  • Les services d'audit des algorithmes IA et les organismes de certification : ils ont pour but de vérifier la conformité aux normes en vigueur et peuvent donc promulguer des conseils et servir de support pour atteindre les niveaux de fiabilité attendus.

Opportunités de l'IA dans l'éducation et moyens d'élargir le champ des possibles

Moins d’élèves en difficultés, des enseignements de meilleure qualité avec des conseils et corrections en temps réel, un gain de temps pour les enseignants, via une assistance dans l’aide qu’ils peuvent apporter à leurs élèves ; l’IA laisse envisager d’innombrables avancées pour le secteur éducatif.

Parallèlement aux technologies en évolution constante, comme la reconnaissance vocale, la réalité augmentée ou l'opinion mining, de nouvelles technologies seront indubitablement amenées à être développées. Le champ des possibles est d’autant plus vaste que les technologies d’IA deviennent continuellement plus performantes et capables de résoudre de nouveaux problèmes.

En même temps, le développement des technologies d’IA doit tenir compte des défis éthiques propres à la thématique de l’éducation, notamment par rapport à la transparence des algorithmes, aux biais et à la protection des données. 

D’autres défis autour de l’IA seront également à prendre en compte pour son utilisation au sein de l’éducation, comme par exemple avec le sujet de la consommation d’énergie des technologies d’IA [24]. L’IA est effectivement une technologie qui comporte des coûts à la fois dans les phases de conception et d’exploitation, ce qui entraîne une consommation d'énergie et des besoins matériels (data centers, fermes de calculs) non négligeables. Cependant, des solutions existent pour limiter l'impact de cette technologie, comme l’utilisation de data centers à sources d’énergies renouvelables ou encore la réduction des coûts d'entraînement des IA en passant par des méthodes d’apprentissage frugal. L’IA peut même s’avérer être utile pour réduire certaines consommations d’énergies, par exemple en optimisant le chauffage ou en optimisant les temps des feux de circulation pour fluidifier le trafic  [25]. C’est un point qui requiert également l’attention des professionnels de l’éducation, mais c’est un sujet à part entière qui mérite un autre article.

 

Suivez les sorties et retrouvez tous nos articles sur : 
https://numalis.com/publications.php

Auteurs

Ecrit par Baptiste Aelbrecht & Jacques Mojsilovic & Camille Jullian & Arnault Ioualalen

 

Image par Stefan Meller de Pixabay

Numalis

We are a French innovative software editor company providing tools and services to make your neural networks reliable and explainable.

Contact us

Follow us