« 73 % des Français déclarent que le développement d’une IA de confiance est un enjeu important, voire essentiel. » {1}
Voilà un des résultats de l’enquête sur la notoriété et l’image de l’IA en France réalisée en 2020 par l’IFOP et Think and do tank Impact AI. Celle-ci met en lumière le manque de confiance des citoyens pouvant être causé par les lacunes dans l’encadrement des projets d’IA et entre autres de ceux concernant les smart-cities {2}.
D’après la CNIL, la smart-city ou la « ville intelligente » est une zone urbaine visant à « améliorer la qualité de vie des citadins en rendant la ville plus adaptative et efficace, à l’aide de nouvelles technologies qui s’appuient sur un écosystème d’objets et de services »
La confiance étant une condition nécessaire au développement et l’adoption de l’IA dans les smart-cities {4}, il est important de comprendre l’origine de cette méfiance et quelles solutions pourraient être apportées.
L’IA est une technologie incomprise par la population. Il est normal que sa diffusion dans les champs d’application de la smart-city augmente la méfiance des citoyens. En effet, d’après la même enquête de l’IFOP, « Plus des deux tiers des Français se disent mal informés sur les possibilités offertes par l’IA. » Cette incompréhension de l’IA peut se traduire en un scepticisme et même parfois jusqu’à la défiance {5}. Dans cette masse de craintes, il est tout de même possible de faire ressortir plusieurs sujets centraux d’inquiétude pour les citoyens.
Tout d’abord la question de la sécurité des données privées. En effet, les citoyens craignent l’émergence de certaines technologies, telles que la surveillance biométrique, qui peuvent être détournées à des fins autoritaires {6}. Toujours en citant l’étude sur la notoriété et l’image de l’IA en France, 24% des sondés justifient leurs méfiances « par le risque d’une utilisation malveillante de la technologie » et pour 20% des interrogés « par un risque en termes de protection des données. » {1}.
De plus, plusieurs problèmes de biais ont pu être observés dans différentes villes testant l’IA (cf. à lire « Les biais techniques de l’IA, une fatalité ? »).
En effet, l’IA modélise les données qu’on lui donne. Si ces données sont biaisées, l’IA le sera aussi. En outre, de par la volumétrie des données que traite une smart-city, il peut devenir difficile d’identifier l’origine et de corriger ces biais.
Parmi ceux-ci, nous pouvons citer les risques de différence de traitements des individus. En effet, un biais de fonctionnement peut entrainer une discrimination d’une minorité de citoyens. La ville d’Oakland en a fait l’expérience avec la mise en place de l’outil de prédiction de crime « Predpol » {7}. Cette « police prédictive » ciblait davantage les minorités noires et latinos que la majorité blanche car elle avait été alimentée par des données possiblement discriminantes.
L’IA reste un outil en tant que tel et il est intrinsèquement neutre. L’origine des biais incombe en réalité très souvent à l’humain. Ces faits divers viennent alors entamer la confiance naissante que peuvent avoir les citoyens pour l’intelligence artificielle.
Il est possible de considérer les points suivants pour renforcer la confiance du public dans le développement de l’IA pour les projets de smart-cities. Ces considérations sont par ailleurs déjà proposées officiellement et parfois expérimentées.
Créer un « tiers de confiance »
Premièrement, la gouvernance des données générées par les smart-cities devrait être assumée par la puissance publique. De la sorte il est possible d’encadrer l’usage des données au bénéfice de la population. Dans cette configuration, les acteurs privés ne sont pas exclus des données mais ils sont des délégataires du service public et la ville reste garante de l’usage qu’ils font des données. Cette répartition des rôles peut se faire de deux façons différentes. Soit par l’entière prise en charge des données par la puissance publique, soit par la possibilité pour celle-ci, d’exercer un droit de regard sur la gestion des données.
Dans le premier cas, les autorités peuvent installer des infrastructures informatiques directement dans les collectivités locales recueillant les données des administrés (exemple de la création du Datacenter de la ville de Paris {8}) tout en ouvrant un accès aux acteurs privés.
Dans le deuxième cas, il est possible de laisser les acteurs privés mettre en place leurs installations. Mais ces derniers doivent être contraints au travers de plateformes de données permettant l’échange de données entre les acteurs privés, publics et les citoyens. Ces plateformes centralisent et sécurisent les données au sein d’une seule infrastructure dont l’acteur public reste le garant. C’est le cas par exemple de la plateforme PRIDE appliquée dans les régions Bretagne et Pays de Loire {9}. Cette plateforme joue alors le rôle de « tiers de confiance » {10} pour l’ensemble des acteurs.
Assurer la transparence des méthodes de traitements
Deuxièmement, pour renforcer la confiance des citoyens, une piste est de rendre plus transparent le fonctionnement des IA en montrant l’ensemble des motifs qu’elle identifie pour prendre sa décision. Cependant, une transparence simple n’est pas suffisante ; il faut également être en mesure de rendre l’IA explicable, i.e., la mettre dans le contexte de son emploi et fournir une explication que le récepteur est en mesure de comprendre.
En suivant cette démarche d’ouverture, les villes d'Amsterdam aux Pays-Bas et d'Helsinki en Finlande ont fait le choix de rendre public "un registre sur l'IA" pour présenter les motifs utilisés par l’IA permettant l'identification de place libre pour le stationnement {11}.
Entamer la construction d’un cadre normatif
Troisièmement, il est possible d’adresser les risques de biais dans les solutions mises en place pour les citoyens et ainsi éviter les accidents médiatiques qui ont émaillé le déploiement de cette technologie. Le cas de PredPol cité précédemment est en cela un cas d’école. Ceci passe par exemple par la création de normes pour prévenir des biais techniques de l’IA comme celles en cours de rédaction au sein de l’ISO/IEC JTC 1/SC 42 ou dans le groupe . La standardisation des IA permettra alors de réduire les risques de biais de discrimination, d’exclusion ou d’échantillonnage.
Bien que la population soit méfiante face à l’implémentation de l’IA en ville, il va falloir s'habituer à l'utilisation de cette technologie. En effet, son marché est en pleine croissance et pourra atteindre 1100 milliards d’euros en 2025{15}. Il est donc important de produire un cadre éthique à l’emploi de l’IA en smart-city. Celui-ci passerait par des démarches juridiques, de transparence et de standardisation de l’IA.
Après la confiance, l’étape suivante pour les pouvoirs publics, serait de développer l’appropriation de l’IA par les citoyens. En cela, si la smart-city se veut véritablement participative, il faut alors engager les citoyens dans le processus de mise en place de l’IA à l’image du crowndsourcing réalisé par la ville du Caire {16}. Des initiatives collaboratives pourront ainsi se mettre en place. Ces dernières réunissant les décideurs publics et les citoyens pour discuter de problèmes sociaux et convenir de la manière d’employer l’IA.
Retrouvez tous nos articles sur : https://numalis.com/publications.php
{2} https://www.usine-digitale.fr/article/pourquoi-google-abandonne-son-projet-de-smart-city-a-toronto.N962691
{3} https://www.cnil.fr/fr/definition/smart-city
{6} https://information.tv5monde.com/info/intelligence-artificielle-l-ue-va-t-elle-autoriser-la-surveillance-biometrique-412805
{8} https://www.paris.fr/pages/la-ville-innove-en-se-dotant-de-son-propre-data-center-6685
{9} https://smile-smartgrids.fr/fr/les-projets/nos-projets/pride.html
{10} https://spinpart.fr/smart-cities-enjeu-de-la-gouvernance-donnees-energie-ecologie-futur/
{12} https://www.iso.org/fr/committee/6794475.html
{13} https://www.iec.ch/dyn/www/f?p=103:14:0::::FSP_ORG_ID,FSP_LANG_ID:12973,25
{15} http://www.chaire-eppp.org/wp-content/uploads/2017/07/Alain-Chagnaud.pdf
Écrit par Arnault Ioualalen, Baptiste Aelbrecht & Quentin Guisti
Crédits images :
image bandeau : Tumisu (pixabay)
image texte 1 : CHUTTERSNAP (unsplash)
image texte 2 : Florian Wehde (unsplash)