Aujourd'hui l'IA permet d'aider à comprendre les attentes des électeurs ainsi que de renforcer les stratégies des politiques comme jamais auparavant.
Dans le domaine politique, les sondages font depuis longtemps l'objet d'une utilisation intensive, car étant jusqu'à récemment, les seules méthodes industrialisées de prédiction des élections. Ils permettent de mesurer l'opinion générale des citoyens sur un sujet donné en évitant de mettre en place un référendum à grande échelle qui serait bien plus coûteux.
Cependant, ces derniers ont des défauts, comme le manque de réponses détaillées et l'impossibilité de segmenter les réponses pour comprendre les nuances politiques de la population représentée {1}.
Afin d'affiner l'analyse des opinions, les instituts de sondage se tournent vers de nouveaux outils comme les algorithmes d'IA. En effet, le niveau de prédiction obtenu grâce à l'IA peut s'avérer parfois extrêmement précis.
La solution de chez Kcore Analytics a par exemple réussi à prédire correctement les résultats des élections présidentielles américaines de 2020. Pour ce faire, cette dernière a analysé un grand nombre de tweets pour fournir une estimation en temps réel du comportement probable des électeurs. Au final, sa prédiction était quasiment identique aux résultats finaux (IA Biden : 52,1 % et IA Trump : 47,9 % contre 52,27 % et 47,73 %) {2}.
En plus de la précision qu'elle peut apporter, l'IA offre d'autres possibilités pouvant ramener des indécis et lutter contre l'abstentionnisme. Par exemple, l'IA peut être utilisée dans l'information électorale en fournissant des recommandations personnalisées sur les partis ou les candidats en adéquation avec l'opinion politique des électeurs.
Également, en collectant des données sur les anciennes campagnes, les parties peuvent les analyser grâce à l'apprentissage automatique afin de comprendre plus efficacement les attentes des votants et aider à orienter les actions politiques en conséquence. Enfin, elle permet de lutter contre les « fake news » en détectant ces dernières automatiquement sur les réseaux sociaux et en fournissant des informations les invalidantes {3}.
Pour autant l'IA est loin d'être infaillible. En vérité, les IA se sont trompées à de nombreuses reprises. On peut citer, deux cas concernant l'élection présidentielle américaine de 2016. Le premier, avec l'IA Polly, qui était pourtant alimentée par des données provenant des différents réseaux sociaux mais, aussi de sites d'informations représentant un échantillon de plus de 200 000 votants {4}. Le second avec le projet « Chance of winning presidency » donnant Hillary Clinton vainqueur des élections présidentielles de 2016. Et il existe bien d'autres cas de fiasco {5}.
Les raisons de ces échecs sont multiples. D'une part, il est difficile pour l'IA de comprendre le raisonnement d'un électeur, qui n'est pas forcément basé sur le programme des candidats. D'autre part, l'IA a du mal à comprendre l'humour, l'ironie ou le second degré, qui sont pourtant largement utilisés sur les réseaux sociaux.
Ces outils, largement basés sur les techniques de NLP (Natural Language Processing), sont donc loin d'être matures même si leurs potentiels sont grands. À ce titre le développement du NLU, Natural Language Understanding, essaye justement de pallier aux difficultés du NLP.
De prime abord, l'emploi de l'IA dans le champ politique semble être une bonne idée pour renforcer la segmentation de l'ensemble d'électeurs en permettant aux parties politiques de comprendre davantage les attentes de ces derniers. Néanmoins, l'usage de l'IA dans ce domaine suscite une réelle inquiétude quant aux impacts éthiques que cela peut avoir.
Si l'exploitation des données publiques n'est pas nouvelle en soi, déterminer précisément une opinion politique des électeurs par l'analyse de données personnelles représente un danger inédit et bien réel.
Un des fondements de notre processus démocratique reste le vote anonyme, matérialisé physiquement par un isoloir dans nos bureaux de vote. Si demain l'IA permet de connaître et identifier les intentions de vote de chacun, existe-il encore une once d'anonymat dans notre acte de vote ?
Ce risque fut mis en lumière lors du scandale « Facebook-Cambridge Analytica » de 2014 faisant référence à l'exploitation des données personnelles de 87 millions d'utilisateurs de Facebook par la société Cambridge Analytica.
Ces informations étaient recueillies sans le consentement des utilisateurs des réseaux sociaux à travers un test de personnalité nécessitant la connexion du participant à une application.
De cette manière, Cambridge Analytica avait accès à l'ensemble des données personnelles du compte Facebook de l'utilisateur qui étaient fusionnées aux réponses du test de personnalité pour en dégager un profil psychologique {6}.
L'apprentissage automatique a été employé pour déterminer les profils à partir entre autres, de l'analyse du comportement des électeurs en temps réel sur les médias sociaux. Par la suite, ces profils ont servi à mettre en place une large campagne de communication avec des messages personnalisés basés sur des prédictions concernant leur sensibilité à différents arguments {7}.
En outre, si l'IA offre la possibilité de personnaliser les recommandations faites aux électeurs pour être plus en accord avec leurs opinions, cela risque de créer un effet tunnel. Le danger étant de pouvoir manipuler les électeurs influençables en obstruant les informations issues d'autres sources. Il en va de même pour la lutte contre les « fake news ». En effet, l'IA peut tout aussi bien être utilisée pour polluer automatiquement les réseaux sociaux de « fake news ».
L'Europe a bien compris les dangers éthiques de l'emploi de l'IA dans ce domaine. Pour protéger les droits fondamentaux propres à chacun, l'UE a proposé un règlement sur l'IA : L'IA Act.
Le règlement qui aura force de loi dans tous les pays européens, classe les applications de l'IA en trois catégories de niveau de risque. Nous pouvons ainsi retrouver les systèmes d'IA propres à l'« Administration de la justice et processus démocratiques » dans la catégorie de « Systèmes à risque élevé ». Les fournisseurs, les distributeurs ainsi que les utilisateurs devront alors prouver que leurs systèmes sont conformes et devront prendre des mesures correctives si nécessaire. De plus, il faudra être en capacité d'assurer de la pertinence des données utilisées et la transparence des IA {8}.
Au final, l'IA représente à la fois une opportunité et un danger pour l'amélioration de la planification démocratique. L'opportunité se retrouve au travers d'une meilleur compréhension des attentes des électeurs par la classe politique ainsi que par la réduction des taux d'abstention en suscitant plus d'engagement politique. Dans ce cas de figure, l'IA peut effectivement aider à analyser l'opinion publique et à déterminer les principales thématiques sur lesquels s'investir pour mobiliser l'électorat.
Cependant, la performance des IA sur ces sujets n'est pas encore suffisante comme le prouve les multiples échecs de prédiction. De plus, celle-ci pose plusieurs questions éthiques notamment sur l'usage des données personnelles. En cela, si l'intention de vote est prédite avant de pouvoir l'exprimer ; à quoi bon avoir besoin d'isoloirs pour voter ? Et si l'IA est capable de prédire les résultats des élections à l'avance, ne va-t-elle pas influencer les décisions des votants en agissant comme une prophétie auto réalisatrice ? Dans ce cas à quoi bon voter ?
C'est en suivant ce raisonnement qu'un candidat japonais aux élections municipales de Tama a proposé d'utiliser une IA pour l'ensemble de ses décisions politiques {9}. Si la proposition peut surprendre, elle est toutefois considérée comme valide par 18 % des Français qui estiment que « l'IA pourrait faire de meilleurs choix que les élus, à condition que la décision finale revienne à un être humain » {10}. Cela laisse encore beaucoup de place pour un débat sur ce sujet dans nos sociétés.
Retrouvez tous nos articles sur : https://numalis.com/publications.php
Écrit par Arnault Ioualalen & Quentin Guisti
Crédits images :
Image de bannière : Element5 Digital (unsplash)
Image 1 : Kamala harris (unsplash)
Image 2 : 905513 (pixabay)