L’intelligence artificielle (IA) est passée de concepts théoriques à des applications concrètes. Dans le domaine du transport, elle a conduit au développement d’innovations de pointe qui promettent d’améliorer la mobilité à l’échelle mondiale. Aujourd’hui, les applications de l’IA dans l’écosystème des transports sont multiples, allant de la gestion du trafic aux véhicules autonomes.

Cependant, l’utilisation de l’IA dans les transports soulève également des questions éthiques, car les algorithmes qui alimentent ces applications reposent sur les données. Des erreurs de représentation, des données de mauvaise qualité ou biaisées peuvent entraîner des accidents aux conséquences potentiellement fatales. Ainsi, les parties prenantes doivent être prudentes lors de la mise en œuvre de l’IA.

L’IA est un outil puissant, et avec un grand pouvoir viennent de grandes responsabilités. Cet article explore l’équilibre délicat entre les considérations éthiques et les progrès de l’IA dans les transports.

Le besoin d’une IA éthique dans les transports

Les systèmes basés sur l’IA utilisent une quantité massive de données, dont certaines en temps réel. Il est donc essentiel de bien réfléchir avant de se lancer dans des projets alimentés par l’IA. Leur mise en œuvre doit être centrée sur l’humain, respecter le cadre légal et adhérer à des principes moraux.

Les logiciels pilotés par l’IA fonctionnent grâce à l’intégration avec d’autres technologies, telles que le Cloud et les capteurs IoT. Cela implique une gestion soigneuse des différentes plateformes nécessaires à la production de solutions d’IA.

Protéger la confidentialité des données personnelles et prévenir les abus

Le transport, pilier de la vie moderne, génère quotidiennement une quantité énorme de données. Par exemple, les véhicules autonomes (AVs) collectent des données via des caméras, radars, lidars, GPS et divers capteurs. Selon Intel, un véhicule autonome peut générer jusqu’à 4To de données par jour 1.

Grâce à l’Edge Computing, les véhicules deviennent des centres de données mobiles. Ces données proviennent des passagers, des piétons, des voitures, des cyclistes et de l’environnement. Cependant, la commercialisation et la collecte massive de ces données réduisent le contrôle des individus sur leurs informations personnelles.

Les données collectées incluent des informations de localisation et des données biométriques. Russell Ruben, directeur marketing chez Western Digital, explique que certaines de ces données sont traitées en temps réel avant d’être supprimées, tandis que d’autres sont stockées pour entraîner des modèles d’IA2. De plus, les AV personnels stockent des données supplémentaires, notamment les préférences de l’utilisateur et des informations financières.

Le stockage des données sur le Cloud pour le traitement et l’entraînement des modèles ouvre la porte à des fuites de données et des accès non autorisés. Par exemple, des chercheurs en IA de Microsoft ont accidentellement exposé 38 To de données en configurant mal un serveur Cloud3.

Une enquête menée par HiddenLayer, une entreprise de cybersécurité, a révélé qu’en 2023, environ 77 % des entreprises interrogées avaient subi des violations liées à leurs solutions d’IA 4. Selon Chris Sestito, PDG de HiddenLayer, l’IA est la technologie la plus vulnérable jamais déployée dans des systèmes de production 5.

Les données utilisées pour l’IA doivent être traitées dans le cadre des réglementations légales en vigueur. Les entreprises doivent être transparentes sur leurs processus. Par exemple, les autorités qui utilisent l’IA pour gérer le trafic doivent éviter de l’exploiter à des fins de surveillance.

Les développeurs d’IA pour les transports doivent intégrer dès la conception des principes de protection de la vie privée. Cela signifie inclure la confidentialité comme composante essentielle des modèles d’IA afin de limiter les atteintes à la vie privée. Des stratégies telles que le chiffrement des données, des pratiques de cybersécurité robustes et l’anonymisation des données personnelles doivent être prioritaires.

Des cadres réglementaires solides comme le RGPD de l’UE et le CCPA de Californie offrent des bases intéressantes, bien que des améliorations soient encore nécessaires.

Aborder les biais algorithmiques et promouvoir l’équité

Les biais dans les solutions d’IA proviennent souvent de données non représentatives ou défectueuses qui perpétuent des inégalités. Si ces biais ne sont pas corrigés, ils peuvent conduire à des décisions discriminatoires.

Une étude menée par Georgia Tech a révélé que les modules de détection d’objets dans les AVs avaient des performances insatisfaisantes pour détecter les personnes de couleur, exposant ces groupes à des risques accrus d’accidents6.

Biais dans les applications de reconnaissance vocale automatisée

Les systèmes d’IA à commande vocale trouvent de plus en plus leur place dans les véhicules, tant pour des fonctionnalités embarquées qu’externes. Cependant, les solutions de reconnaissance vocale automatisée (ASR, Automated Speech Recognition) développées avec des données biaisées ou non diversifiées peuvent présenter des lacunes7.

Ces lacunes peuvent être dues à des modèles de discours variés, des accents régionaux ou des contextes mal interprétés. Une étude de l’Université de Stanford a mis en évidence des disparités raciales significatives dans les systèmes ASR. Selon cette recherche, les assistants vocaux équipés de capacités de traitement du langage naturel (NLP) identifient mal 35 % des mots prononcés par des locuteurs noirs, contre 19 % pour les locuteurs blancs 8.

Les fonctionnalités activées par la voix sont un véritable atout pour l’industrie automobile, améliorant l’accessibilité dans divers écosystèmes de transport. Cependant, en l’absence de données d’entraînement diversifiées et de tests rigoureux, les systèmes ASR risquent de ne pas répondre aux attentes de certaines communautés.

Des biais dans les données d’entraînement peuvent limiter l’acceptation sociale et la confiance envers l’IA. Une IA qui automatise et renforce les stéréotypes peut causer des dommages aux utilisateurs du transport. Les parties prenantes doivent donc prendre des mesures proactives pour résoudre les problèmes qui contribuent aux inégalités. Les solutions locales doivent répondre aux besoins des populations locales tout en tenant compte des visiteurs et des usagers étrangers.

L’IA identifie des motifs et corrélations cachés dans les données, aidant les systèmes et les opérateurs à prendre des décisions. Cependant, ces systèmes sont souvent perçus comme complexes et opaques, ce qui suscite des inquiétudes sur la transparence, la confiance et la responsabilité.

Les systèmes de deep learning sont critiqués pour leur nature de « boîtes opaques », car il est difficile de comprendre comment leurs décisions sont prises. Par exemple, les véhicules autonomes sont censés freiner en cas de détection d’un piéton. Pourtant, si un accident survient, il est impossible de retracer le processus de « réflexion » de l’IA 9.

Le professeur Samir Rawashdeh de l’Université du Michigan souligne les défis liés à la robustesse des systèmes de perception des véhicules autonomes. Il explique que si un accident se produit parce qu’un système n’a pas détecté un piéton, cela pourrait être dû à une situation nouvelle pour laquelle le système n’a pas été entraîné.

Cependant, Rawashdeh remet en question la faisabilité de recueillir des données d’entraînement qui couvrent tous les scénarios possibles, étant donné l’infinité de permutations dans les conditions de conduite réelles : variations météorologiques, types de routes ou niveaux d’éclairage.

Des stratégies pour résoudre le problème des boîtes opaques incluent le développement d’une IA explicable (XAI, Explainable AI). Ce cadre aide à interpréter et comprendre les modèles d’IA, en caractérisant leur précision, leur transparence et leurs résultats.

L’IA explicable permet aux développeurs de vérifier si les sorties des modèles sont exactes en effectuant des simulations par rapport aux résultats attendus. Des techniques comme DeepLIFT peuvent également être utilisées pour tracer la dépendance entre les entrées et les sorties des systèmes d’IA 10.

Les dilemmes de prise de décision dans les véhicules autonomes

Dans un environnement de transport imprévisible et dynamique, les véhicules autonomes peuvent être confrontés à des dilemmes éthiques complexes. L’un des exemples les plus célèbres pour illustrer ce défi est le « problème du tramway ».

Dans le contexte des AVs, ce dilemme se pose lorsque le véhicule doit prendre des décisions en une fraction de seconde, choisissant entre deux issues potentiellement préjudiciables. Par exemple, un AV pourrait se retrouver dans une situation où il doit choisir entre percuter un groupe de piétons ou dévier et mettre en danger ses passagers.

Cela soulève des questions sur les principes éthiques et les cadres de décision à intégrer dans les systèmes d’IA. Les AVs doivent-ils prioriser la sécurité de leurs passagers ou celle des piétons ? Ou doivent-ils être programmés pour minimiser les dommages globaux ?

Trouver un équilibre entre ces priorités conflictuelles et déterminer les compromis appropriés exige une réflexion approfondie et un dialogue continu entre les éthiciens, les décideurs politiques et les acteurs de l’industrie.

Impact sur l’emploi et le marché du travail

Un rapport de PwC indique que l’IA et l’automatisation pourraient ajouter plus de 15 000 milliards de dollars à l’économie mondiale d’ici 2030 11. Cependant, cela se fera au prix de déplacements d’emplois et d’impacts sur le marché du travail. Le Forum économique mondial estime que l’IA pourrait entraîner la perte de 75 millions d’emplois dans le monde d’ici 2025 12.

L’industrie du transport est particulièrement concernée : une fois que les AVs atteindront une autonomie complète, les chauffeurs de taxis et de services de covoiturage risquent de perdre leur emploi.

Par exemple, Baidu, géant chinois des moteurs de recherche, exploite un service de robotaxis à Wuhan. L’adoption rapide de ce service et ses tarifs bas suscitent des inquiétudes parmi les chauffeurs locaux, qui voient leurs emplois menacés 13.

Face à ces menaces, les travailleurs du secteur des transports devront se former à de nouvelles compétences. Les autorités compétentes doivent veiller à ce que les projets d’IA dans le transport soient centrés sur l’humain, augmentant les capacités des travailleurs plutôt que de les remplacer.

Préoccupations liées à la sécurité

En juin 2022, un robotaxi Cruise a blessé plusieurs passagers. Selon le rapport d’accident, l’enquête a conclu que les décisions prises par le véhicule étaient « inacceptablement risquées » 14. Dans un autre incident, un robotaxi Cruise a percuté un bus par l’arrière en raison d’une erreur dans le modèle de prédiction15.

Ces incidents, ainsi que d’autres, ont mis en lumière les problèmes de sécurité des véhicules autonomes. Ces véhicules reposent sur des technologies sophistiquées qui collectent et traitent des données avant de prendre des décisions. Le moteur d’IA, basé sur des réseaux neuronaux, est formé avec de nombreuses images pour des tâches comme la détection d’objets. Cependant, ce moteur peut rencontrer des difficultés dans des situations peu communes, ce qui peut conduire à des décisions contestables.

La sécurité des systèmes d’IA destinés au grand public est cruciale. Toute solution d’IA qui nuit ou perturbe négativement les usagers suscite de la méfiance. Les solutions basées sur l’IA doivent donc faire l’objet de tests rigoureux et de simulations continues pour renforcer l’apprentissage des systèmes.

Équilibrer les bénéfices et les risques

L’IA transforme le secteur des transports avec des applications telles que l’optimisation des itinéraires et une meilleure gestion du trafic. Cependant, les préoccupations éthiques, notamment en matière de vie privée, soulignent la nécessité d’une mise en œuvre prudente des projets d’IA. Des stratégies appropriées doivent être adoptées pour garantir que les risques ne l’emportent pas sur les avantages.

Par exemple, un cadre législatif approprié peut fournir une plus grande clarté et un équilibre entre les projets d’IA et les risques associés. Cependant, à l’heure actuelle, les lois accusent un retard par rapport aux avancées spectaculaires de l’IA.

En outre, les autorités et les entreprises doivent concevoir des projets centrés sur le public tout en tenant compte des considérations éthiques. Des normes et stratégies doivent être établies, notamment en ce qui concerne l’implication des parties prenantes, l’éducation des utilisateurs, la traçabilité et l’utilisation d’une IA explicable. En fin de compte, les applications éthiques de l’IA bénéficieront d’une meilleure acceptation et d’une confiance accrue.

Conclusion

L’IA dans le secteur des transports offre des perspectives prometteuses en termes d’efficacité, de sécurité et de durabilité. Cependant, la prise en compte des considérations éthiques est essentielle pour une mise en œuvre réussie. Une approche proactive pour atténuer les risques liés à la vie privée, aux biais algorithmiques et à la sécurité est cruciale pour instaurer la confiance du public et surmonter les préoccupations actuelles.

En établissant des cadres éthiques solides, des normes et des lignes directrices, les développeurs de systèmes d’IA peuvent garantir que cette technologie est déployée de manière à respecter les droits individuels, promouvoir l’équité et prioriser les besoins des acteurs du secteur des transports.

  1. Data is the New Oil in the Future of Automated Driving | Intel Newsroom ↩︎
  2. How Data Unlocks the Future of Autonomous Vehicles ↩︎
  3. Types of Risks in AI – Data Leakage ↩︎
  4. HiddenLayer’s 2024 AI Threat Landscape Report ↩︎
  5. Study: 77% of Businesses Have Faced AI Security Breaches ↩︎
  6. Research Reveals Possibly Fatal Consequences of Algorithmic Bias | College of Computing ↩︎
  7. Voice-activated Devices: AI’s Epic Role in Speech Recognition ↩︎
  8. Understanding algorithmic bias and how to build trust in AI: PwC ↩︎
  9. AI’s mysterious ‘black box’ problem, explained | University of Michigan-Dearborn ↩︎
  10. What is Explainable AI (XAI)? | IBM ↩︎
  11. PwC’s Global Artificial Intelligence Study: Sizing the prize ↩︎
  12. The Impact of AI on Job Roles, Workforce, and Employment: What You Need to Know ↩︎
  13. Super cheap robotaxi rides spark widespread anxiety in China -CNN Business ↩︎
  14. Cruise Unacceptably Risky – Part 1 — Retrospect ↩︎
  15. Why we do AV software recalls | Cruise ↩︎