En pleine préparation de la Loi d'Orientation des Mobilités et au moment où les transports font plus que jamais l'objet de débats politiques et réglementaires, l'International Transport Forum (ITF) de l'OCDE publie le 23 mai 2019 une étude intitulée Governing Transport in the Algorithmic Age.
Le premier mérite de l'étude est d'identifier les risques induits par le recours aux algorithmes dans le domaine des transports de façon concrète et pédagogique.
L'importance des algorithmes mais aussi des données et des réseaux (Data, Networks, Algorithms : the next DNA of transport) pour les transports est illustrée par des exemples variés : guidage des personnes et des véhicules, contrôle d'accès, services innovants de véhicules partagés, de transport à la demande, péages, planification des investissements et, bien sûr, véhicules autonomes...Le rôle croissant des applications, leurs interdépendances via les données qu'elles génèrent et consomment laisse entrevoir un vaste système de mobilité complexe piloté par des algorithmes et bien des dystopies si l'homme perd la maîtrise de l'ensemble !
C'est l'occasion de saluer la qualité du travail de l'ITF dont les rapports sont clairs et intéressants. Je vous incite à le lire et en retiens quelques pépites que je vous livre.
Le premier mérite de l'étude est d'identifier les risques induits par le recours aux algorithmes dans le domaine des transports de façon concrète et pédagogique.
L'importance des algorithmes mais aussi des données et des réseaux (Data, Networks, Algorithms : the next DNA of transport) pour les transports est illustrée par des exemples variés : guidage des personnes et des véhicules, contrôle d'accès, services innovants de véhicules partagés, de transport à la demande, péages, planification des investissements et, bien sûr, véhicules autonomes...Le rôle croissant des applications, leurs interdépendances via les données qu'elles génèrent et consomment laisse entrevoir un vaste système de mobilité complexe piloté par des algorithmes et bien des dystopies si l'homme perd la maîtrise de l'ensemble !
L'adage "code is law" s'applique parfaitement à la mobilité... mais le code de la route et plus généralement les outils qui formalisent actuellement la gouvernance des transports sont-ils suffisamment accessibles aux machines ? Est-il souhaitable de "coder" la loi ? de déléguer certaines fonctions réglementaires aux machines ? Comment réguler les algorithmes ? L'essentiel des recommandations de l'étude éclairent ces questions.
L'étude introduit, d'abord, ce que sont les algorithmes, comment ils fonctionnent et ce qu'ils permettent de faire. L'intelligence artificielle ou plus justement les différentes techniques d'apprentissage automatique (machine learning) ne reposent que sur des algorithmes et ne sont pas exemptes de failles et de biais. La notion de "régulation algorithmique" émerge, elle ouvre de nombreuses questions.
La compréhension des impacts des algorithmes, souvent positifs et parfois négatifs, est un prérequis peut y répondre. Ces impacts sont illustrés par des cas concrets réels :
- erreurs de programmations faisant accélérer des automobiles,
- défaut dans les interactions entre l'homme et la machine lors des accidents mettant en cause des voitures en "pilotage automatique" dans lesquels l'homme aurait dû reprendre le contrôle du véhicule,
- introduction de biais et de discriminations dans l'accès à certains services de mobilité...
Les risques liés aux algorithmes couvrent des catégories étendues de la sécurité des personnes à la défense du bien social en passant par l'équité, la transparence, la responsabilité et la protection de la vie privée.
Dans chaque catégorie les risques sont illustrés concrètement par des failles ou des attaques réelles. Une attaque spectaculaire visant à leurrer les capteurs d'un véhicule autonome en lui faisant prendre un feu vert pour un feu rouge est particulièrement évocatrice des risques.
Dans chaque catégorie les risques sont illustrés concrètement par des failles ou des attaques réelles. Une attaque spectaculaire visant à leurrer les capteurs d'un véhicule autonome en lui faisant prendre un feu vert pour un feu rouge est particulièrement évocatrice des risques.
Pour ceux qui douteraient encore, je ne résiste pas à l'envie de vous partager cette vidéo récente de l'université de Stanford même si elle n'a pas de lien avec le transport. Elle montre, de façon spectaculaire, à quel point il est facile de leurrer non seulement les algorithmes, mais aussi les gens !
Les différences entre les décisions humaines et algorithmiques sont, d'ailleurs, abordées. Les premières peuvent être mauvaises mais elles sont, en majorité, clairement encadrées par les lois et associées à des principes de responsabilités et de sanctions. Ce cadre résulte de longues observations des risques et de négociations entre les différentes parties prenantes.
Si il semble prématuré de changer ces règles "analogiques" pour les adapter aux algorithmes, il est nécessaire que les régulateurs prennent mieux en compte l'importance réelle du logiciel dans le domaine des transports.
Les différences entre les décisions humaines et algorithmiques sont, d'ailleurs, abordées. Les premières peuvent être mauvaises mais elles sont, en majorité, clairement encadrées par les lois et associées à des principes de responsabilités et de sanctions. Ce cadre résulte de longues observations des risques et de négociations entre les différentes parties prenantes.
Si il semble prématuré de changer ces règles "analogiques" pour les adapter aux algorithmes, il est nécessaire que les régulateurs prennent mieux en compte l'importance réelle du logiciel dans le domaine des transports.
Dix recommandations découlent de cette analyse :
- sensibiliser les autorités aux algorithmes et rendre les politiques des transports compatibles avec les algorithmes,
- s'assurer que le contrôle et la tutelle des algorithmes sont bien proportionnés à leurs impacts et aux risques qu'ils induisent,
- intégrer, par défaut, des fonctions d'audit dans les algorithmes susceptibles d'avoir un impact important,
- traduire les règles de droits "analogiques" en code lisible par les machines pour permettre leur utilisation par des algorithmes (l'étude signale que 782 autorités réglementaires dans le monde, dont 39 en France, le Bundestag et la ville de Washington, ont déjà transcrit certaines de leurs règles en code et les ont mises à disposition du public sur Github),
- avoir recours à des algorithmes pour réguler de façon plus dynamique et efficiente (voir les propositions de la ville de Los Angeles pour réguler l'utilisation de l'espace urbain par les services de VTC via un système d'API nommé Mobility Data Specification dont nous avions parlé ici),
- comparer la performance des systèmes algorithmiques à celle des prises de décisions humaines,
- évaluer les algorithmes au delà des critères de transparences et d'explicabilité (développer la notion d'explicabilité "by design"),
- mettre en place un cadre robuste pour garantir la responsabilité des décisions prises par les algorithmes (qui doit être attribuée, d'après l'étude, aux entités qui les déploient),
- établir des lignes directrices claires et des actions réglementaires pour évaluer l'impact des prises de décision algorithmiques,
- adapter la façon dont la régulation est élaborée pour refléter la vitesse et l'incertitude liées aux déploiement des algorithmes.
Aucun commentaire:
Enregistrer un commentaire