Pour une IA éthique : responsabiliser et favoriser des politiques internes

Les entreprises se doivent d'être responsables vis-à-vis des réglementations : elles doivent (s')imposer des limites et accepter de concevoir avec des contraintes. La responsabilité de l'IA pourrait être résolue ou couverte par un règlement-cadre et des mesures régulières. Qu'en est-il réellement ? Quelles sont les pistes de réflexion et d'action possibles ?

Extrait d'une analyse publiée en mars 2020 - Une IA éthique est-elle possible ?

Les entreprises se doivent d'être responsables vis-à-vis des réglementations : elles doivent (s')imposer des limites et accepter de concevoir avec des contraintes. La responsabilité de l'IA pourrait être résolue ou couverte par un règlement-cadre et des mesures régulières. La responsabilité portant sur des données industrielles (par exemple, reconnaissance d'images pour le contrôle de la qualité de produits usinés) est à appréhender différemment de celles portant sur des données de citoyens. Communiquer sur la technologie pourrait aider à améliorer la transparence autour. Il est acquis en effet que certaines applications recourant à l'IA sont biaisées - les citoyens qui les utilisent doivent aussi en être informés (cf. cas des faux positifs). Certains prônent que l'IA ne doit être utilisée que pour aider les humains, renforcer leurs capacités humaines (en particulier ceux qui ont des déficiences) et non pour remplacer une décision humaine intelligente. Tout individu doit être conscient de la façon dont les données sont utilisées par une IA et peuvent être violées (vendues à d'autres entreprises pour un autre usage, piratées, biaisées...). 

Dans le cas de la reconnaissance faciale (FRT - Facial Recognition Technology), une caméra ne reconnaît pas un visage mais capture des pixels transformés en données, ensuite analysées. Mais, ce n'est pas un système "précis". Dans certains cas, celui-ci ne fonctionne pas correctement (en cas de mauvaise capture des images par exemple). La régulation doit pouvoir déterminer si le système est précis ou non, notamment si les usages associés sont à haut risque. 

Le Projet Tokyo de Microsoft, agent visuel faisant appel à des mécanismes de reconnaissance faciale pour une meilleure inclusion des personnes atteintes de cécité, est un bel exemple d'initiative qui abonde dans ce sens. La mise en place du dispositif repose sur un processus itératif et sur un outil qui inspecte ce que le système fait et comment il agit pour pouvoir ajuster si nécessaire tout le long de son cycle de vie. La technologie n'est utilisée ici que pour aider les humains. Il ne s'agit pas de construire une vision ou un système mimétique. Cela suppose des compromis et de se projeter sur les impacts du système sur la société et les humains, ses avantages et inconvénients, les tensions potentielles qu'il peut générer et les résolutions à apporter en regard, son évolution dans le temps.

En nommant une "Head of Office for Responsible AI", Microsoft tente de "cadrer" ces processus par l'établissement en interne de règles de responsabilité pour les systèmes d'IA développés.

L'UE, avec une approche centrée sur une IA humaine, est favorable à la création d'un écosystème de confiance. Or, l'IA pourrait remettre en question certains aspects du cadre de responsabilité actuel afin de prendre en compte de nouveaux paradigmes qui émergent avec cette technologie :

  • L'autonomie (l'IA ne peut pas être attribuée à l'homme) ;
  • La prévisibilité et les effets de la boîte noire (l'homme ne peut pas toujours comprendre comment l'IA est développée et fonctionne, spécialement lors de l'utilisation de ML) ;
  • Les moyens d'interagir avec d'autres acteurs : les "victimes d'IA" ont-elles les moyens d'identifier un responsable et à qui la réclamation doit-elle être adressée ?

Recourir à des outils, processus et ressources garant de l'équité, de la responsabilité et de la transparence

Le grand défi des entreprises qui développent des technologies d'IA est de mettre l'humain en premier, avant la technologie dans le déploiement du cycle de vie de celle-ci. Cela implique un énorme changement de culture et de posture. Il est acquis que certains systèmes à base d'IA entraînent des discriminations directes ou indirectes : les publicités en ligne cibleraient plus les femmes que les hommes, les faux positifs engendrent des atteintes à la personne... Chez Microsoft, pour éviter toute dérive, les modèles sont désormais co-conçus au sein d'équipes multidisciplinaires et sont mis "sous contrainte" tout au long de leur cycle de vie pour chacun des principes suivants :

  • Justice ("fairness") ;
  • Fiabilité et sûreté ("reliability and safety") ;
  • Confidentialité et sécurité ("privacy and security") ;
  • Inclusivité ("inclusiveness") ;
  • Transparence ("transparancy") ;
  • Explicité ("accountability").

En amont de la conception des produits à base d'IA, il peut être nécessaire de recourir à des listes de contrôle et à des outils obligeant à suivre des processus disciplinaires. Ceux-ci peuvent par exemple permettre d'anticiper des problèmes d'équité. Les listes de contrôle ne sont cependant pas suffisantes. Elles doivent être directement intégrées dans les processus de production eux-mêmes. Pour être opérants, ces processus doivent être soutenus par l'organisation au plus haut niveau (culture d'entreprise) et affectés de KPI (indicateurs clés de succès).

Peut-être verrons-nous demain émerger des IA qui contrôleront la bonne conformité des IA ainsi produites ? Microsoft a mis en place un système de gestion de cas en interne ("case management") qui permet d'enregistrer et de suivre les utilisations sensibles pouvant découler des technologies d'IA développées (cf. risque de préjudices, violation de droits de l'homme...). De son côté, IBM propose une solution agnostique de validation permettant de tester et de remonter des biais.

Vous avez aimé cette analyse, n'hésitez pas à la partager