L’IA est une technologie tellement innovante et transversale qu’elle bouleverse tous les pans de notre civilisation. Dans un monde où des milliards de données sont créées de manière exponentielle et circulent instantanément via le web, l’exploitation de ces données avec l’IA amène à se poser de nombreuses questions éthiques. Et ce, alors même que le terme d’intelligence artificielle prête à confusion et que de grands noms comme Elon Musk, Stephan Hawkins ou Bill Gates alimentent les fantasmes et les craintes autour de cette rupture technologique. C’est le fameux syndrome “Terminator”. D’ailleurs, lorsqu’on recherche le terme « intelligence artificielle » sur Google image, la quasi unique représentation qui ressort est celle d’un robot humanoïde dans une position qui suggère la pensée ou la prise de décision.

IA Wikipedia

Evidemment, pour qui s’intéresse un tant soit peu à l’IA comprendra que nous sommes encore très loin d’une IA dite forte qui remplacerait l’Homme au sommet de la chaîne alimentaire. On se rend même compte que pour arriver à avoir des voitures totalement autonomes (niveau 5), on risque d’attendre plusieurs décennies, si on y arrive un jour… On est donc encore très loin de l’avènement de Skynet (la société qui développe l’IA qui anéantira l’humanité dans la série Terminator).

Pour autant, l’utilisation de l’IA pose un certain nombre de questions éthiques. Que ce soit au niveau des cas d’utilisation, au niveau de la consommation d’énergie que demande cette technologie ou au niveau des bouleversements indirects sur la société qu’elle induit, l’IA nous oblige à nous poser des questions sur le modèle de société souhaitée. Parmi les principales questions qu’on se pose sur l’IA, on peut citer :

  • les biais cognitifs liés à l’entraînement des modèles avec des jeux de données influencés par les humains.
  • L’utilisation non consentie des données personnelles à des fins marchandes et l’effacement de la sphère privé.
  • L’utilisation massive de reconnaissance faciale pour le contrôle des populations.
  • L’utilisation de l’IA dans le domaine militaire et le développement de robots tueurs.
  • L’automatisation de nombreuses tâches intellectuelles jusqu’à présent dévolues à l’Homme qui risque d’impacter de nombreux métiers et de potentiellement créer massivement du chômage.
  • La quantité d’énergie nécessaire pour le stockage des données et la puissance de calcul nécessaire est elle pertinente dans un contexte de changement climatique.
  • Etc.

Toutes ces questions ont émergées de dérives qu’on a pu constater très vite face au développement et au déploiement très rapide de l’IA. Rappelons que nous avons recommencé à considérer l’IA seulement en 2012, quand le deep learning a permis de faire de la reconnaissance d’images de chats automatique puis en 2016 quand l’IA développée par Deepmind a battu le champion du monde de Go, Lee Sedol. En une poignée d’années, on a vu apparaître la publicité et le contenu ciblé sur les réseaux sociaux, la recommandation automatique de produits sur les marketplaces ou encore, l’utilisation massive de la reconnaissance faciale notamment par l’Etat chinois. Face à toutes ces questions qui émergent aussi bien de la société civile, du monde du travail ou des militaires, un certain nombre de réponses ont été apportées.

Alphago Alphago, l’IA de Deepmind bat Lee Sedol, champion du monde de GO en 2016.

Un tour d’horizon des différentes mesures

Les initiatives privées : « si c’est gratuit, c’est que vous êtes le produit ! »

Après l’engouement qu’ont suscité les réseaux sociaux à leurs débuts, leur buisness model basée sur la revente de données personnelles, partagées par des utilisateurs non avertis et collectées de manière non consentie, a commencé à poser question. Nous nous sommes rendus compte que nous avions une empreinte numérique beaucoup plus importante que ce que nous pensions, à telle point que celle-ci efface petit à petit la frontière entre sphère privée et sphère public : géolocalisation, pages consultées, temps passé dessus, produits regardés…

Google

Petit à petit, une défiance envers les grands acteurs du web s’est installée et l’image des GAFAM s’est écornée. Les GAFAM ont réagis en rédigeant des principes éthiques qu’ils s ‘engageaient à respecter, à l’image de Google .

Ces chartes s’articulent autour de principes tels que : être profitable pour la société, lutter contre les biais, ne pas servir à développer des armes ou des outils de surveillance qui ne seraient pas en accord avec les traités internationaux, etc. D’ailleurs, Google a renoncé à une collaboration avec le Pentagone en 2018 (avant la rédaction de leurs principes éthiques) dans le cadre d’un projet baptisé « Maven » où l’IA devait aider les drones à détecter des humains.

Le reproche qui est souvent fait dans le cadre de ces initiatives privées c’est que ces principes ne sont pas tout le temps respectés par les compagnies qui les rédigent, relevant donc souvent plus d’opérations de com que de démarches vertueuses.

Microsoft

Microsoft, comme les autres GAFA, s’est engagé sur des principes éthiques. Le cas de Microsoft est intéressant surtout pour les prises de paroles de son célèbre fondateur, Bill Gates. En effet, très tôt (2015), Bill gates, comme Stephen Hawking et Elon Musk, affirmait ne pas comprendre « pourquoi les gens ne sont pas inquiets ». Il affirmait également que l’IA représentait « la plus grande menace » pour notre existence et qu’avec elle, nous invoquions un « démon »… A cette époque, Bill Gates semblait surtout s’inquiéter de l’arriver, un jour prochain, d’une IA dite « forte », c’est à dire une IA avec des capacités de cognition et d’abstraction. Si une IA forte devait voir le jour, ce ne serait pas pour demain. Depuis, Bill Gates a quelques peu revu ses positions. Il pense aujourd’hui que « Le monde n’a presque jamais eu de technologie aussi prometteuse et dangereuse à la fois », voire même que « l’IA peut être notre amie » notamment dans trois domaines : la santé, la lutte contre la pauvreté et l’éducation. En ce sens, Microsoft a lancé sa plateforme AI for good afin de stimuler l’innovation dans ces domaines.

Bill Gates

Les initiatives publiques : « Notre société génère une masse considérable de données industrielles et publiques, qui transformeront notre manière de produire, de consommer et de vivre. »

L’UE

Les principales initiatives publiques en matière d’étique viennent des démocraties occidentales et notamment de l’UE. Récemment (le 19/02/2020), la Commission européenne a présenté un rapport qui expose « ses idées et mesures pour une transformation numérique profitable à tous, reflétant le meilleur de ce que l’Europe offre : l’ouverture, l’équité, la diversité, la démocratie et la confiance ».

On voit bien ici que cette question de l’éthique dans l’IA a aussi une dimension géopolitique. Face a son retard vis-à-vis des Etats Unis et de la Chine, ayant chacun une vision stratégique de l’IA, l’Europe cherche sa propre voie et celle-ci passe par l’éthique.

En effet, la Commission se concentrera sur trois objectifs clés en matière numérique :

  1. La technologie au service des personnes;
  2. Une économie juste et compétitive;
  3. Une société ouverte, démocratique et durable.

Le Pentagone

Le 24/02/2020, le Pentagone a annoncé l’adoption de principes éthiques pour l’utilisation de l’IA. S’il est un secteur où l’éthique ne paraît pas compatible avec l’activité, c’est bien le secteur militaire. Pourtant, c’est le secteur dans lequel l’utilisation de l’IA semble la plus inquiétante. On en revient au syndrome Terminator. Malgré les progrès techniques et technologiques dans le militaire, comme le guidage laser, les drones pilotés depuis des bases américaines, etc. l’avènement d’armes autonomes, capables de tuer des humains sans décision humaine marque une ligne rouge dans l’esprit de nos sociétés civiles, et on peut le comprendre. D’ailleurs, le Pentagone critique régulièrement la Chine pour son utilisation policière de la reconnaissance faciale.

C’est pourquoi, le Pentagone s’engage à n’utiliser que des équipements « gouvernables » (ils pourront être désactivés en cas de fonctionnement aberrant), « fiables », avec des utilisations « explicites et bien définies »…

Le fait que des groupes comme Google aient refusé pour des raisons éthiques à collaborer avec le Pentagone pourrait bien être une autre motivation de ce dernier à s’engager sur des principes éthiques…

Killer Robot

Le Vatican

Le 28/02/2020, lors d’une conférence, le Vatican s’est inquièté de l’utilisation de l’IA pour la reconnaissance faciale : “cette asymétrie, par laquelle une poignée d’élus savent tout de nous alors que nous ne savons rien d’eux, émousse la pensée critique et l’exercice conscient de la liberté”. Le Pape François rajoute que : “les inégalités s’étendent, le savoir et la richesse s’accumulent entre quelques mains, ce qui présente de graves risques pour les sociétés démocratiques”.

Il est intéressant que IBM et Microsoft se soient associés à cette montée au créneau le l’Eglise catholique contre les Etats policiers et les grands groupes qui utilisent les données personnelles à des fins commerciales.

Les initiatives académiques

Déclaration Montréal

La déclaration de Montréal pour un développement responsable de l’IA est une initiative lancée par l’université de Montréal. Ce qui est intéressant dans cette démarche, c’est l’aspect participatif de la construction de cette déclaration. En effet, en novembre 2017, une version préliminaire avait été présentée, à la suite de quoi, des consultations et des échanges avec plus de 500 citoyens, parties prenantes et experts ont permis d’élaborer une version définitive, présentée en décembre 2018.

Cette déclaration s’articule autour de sept valeurs : le bien-être, l’autonomie, la justice, le respect de la vie privée, la connaissance, la démocratie et la responsabilité.

Des difficultés de l’éthique dans l’IA

On voit bien, après ce tour d’horizon, que l’éthique est une préoccupation importante. Mise à part les Etats policiers, tous les autres acteurs étatiques, académiques ou privés intègrent cette dimension, conscient des attentes et des craintes de la part des sociétés civiles.

Pour autant, la mise en pratique de ces principes éthiques peuvent dans certains cas poser problèmes. Si effectivement une IA prend des décisions de manière autonome qui vont impacter directement la vie d’un humain, ça pose des questions légitimes sur la place de l’IA. Par exemple dans l’obtention d’un prêt bancaire, dans la disqualification ou non d’un CV, dans la promotion interne au sein d’une entreprise, etc. . D’autant plus que nous sommes confrontés, dans le cas du deep learning par exemple, à l’effet « boîte noire » ou plus globalement aux biais humains qui se retrouvent dans les jeux de données et qui impactent les modèles dans leur phase d’apprentissage.

Pour ce qui est des biais introduits lors des phases d’apprentissages, une attention particulière doit être fournie dans la labellisation des données d’entraînement des modèles. L’exemple de l’algorithme de Google qui ne sélectionnait que des CV d’hommes blancs et qui assimilait les images de personnes noires à des chimpanzés est un cas auquel personne ne veut être confronté. Par contre, dans le cas de modèles qui apprennent en continu et qui vont régulièrement chercher de nouvelles données pour affiner leurs résultats, ça devient très compliqué de s’assurer que les données récupérer ne sont pas biaisées.

Pour ce qui est de l’effet boîte noire, c’est à dire de la difficulté à comprendre ce qui a justifié une décision par l’algorithme, c’est un domaine qui fait l’objet de nombreuses recherches aujourd’hui. Des modèles existent déjà qui permettent d’assurer une traçabilité de la réponse. Par contre, ces modèles sont généralement moins efficaces que les modèles traditionnelles, 20% en moyenne, ce qui pose aujourd’hui la pertinence de ces modèles qui risquent d’être moins efficaces que les solutions qu’elles remplacent.

Math Robot

Parcoor s’engage

Conscients des enjeux que représente l’IA mais aussi des craintes fondées ou non qu’elle suscite, nous faisons le choix de nous engager, chez Parcoor, en faveur d’une IA responsable. Evidemment, cette démarche risque d’apparaître comme une démarche opportuniste et comme un coup de com’. Pour tenter de désamorcer une éventuelle polémique, nous nous engageons sur 2 points :

  1. signer et respecter les valeurs fondamentales de la déclaration de Montréal, cette déclaration coconstruite nous semble la plus universellement partageable et correspond entièrement à nos propres valeurs.
  2. Fournir un rapport annuel et vérifiable des actions menées au sein de Parcoor dans une logique de transparence.

denis-manuel Denis et Manuel Capel, co-fondateurs de Parcoor