7 octobre 2020

Éthique et IA : quelques mots

"L'éthique dans l'intelligence artificielle, probablement l'un des sujets les plus recherchés sur Google dans le domaine de l'intelligence artificielle. Et en tapant ces 3 mots clés sur le célèbre moteur de recherche, le mot "issue" apparaît 7 fois dans la première page des résultats de recherche. L'éthique est en effet souvent associée au champ sémantique de la "préoccupation". Pourquoi ? Pour illustrer cette question intéressante, permettez-moi de vous donner l'analogie suivante : l'éthique est au développement de l'IA ce que la durabilité est à un projet commercial - des défis considérés comme des problèmes plutôt que comme des opportunités. Si l'on considère le défi de la durabilité, beaucoup sont tombés dans le piège de l'écoblanchiment. Ils se sont contentés d'aborder l'idée de durabilité au lieu de considérer cette nouvelle perspective comme un véritable tremplin pour un changement paradigmatique de notre économie et de notre société.

Qu'en est-il de l'éthique de l'IA ? Est-ce plus qu'un nouveau sujet à la mode et enrobé de sucre ?

Tout d'abord, qu'est-ce que l'IA ? Qu'est-ce que l'éthique ?

Avant de plonger dans les considérations éthiques, nous devrions d'abord nous mettre d'accord sur la définition de l'IA. Dans la conscience collective, le terme IA est fait de faits et de craintes entremêlés d'imaginaire, de science (et) de fiction créant ainsi une sorte de mythe qui ne ressemble que de loin à ce qu'est réellement l'IA. La difficulté à appréhender la notion d'IA constitue un obstacle à la compréhension des différentes formes que peut prendre l'IA dans la pratique, ce qui ne contribue pas à un climat de confiance. Dans le cadre de cet article de blog, nous limiterons le terme générique "IA" à l'apprentissage automatique.

La deuxième chose que nous devons aborder est la notion d'"éthique". Il n'y a pas une seule façon de définir l'éthique. Parmi de nombreuses définitions, nous retiendrons celle selon laquelle l'éthique est considérée comme étant : "Un ensemble de principes moraux qui régissent le comportement d'une personne ou la conduite d'une activité[1].[1]".

Si l'on met de côté ce qui doit être considéré comme moral ou non, la définition ici souligne bien l'idée que les principes moraux sont à la base des comportements et des décisions. En d'autres termes, le cœur de l'approche éthique est d'essayer d'aborder les questions morales qui peuvent être soulevées par l'émergence de l'IA.

Pourquoi se préoccuper de l'éthique dans l'IA ?

L'une des raisons pour lesquelles l'éthique est importante est qu'une réflexion active et intentionnelle à ce sujet contribue au développement d'une relation de confiance avec l'IA. Une autre raison est que l'interaction qu'une machine peut avoir avec les humains, bien qu'elle ne soit pas particulière à l'IA, a un impact sur de nombreuses questions différentes (sécurité, autonomie, risque, responsabilité, etc.), ce qui rend nécessaire une réflexion éthique claire. L'éthique est importante parce qu'une telle réflexion permet d'anticiper les problèmes éventuels susmentionnés.

Si nous sommes d'accord sur la nécessité de prendre en compte l'éthique, nous pouvons nous demander pourquoi elle est plus importante dans le domaine de l'IA que dans n'importe quel autre domaine des technologies de l'information. C'est parce qu'un algorithme d'apprentissage automatique peut être amené à prendre des décisions ou à faire des actions qui sont contraires à l'éthique de son créateur et indépendamment de sa volonté. Ce facteur "indépendance" induisant une forte probabilité de "dérives inconscientes" est vraiment spécifique à l'IA et fait de l'éthique un point crucial dans toute la mise en place d'un projet d'IA.

Les lignes directrices en matière d'éthique pour une IA digne de confiance : un premier pas

Il y a maintenant un peu plus d'un an, la Commission européenne, avec l'aide d'un groupe d'experts (Groupe d'experts de haut niveau sur l'intelligence artificielle), a mis en place des lignes directrices visant à permettre l'émergence d'une IA digne de confiance. Bien que la réflexion éthique sur la question de l'intelligence artificielle ne soit pas encore achevée et qu'il reste encore beaucoup de chemin à parcourir, le travail de défrichage de la Commission constitue un point de départ pour une réflexion sur l'éthique et l'IA. Elle a identifié trois composantes nécessaires à une IA digne de confiance : la légalité, l'éthique et la robustesse. L'approche de la Commission européenne est holistique et considère ces trois aspects comme un tout. Mais que faut-il considérer sous chacune de ces couches ? Dans le cadre de cet article, nous nous concentrerons uniquement sur l'éthique.

Les lignes directrices européennes proposent quatre principes éthiques à prendre en compte lors de la conception, de la mise en œuvre et du déploiement d'une application d'IA :

  • Le principe du respect de l'autonomie humaine
  • Le principe de prévention des dommages
  • Le principe d'équité
  • Le principe d'explicabilité

Principe du respect de l'autonomie humaine: Selon ce principe, les personnes qui interagissent avec l'IA doivent pouvoir garder le contrôle total de leur propre détermination. Par conséquent, les systèmes d'IA doivent être conçus selon ce principe pour soutenir, compléter et suppléer les capacités humaines.

Principe de prévention des dommages: la conception d'un système d'IA doit tenir compte du fait qu'il ne doit pas avoir d'effets négatifs sur les êtres humains, que ce soit physiquement ou moralement. Ce principe doit être d'autant plus pris en compte lorsqu'un système d'IA agit dans le cadre d'une relation asymétrique (employé-employeur, citoyen-État, juge-prévention, etc.).

Principe d'équité: Qu'il s'agisse de développer ou de déployer un système d'IA, celui-ci doit être équitable. Cela implique que le système doit être exempt de préjugés injustes (entraînant une discrimination ou une stigmatisation).

Principe d'explicabilité: la transparence devrait être le mot clé dans la conceptualisation d'un produit/service d'IA. Cela implique une communication sur les capacités de l'IA, mais aussi sur les objectifs poursuivis, les décisions prises, etc.

"Éthique et IA : de la théorie à l'application

L'une des grandes questions auxquelles le groupe d'experts de haut niveau sur l'intelligence artificielle de la Commission européenne n'a pas répondu est de savoir comment passer du principe à l'action. Je peux imaginer que certains d'entre vous se disent "pourquoi s'embêter avec toutes ces questions alors que les lignes directrices européennes semblent être claires comme de l'eau de roche ?" Mais le sont-elles ?

Ralph Waldo Emerson a dit un jour : "Une once d'action vaut une tonne de théorie". Les lignes directrices européennes sont nécessaires pour comprendre les enjeux et, à cet égard, elles font du bon travail ! Elles ont récemment lancé une plateforme[2] (qui n'est encore qu'un prototype) qui vise à aider les entreprises à traiter les questions d'éthique dans le contexte de l'IA. Néanmoins, tous ces efforts manquent d'ancrage dans la réalité. La complexité de la réalité nécessite plus que des connaissances théoriques, elle nécessite des actions concrètes (et pas seulement une longue liste d'actions rédigées dans un prétendu "jargon de l'IA"). Des actions simples et concrètes pourraient suffire pour commencer. Mais quelle pourrait être la première pierre à poser ?

Je suggérerais, comme nous l'avons fait à la B12, de commencer par "parler". Je dois admettre que parler d'éthique dans notre travail quotidien est contre-intuitif. Nous ne l'apprenons pas à l'école et nous ne sommes pas recrutés pour nos capacités éthiques. Mais nous avons tous des sujets que nous défendons, des valeurs que nous vivons et des choix que nous préférerions ne pas faire, c'est-à-dire que nous avons tous une éthique personnelle. Se réunir, en petits groupes, et discuter de l'IA que l'on défend, des valeurs que l'on souhaite vivre en tant que scientifique des données et des choix auxquels on souhaite être préparé en tant que professionnel de l'IA est la première pierre à poser pour passer de la théorie à l'action. Plusieurs outils peuvent vous aider à engager la conversation. Le MIT a travaillé sur des cartes d'angles morts de l'IA visant à permettre des conversations "qui peuvent aider à découvrir des angles morts potentiels lors de la planification, de la construction et du déploiement de systèmes d'IA".

Au B12, nous travaillons actuellement à l'élaboration d'un cadre de réflexion éthique. Ce cadre englobe différents sujets et questions qui devraient être abordés lorsque l'on travaille sur un système d'IA. "Qu'est-ce qui doit être considéré comme des données représentatives ? " ; " Avez-vous informé l'utilisateur des biais possibles de votre algorithme ? " ; " La solution d'IA sera-t-elle explicable à l'utilisateur final ? " ; ... Ce ne sont là que quelques-unes des questions qu'il nous a semblé nécessaire de nous poser.

Autre étape tangible et pratique : la coopération. Parvenir à une IA éthique va de pair avec une collaboration multidisciplinaire. La clé d'une mise en œuvre efficace d'une réflexion éthique réside dans la compréhension du fait que les solutions potentielles ne sont pas détenues par une seule partie du processus de développement de l'IA, mais par un groupe plus large de spécialistes qui sont chargés de réfléchir collectivement à l'IA à partir de leurs différents domaines d'expertise.

L'un des principaux obstacles à cette coopération est le "fossé linguistique" qui peut exister entre les disciplines. Pour relever le défi de la "traduction", il doit y avoir, tout au long de la construction d'une application d'IA, des échanges réguliers entre les différents acteurs. Bien que les scientifiques des données soient au centre du processus, les développeurs, les concepteurs, les responsables des relations avec les clients, les juristes, etc. ont leurs mots à dire. Une autre façon de formuler cela est de faire de la place de manière proactive à la table de discussion. Là où vous installez habituellement un data scientist, deux développeurs et un chef de projet, pourquoi ne pas installer un autre acteur ? Par exemple, si votre système d'IA vise à améliorer l'efficacité d'une équipe de travail, pourquoi ne pas mettre en ligne votre responsable des ressources humaines ? Si votre système d'IA est conçu pour aider les gynécologues dans leur pratique quotidienne, avez-vous prêté attention à la présence d'au moins une femme dans l'équipe ?

Grâce à la coopération, l'expertise de chacun entre en jeu, tout comme l'individualité de chacun. Quel est le rapport avec l'IA ? Nous avons tous probablement entendu l'expression "garbage in, garbage out", qui se rapporte à la qualité des données utilisées pour "alimenter" l'algorithme de l'IA. Si la manière dont vous alimentez votre système d'IA est importante, la manière dont vous le construisez l'est tout autant, ainsi que les personnes qui le construisent. La richesse et la diversité des individus qui participent à la conception, à la mise en œuvre, aux essais et à l'utilisation des systèmes d'IA jouent un rôle important dans la coopération et, par conséquent, dans la réflexion sur l'éthique. Lorsque nous considérons la diversité en termes de sexe, d'origine, de couleur, d'intérêts, etc., des choses comme l'injustice, le biais, le préjudice, l'autonomie humaine ne sont plus des questions théoriques, mais des questions concrètes.

C'est l'une des raisons pour lesquelles chez B12 nous tenons à avoir une équipe éclectique composée de compétences diverses. Ici, les Data Scientists et moi-même avons réussi à nous comprendre en débattant de cas pratiques que nous rencontrons dans nos projets ou de questions à la mode liées au droit dans notre secteur (Puis-je utiliser cette base de données ? Cette base de données est-elle suffisamment diversifiée ? Quels sont les biais auxquels nous devons nous attendre lorsque nous utilisons ces données ?) Chez B12, nous croyons fermement que chaque point de vue est important et que nous avons quelque chose à apprendre les uns des autres. C'est pourquoi nous accordons une grande importance à la coopération et à l'intelligence collective (pour en savoir plus : https://www.b12-consulting.com/how-did-collective-intelligence-help-us-in-our-management-of-the-COVID-19-crisis.html).

Plus encore, nous pensons que la coopération sera la jonction entre l'IA et l'éthique qui permettra de parvenir à une IA éthique.

"L'éthique et l'IA : un problème ou une opportunité ?

L'apprentissage automatique, ou les systèmes d'IA comme nous l'appelons ici, ont le potentiel d'aller au-delà de l'objectif visé par leur créateur, pour le meilleur et pour le pire. C'est la raison même pour laquelle l'éthique de l'IA est importante. C'est pourquoi je voulais souligner quelques moyens pratiques de donner une dimension concrète à l'éthique dans le contexte de l'IA : discuter et coopérer sur les questions d'éthique de l'IA est aussi important que la technologie d'IA que vous construisez et devrait donc devenir une partie intégrante du flux d'un projet d'IA.

Le cœur même de cet article visait à souligner comment l'éthique nous donne une réelle opportunité de remettre en question notre perspective et de voir l'éthique comme une occasion d'aller au-delà de la théorie et de construire un écosystème de l'IA qui prend en compte la diversité et la complexité de notre société. L'éthique est-elle plus qu'un nouveau sujet à la mode et enrobé de sucre ? Oui ! L'éthique dans le domaine de l'IA est une nouvelle opportunité de construire des systèmes d'IA qui ont du sens aujourd'hui pour demain.

Au B12, nous voulons saisir cette opportunité, et vous ?

  1. [1]
  2. Oxford Dictionary on Lexico, "Éthique"
  3. [2]
  4. Plate-forme ALTAI
Fanny Asukulu, Conseillère juridique

Vous souhaitez lancer un projet ?

Parlons-en