COHABITER AVEC L’INTELLIGENCE ARTIFICIELLE : RÉGLEMENTATION ET ÉTHIQUE

Dans le débat public contemporain, l’Intelligence Artificielle (IA) désigne une nouvelle catégorie d’algorithmes utilisant des techniques “d’apprentissage”. Les instructions ne sont plus celles programmées par l’humain, mais générées par la machine capable “d’apprendre”. Si ces algorithmes sont capables de réussir de grandes tâches et même dépasser l’intelligence humaine, leur logique sous-jacente reste opaque. La révolution de l’intelligence artificielle nous force à repenser la façon dont nos sociétés sont organisées. Éducation, justice, santé, culture, tous les domaines vont évoluer et se transformer. Plus de détections de nos maladies, des tâches pénibles en moins, des voitures autonomes, notre quotidien semble s’améliorer malgré une certaine méfiance des citoyens.

Comment cohabiter avec l’arrivée de ces algorithmes dans notre quotidien ?

Le rapport du CNIL ( Conseil National de l’Informatique et des Libertés) sur les risques et les enjeux de l’IA présenté il y a quelques mois donne des pistes de réponse. Ce sont 60 entreprises qui se sont rassemblées entre janvier et octobre 2017 pour discuter des préoccupations éthiques et des recommandations.

En interrogeant la société sur l’intelligence artificielle, on constate deux réactions normales face à l’inconnu : peur et incompréhension. En priorité, les citoyens craignent la perte de prise de décision de l’humain, mais également l’appréhension face à la collecte d’informations personnelles. Beaucoup accusent le fait de ne pas comprendre comment cela fonctionne et y voit un argument vers la déresponsabilisation.

intelligence artificielle et questions éthiques, comment réglementer
intelligence artificielle et questions éthiques, comment réglementer

Quelles sont les grandes questions éthiques ?

L’éthique est une réflexion sur les valeurs qui orientent et motivent nos actions dans nos rapports à autrui. Mais qu’en est-il lorsqu’on parle de machines, d’algorithme et d’intelligence artificielle ? La machine est-elle capable de gérer les exceptions et incertitudes, comme l’humain ? Peut-elle avoir un sentiment d’humanité comme ceux qui influencent nos choix en tant d’être humain ?

Nous allons nous interroger à 5 enjeux éthiques soulevés par l’Intelligence Artificielle.

Enjeu 1 : Déléguer, mais jusqu’où ?

L’intelligence artificielle peut accomplir automatiquement une tâche ou une opération impliquant une forme d’intelligence qui serait autrement effectuée directement par l’homme. Cela revient donc à déléguer des tâches à des systèmes automatiques. À priori, éliminer des tâches pénibles, c’est plutôt une bonne nouvelle. Mais qu’en est-il d’un diagnostic vital automatisé ? Il apparaît évident que l’implication éthique va dépendre de l’ampleur et des modalités de la tâche. Peut-on tout déléguer ?

D’abord l’ampleur rentre en ligne de compte. S’il s’agit de classer par ordre alphabétique des fichiers ou éliminer des doublons, il est facile d’y trouver uniquement des avantages. Nous supprimerons ainsi des tâches rébarbatives et anodines au profit d’un gain de temps. À l’opposé, si on parle de diagnostic vital, la prise de décision devient décisive et cette tâche s’avère complexe à déléguer à un algorithme. Entre ces deux extrêmes se déploie un large spectre de situations contrastées, il faut donc définir des limites et encadrer selon le cas. Ce qui nous amène au second point : les modalités. Quel degré d’autonomie possède le système automatisé, en particulier sa capacité ou non d’élaborer ses propres critères de fonctionnement ? Dans cette perspective, ce type de système doit s’envisager dans certains domaines (santé, juridique, conflit armé) comme une aide et un accompagnement à la prise de décision. Il est essentiel que les étapes de conception (paramétrage, développement, codage) ne s’autonomisent pas abusivement au point de devenir le lieu de la prise de décision.

Enjeu 2 : Qui est responsable ?

Certaines études ont montré que l’intelligence artificielle serait supérieure à l’homme pour le diagnostic de certains cancers et l’analyse de radiographies. Le rapport du CNIL déclare qu'”il pourrait donc devenir hasardeux pour un médecin d’établir un diagnostic ou de faire un choix thérapeutique autre que celui recommandé par la machine, laquelle deviendrait dès lors le décideur effectif. Dans ce cas, se pose alors la question de la responsabilité. Celle-ci doit-elle être reportée sur la machine elle-même, qu’il s’agirait alors de doter d’une personnalité juridique ? Sur ses concepteurs ? Doit-elle être encore assumée par le médecin ?”.

La question se pose dans le cas de l’algorithme déterministe qui implique forcément un parti pris. Comment choisit-il entre deux vies par exemple ? Sacrifier le passager ou bien un piéton sur la route ? Un dilemme que l’humain règlerait en temps réel doit maintenant se décider avant et par d’autres. Et même si une « réglementation algorithmique » encadrait la prise de décisions, ne serait-elle pas justement un attrait pour les décideurs eux-mêmes qui seraient ainsi déresponsabilisés ? Déléguer des décisions à une machine induit rapidement une exemption de la nécessité de rendre compte de ses choix. L’utilisation d’armes létales autonomes dans un conflit armé ne finira-t-elle pas par engendrer notre extinction ? “L’homme est un loup pour l’homme” écrivait Hobbes. Créer des machines capables de tuer, c’est aussi menacer notre humanité. L’acte de tuer, légitime dans une situation de conflit armé international mais traumatique ne doit-il pas rester sous le contrôle de l’homme évitant ainsi toute dérive ?

Rand Hindi, fondateur de Snips et passionné de Big Data explique ainsi que « les IA font moins d’erreurs que les humains mais elles font des erreurs là où des humains n’en auraient pas fait. C’est ce qui est arrivé avec l’accident de la voiture autonome de Tesla, qui ne serait jamais arrivé avec un humain ». Doit-on attribuer une personnalité juridique à ces systèmes ou faire endosser la responsabilité à l’utilisateur ?

Lorsqu’il s’agit de machine learning spécifiquement, les enjeux de responsabilité et de décision sont différents. Le rapport considère qu’il faut employer le terme de “chaîne de responsabilités, depuis le concepteur du système jusqu’à son utilisateur, en passant par celui qui va entraîner ce système apprenant”. En fonction des données qui lui auront été fournies, ce dernier se comportera différemment, c’est donc bien sur ce point que l’homme doit agir et garder la main.

Enjeu 3 : Quel est l’impact à grande échelle de ces algorithmes ?

Les algorithmes à qui on délègue progressivement de plus en plus de tâches et de décisions apparemment anodines constituent additionnées les unes aux autres l’étoffe de notre quotidien. Le choix d’un trajet ou d’un restaurant en fonction de nos préférences se fait grâce à un algorithme. Et si une décision prise par un individu influencé par l’algorithme ne représente pas grand-chose, qu’en est-il lorsqu’on parle de milliers ou de millions d’individus. Par exemple le choix d’un itinéraire en voiture, plus on est nombreux, plus cela aura un impact sur le trafic urbain, donc sur les nuisances sonores, la pollution et notre vie de facto. La somme des intérêts individuels peut rentrer ainsi en conflit avec un intérêt commun défendu par les politiques publiques.

De même une application qui proposerait des repas sains et équilibrés aura un impact puissant dès lors qu’elle est utilisée par des millions d’utilisateurs sur les équilibres économiques. Les prix de certains produits augmenteront, la production des produits délaissés diminuera, on aurait une uniformité de la production agro-industrielle. Aussi un point important est à prendre en compte : l’échelle de déploiement des algorithmes informatiques. Anticiper les conséquences à grande échelle de la somme de choix individuels doit constituer une préoccupation.

Enjeu 4 : Les algorithmes, une source de biais et de discrimination ?

Le cas du robot conversationnel Tay mis en place par Microsoft et suspendu au bout de 24 heures parce qu’il avait tenu des propos racistes et sexistes avait créé la polémique. La propension des algorithmes à générer des biais ou renforcer des discriminations s’est vite imposée comme un sujet d’inquiétude.

Un exemple choquant fut la photographie d’une Afro-américaine qui fut étiquetée sous le tag “gorille”. Le dysfonctionnement de la reconnaissance faciale de Google réside dans le type de données avec lesquelles l’algorithme a été entraîné, peut être essentiellement des photographies de personnes blanches. Quant au biais, il a été mis en avant qu’Adsense qui génère de la publicité en fonction du genre (un critère parmi d’autres) avait créé un biais au détriment des femmes qui se sont vu proposer des offres d’emploi moins rémunérées que celles montrées aux hommes. Ce résultat est probablement lié aux données que l’algorithme a reçues : les hommes auraient tendance à cliquer sur les publicités annonçant les emplois les mieux rémunérés tandis que les femmes n’oseraient pas. En réalité, ce biais sexiste de l’algorithme serait simplement la reproduction d’un biais préexistant dans notre société.

Le paramétrage des algorithmes peut donc être la source de biais et de discrimination et constitue un défi majeur. Doit-on comprendre que l’intelligence artificielle est un effet miroir de notre société ? Comment créer un algorithme respectueux de nos valeurs démocratiques ? Cela interroge sur la qualité, la quantité et la pertinence des données que nous transmettons à l’algorithme.

Enjeu 5 : La personnalisation, est-ce uniquement l’amélioration de l’expérience client ?

La personnalisation vise à l’amélioration de l’expérience de navigation des internautes grâce aux cookies. C’est grâce à eux qu’Airbnb par exemple cible vos attentes et recommande un appartement à louer à Montréal car vous venez d’acheter un billet d’avion vers cette destination.

Alors, effectivement les algorithmes agiraient comme une bulle filtrante en fonction de nos profils, nos recherches, nos “likes”… Cette action augmente ainsi la propension à rester enfermé dans une bulle où on n’accède qu’à ce qui correspond à ses propres goûts. En conséquence, nous tendons à devenir notre « alter égo numérique » ce qui nuit en fait au pluralisme et à la diversité culturelle. “L’algorithme ne serait pas un facteur d’enrichissement et de découverte, mais plutôt de reconduction du monde” d’après le rapport du CNIL.

À l’échelle d’une société, la privation d’exposition des individus à des opinions différentes pourrait devenir un problème pour la qualité du débat public et la diversité de nos échanges, ce que notre démocratie entend défendre. C’est d’autre part “l’absence de compréhension claire du fonctionnement des plateformes” qui est pointée du doigt dans le rapport. Surtout qu’à l’ère du numérique, les informations se diffusent très vite avec les algorithmes. Comment empêcher que des “fake news” comme lors de la campagne présidentielle de Trump se répandent ?

Alors, comment garder la main ?

Face à ces questionnements éthiques, notre société va se transformer durablement et nous devons penser à la relation que nous construisons avec nos machines. Ces interrogations doivent engager l’homme à établir des repères en accord avec ses valeurs morales. Comment maîtriser cette relation complexe ?

  • En respectant les principes de loyauté et vigilance de l’IA
  • En renforçant les droits de protection des informations personnelles et la transparence
  • En protégeant la liberté humaine et la prise de décisions éclairée

Outre la CNIL, des villes s’interrogent sur les enjeux éthiques de l’IA. Montréal est ainsi devenu un chef de file mondial puisque des géants du numérique (Google, Microsoft, Facebook) ont annoncé des investissements colossaux dans des laboratoires d’intelligence artificielle. Montréal promeut le développement responsable de l’intelligence artificielle et comme elle fait partie d’un des pays les plus soucieux du bien-être, l’intelligence artificielle est entre de bonnes mains. La ville a d’ailleurs pris les devants en novembre dernier au Palais des Congrès de Montréal en lançant la « déclaration de Montréal pour un développement responsable de l’intelligence artificielle » visant à proposer une orientation progressiste.

À propos d’Irosoft

Irosoft propose une série d’articles autour de grands thèmes d’actualités dans le domaine des technologies de l’information et de la communication. Basée à Montréal (Canada), pôle important du développement de l’IA, Irosoft est très impliquée dans l’écosystème des technologies de l’information et toujours à l’affût des dernières tendances et méthodologies en matière d’intelligence artificielle (IA). Les principaux marchés d’Irosoft sont le domaine de la finance et des assurances (FinTech), le domaine juridique (LegalTech) et le domaine gouvernemental.

Sources