Grand angle

À notre service, et non à nos dépens

cou_03-18_ethics_01.jpg

Fin de la vie privée à l’ère numérique? Œuvre du dessinateur cubain Falco.

Nous nous dirigeons inexorablement vers un futur automatisé et une intelligence artificielle (IA) aux possibilités quasi illimitées. Il nous faut impérativement peser toutes les implications éthiques de cette nouvelle technologie et nous attaquer aux défis légaux et sociaux sans précédent qui risquent d'apparaître.

Tee Wee Ang et Dafna Feinholz (UNESCO)

Les nouvelles technologies nous obligent parfois à nous interroger sur ce qui fait l’homme. C'est en tout cas vrai pour l’intelligence artificielle (IA), dont les implications potentielles sont si considérables qu'elles appellent un effort de réflexion. Voilà des décennies qu’elle hantait notre imagination collective, aujourd'hui elle fait irruption dans nos vies.

Les récents progrès de l'IA, notamment en matière d'apprentissage machine (machine learning) et d'apprentissage profond (deep learning),  montrent que ces systèmes peuvent surpasser les hommes dans de nombreux domaines, y compris les tâches exigeant une certaine dose de raisonnement cognitif. L'IA peut donc être une source formidable de progrès et de bienfaits pour l'humanité, mais elle pourrait aussi ébranler les fondements socioéconomiques et politiques de la société humaine.   

Avant de s'interroger sur les implications éthiques de l'IA, il faut d'abord préciser en quoi elle consiste, aujourd'hui. Lorsqu'on parle d'IA, on entend généralement « l’IA restreinte », ou « l’IA faible », conçue pour accomplir une tâche spécifique : analyser et fluidifier la circulation, recommander des produits en ligne à partir d'achats antérieurs, par exemple. Cette IA faible existe déjà, mais elle va se complexifier et imprégner davantage notre vie quotidienne.

Nous ne parlons pas ici de ce qu’on appelle  l’« IA forte » ou l’« IA générale », telle que la dépeignent tant de romans et de films de science-fiction. Elle serait supposément capable d'accomplir toute la gamme des activités cognitives humaines, et même, selon certains experts, d'accéder à un relatif degré de « conscience ». Nous sommes encore loin d'un consensus quant à la faisabilité et aux perspectives de mise en œuvre d'une telle IA.

Une collecte sans fin de données

L'apprentissage machine et l'apprentissage profond exigent une grande quantité de données historiques et de données recueillies en temps réel, si l'on veut que le système d'IA puisse « apprendre » sur la base de son « expérience ». Leur développement a aussi besoin  d’infrastructures permettant à l'IA de réaliser ses tâches ou objectifs à partir de ce qu'elle aura appris. Notre réflexion sur les implications éthiques de l'IA doit tenir compte de l'environnement technologique complexe dont elle a besoin pour fonctionner et qui englobe la collecte permanente des données de masse (big data) issues de l'Internet des objets, leur stockage dans le nuage informatique (cloud), leur utilisation par l'IA pour alimenter son processus d'« apprentissage » et la mise en œuvre des analyses ou des activités de l'IA dans les villes intelligentes, les véhicules autonomes, les robots, etc.

Plus le développement technologique devient complexe, plus les questions éthiques qu'il soulève se complexifient. Et si les principes éthiques restent immuables, notre manière de les aborder pourrait changer radicalement, au risque, sciemment ou non, de les remettre gravement en question.

Notre conception de la vie privée, de la confidentialité et de l'autonomie, par exemple, pourrait se trouver totalement transformée. Grâce à des applications ou dispositifs appelés smart (intelligents, malins) qui sont devenus des instruments de la communication des réseaux sociaux comme Facebook ou Twitter, nous divulguons « librement » et volontairement nos informations personnelles, sans pleinement cerner quels usages pourront être faits de ces données, et par qui. Elles sont ensuite transmises à des systèmes d'IA essentiellement développés par le secteur privé. Ces données restent nominales, si bien que les informations concernant nos préférences et habitudes peuvent être utilisées pour créer des modèles de comportement permettant à l'IA de nous adresser des messages à caractère politique, par exemple, ou de nous vendre des applications commerciales ou encore de stocker des informations concernant notre suivi médical.

Le meilleur et le pire

Serait-ce la fin de notre vie privée ? Quid de la sécurité et de la vulnérabilité des données aux actions de piratage ? L'État ne pourrait-il pas s'en emparer pour contrôler la population, au probable détriment des droits humains individuels ? Un environnement d'IA qui, à toute heure, surveille nos préférences et s'en sert pour nous proposer différentes options, ne risque-t-il pas de limiter notre liberté de choix et notre créativité ?

Autre question importante : les données utilisées par l'IA pour apprendre ne risquent-elles pas d’être pétries d'idées reçues et de préjugés, pouvant éventuellement entraîner des décisions prises par l’IA qui seraient discriminatoires ou stigmatisantes ? Cela rendrait vulnérables notamment les systèmes d'IA chargés de relations avec le public ou de la distribution de services sociaux. Nous devons être conscients que certaines données, comme celles qui sont produites sur l’Internet, contiennent des informations qui sont le reflet du meilleur comme du pire de l'humanité. Par conséquent, on ne peut pas se fier uniquement à l'IA pour tirer des leçons à partir de ces données sans courir des risques sur le plan éthique. Une intervention humaine directe est indispensable.

Peut-on enseigner à l'IA un comportement éthique ? Pour certains philosophes, il est des expériences – notamment d'ordre esthétique et éthique – qui sont inhérentes à l’être humain et, par conséquent, non programmables. D'autres estiment que si la morale peut être rationnelle, c’est qu’elle peut être programmée, mais qu'il convient de respecter la liberté de choisir. Actuellement, il n'y a pas consensus sur la question de savoir si l'éthique et la morale peuvent être enseignées aux hommes en s'appuyant uniquement sur la raison. Dès lors, comment y en aurait-il un quand il s’agit de les enseigner à l'IA ! Et en imaginant qu'une IA puisse être un jour programmée pour être éthique, de quelle éthique s'agirait-il ? Celle des développeurs ? Le développement de l’IA est essentiellement entre les mains du secteur privé dont les idées sur l’éthique peuvent ne pas être conformes à celles qui prévalent dans la société.

Pour que l'IA puisse travailler à notre service, et non à nos dépens, nous devons engager un débat de fond qui prenne en compte les points de vue éthiques de tous ceux qui sont concernés. Et, face aux bouleversements qu'elle pourrait provoquer dans la société, veiller à ce que le cadre éthique dans lequel s'inscrira son développement futur prenne en compte aussi la question plus large de la responsabilité sociale.

Dafna Feinholz

Spécialiste du programme au sein de la section Bioéthique et éthique des sciences à l'UNESCO, Tee Wee Ang (Malaisie) a travaillé en ingénierie de la conception et en ingénierie de gestion, avant de rejoindre l'Organisation en 2005.

Tee Wee Ang

Docteur en psychologie et bioéthique, Dafna Feinholz (Mexique) dirige la section Bioéthique et éthique des sciences à l'UNESCO. Elle a été secrétaire générale de la Commission nationale mexicaine de bioéthique.