Construire la paix dans l’esprit
des hommes et des femmes

Des experts évaluent les idées de l'UNESCO sur l'intelligence artificielle

10 Juillet 2019

iamcr-ai-panelok_1.jpg

Sept observateurs experts de l'IA à la table ronde de cette semaine
© UNESCO

« Cette décision a été prise par une machine »; « ce résultat a été automatisé sous la supervision de l'homme »; « Ces résultats fondés sur l'IA sont disponibles pour examen ». 

Ce genre de labels créatifs a été proposé par Malavika Jayram lors d'un récent panel de l'UNESCO, comme un moyen d'aider la société à saisir l'importance croissante de l'intelligence artificielle comme un facteur déterminant caché de notre époque.

L'idée qu'elle se fait des étiquettes a été évoquée, entre autres, par un panel de sept personnes réuni lors de la conférence annuelle de l'Association internationale pour la recherche sur les médias et la communication, qui s'est tenue à Madrid cette semaine. 

Avec ses collègues orateurs, elle a commenté le document de synthèse du Secteur de la communication et de l'information (CI) sur les recherches en cours à l'UNESCO, qui cherche à appliquer le cadre de l'universalité de l'Internet pour comprendre les enjeux de l'intelligence artificielle (IA).

Cette recherche de l'UNESCO considère l'IA dans le contexte de l'Internet et l'examine à travers le prisme des principes "ROAM" - droits de l'homme, ouverture, accessibilité et participation multipartite, ainsi que "X", représentant des questions transversales telles que l'égalité des genres.

Outre Jayram de Digital Asia Hub sur le panel, d'autres participants étaient présents, à savoir, Jane Duncan (Université de Johannesburg) ; Joe Khalil (Université Northwestern) ; Julia Pohle (Centre des sciences sociales de Berlin) ; Aimée Vega Montiel (Universidad Nacional Autónoma de México) ; et Julie Posetti (Université Oxford). 

En ce qui concerne la catégorie des droits par rapport à l'intelligence artificielle, Jane Duncan a mis en garde contre le déterminisme technologique en affirmant qu'il conduisait les gens à blâmer la technologie pour les problèmes et risquait de les rendre technophobes. Au lieu de cela, dit-elle, "nous devons ramener les acteurs humains dans le tableau et les tenir responsables".

Elle a proposé d'identifier les circonstances dans lesquelles la prise de décision automatisée devrait être limitée, par exemple en ce qui concerne les droits dans les domaines de la justice pénale et de la sécurité. 

En ce qui concerne la protection de la vie privée, Jane Duncan a mis en garde : "L'IA peut être utilisée pour lever l’anonymat des données lorsque de gros ensembles de données sont utilisés. Parmi les acteurs à risque, a-t-elle dit, figurent ceux qui s'appuient sur le secret professionnel.

Jane Duncan a exhorté l'UNESCO à collaborer avec les organismes de réglementation de l'information afin d'appliquer des normes de protection des données aux conceptions et aux déploiements de l'IA. 

Les arguments de Jayram portaient sur la transparence des données. « La boîte noire de l'IA est souvent interprétée comme une fatalité », a-t-elle dit. Néanmoins, il est possible et significatif d'examiner la provenance et la qualité des sources de données, ainsi que les résultats des processus d'IA, a-t-elle fait remarquer.

"De plus, bien qu'une telle transparence soit importante, elle est également insuffisante s'il n'y a pas de remède valable."

Les normes ouvertes sont essentielles pour l'IA, selon Jayram, qui a poursuivi en citant l'analogie selon laquelle les gens ont confiance dans la sécurité des avions et des voitures en raison du rôle des normes de sécurité connues dans ces domaines.

Elle a averti que le principe de transparence ne devrait pas compromettre la protection de la vie privée, en particulier dans la course de certains pays à l'exploitation des données personnelles de leurs citoyens dans le but d'obtenir "une longueur d'avance".  

Joe Khalil a fait des commentaires sur la pertinence de l'accès à l'IA en question. Il a fait remarquer que l'IA est un territoire inexploré aux défis techniques, économiques et socioculturels. "En même temps, nous pouvons voir que l'intelligence artificielle est au cœur de la puissance commerciale et militaire, et que l'accès peut devenir tributaire de la convergence des intérêts politiques et commerciaux ", a-t-il noté. 

La neutralité d'Internet est une question qui a un impact sur l'accès, a déclaré Khalil, faisant allusion à l’univers clos d’Internet et aux vitesses discriminatoires de connectivité qui ont un impact sur le développement et l'application de l'IA.

Prenant le prisme multipartite, Julia Pohle a fait valoir qu'il est important de distinguer l'IA de la prise de décision automatisée et même des algorithmes, même lorsqu'ils sont combinés, car ils posent des problèmes différents.

Elle a reconnu l'intérêt d'appliquer le cadre ROAM de l'universalité de l'Internet en raison de l'accord préalable des États membres. En même temps, a-t-elle fait remarquer, "bien que l'Internet soit connecté à l'échelle mondiale, l'IA peut fonctionner sans de tels liens".

Le concept « d’interdépendance numérique », soulevé dans le récent rapport du Groupe de haut niveau de l'ONU, pourrait aider à comprendre des questions internationales telles que la monopolisation et le colonialisme numérique en matière d'IA, a-t-elle proposé. 

Selon Julia Pohle, "l'IA se développe principalement au niveau national, avec des implications pour la participation multipartite dans ce pays - qui pourrait à son tour bénéficier d'expériences internationales multipartites". 

Vega Montiel a abordé l'égalité des genres en tant que question transversale pour l'IA. "Les chercheuses féministes ont mis en évidence une tendance sexiste dans la technologie, y compris les algorithmes ", a-t-elle noté. Il devrait y avoir des recommandations sur la façon dont l'intelligence artificielle pourrait transformer le genre, et à qui elle devrait être développée, a-t-elle suggéré. "Nous avons besoin d'une approche inter sectionnelle qui inclut l'âge, la classe et l'ethnicité en plus du sexe, pour évaluer l'impact de l'IA ", a-t-elle conclu.

Julie Posetti a parlé de la désinformation comme d'une question transversale pour AI. "L'IA est utilisée dans les attaques contre les journalistes, a-t-elle dit. Cependant, "nous avons besoin d'un journalisme critique et explicatif pour couvrir l'IA", et ne pas nous contenter d'une couverture qui donne une prédominance indue aux acteurs corporatifs investis. 

Julie Posetti a également mis en garde contre la surcharge de "bulles de filtrage" causées par l'IA. 

Jane Duncan a observé plus tôt que l'intelligence artificielle pourrait éventuellement être utilisée pour identifier les "bulles de filtres" et leurs conducteurs, et les inverser afin que, par exemple, les négationnistes du changement climatique soient exposés aux informations scientifiques. 

Le débat a été animé par Guy Berger, directeur de l'UNESCO pour la liberté d'expression et le développement des médias, qui a contextualisé la recherche de l'UNESCO sur l'universalité de l'Internet et ses indicateurs, et à la lumière des décisions récentes du Conseil exécutif de l'UNESCO. 

Les indicateurs d'universalité de l'Internet, qui peuvent également être utiles pour la recherche sur l'IA, ont reçu le feu vert pour une utilisation volontaire par les États membres en 2018 lors de la réunion du bureau du PIDC (Programme international pour le développement de la communication) de l'UNESCO. 

Albana Shala, qui a présidé cette réunion en 2018 et continue de représenter les Pays-Bas au PIDC, a conclu la session en rappelant aux participants que l’IA a intensifié le défi des ODD (Objectifs de développement durable) et que "personne ne devrait être laissé pour compte ".