Story

À l’occasion de la Journée internationale des femmes, l’UNESCO organise un dialogue mondial destiné à briser les préjugés dans l’IA

10/03/2021

De nos jours, les critiques soulignent que l’intelligence artificielle (IA) se nourrit d’ensembles de données biaisées, amplifiant ainsi les préjugés anti-femmes existants dans nos sociétés, et que l'IA perpétue des stéréotypes nuisibles sur les femmes, les considérant comme soumises et asservies. Faut-il s'étonner que seulement 22 % des professionnels de l'IA dans le monde soient des femmes ?

À l’occasion de la Journée internationale des femmes, le 8 mars, l’UNESCO et le Forum économique mondial ont organisé une table ronde en ligne traitant de l’égalité des sexes et de la place des femmes dans l’intelligence artificielle. Cette table ronde opportune a rassemblé un éventail de voix féminines de premier plan dans le domaine de la technologie afin de lutter contre les déséquilibres profondément enracinés entre les sexes qui faussent le développement de l'intelligence artificielle. Plus de 60 000 personnes ont assisté à cet événement numérique, qui a été animé par Natashya Gutierrez, rédactrice en chef de VICE Asie.

« Comment mettre fin aux préjugés ? En faisant en sorte que les femmes ne soient pas que consommatrices, mais qu’elles soient productrices d’IA. Davantage de femmes doivent participer à l’intelligence artificielle, que ce soit du point de vue des données, des algorithmes ou du secteur dans son ensemble », a déclaré Gabriela Ramos, Sous-Directrice générale de l'UNESCO pour les sciences sociales et humaines.

Dans son discours d’ouverture, Mme Ramos a insisté sur la responsabilité collective nécessaire pour veiller à ce que l’écart entre les sexes dans l’intelligence artificielle ainsi que dans le monde numérique ne continue pas à se creuser. Par le biais de cet événement, l’UNESCO attire l’attention sur les écarts entre les sexes dans le milieu du numérique, mais aussi sur les préjugés liés au genre dans les systèmes d’IA. Grâce à la Recommandation sur l’éthique de l’intelligence artificielle, actuellement en cours d’élaboration, l’UNESCO continuera à promouvoir l’égalité entre les sexes tout au long du cycle de vie de l’IA par l’intermédiaire de recommandations en termes de politiques et d’aide à la programmation.

Dans son discours d’inauguration, Kay Firth-Butterfield, responsable de l'IA et de l'apprentissage automatique et membre du comité exécutif du Forum économique mondial, a évoqué le besoin de diversifier les équipes créant des produits d’IA. De nos jours, les femmes constituent la moitié de la population mondiale, mais moins d’un quart des individus créant des algorithmes. « Aujourd’hui, nous voulons dire aux femmes du monde entier qu’elles existent », a déclaré Mme Firth-Butterfield. Cette dernière a insisté sur la nécessité de promouvoir des modèles de carrières féminines et de proposer du mentorat aux femmes et aux jeunes filles afin qu’elles gagnent en confiance et se fassent une place dans le monde de la technologie et de l’IA.

La table ronde a été l’occasion d’aborder deux thématiques principales :

La crise de formation et de recrutement des femmes dans l’IA

Les voix des femmes ne sont pas prises en compte dans nos projets d’avenir. Selon les données du Forum économique mondial, les femmes ne représentent que 22 % des professionnels de l’IA dans le monde. Les entreprises recrutant des experts de l’IA et des sciences des données estiment que moins de 1 % des candidatures qu’ils reçoivent proviennent de femmes. Les femmes et les jeunes filles sont quatre fois moins nombreuses à avoir des compétences en programmation informatique et treize fois moins susceptibles de déposer des brevets technologiques. Elles ont également des chances réduites d’accéder à des postes de direction dans les entreprises technologiques. En février dernier, le rapport de l’UNESCO intitulé Pour être intelligente, la révolution numérique devra être inclusive, soulignait que les femmes risquaient d’être laissées pour compte dans la course à l’emploi en IA. Que pouvons-nous faire pour attirer davantage de femmes dans les métiers de l’IA ?

Nanjira Sambuli, membre du Groupe de haut niveau du Secrétaire général des Nations Unies pour la coopération numérique, a abordé la question suivante : Comment apporter aux personnes talentueuses en Afrique les compétences numériques leur permettant de devenir actrices de la transformation du continent et de bâtir leur propre avenir ? Elle a attiré l’attention sur l’accès inégal des jeunes filles et des garçons à la formation, ce qui entraîne un vivier de talents féminins réduit dans le secteur technologique. Ashwini Asokan, PDG et co-fondatrice de l’entreprise technologique Mad Street Den, a souligné que pour appliquer l’IA de manière cohérente, il fallait faire appel à des équipes diversifiées. Dans son entreprise, elle promeut une politique d’égalité des sexes. En effet, Mme Asokan n’hésite pas à recruter des candidates et à regarder au-delà de leurs qualifications officielles. Elle investit dans le renforcement des capacités en reconnaissant la valeur ajoutée d’équipes technologiques paritaires. Latifa Mohammed Al-AbdulKarim, professeure adjointe de sciences informatiques à l’Université du Roi Saoud, a souligné l’importance de donner aux femmes une chance de participer et de s’affirmer. Elle a salué les initiatives clés du gouvernement saoudien visant à surmonter les difficultés d’accès et de recrutement des femmes dans la technologie.

Le problème des préjugés algorithmiques à l’encontre des femmes

L’éminent cabinet de recherche Gartner prévoit qu’en 2022, 85 % des projets d’IA donneront des résultats erronés en raison d’un biais dans les données, les algorithmes ou au sein des équipes chargées de leur gestion. Le rapport phare de l’UNESCO intitulé « Je rougirais si je pouvais » a démontré que les assistants vocaux fonctionnant sur la base de l’IA tels qu’Alexa et Siri perpétuaient des stéréotypes nuisibles sur les femmes, les considérant comme soumises et asservies. « Genrer » l’IA fait-il partie du problème ?

« L’IA constitue un miroir déformant de notre société. Créer ce nouveau monde sans la moitié de l’humanité, c’est produire des préjugés dès sa création », a déclaré Anne Bioulac, membre du comité consultatif responsable du développement de l’IA de l’initiative « Women in Africa ». Jutta Williams, responsable de l’apprentissage automatique chez Twitter, a expliqué comment l’entreprise technologique était transparente vis-à-vis de ses utilisateurs quant aux raisons pour lesquelles ils voyaient un contenu. Elle considère qu’il s’agit d’une contribution de Twitter à une meilleure compréhension collective de la manière dont les algorithmes influencent le comportement en ligne. Meredith Broussard, développeuse de logiciels et professeure agrégée de journalisme de données à l’Université de New York, a réclamé une plus grande responsabilisation dans le monde numérique ainsi qu’une action des gouvernements pour garantir que la technologie respecte la juridiction en matière de droits de l’homme. Adriana Bora, chercheuse en éthique de l’IA, a présenté son travail qui utilise les systèmes d’IA pour réduire l'esclavage moderne touchant principalement les femmes et les jeunes filles. Elle a déclaré : « Ce ne sont pas seulement les données qui sont biaisées, c’est également l’ensemble du processus de conception, de développement et d’évaluation ». Mme Bora a insisté sur le besoin d’une expertise du domaine incluant les survivants et les femmes dans la phase de conception de tout système d’IA. L’intervenante Wanda Munoz, spécialiste du désarmement humanitaire, a insisté sur les dangers que les systèmes d’IA peuvent entraîner, notamment par l’intermédiaire d’armes autonomes telles que les robots tueurs. Fonctionnant sur la base d’algorithmes biaisés, ces technologies représentent un grand danger pour les minorités et les femmes, particulièrement dans le Sud.

Les participantes étaient des femmes qui font évoluer l'IA : cadres professionnels prenant des décisions qui nous concernent tous, femmes innovant en matière d'outils et de politiques d'IA pour aider les groupes vulnérables, ou femmes exposant courageusement l'injustice et les erreurs algorithmiques :

  1. Gabriela Ramos, Sous-Directrice générale de l’UNESCO pour les sciences sociales et humaines, dirige la Recommandation de l’UNESCO sur l’éthique de l’IA, le premier instrument normatif mondial en la matière.
  2. Kay Firth-Butterfield, intervenante principale, a été la première responsable de l'éthique de l’IA au monde. En tant que responsable de l'IA et de l'apprentissage automatique et membre du comité exécutif du Forum économique mondial, elle développe de nouveaux partenariats afin de promouvoir la sensibilisation aux préjugés sexistes dans l’IA ;
  3. Ashwini Asokan, PDG de Mad Street Den, société basée à Chennai, étudie comment l’intelligence artificielle peut être utilisée de manière significative et rendue accessible à des milliards de personnes à travers le monde ;
  4. Adriana Bora, chercheuse utilisant l’apprentissage automatique pour renforcer le respect des lois britanniques et australiennes sur l’esclavage moderne et pour lutter contre l’esclavage moderne, notamment la traite des femmes ;
  5. Anne Bioulac, membre de l’initiative « Women in Africa », développe un apprentissage en ligne basé sur l’IA pour permettre aux femmes africaines d’utiliser l’IA dans l’entreprenariat numérique ;
  6. Meredith Broussard, développeuse de logiciels et professeure associée de journalisme de données à l'Université de New York, concentre ses recherches sur l'IA dans le journalisme d'investigation, avec un intérêt particulier pour l'utilisation de l'analyse de données pour le bien social ;
  7. Latifa Mohammed Al-AbdulKarim, nommée par le magazine Forbes comme l'une des 100 femmes brillantes en matière d'éthique de l'IA et l'une des femmes définissant l'IA au 21e siècle ;
  8. Wanda Munoz, du Réseau de sécurité humaine en Amérique latine, est l’une des bâtisseuses de paix de l’Initiative des femmes Nobel en 2020. Elle sensibilise à la violence sexiste et aux armes autonomes ;
  9. Nanjira Sambuli, membre du groupe de haut niveau du Secrétaire Général des Nations Unies pour la coopération numérique et conseillère pour l’Alliance A+ pour les algorithmes inclusifs ;
  10. Jutta Williams, cheffe de produit chez Twitter, analyse comment Twitter peut améliorer ses modèles afin de réduire les biais.

 

Les idées développées lors de la table ronde serviront de base à la coopération internationale facilitée par l’UNESCO pour garantir une contribution multipartite au développement d’une technologie et du secteur de l’intelligence artificielle aussi diversifié et inclusif que les sociétés de l’Organisation se sont engagées à créer.

Si vous avez manqué cet évènement vous pouvez le regarder en replay ici :