L'UNESCO a lancé le Réseau des femmes pour une IA éthique (Women4Ethical AI), nouvelle plateforme collaborative visant à soutenir les gouvernements et les entreprises dans leurs efforts pour assurer l'égalité des genres à la fois dans la conception et le déploiement de l'IA, a annoncé, mardi, l'organisation onusienne basée à Paris. Les membres de cette plateforme contribueront à l'avancement de toutes les dispositions éthiques contenues dans la Recommandation de l'UNESCO, précise-t-elle dans un communiqué. Alors que les technologies numériques transforment la vie quotidienne, les femmes sont sous-représentées dans la recherche et la conception de ces technologies. Leurs besoins et leurs expériences sont également négligés par les concepteurs, et les données utilisées pour façonner l'IA sont souvent biaisées au détriment des femmes et des filles, rappelle-t-on. Actuellement, au niveau mondial, les femmes et les filles sont 25 % moins susceptibles que les hommes de savoir tirer parti de la technologie numérique pour atteindre des objectifs simples, 4 fois moins susceptibles de savoir programmer des ordinateurs et 13 fois moins susceptibles de déposer un brevet dans le domaine des TIC (Technologies de l'information et de la communication), note le communiqué, précisant que seuls 20 % des employés occupant des fonctions techniques dans les entreprises d'apprentissage automatique, 12 % des chercheurs en intelligence artificielle au niveau mondial et 6 % des développeurs de logiciels professionnels sont des femmes. «Il est urgent de rééquilibrer la situation des femmes dans l'IA pour éviter les analyses biaisées et construire des technologies qui prennent en compte les attentes et les besoins de l'ensemble de l'humanité», affirme Audrey Azoulay, la Directrice générale de l'UNESCO, citée dans le communiqué. Lire aussi : Intelligence artificielle : l'UNESCO appelle les gouvernements à mettre en œuvre sans délai le cadre éthique mondial Pour résoudre ce problème, l'UNESCO a placé l'égalité des genres au cœur de sa Recommandation sur l'éthique de l'intelligence artificielle, premier instrument normatif mondial dans ce domaine, adopté à l'unanimité par ses 193 Etats membres en novembre 2021. Ce document, qui constitue une feuille de route concrète pour les Etats dans la mise en œuvre de leurs politiques en matière d'IA, prévoit la prise en compte des enjeux de l'égalité des genres dans tous les aspects de l'IA, relève-t-on de même source. Afin d'accélérer la mise en œuvre de cet objectif, l'UNESCO a créé Women4Ethical AI, une plateforme collaborative destinée à soutenir les gouvernements et les entreprises dans leurs efforts. Cette plateforme réunit 17 expertes reconnues issues du monde universitaire, de la société civile, du secteur privé et d'organismes de régulation du monde entier. Elles y partageront leurs recherches et contribueront à l'élaboration d'un référentiel de bonnes pratiques. La plateforme favorisera le développement d'algorithmes et de sources de données non discriminatoires, et incitera les filles, les femmes et les groupes sous-représentés à participer à l'IA. «Grâce à ce réseau de femmes dynamiques et engagées, nous accomplirons de réels progrès pour garantir des résultats inclusifs et équitables en matière d'intelligence artificielle, comme le prévoit la Recommandation de l'UNESCO sur l'éthique de l'IA», souligne Gabriela Ramos, Sous-Directrice générale de l'UNESCO pour les sciences sociales et humaines et coprésidente de la plateforme, citée dans le communiqué. Parmi les outils proposés pour garantir l'inclusion et l'autonomisation des femmes à chaque étape du développement de l'IA figurent l'octroi d'allocations budgétaires et un accompagnement des femmes du monde universitaire, de la recherche et de l'entrepreneuriat. Le développement, l'utilisation et le déploiement de systèmes d'IA risquent de dupliquer et d'amplifier les préjugés de genre existants et d'en créer de nouveaux : le manque de diversité dans les données, les équipes de programmation ou les approches conduit à des outils d'IA biaisés qui génèrent des résultats discriminatoires. Ces résultats sont utilisés pour prendre des décisions importantes qui ont un impact sur la vie quotidienne des citoyens. Les diagnostics médicaux fondés sur des données collectées uniquement auprès d'hommes constituent un exemple éloquent d'impact néfaste des données biaisées, conclut-on.