Un nouveau rapport présente des recommandations pour des politiques favorisant l'égalité des sexes et la diversité dans l'IA English
MONTRÉAL, le 26 nov. 2024 /CNW/ - Mila et CEIMIA, deux acteurs de premier plan à l'échelle internationale dans le développement responsable de l'intelligence artificielle (IA), ont publié aujourd'hui le rapport le plus complet à ce jour sur l'égalité des sexes et la diversité dans l'IA. S'appuyant sur des consultations approfondies avec un large éventail de voix et d'experts, ce rapport et le guide de d'accompagnement offrent aux décideurs politiques des recommandations claires pour favoriser une plus grande inclusivité dans le développement technologique.
Le rapport, une initiative du groupe de travail sur l'IA responsable du Partenariat mondial sur l'intelligence artificielle, a été présenté aujourd'hui à Montréal, au Canada, dans le cadre d'un événement qui a réuni la présidente du Conseil du Trésor du Canada, Anita Anand, ainsi que des dirigeants mondiaux, des décideurs politiques et des représentants de la communauté de l'IA.
Le rapport, intitulé « Vers une réelle égalité en intelligence artificielle : Une politique d'IA transformatrice pour l'égalité des genres et la diversité », donne aux décideurs et à l'ensemble des parties prenantes les lignes directrices pour créer des écosystèmes d'IA inclusifs, équitables et justes, qui favorisent le développement économique et social. Le rapport explore les meilleures pratiques, offre des perspectives politiques et fournit des recommandations pour améliorer l'égalité et la diversité des genres dans l'IA et l'élaboration de lignes directrices.
Les progrès rapides de l'IA transforment les industries et stimulent la croissance économique, offrant un grand potentiel pour améliorer la qualité et les conditions de vie dans le monde entier. Cependant, ils risquent d'exacerber les inégalités existantes en reflétant et en amplifiant les préjugés sociétaux, la discrimination et les stéréotypes, en particulier ceux qui touchent les femmes et d'autres groupes historiquement marginalisés. Il existe déjà des cas documentés où les systèmes et processus d'IA ont, par exemple, conduit à la diffusion d'images personnelles non consensuelles et au harcèlement en ligne. Le manque de diversité dans les écosystèmes d'IA peut également renforcer les stéréotypes et la discrimination en excluant certaines perspectives. Cela s'est traduit notamment par des cas où les groupes marginalisés se sont vus limiter leurs opportunités d'emploi et où les ressources ont été distribuées de manière inéquitable, en particulier envers les personnes handicapées.
« Ce rapport est indispensable, car les recommandations s'attaquent aux causes profondes de l'inégalité en vue de parvenir à une égalité réelle dans le domaine de l'IA et au-delà. Des changements transformateurs dans le développement et la mise en oeuvre des politiques entourant l'IA feront progresser les droits de la personne », déclare Paola Ricaurte Quijiano, professeure titulaire au Tecnológico de Monterrey, associée au Berkman Klein Center for Internet & Society de l'université Harvard et coresponsable du rapport. « Nous devons créer un cadre réglementaire solide pour limiter les effets néfastes et garantir un développement bénéfique des systèmes et des processus d'IA pour tous et toutes. »
Les principales recommandations sont classées en quatre catégories :
- Encourager la conception inclusive et l'innovation démocratique : intégrer l'action positive et les mesures d'inclusion institutionnelle, et soutenir la conception de technologies inclusives.
- Renforcer la participation significative à la gouvernance de l'IA : favoriser la participation active des groupes marginalisés à la gouvernance de l'IA afin d'assurer un meilleur encadrement de l'IA pour tous et toutes.
- Veiller à la transparence et à la responsabilisation en matière de prévention des effets néfastes : établir des garanties et des mécanismes de responsabilité entre tous les acteurs de l'IA afin de prévenir les dommages et de garantir l'équité.
- Assurer un accès adéquat au système de justice : mettre en œuvre des mesures visant à garantir que les groupes marginalisés aient accès à un recours juridique contre les discriminations et les préjugés liés à l'IA.
Le rapport recommande, entre autres, d'orienter le financement vers des initiatives alignées sur les principes de conception de technologies inclusives, promouvant des applications, des pratiques et des processus équitables dans les écosystèmes d'IA. Les recommandations portent également sur l'élaboration de stratégies permettant aux secteurs public et privé de réaliser des études d'impact sur les droits fondamentaux avant de déployer des systèmes d'IA. D'autres exemples incluent la garantie de la transparence algorithmique, pour permettre aux personnes affectées par un système d'IA de contester ses résultats sur la base d'informations claires et compréhensibles. De plus, il est proposé de réduire la charge de la preuve pour les plaignants, facilitant ainsi l'accès aux recours juridiques contre les discriminations et les biais générés par l'IA.
« La mise en place d'un encadrement réglementaire rigoureux est nécessaire et urgente pour prévenir les méfaits et œuvrer en faveur de l'équité et de la diversité dans les écosystèmes d'IA qui, en fin de compte, ont une incidence directe sur les humains », ajoute Benjamin Prud'homme, vice-président responsable des politiques publiques, de la sécurité et des affaires mondiales de Mila et coresponsable du rapport. « Grâce à des politiques d'IA inclusives, nous pouvons améliorer la qualité, la facilité d'utilisation et l'efficacité des systèmes d'IA, pour un avenir plus équitable, durable et prospère pour tous et toutes. »
Parallèlement au rapport, CEIMIA et Mila publient également un guide d'accompagnement pour aider les décideurs politiques à mettre en œuvre les recommandations. Ce guide propose une méthode détaillée pour construire des écosystèmes d'IA plus inclusifs et des mesures concrètes pour faciliter cette transition industrielle indispensable.
Sur la base d'une approche de l'IA fondée sur les droits de la personne, plus de 200 participants, représentant plus de 50 pays et issus de divers milieux, ont pris part à des consultations ou à des exercices à caractère consultatif en vue de créer le rapport.
À propos de CEIMIA
Le CEIMIA est un acteur clé du développement et de l'adoption responsables de l'intelligence artificielle, sur la base de principes d'éthique, de droits de l'homme, d'inclusion, de diversité, d'innovation et de croissance économique. Le CEIMIA développe et met en œuvre des projets appliqués à fort impact dans le domaine de l'intelligence artificielle responsable. En tant que centre d'expertise du Partenariat mondial sur l'intelligence artificielle (GPAI), le CEIMIA travaille en étroite collaboration avec 29 gouvernements et plus de 150 experts internationaux multipartites pour relever les défis et priorités mondiaux en soutenant le développement de solutions appliquées en matière d'intelligence artificielle responsable. Notre rôle est d'agir en tant que point focal pour les partenariats internationaux afin d'encourager le développement et le déploiement de telles initiatives pour le bien public. Pour de plus amples informations, visitez https://ceimia.org/fr/
À propos de Mila
Fondé par le professeur Yoshua Bengio de l'Université de Montréal, Mila est le plus grand centre de recherche universitaire en apprentissage profond au monde, rassemblant plus de 1 200 chercheur•euse•s spécialisé•e•s dans le domaine de l'apprentissage automatique. Basé à Montréal et financé en partie par le gouvernement du Canada dans le cadre de la Stratégie pancanadienne en matière d'IA, Mila a pour mission d'être un pôle mondial d'avancées scientifiques qui inspire l'innovation et le développement de l'IA au bénéfice de tous•tes. Mila est une organisation à but non lucratif reconnue mondialement pour ses importantes contributions au domaine de l'apprentissage profond, en particulier dans les domaines de la modélisation du langage, de la traduction automatique, de la reconnaissance d'objets et des modèles génératifs. Pour en savoir plus, visitez mila.quebec.
SOURCE Mila - Institut québécois d’intelligence artificielle
Source: Mila & CEIMIA ; Contact: Eric Aach, [email protected], +1 514-569-3594; ou Gabrielle Landry, [email protected], +1 514-688-5837
Partager cet article