Survol de la ASC-6.2 Systèmes d’intelligence artificielle accessibles et équitables
Informations
Table des matières
1.0 Introduction
L’intelligence artificielle peut aider les personnes en situation de handicap en créant de nouveaux outils et en rendant les choses plus inclusives. Mais elle comporte aussi des risques, comme la prise de décisions injustes ou la difficulté de l’utiliser. Cette norme montre comment rendre les systèmes d’IA équitables et accessibles à tous.
Conformément à la Loi canadienne sur l’accessibilité, les systèmes d’IA doivent :
- Aider les personnes en situation de handicap autant qu’elles aident les autres.
- Éviter de causer plus de préjudices aux personnes en situation de handicap qu’aux autres.
- Protéger les droits, les libertés et les choix des personnes en situation de handicap.
Cette norme explique comment :
- Rendre les systèmes IA accessibles aux personnes en situation de handicap (1.1).
- Veiller à ce que les systèmes d’IA traitent les personnes en situation de handicap de manière équitable (1.2).
- Mettre en place des processus pour garantir que l’IA soit équitable et accessible (1.3).
- Enseigner aux gens ce qu’est une IA équitable et accessible (1.4)
1.1 L’IA accessible
Les systèmes, outils et ressources d’IA doivent être faciles à utiliser pour les personnes en situation de handicap. Les personnes en situation de handicap devraient être impliquées à chaque étape de la création, de la gestion et de l’utilisation de l’IA.
1.1.1 Les personnes en situation de handicap dans le cadre du processus d’IA
- Les personnes en situation de handicap doivent être incluses dans toutes les étapes du développement de l’IA, de la conception aux tests jusqu’à l’utilisation quotidienne.
- Tous les outils et processus de gestion de l’IA doivent répondre à des normes d’accessibilité telles que CAN/ASC-EN 301 549:2024 Exigences d’accessibilité pour les produits et services TIC (EN 301 549 :2021, IDT).
- L’inclusion des personnes en situation de handicap contribue à créer de meilleurs systèmes d’IA pour tous.
1.1.2 Les personnes en situation de handicap en tant qu'utilisateurs de l’IA
- Les systèmes d’IA doivent être simples et utiles à utiliser pour les personnes en situation de handicap.
- Les organismes doivent fournir des instructions claires et simples ainsi que des options de rétroaction que chacun puisse comprendre.
- Les systèmes d’IA doivent bien fonctionner avec les technologies d’assistance. Ils doivent éviter de créer de nouveaux problèmes pour les utilisateurs en situation de handicap.
1.2 L’IA équitable
Les systèmes d’IA doivent traiter les personnes en situation de handicap de manière équitable et offrir les mêmes avantages à tous. Ils doivent également éviter les préjudices ou d’être biaisés.
1.2.1 Accès équitable aux prestations
- Les systèmes d’IA doivent fonctionner aussi bien pour les personnes en situation de handicap que pour toute autre personne.
- Les organismes doivent continuer à vérifier et à améliorer leur IA pour garantir l’équité.
1.2.2 La prévention du préjudice
- Les organismes doivent se concentrer sur les risques qui pourraient nuire le plus aux personnes en situation de handicap.
- En cas de risque de préjudice grave, les organismes doivent agir rapidement.
- Les systèmes d’IA doivent être testés pour garantir qu’ils sont précis et équitables pour les personnes en situation de handicap.
- Les données sur les personnes en situation de handicap doivent être protégées contre les pirates informatiques ou des fuites.
- L’IA ne doit pas être biaisée ni traiter les personnes de manière injuste en raison de leur handicap.
- Les personnes en situation de handicap ne doivent pas être soumises aux décisions de l’IA sans le savoir. Elles doivent comprendre et accepter la manière dont l’IA les affecte.
- L’IA ne doit pas diffuser d’idées fausses ou nuisibles sur les personnes en situation de handicap.
1.2.3 La protection des droits et des libertés
- L’IA ne doit pas être utilisée pour espionner, catégoriser ou prédire le comportement des gens de manière injuste.
- Les gens doivent avoir des options claires pour comprendre et contrôler les décisions de l’IA qui leur concernent.
1.2.4 Le respect et les choix
- Les personnes en situation de handicap doivent participer à la conception et à la gestion des systèmes d’IA.
- Les organismes doivent fournir des renseignements faciles à comprendre sur la façon dont l’IA prend des décisions.
- Si quelqu’un n’aime pas une décision de l’IA, il doit y avoir un moyen simple de la contester.
1.3 Rendre l’IA équitable et accessible
Les organismes doivent suivre des étapes claires pour s’assurer que l’IA est équitable et accessible à tous. Cela comprend une bonne planification, des tests et la participation des personnes en situation de handicap.
1.3.1 Inclure les personnes en situation de handicap dans la prise de décisions
- Les personnes en situation de handicap doivent contribuer à la prise de décisions importantes concernant l’IA.
- Les processus décisionnels doivent être ouverts et faciles à suivre pour tous.
1.3.2 Planifier et expliquer l’utilisation de l’IA
- Les organismes doivent étudier comment l’IA pourrait affecter les personnes en situation de handicap. Ils doivent ensuite résoudre tous les problèmes avant de l’utiliser.
- Ils doivent aussi élaborer des plans pour prévenir les préjudices et garder l’équité de l’IA.
1.3.3 Partager les plans d’IA
- Les organismes doivent informer le public de leurs plans d’utilisation de l’IA. Ils doivent partager cette information dans des formats faciles d’accès et de compréhension.
- Toute personne peut demander à être ajoutée à une liste de diffusion pour recevoir des mises à jour sur les plans d’IA.
1.3.4 Vérifier l’équité des données
- Les organismes doivent vérifier si les données qu’elles utilisent pour l’IA sont équitables et qu’elles ne porteront pas préjudice aux personnes en situation de handicap.
- Les données doivent correspondre à l’objectif de l’IA et à la tâche pour laquelle elle est conçue.
- Les organismes doivent :
- Éviter d’utiliser des données biaisées.
- Assurer que les données de formation représentent fidèlement les personnes en situation de handicap.
- Protéger les données contre les pirates informatiques et les fuites.
1.3.5 Développer une IA qui fonctionne pour tous
- Avant d’utiliser l’IA, les organismes doivent compléter des essais auprès de personnes en situation de handicap pour s’assurer qu’elle est accessible.
- La rétroaction de ces essais doit être utilisée pour améliorer l’IA.
1.3.6 L’achat de l’IA équitable et accessible
- Lors de l’achat de systèmes d’IA, les organismes doivent s’assurer qu’ils répondent aux normes d’équité et d’accessibilité.
- Des experts indépendants doivent confirmer que l’IA répond à ces normes avant de l’utiliser.
1.3.7 Ajuster les systèmes d’IA de manière équitable
- Lorsque les organismes modifient leurs systèmes d’IA, elles doivent s’assurer qu’ils restent équitables et accessibles.
1.3.8 Continuez de vérifier l’IA
- Les organismes doivent vérifier régulièrement les systèmes d’IA pour s’assurer qu’ils demeurent équitables et accessibles.
- Une liste publique des problèmes et des correctifs doit être conservé et mise à jour.
1.3.9 Formation du personnel
- Le personnel doit apprendre à créer et à gérer l’IA de manière équitable et accessible.
- La formation devrait comprendre :
- Les règles de la confidentialité.
- Comment rendre les interfaces utilisateur accessibles.
- Les moyens de détecter et de corriger les biais.
- Comment impliquer les personnes en situation de handicap dans les projets d’IA.
1.3.10 Être clair et demander le consentement
- Les organismes doivent expliquer comment fonctionne leur IA dans un langage simple.
- Les gens doivent être autorisés à refuser l’utilisation de leurs données sans rencontrer de problèmes.
1.3.11 Offrir des choix
- Si quelqu’un ne veut pas que l’IA prenne des décisions à son sujet, il doit être en mesure de choisir un décideur humain à la place.
1.3.12 Traiter les plaintes et résoudre les problèmes
- Les organismes doivent faciliter le signalement des problèmes liés à l’IA.
- Elles doivent réagir rapidement et clairement pour résoudre ces problèmes.
1.3.13 Réviser et arrêter l’IA problématique
- Les organismes doivent continuer à examiner les systèmes d’IA pour s’assurer qu’ils demeurent équitables.
- Si un système tombe en panne, il doit être réparé ou arrêté jusqu’à ce qu’il réponde à nouveau aux normes.
1.3.14 Protéger les données
- Les organismes doivent assurer la sécurité et la confidentialité des données sur les personnes en situation de handicap.
- Le stockage des données doit respecter les lois sur la confidentialité telles que la Loi sur la protection des renseignements personnels et la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE)
1.4 Enseigner et apprendre au sujet de l’IA
L'éducation au sujet de l’IA doit être accessible afin que chacun puisse comprendre comment l’utiliser de manière équitable.
1.4.1 L’éducation accessible
- Les outils d’apprentissage doivent être faciles à utiliser pour tous, y compris les personnes en situation de handicap.
- La formation doit aider les personnes en situation de handicap à jouer un rôle actif dans les projets d’IA.
1.4.2 La formation professionnelle
- La formation des créateurs d’IA doit comprendre des cours sur l’équité et l’accessibilité.
- Les cours devraient être conçus pour des rôles spécifiques afin de les rendre utiles et pertinents.
1.4.3 Inclure les personnes en situation de handicap à la formation
- Les personnes en situation de handicap doivent contribuer à la création et à l’enseignement des programmes de formation à l’IA
1.4.4 La littératie en IA
- Les organismes doivent sensibiliser les gens aux avantages et aux risques de l’IA.
- Ces leçons devraient aider à tous à prendre des décisions éclairées et à savoir comment contester les systèmes d’IA injuste.