Résume de la norme CAN-ASC-6.2:2025 – Systèmes d’intelligence artificielle accessibles et équitables
Informations
Table des matières
Introduction à la norme CAN-ASC-6.2:2025 – Systèmes d’intelligence artificielle accessibles et équitables
Il s’agit de la première édition de la norme CAN-ASC-6.2:2025 - Systèmes d’intelligence artificielle accessibles et équitables.
La présente norme vise à s’aligner sur :
- Autres normes pertinentes, notamment :
- CAN-ASC - EN 301 549:2024 - Exigences d’accessibilité pour les produits et services de TIC (EN 301 549:2021, IDT)
- CAN-ASC - 1.1:2024 (REV-2025) - L’Emploi
- CSA ISO/IEC 42001:25 - Information technology - Artificial Intelligence - Management system (en anglais seulement)
- CSA ISO/IEC 30071-1-20 - Information technology - Development of user interface for accessibility - Part 1: Code of practice for creating accessible ICT products and services (en anglais seulement)
- CSA ISO/IEC 29138-1:19 - Information technology - User interface accessibility - Part 1: User accessibility needs (en anglais seulement)
- Autres lois, codes et règlements pertinents, y compris :
- la Loi canadienne sur l’accessibilité
- la Convention relative aux droits des personnes handicapées des Nations Unies
- la Loi canadienne sur les droits de la personne
Objectifs et but
La présente norme aidera les organismes à atteindre, à créer et à utiliser l’IA qui :
- offre des bienfaits équitables aux personnes en situation de handicap,
- évite de causer un préjudice injustifié,
- protège les droits et libertés des personnes en situation de handicap, et
- traite les personnes en situation de handicap avec respect et leur donne des choix, y compris le choix de ne pas utiliser l’IA.
Portée
Les 9 premiers articles de cette norme présentent l’organisme d’élaboration de normes et le comité technique responsable de l’élaboration de la présente norme. Ces articles présentent aussi les obligations légales, et les modalités d’utilisation de cette norme.
Les articles 10 à 13 couvrent les exigences suivantes :
- L’IA accessible : veiller à ce que l’IA puisse être utilisée par les personnes en situation de handicap.
- IA équitable : veiller à ce que les applications d’IA traitent équitablement les personnes en situation de handicap.
- Processus organisationnels visant à soutenir une IA accessible et équitable : aider les organisations à construire et à utiliser l’IA de manière équitable et accessible.
- Éducation et formation : enseigner l’IA aux gens pour rendre le système plus inclusif.
L’IA accessible
Les systèmes d’IA doivent être faciles à utiliser pour les personnes en situation de handicap. Les personnes en situation de handicap devraient être impliquées à chaque étape de la création, de la gestion et de l’utilisation de l’IA.
Participation au processus d’IA
Les personnes en situation de handicap devraient être en mesure de participer à tous les rôles et à toutes les étapes du processus d’IA, incluant :
- conception,
- codage,
- test,
- achat,
- utilisation, et
- vérification des systèmes d’IA.
Les organismes doivent s’assurer que tous les outils utilisés pour construire et gérer l’IA respectent les normes d’accessibilité (CAN-ASC-EN 301 549:2024). Cela comprend :
- Rendre les systèmes et les outils d’IA accessibles.
- S’assurer que les extrants de l’IA sont accessibles.
Les personnes en situation de handicap en tant qu’utilisateurs de l’IA
Les systèmes d’IA doivent être équitables, utilisables et bénéfiques pour les personnes en situation de handicap. Si l’IA affecte les travailleurs, les clients ou le public, elle doit répondre aux normes d’accessibilité.
Les organismes doivent :
- partager des informations claires, dans un langage clair sur le fonctionnement des systèmes d’IA et les décisions qu’ils prennent et la manière dont les personnes peuvent contester ces décisions,
- fournir des moyens accessibles de donner leur rétroaction, et
- travailler avec les individus pour s’assurer que les outils d’IA utilisés comme mesures d’adaptation sont équitables.
Exemple : si l’IA est utilisée pour l’interprétation en langue des signes, les utilisateurs Sourds doivent pouvoir choisir un interprète humain à la place, en particulier dans les contextes importants comme les hôpitaux ou les tribunaux.
L’IA équitable
Les systèmes d’IA doivent traiter les personnes en situation de handicap de manière équitable. Un traitement équitable aide les gens à vivre pleinement et à participer à la vie de leur communauté.
Accès équitable aux bienfaits
Les organismes doivent :
- inclure les personnes en situation de handicap dans les données d’entraînement,
- tester et ajuster les outils d’IA afin qu’ils fonctionnent bien pour tout le monde,
- partager les résultats de rendement séparément pour les personnes en situation de handicap,
- suivre les effets réels, et
- utiliser les rétroactions pour améliorer les systèmes.
Prévention des préjudices
Les organismes doivent rechercher et réduire les préjudices causés par l’IA. Les préjudices peuvent être grands ou petits, et ils peuvent s’accumuler au fil du temps. Il s’agit par exemple de discrimination, de perte de vie privée, d’exclusion et de perte de contrôle.
Les organismes doivent :
- concentrer sur les risques qui touchent les personnes en situation de handicap,
- comprendre et minimiser les petits préjudices qui peuvent s’accumuler,
- utiliser des moyens équitables pour vérifier l’exactitude,
- protéger les renseignements personnels,
- éviter un traitement injuste,
- s’assurer que les gens comprennent et consentent avant d’utiliser l’IA, et
- éviter de diffuser des idées fausses ou nuisibles sur les personnes en situation de handicap.
Respect des droits et libertés
L’IA ne doit pas être utilisée d’une manière qui porte atteinte à la vie privée, à la dignité ou à l’indépendance.
Les organismes doivent éviter :
- d’utiliser l’IA pour suivre ou surveiller de manière inéquitable les personnes en situation de handicap, ou
- d’utiliser l’IA pour juger les personnes en fonction de leurs corps, de leurs mouvements, de leurs expressions faciales, ou de leurs émotions.
Respect du choix et la dignité
Les gens doivent être en mesure de faire des choix éclairés et d’être traités avec respect.
Les organismes doivent :
- inclure les personnes en situation de handicap dans toutes les étapes,
- partager des informations claires et accessibles,
- offrir des choix, comme l’utilisation d’un humain au lieu de l’IA,
- éviter d’induire ou de manipuler les gens, et
- s’assurer qu’une personne au sein de l’organisation est responsable des décisions relatives à l’IA.
Soutenir la recherche équitable et accessible en IA
Les organismes qui soutiennent la recherche en IA doivent également soutenir la recherche qui contribue à rendre l’IA équitable et accessible aux personnes en situation de handicap.
Processus organisationnels visant à soutenir une IA accessible et équitable
Les organismes doivent s’assurer que leur IA est équitable et utilisable par les personnes en situation de handicap. Cela signifie d’inclure les personnes en situation de handicap dans la planification, la conception, l’utilisation et la gestion des systèmes d’IA. Cela comprend le personnel, les entrepreneurs, les clients et les membres du public.
Gouvernance de l’IA équitable et accessible
Les organismes doivent :
- inclure les personnes en situation de handicap dans la prise de décision, et
- embaucher et soutenir des personnes en situation de handicap dans des rôles tels que ceux du personnel et des membres du conseil d’administration.
Planification et explication l’utilisation de l’IA
Avant d’utiliser l’IA, les organismes doivent :
- établir un plan clair qui comprend des options humaines et des actions d’urgence,
- comprendre les risques et les répercussions, y compris les petits préjudices qui s’accumulent, et
- utiliser des moyens équitables pour vérifier les risques et l’exactitude.
Informer le public sur l’utilisation de l’IA
Les organismes doivent :
- informer le public de l’utilisation de l’IA,
- partager ceci dans des formats accessibles,
- permettre aux gens de s’inscrire pour recevoir des mises à jour, et
- fournir des moyens accessibles de donner de la rétroaction.
Vérification des données utilisées dans l’IA
Avant d’utiliser des données sur les personnes en situation de handicap, les organisations doivent :
- s’assurer que les données correspondent à la tâche,
- inclure les personnes en situation de handicap dans la décision,
- éviter les biais, les fausses déclarations et les étiquettes injustes, et
- prévenir les préjudices et la discrimination.
Conception et construction d’une IA équitable et accessible
Les organismes doivent :
- inclure l’accessibilité et l’équité dès le départ,
- tester des systèmes d’IA avec des personnes en situation de handicap,
- demander des rétroactions,
- éviter d’utiliser l’IA pour suivre, classer ou tromper les gens, et
- indiquer clairement qui est responsable des décisions en matière d’IA au sein de l’organisme.
Achat des systèmes d’IA
Les organismes doivent :
- inclure l’accessibilité et l’équité dans les décisions d’achat,
- demander l’avis de personnes en situation de handicap,
- tester les systèmes avant utilisation,
- demander à des experts de vérifier l’équité et l’accessibilité des systèmes d’IA, et
- inclure un moyen d’annuler les contrats si nécessaire.
Personnalisation des systèmes d’IA
Lorsqu’elles modifient ou ajustent des systèmes d’IA, les organismes doivent :
- respecter les règles d’accessibilité et d’équité,
- obtenir les rétroactions des personnes en situation de handicap, et
- tester le système personnalisé avant utilisation.
Vérifications continues des préjudices
Les organismes doivent :
- vérifier régulièrement comment l’IA affecte les personnes en situation de handicap,
- rechercher les façons dont l’IA pourrait nuire aux personnes ou les traiter de manière injuste,
- tenir un registre public des préjudices, et
- travailler avec les groupes de personnes en situation de handicap pour fixer des limites en matière de risques.
Formation du personnel
Toute personne travaillant avec l’IA doit recevoir une formation accessible, à jour et spécifique à son rôle.
La formation doit porter sur :
- la confidentialité des renseignements,
- la conception d’une IA pour tous,
- l’identification et la réduction des risques et des préjudices,
- la manière de rendre l’IA équitable, et
- l’inclusion les personnes en situation de handicap.
Les personnes en situation de handicap doivent contribuer à la création et à la mise en œuvre de cette formation.
Transparence et consentement
Les organismes doivent :
- partager des informations claires sur l’utilisation de l’IA et des données utilisateur,
- rendre cette information accessible et facile à comprendre,
- obtenir l’autorisation d’utiliser les données de l’utilisateur,
- permettre aux gens de retirer leur consentement sans pénalité, et
- inclure les personnes en situation de handicap dans les décisions concernant les données des utilisateurs collectées sans consentement.
Offre des alternatives
Les personnes en situation de handicap doivent être en mesure de choisir d’autres options qui sont tout aussi disponibles, opportunes et pratiques. Ces options comprennent la possibilité de demander l’intervention :
- d’un décideur humain, ou
- un humain d’examiner les décisions de l’IA.
Les organismes doivent embaucher des personnes possédant l’expertise nécessaire pour prendre des décisions équitables.
Exemples :
- Les utilisateurs Sourds doivent pouvoir choisir un interprète humain.
- Les utilisateurs aveugles doivent être en mesure de choisir un surveillant humain lors des examens.
Traitement des rétroactions et des plaintes
Les organismes doivent :
- fournir des moyens clairs et accessibles de donner des rétroactions ou des plaintes,
- répondre rapidement aux rétroactions,
- indiquer aux gens quand ils peuvent s’attendre à une réponse,
- autoriser les rétroactions anonymes,
- expliquer ce qui sera fait pour résoudre le problème,
- tenir les gens informés et proposez-leur de revoir et de contester une décision, et
- ajouter des rétroactions sur les préjudices au registre public, s’ils peuvent être anonymisés et si la personne y consent.
Révision et amélioration des systèmes d’IA
Les organismes doivent :
- continuer à vérifier comment les systèmes d’IA fonctionnent et comment ils peuvent nuire aux personnes en situation de handicap,
- améliorer les systèmes d’IA quand nécessaire,
- cesser d’utiliser les systèmes d’IA s’ils causent des préjudices ou ne répondent plus aux normes,
- inclure les personnes en situation de handicap dans les évaluations, et
- s’assurer que les systèmes d’IA apprennent des erreurs, y compris les plaintes pour préjudices formulées par des personnes en situation de handicap.
Protection des données sur le handicap
Les organismes doivent :
- assurer la sécurité des données liées au handicap, dès leur collecte à leur suppression,
- protéger les renseignements personnels, de santé et de réadaptation,
- respecter les lois sur la protection de la vie privée comme la Loi sur la protection des renseignements personnels et la LPRPDE, et
- s’assurer que les données ne peuvent pas être réidentifiées.
Éducation, formation et littératie en IA
Toutes les personnes impliquées dans l’IA, qu’elles la construisent, l’achètent, l’utilisent ou qu’elles soient affectées par elle, doivent comprendre l’accessibilité et l’équité.
L’éducation et la formation doivent :
- être accessibles,
- enseigner l’IA accessible et équitable,
- inclure les personnes en situation de handicap dans la création et la prestation de la formation, et
- aider les gens à comprendre comment l’IA affecte leurs choix et leur indépendance.
Apprentissage accessible
Les organismes doivent :
- utiliser des outils et des méthodes d’enseignement accessibles,
- aider les personnes en situation de handicap à participer à la gestion de l’IA, et
- soutenir les personnes en situation de handicap dans tous les rôles liés à l’IA.
Formation pour les professionnels
Les organismes doivent former le personnel, y compris les équipes techniques, sur l’IA accessible et équitable. Cette formation doit suivre les règles relatives à l’IA accessible, à l’IA équitable, et à l’éducation, la formation, et la littératie en IA.
Implication des personnes en situation de handicap dans la création des formations
Les personnes en situation de handicap doivent contribuer à la conception et à la mise en œuvre de l’éducation et de la formation en IA.
Aider les gens à comprendre l’IA
Les organisations doivent aider les gens à comprendre comment fonctionne l’IA et ce qu’elle signifie pour eux. Cela comprend :
- l’explication des objectifs, des avantages, des risques et de l’équité,
- l’aide apportée aux gens à comprendre leurs choix, et
- la démonstration de la manière de donner son consentement, de choisir d’autres options et de contester les décisions.
Annexes
Des annexes informatives fournissent plus d’informations et de contexte sur les concepts présentés dans la présente norme. La norme énonce les exigences générales, tandis que les annexes fournissent des détails. La liste identifie les annexes à lire en plus de la lecture de la norme.
- Annexe A : Cas d’utilisation pour évaluer si les données correspondent à une tâche d’IA