Norme

CAN-ASC-6.2:2025- Systèmes d’intelligence artificielle accessibles et équitables

11. L’IA équitable

Informations
Numéro de désignation
CAN-ASC-6.2:2025
Domaine prioritaire
Technologies de l’information et de la communication
Statut
Publiée
Développé par
Normes d'accessibilité Canada
Date d'affichage
Décembre
2025
Date de publication
Décembre
2025
Table des matières
Membres du comité technique
  • Lisa Snider, consultante principale en accessibilité numérique et formatrice, Access Changes Everything Inc.
  • Nancy McLaughlin, conseillère principale en matière d’accessibilité, Conseil de la radiodiffusion et des télécommunications canadiennes
  • John Willis, conseiller principal, Bureau de l’accessibilité de la fonction publique (BAFP), Centre d’excellence pour les droits de la personne
  • Jutta Treviranus (présidente), directrice et professeure, Inclusive Design Research Centre, Université OCAD
  • Alison Paprica, professeure adjointe et chercheuse principale, Institut pour la politique de santé, gestion et évaluation, Université de Toronto
  • Gary Birch, directeur exécutif, Neil Squire Society
  • Lisa Liskovoi, conceptrice inclusive principale et spécialiste de l’accessibilité numérique, Inclusive Design Research Centre, Université OCAD
  • Clayton Lewis, professeur, Université du Colorado
  • Julia Stoyanovich, professeure associée et directrice, Tandon School of Engineering, l’université de New York
  • Anne Jackson, professeure, Seneca College
  • Kave Noori, responsable de la politique en matière d’intelligence artificielle, European Disability Forum
  • Mia Ahlgren, agente des politiques en matière de droits des personnes en situation de handicap, Swedish Disability Rights Federation
  • Sambhavi Chandrashekar (vice-présidente), responsable mondiale de l’accessibilité, D2L Corporation
  • Julianna Rowsell, cheffe principale de produit, Équité des produits, Adobe
  • Kate Kalcevich, responsable de l’innovation en matière d’accessibilité, Fable
  • Saeid Molladavoudi, conseiller principal en science des données, Statistique Canada
  • Merve Hickok, fondatrice, présidente et directrice de recherche, Aiethicist.org, Center for AI and Digital Policy, Université du Michigan

Lorsque les systèmes d’IA prennent des décisions concernant des personnes en situation de handicap ou ont une incidence sur elles, ces décisions et l’utilisation des systèmes d’IA doivent aboutir à un traitement et résultat équitable pour les personnes en situation de handicap. 

Remarque : Cela bénéficiera aux personnes et aux groupes de population, ainsi qu’à la société dans son ensemble, en contribuant à garantir que toutes les personnes sont en mesure de mener une vie productive et de contribuer à la société.

Principes : un traitement équitable exige que les personnes en situation de handicap :

  1. tire des bienfaits équitables des systèmes d’IA;
  2. ne subissent pas de préjudices inéquitables de la part des systèmes d’IA;
  3. ne subissent pas de perte de droits et libertés en raison de l’utilisation de systèmes d’IA; et
  4. ont une capacité d’agir et sont traités avec respect dans leurs interactions avec les systèmes d’IA, y compris le droit de choisir des alternatives équitables.

11.1 Accès équitable aux bienfaits

En partant du principe que les personnes en situation de handicap devraient être en mesure de bénéficier des systèmes d’IA, au moins de manière comparable aux autres, les organismes doivent s’efforcer de s’assurer que les personnes en situation de handicap bénéficient des bienfaits équitables des systèmes d’IA. 

11.1.1 Prévenir la sous-représentation et la fausse représentation dans les données de formation

Les organismes doivent s’assurer que les personnes en situation de handicap ne sont pas sous-représentées ou mal représentées dans les données de formation, notamment :

  1. en évitant les approximations biaisées;
  2. les étiquettes de données biaisées; ou
  3. les données synthétiques 

qui ne reflètent pas les expériences, la diversité et la variabilité réelles des handicaps.

11.1.2 Rendement équitable entre les groupes d’utilisateurs

Les organismes doivent valider et mettre au point les systèmes d’IA pour qu’ils fonctionnent de manière comparable sur les plans de :

  1. la précision;
  2. la fiabilité; et
  3. la robustesse, tant pour les personnes en situation de handicap que pour les autres.

11.1.3 Mesures de rendement désagrégées

Les organismes doivent évaluer le rendement du système d’IA et en rendre compte à l’aide de résultats désagrégés pour les personnes en situation de handicap.

11.1.4 Surveillance des impacts réels sur les personnes en situation de handicap

Les organismes doivent surveiller en permanence le rendement des systèmes d’IA en fonction de critères de validation et les impacts réels des décisions prises à l’aide de l’IA sur les personnes en situation de handicap, conformément à l’article 12.8.

11.1.5 Amélioration du système grâce à la rétroaction et au perfectionnement

Les organismes doivent utiliser les données de surveillance et de rendement, y compris les données recueillies dans le registre public, conformément à l’article 12.8, pour :

  1. améliorer la convivialité du système;
  2. recueillir des données supplémentaires;
  3. améliorer la qualité des données; et
  4. affiner les critères de validation,

créant ainsi des boucles de rétroaction positives.

11.2 Évaluation et atténuation des préjudices

  1. Les organismes doivent évaluer et atténuer les préjudices potentiels que les systèmes d’IA peuvent poser aux personnes en situation de handicap tout au long du cycle de vie de l’IA. Il s’agit notamment :

    1. d’identifier;
    2. de prioriser; et
    3. de traiter les risques

    qui peuvent affecter de manière disproportionnée les personnes en situation de handicap en raison de leur statut de minorité statistique ou d’aberrations dans les systèmes axés sur les données.

  2. Les organismes doivent s’assurer que les évaluations des préjudices ne se limitent pas aux décisions ayant des impacts élevés, mais tiennent également compte des préjudices cumulatifs, indirects ou spécifiques au contexte. Ces préjudices peuvent inclure, sans s’y limiter :
    1. à la discrimination;
    2. la perte de vie privée;
    3. l’atteinte à la réputation;
    4. l’exclusion; ou
    5. l’érosion de la capacité d’agir et de l’autonomie.

11.2.1 Évaluations équitables des risques

Lorsque des cadres d’évaluation des risques sont utilisés pour déterminer les risques et les bienfaits des systèmes d’IA, les risques pour les personnes en situation de handicap qui subissent l’impact le plus important des préjudices, doivent être considérées comme des priorités. L’évaluation des risques ne doit pas se fonder uniquement sur les risques et les bienfaits pour la majorité.

11.2.2 Atténuation des préjudices cumulatifs

Il faut veiller à reconnaître que les personnes en situation de handicap peuvent subir des préjudices plus élevés que les autres, causés par l’effet cumulatif de nombreux préjudices cumulatifs qui se recoupent ou s’accumulent au fil du temps à la suite de décisions assistées par l’IA qui ne sont pas autrement classées comme ayant un impact élevé. 

En cas de menace de préjudice grave ou irréversible, l’absence de certitude quantifiable (p. ex. dans l’évaluation des risques) ne doit pas être invoquée pour retarder l’adoption de mesures efficaces visant à prévenir les effets néfastes sur les personnes en situation de handicap.

11.2.3 Critères d’évaluation équitables de l’exactitude

  1. Les organismes doivent choisir des critères d’évaluation de l’exactitude en fonction des résultats de l’évaluation des risques, en prenant soin de saisir les préjudices réels ou potentiels pour les personnes en situation de handicap qui sont des valeurs aberrantes dans les données.
  2. L’évaluation de l’exactitude devrait :
    1. inclure des mesures désagrégées pour les personnes en situation de handicap;
    2. tenir compte du contexte d’utilisation; et
    3. tenir compte des conditions relatives aux personnes en situation de handicap.

11.2.4 Sécurité de l’information pour les personnes en situation de handicap

  1. Les organismes doivent élaborer des plans pour protéger les personnes en situation de handicap en cas d’atteinte à la protection des données ou d’attaques malveillantes contre les systèmes d’IA. Les plans doivent identifier les risques associés aux handicaps ainsi que des actions claires et rapides pour protéger les personnes en situation de handicap.
  2. Les personnes en situation de handicap ne devraient pas avoir à consentir à un niveau inférieur de sécurité de l’information pour bénéficier des systèmes d’IA.

Remarque : Les données sur le handicap sont très uniques, ce qui les rend facilement identifiables. Par conséquent, les données des personnes en situation de handicap nécessitent un niveau de protection plus élevé. 

11.2.5 Équité et non-discrimination dans la prise de décision en matière d’IA

Il faut veiller à reconnaître que les personnes qui font l’objet de discriminations dans les décisions assistées par l’IA sont souvent des personnes en situation de handicap. 

Les organismes doivent veiller à ce que les systèmes d’IA n’aient pas de préjugés négatifs à l’égard des personnes en situation de handicap en raison :

  1. de choix biaisés lors de la modélisation des données;
  2. d’une mauvaise représentation des données d’entraînement;
  3. de l’utilisation d’approximations biaisées;
  4. d’un étiquetage biaisé des données;
  5. de données synthétiques non représentatives;
  6. d’une conception biaisée des systèmes;
  7. d’un réglage des systèmes effectué selon des critères incorrects ou incomplets; ou
  8. de préjugés apparaissant dans le contexte de l’utilisation du système.

11.2.6 Atténuation de la discrimination statistique

Même avec une représentation proportionnelle complète dans les données, les personnes en situation de handicap resteront probablement des cas isolés ou des minorités marginalisées dans le contexte des décisions assistées par l’IA. 

C’est pourquoi, afin d’atténuer la discrimination statistique, les organismes ne doivent pas soumettre les personnes en situation de handicap à des décisions assistées par l’IA sans leur consentement éclairé, leur compréhension et leur accès à des rechanges équivalents.

11.2.7 Atteintes à la réputation

Les organismes doivent veiller à ce que les systèmes d’IA ne répètent pas ou ne diffusent pas de stéréotypes ou d’informations erronées sur les personnes en situation de handicap.

11.3 Respect des droits et des libertés

Les organismes doivent respecter les droits et libertés fondamentaux des personnes en situation de handicap dans toutes les utilisations des systèmes d’IA. Ceci comprend de s’assurer que les systèmes d’IA ne sont pas utilisés d’une manière qui compromet la vie privée, la dignité et l’autonomie.

11.3.1 Liberté de toute surveillance

Les organismes doivent s’abstenir d’utiliser de manière discriminatoire les outils d’IA à des fins de surveillance. 

11.3.2 Liberté de ne pas faire l’objet d’un profilage discriminatoire

Les organismes doivent s’abstenir d’utiliser des outils d’IA pour :

  1. la catégorisation biométrique;
  2. l’analyse des émotions; ou
  3. le maintien des opérations policières prédictives des personnes en situation de handicap.

11.4 Préservation de la capacité d’agir et traitement respectueux

  1. Les organismes doivent s’assurer que les personnes en situation de handicap conservent leur capacité d’agir, leur autonomie et leur dignité dans toutes leurs interactions avec les systèmes d’IA. Ceci comprend :
    1. une participation significative aux processus décisionnels;
    2. l’accès à des informations précises et compréhensibles; et
    3. la capacité de choisir des alternatives équitables aux décisions assistées par l’IA.
  2. Les systèmes d’IA doivent être conçus et déployés de manière à respecter les droits des personnes en situation de handicap :
    1. de participer;
    2. de comprendre; et
    3. d’influencer les systèmes qui les touchent.
  3. Les organismes doivent fournir des mécanismes de :
    1. consentement éclairé;
    2. contestabilité; et
    3. surveillance humaine.
  4. Les organismes doivent empêcher l’utilisation de systèmes d’IA pour désinformer ou manipuler.

11.4.1 Mobilisation et participation

Les organismes doivent solliciter et encourager la participation des personnes en situation de handicap à tous les stades des systèmes d’IA :

  1. de la considération;
  2. de la planification;
  3. de la conception;
  4. de l’élaboration;
  5. de l’utilisation; et
  6. de la gestion opérationnelle, y compris le contrôle continu après le déploiement.

11.4.2 Information et divulgation

Les organismes doivent informer les personnes de leur utilisation prévue ou réelle de systèmes d’IA qui prennent des décisions concernant les personnes en situation de handicap ou qui ont une incidence sur elles. Ces renseignements accessibles doivent être fournis d’une manière :

  1. exacte;
  2. accessible; et
  3. compréhensible, conformément aux exigences énoncées à l’article 10.

11.4.3 Consentement, choix et recours

  1. Lorsque des systèmes d’IA sont utilisés pour prendre ou aider à prendre des décisions, les organismes doivent proposer un mécanisme d’option à plusieurs niveaux pour :
    1. les clients;
    2. les employés; et  
    3. autres personnes concernées.
  2. Ces mécanismes permettront aux personnes identifiées à 11.4.3 a) de demander un processus décisionnel de rechange équivalent, complet et rapide qui, au choix de la personne, soit exécuté :
    1. sans l’utilisation de l’IA; ou
    2. exécuté à l’aide de l’IA avec une supervision et une vérification humaines directes de la décision.
  3. Les personnes doivent être informées avec des formats accessibles des moyens :

    1. de corriger;
    2. de contester;
    3. de modifier; ou
    4. d’annuler une décision ou une action assistée par l’IA qui les concerne (voir l’article 11.2).

    Remarque : Les formats accessibles comprennent les formats qui seront accessibles au demandeur. Les formats alternatifs qui peuvent être demandés en vertu de la Loi canadienne sur l’accessibilité comprennent les formats audio, le braille, les gros caractères et les formats électroniques.

11.4.4 Liberté de la désinformation et de la manipulation 

Les organismes doivent veiller à ce que les systèmes d’IA ne servent pas à manipuler les personnes en situation de handicap ou à leur transmettre de l’information inexacte de façon spécifique.

11.4.5 Soutien au contrôle et à la surveillance par des êtres humains

Les organismes doivent y avoir une chaîne de responsabilité humaine traçable qui indique clairement qui est responsable de l’accessibilité et de l’équité des décisions prises par un système d’IA. 

11.5 Soutenir la recherche et le l’élaboration d’une IA équitable

Lorsque les organismes soutiennent la recherche et le l’élaboration en IA, elles doivent inclure la recherche à propos de systèmes d’IA accessibles et équitables.

1. À propos de Normes d’accessibilité Canada

Normes d’accessibilité Canada, sous les auspices duquel la présente norme a été produite, est un établissement public du gouvernement du Canada mandaté conformément à la Loi canadienne sur l’accessibilité. Les normes de Normes d’accessibilité Canada contribuent à l’objectif de la Loi canadienne sur l’accessibilité, qui est de profiter à toutes les personnes, en particulier aux personnes en situation de handicap, par la réalisation d’un Canada sans obstacle grâce à la détermination, à l’élimination et à la prévention des obstacles à l’accessibilité.Le terme handicap désigne, au sens de la Loi canadienne sur l’accessibilité, toute déficience notamment physique, intellectuelle, cognitive, mentale ou sensorielle, trouble d’apprentissage ou de la communication ou limitation fonctionnelle, de nature permanente, temporaire ou épisodique, manifeste ou non et dont l’interaction avec un obstacle nuit à la participation pleine et égale d’une personne dans la société.Tous les travaux d’élaboration de normes de Normes d’accessibilité Canada, y compris le travail de nos comités techniques, reposent sur la reconnaissance des principes suivants de la Loi canadienne sur l’accessibilité :le droit de toute personne à être traitée avec dignité, quels que soient ses handicaps;le droit de toute personne à l’égalité des chances d’épanouissement, quels que sont ses handicaps;le droit de toute personne à un accès exempt d’obstacles et à une participation pleine et égale dans la société, quels que soient ses handicaps;le droit de toute personne d’avoir concrètement la possibilité de prendre des décisions pour elle-même, avec ou sans aide, quels que soient ses handicaps;le fait que les lois, politiques, programmes, services et structures doivent tenir compte des handicaps des personnes, des différentes façons dont elles interagissent au sein de leurs environnements ainsi que des formes multiples et intersectionnelles de discrimination et de marginalisation vécues par celles-ci;le fait que les personnes en situation de handicap doivent participer à l’élaboration et à la conception des lois, des politiques, des programmes, des services et des structures; etl’élaboration et la révision de normes d’accessibilité et la prise de règlements doivent être faites dans l’objectif d’atteindre le niveau d’accessibilité le plus élevé qui soit pour les personnes en situation de handicap.Ces principes cadrent avec ceux de la Convention relative aux droits des personnes handicapées des Nations Unies, ratifiée par le gouvernement du Canada en 2010 pour reconnaître l’importance de promouvoir, de protéger et de faire respecter les droits fondamentaux des personnes en situation de handicap à participer pleinement à la vie de leur collectivité. Les normes élaborées par Normes d’accessibilité Canada s’harmonisent avec les articles de la Convention.Normes d’accessibilité Canada cherche à créer des normes qui sont conformes à sa vision. Ce travail comprend des engagements à éliminer les obstacles à l’accessibilité et à respecter le principe « Rien sans nous » dans notre processus d’élaboration de normes, où tout le monde, y compris les personnes en situation de handicap, peut s’attendre à un Canada exempt d’obstacles.Dans le cadre du principe « Rien sans nous », Normes d’accessibilité Canada soutient que l’accessibilité nous concerne tous, car elle peut avoir des effets bénéfiques sur l’ensemble de la société. Par conséquent, les normes élaborées par Normes d’accessibilité Canada sont conçues pour atteindre les plus hauts niveaux d’accessibilité. Cela signifie que ces normes établissent des exigences techniques fondées sur l’équité tout en tenant compte des pratiques exemplaires nationales et internationales, plutôt que de se concentrer sur des exigences techniques minimales. Cette façon de faire vise à encourager l’innovation en matière de normes et à élaborer des exigences techniques ayant des effets positifs à grande échelle. Cette approche en matière d’innovation vise à améliorer les résultats pour tous les Canadiens, notamment en créant des possibilités d’emploi et des solutions qui contribuent à la croissance économique du Canada. Le processus d’élaboration de normes utilisé par Normes d’accessibilité Canada est le plus accessible au Canada, voire au monde. Normes d’accessibilité Canada offre des mesures d’adaptation pour répondre aux besoins des membres des comités techniques qui ont un handicap. Normes d’accessibilité Canada offre une rémunération aux personnes en situation de handicap afin de favoriser leur participation active. Normes d’accessibilité Canada assure un processus d’examen public accessible, notamment grâce à des formulaires d’autorisation accessibles et à la publication de la norme dans plusieurs formats, afin d’encourager les Canadiens en situation de handicap à formuler des commentaires. Afin d’assurer une accessibilité optimale pour tous, nos normes sont disponibles gratuitement sur notre site Web. Les normes peuvent être consultées dans divers formats, y compris des résumés en langage clair, en American Sign Language (ASL) et en langue des signes québécoise (LSQ). Cela permet aux groupes suivants de profiter du contenu technique de nos normes :les personnes en situation de handicap;les personnes sans handicap;le secteur public fédéral;le secteur privé;les organisations non gouvernementales;les communautés autochtones; etla société.Normes d’accessibilité Canada applique un cadre intersectionnel pour tenir compte des expériences des personnes en situation de handicap qui s’identifient également comme 2ELGBTQ+, Autochtones, femmes ou minorités visibles. Son processus d’élaboration de normes exige que les comités techniques appliquent une perspective tenant compte de tous les handicaps pour s’assurer qu’aucun nouvel obstacle à l’accessibilité n’est créé involontairement. De plus, les normes élaborées par Normes d’accessibilité Canada cadrent avec objectifs de développement durable des Nations unies, qui ont été adoptés par le Canada en 2015 pour promouvoir le partenariat, la paix et la prospérité pour tous les peuples et la planète d’ici 2030.Normes d’accessibilité Canada participe à la préparation de normes d’accessibilité volontaires qui sont élaborées par des comités techniques sur la base d’une approche consensuelle. Chaque comité technique est composé d’un groupe équilibré d’experts qui élabore le contenu technique d’une norme. Au moins 30 % de ces experts techniques sont des personnes en situation de handicap et ayant une expérience vécue, et 30 % sont issus de groupes en quête d’équité, y compris la communauté 2ELGBTQ+, les Autochtones, les femmes et les minorités visibles. Ces experts techniques comprennent également des consommateurs et d’autres utilisateurs, des représentants du gouvernement et des autorités, des travailleurs et des syndicats, d’autres organismes d’élaboration de normes, des entreprises et des industries, des organismes universitaires et de recherche, ainsi que des organisations non gouvernementales.Toutes les normes de Normes d’accessibilité Canada intègrent également des constatations connexes tirées de rapports de recherche produits dans le cadre du programme de subventions et de contributions pour l’avancement de l’accessibilité de Normes d’accessibilité Canada. Ce programme fait intervenir des personnes en situation de handicap, des experts et des organisations pour faire progresser la recherche sur les normes d’accessibilité et soutient des projets de recherche qui aident à repérer, à éliminer et à prévenir les nouveaux obstacles à l’accessibilité.Les normes de Normes d’accessibilité Canada peuvent faire l’objet d’un examen et d’une révision pour s’assurer qu’elles tiennent compte des tendances actuelles et des pratiques exemplaires. Normes d’accessibilité Canada entreprendra l’examen de la présente norme dans les quatre ans suivant la date de publication. Les suggestions d’amélioration, qui sont toujours les bienvenues, devraient être portées à l’attention du comité technique concerné. Les modifications aux normes sont publiées soit sous forme de modifications distinctes ou dans de nouvelles éditions des normes.Normes d’accessibilité Canada est un organisme d’élaboration de normes accrédité par le Conseil canadien des normes et élabore donc toutes ses normes en suivant un processus d’élaboration de normes accrédité et les exigences et lignes directrices pour les organismes d’élaboration de normes du Conseil canadien des normes. Ces normes volontaires s’appliquent aux entités sous réglementation fédérale et peuvent être recommandées à la ministre responsable de la Loi canadienne sur l’accessibilité.En plus de ses efforts d’élaboration de normes d’accessibilité, Normes d’accessibilité Canada fait figure de chef de file parmi les organisations fédérales canadiennes pour la promotion et l’adoption de l’accessibilité au sein du gouvernement. Il est le premier organisme du gouvernement fédéral à avoir un conseil d’administration dirigé majoritairement par des personnes en situation de handicap. Normes d’accessibilité Canada dispose de bureaux accessibles et modernes pour ses employés, son conseil d’administration et les membres des comités techniques. L’espace de travail accessible, soigneusement conçu, illustre la conviction de l’organisation quant à l’importance d’une conception équitable.Pour obtenir des renseignements supplémentaires sur Normes d’accessibilité Canada, ses normes ou ses publications, veuillez communiquer avec nous :Site Web :https ://accessibilite.canada.ca/Courriel :ASC.Standards-Normes.ASC@asc-nac.gc.ca  Courrier :Normes d’accessibilité Canada 320, boulevard Saint-JosephBureau 246Gatineau (Québec) J8Y 3Y8
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables

2. Énoncé du Conseil canadien des normes

Une Norme nationale du Canada est une norme qui a été élaborée par un organisme d’élaboration de normes (OEN) titulaire de l’accréditation du Conseil canadien des normes (CCN) conformément aux exigences et lignes directrices du CCN. On trouvera des renseignements supplémentaires sur les Normes nationales du Canada à l’adresse : www.ccn.ca.Le CCN est une société d’État qui fait partie du portefeuille d’Innovation, Sciences et Développement économique Canada (ISDE). Dans le but d’améliorer la compétitivité économique du Canada et le bien-être collectif de la population canadienne, l’organisme dirige et facilite l’élaboration et l’utilisation des normes nationales et internationales. Le CCN coordonne aussi la participation du Canada à l’élaboration des normes et définit des stratégies pour promouvoir les efforts de normalisation canadiens.En outre, il fournit des services d’accréditation à différents clients, parmi lesquels des organismes de certification de produits, des laboratoires d’essais et des organismes d’élaboration de normes. On trouvera la liste des programmes du CCN et des organismes titulaires de son accréditation à l’adresse : www.ccn.ca.
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/2-enonce-du-conseil-canadien-des-normes

3. Avis juridique de NAC

Veuillez lire le présent avis juridique avant de faire usage du document de norme. ,

3.1 Avis juridique pour les normes

Les normes de l’Organisation canadienne d’élaboration de normes d’accessibilité (exerçant ses activités sous le nom « Normes d’accessibilité Canada ») (NAC) sont élaborées au moyen d’un processus d’élaboration de normes fondé sur le consensus approuvé par le Conseil canadien des normes. Ce processus réunit des volontaires représentant des points de vue et des intérêts variés dans le but d’atteindre un consensus et d’élaborer des normes.  ,

3.2 Comprendre la présente édition de la norme

Des révisions peuvent avoir été ou pourraient à l’avenir être élaborées par rapport à la présente édition de la norme. Il incombe aux utilisateurs de ce document de vérifier si des révisions existent. ,

3.3 Exclusion de responsabilité

Le présent document a été élaboré à titre de document de référence pour une utilisation volontaire. Il incombe aux utilisateurs de vérifier si des lois ou des règlements rendent l’application de cette norme obligatoire ou si des règlements commerciaux ou des conditions commerciales stipulent son utilisation, par exemple, dans des règlements techniques, des plans d’inspection émanant d’autorités réglementaires et des programmes de certification.Bien que l’application principale de la présente norme soit indiquée dans son domaine d’application, il incombe aux utilisateurs de la présente norme de juger de sa pertinence dans le cadre de leur objectif particulier. Il incombe également aux utilisateurs de tenir compte des limitations et des restrictions précisées dans l’objet ou le domaine d’application de la présente norme.Ce document est fourni sans assertion, garantie, ni condition explicite ou implicite de quelque nature que ce soit, y compris, mais non de façon limitative, les assertions, les garanties ou les conditions implicites relatives à la qualité marchande, à l’adaptation à un usage particulier ainsi qu’à l’absence de violation des droits de propriété intellectuelle des tiers. Normes d’accessibilité Canada ne fait aucune assertion ni ne fournit aucune garantie quant à l’exactitude, à l’intégralité ou à la pertinence des renseignements contenus dans ce document. Normes d’accessibilité Canada ne fait aucune assertion ni ne fournit aucune garantie quant à la conformité du document aux lois, aux règles ou aux règlements pertinents ou à toute combinaison de ceux-ci. Les utilisateurs de ce document doivent consulter les lois et règlements fédéraux, provinciaux et municipaux applicables. Normes d’accessibilité Canada, par la publication de ses documents de normes, n’a pas l’intention d’inciter à prendre des mesures qui ne sont pas conformes aux lois applicables, et le présent document ne peut être interprété comme le faisant. Normes d’accessibilité Canada, ses entrepreneurs, ses agents, ses employés, ses directeurs ou ses représentants ou Sa Majesté le Roi du chef du Canada, ses employés, ses entrepreneurs, ses agents, ses directeurs et ses représentants ne peuvent en aucun cas être tenus responsables de toute blessure, perte ou dépense ou de tout préjudice direct, indirect ou accessoire, y compris, mais non de façon limitative, tout préjudice spécial ou consécutif, toute perte de recettes ou de clientèle, toute perte d’exploitation, toute perte ou altération de données ou tout autre préjudice économique ou commercial, qu’il soit fondé sur un contrat, un délit civil (y compris le délit de négligence) ou tout autre élément de responsabilité tirant son origine de quelque façon que ce soit de l’accès au document ou de la possession ou utilisation du document, et ce, même si Normes d’accessibilité Canada a été avisé de l’éventualité de tels dommages, pertes, coûts ou dépenses.En publiant et en offrant ce document, Normes d’accessibilité Canada n’entend pas fournir des services professionnels ou autres au nom de quelque personne ou entité que ce soit, ni remplir les engagements que de telles personnes ou entités auraient pris auprès de tiers. Les renseignements présentés dans ce document sont destinés aux utilisateurs qui possèdent le niveau de connaissance et d’expérience nécessaires pour utiliser et mettre en application ce contenu, et Normes d’accessibilité Canada n’accepte aucune responsabilité découlant de quelque façon que ce soit de l’usage des renseignements que renferme le présent document ou de la confiance qu’on leur porte. Normes d’accessibilité Canada publie des normes facultatives et des documents connexes. Normes d’accessibilité Canada n’a pas le pouvoir de faire respecter le contenu des normes ou des autres documents publiés par l’organisation et ne s’engage pas non plus à le faire.  ,

3.4 Propriété et droits de propriété intellectuelle

Entre Normes d’accessibilité Canada et les utilisateurs du présent document (qu’il soit imprimé, électronique ou se présent sous une autre forme), Normes d’accessibilité Canada est le propriétaire, ou le licencié autorisé, de tous les droits d’auteur et droits moraux contenus dans le présent document. En outre, Normes d’accessibilité Canada est propriétaire de sa marque officielle. De façon non limitative, l’utilisation, la modification, la copie ou la divulgation non autorisée de ce document pourrait contrevenir aux lois visant la propriété intellectuelle de Normes d’accessibilité Canada et/ou d’autres parties et donner ainsi droit à l’organisation et/ou à une autre partie d’exercer ses recours légaux relativement à une telle utilisation, modification, copie ou divulgation. Dans la mesure prévue par le permis ou la loi, Normes d’accessibilité Canada conserve tous les droits de propriété intellectuelle relatifs à ce document. ,

3.5 Droits de brevet

Certains des éléments de cette norme peuvent faire l’objet de droits de brevet. Normes d’accessibilité Canada ne doit pas être tenue responsable de préciser quels sont ces droits de brevet. Les utilisateurs de cette norme sont avisés que c’est à eux qu’il incombe de vérifier la validité de ces droits de brevet.  ,

3.6 Cession du droit d’auteur

Dans le présent avis juridique, un « commentaire » désigne toute information fournie de façon écrite ou orale, y compris toute suggestion, qu’un utilisateur fournit à Normes d’accessibilité Canada au sujet d’une norme ou d’un projet de norme. En fournissant un commentaire à Normes d’accessibilité Canada concernant une norme ou un projet de norme, l’auteur d’un commentaire accorde à Normes d’accessibilité Canada et au gouvernement du Canada une licence non exclusive, libre de redevances, perpétuelle, mondiale et irrévocable pour utiliser, traduire, reproduire, divulguer, distribuer, publier, modifier, autoriser à reproduire, communiquer au public par télécommunication, enregistrer, exécuter ou concéder en sous-licence pour le commentaire, en tout ou en partie et sous quelques forme ou support que ce soit, pour réviser la norme ou le projet de norme, ou à des fins non commerciales. En fournissant le commentaire et étant le seul propriétaire du droit d’auteur ou ayant l’autorité de concéder le droit d’auteur, l’auteur du commentaire confirme sa capacité à concéder la licence et renonce à tous les droits moraux associés, y compris, mais sans s’y limiter, tous les droits d’attribution en ce qui concerne le commentaire. Si la personne qui fournit le commentaire n’en est pas l’auteur, elle confirme, en offrant le commentaire, qu’une renonciation aux droits moraux de l’auteur a été faite en faveur de cette personne ou du détenteur du droit d’auteur du commentaire. Au moment de fournir un commentaire, l’auteur du commentaire doit déclarer et fournir une citation pour toute propriété intellectuelle contenue dans le commentaire qui est détenue par une tierce partie. ,

3.7 Utilisations autorisées de ce document

Ce document, sous toutes ses formes (y compris dans un média substitut), n’est fourni par Normes d’accessibilité Canada qu’à des fins informationnelles, pédagogiques et non commerciales. Les utilisateurs de ce document ne sont autorisés qu’à effectuer les actions suivantes : Télécharger le document sur un ordinateur dans le seul but de le consulter.Consulter et parcourir le document.Imprimer ce document s’il s’agit d’une version électronique.Diffuser ce document à des fins informatives, éducatives et non commerciales.En outre, les utilisateurs ne doivent pas faire ce qui suit et ne doivent pas permettre à d’autres personnes de le faire :Modifier ce document de quelque façon que ce soit ou retirer le présent avis juridique joint à cette norme.Vendre ce document sans l’autorisation de Normes d’accessibilité Canada.Utiliser le présent document pour induire en erreur les utilisateurs d’un produit, d’un processus ou d’un service visé par la présente norme.Reproduire la totalité ou des parties précises de la norme dans d’autres documents de norme ou travaux de normalisation accessibles au public, à moins que Normes d’accessibilité Canada n’accorde, par écrit, la permission de le faire et que l’utilisateur n’inclue la mention suivante : « Ce matériel provient de [insérer le titre des normes] et aucune reproduction n’est permise sans l’autorisation de Normes d’accessibilité Canada ».Si vous êtes en désaccord avec l’une ou l’autre des conditions du présent avis juridique, vous ne devez pas télécharger ou utiliser le présent document ni en reproduire le contenu, auquel cas toutes les copies devront immédiatement être détruites. L’utilisation de ce document indique que vous confirmez accepter les conditions de cet avis juridique. , Norme nationale du CanadaCAN-ASC-6.2:2025Systèmes d’intelligence artificielle accessibles et équitables Publiée en décembre 2025 par Normes d’accessibilité CanadaUn établissement public du gouvernement fédéral320, boulevard Saint-Joseph, bureau 246, Gatineau (Québec) J8Y 3Y8Pour accéder aux normes et aux publications connexes, consultez accessibilite.canada.ca ou composez le 1 833 854 7628.This National Standard of Canada is available in both French and English.Code(s) ICS : 03.100, 35.020, 35.040, 35.080, 35.100, 35.240ISBN 978-0-660-79224-8Numéro de catalogue AS4-34/1-2025F-PDF © Sa Majesté le Roi du chef du Canada, représenté par le ministre responsable de la Loi canadienne sur l’accessibilité, 2025.Aucune partie de cette publication ne peut être reproduite sous quelque forme que ce soit sans l’autorisation préalable de l’éditeur. 
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/3-avis-juridique-de-nac

4. Membres du comité technique

4.1 Consommateurs et intérêt public

Lisa Snider, consultante principale en accessibilité numérique et formatrice, Access Changes Everything Inc.Nancy McLaughlin, conseillère principale en matière d’accessibilité, Conseil de la radiodiffusion et des télécommunications canadiennesJohn Willis, conseiller principal, Bureau de l’accessibilité de la fonction publique (BAFP), Centre d’excellence pour les droits de la personne ,

4.2 Organismes universitaires et de recherche

Jutta Treviranus (présidente), directrice et professeure, Inclusive Design Research Centre, Université OCADAlison Paprica, professeure adjointe et chercheuse principale, Institut pour la politique de santé, gestion et évaluation, Université de TorontoGary Birch, directeur exécutif, Neil Squire SocietyLisa Liskovoi, conceptrice inclusive principale et spécialiste de l’accessibilité numérique, Inclusive Design Research Centre, Université OCADClayton Lewis, professeur, Université du ColoradoJulia Stoyanovich, professeure associée et directrice, Tandon School of Engineering, l’université de New York ,

4.3 Organismes gouvernementaux et autorités compétentes

Anne Jackson, professeure, Seneca CollegeKave Noori, responsable de la politique en matière d’intelligence artificielle, European Disability ForumMia Ahlgren, agente des politiques en matière de droits des personnes en situation de handicap, Swedish Disability Rights Federation ,

4.4 Commerce et industrie

Sambhavi Chandrashekar (vice-présidente), responsable mondiale de l’accessibilité, D2L CorporationJulianna Rowsell, cheffe principale de produit, Équité des produits, AdobeKate Kalcevich, responsable de l’innovation en matière d’accessibilité, FableSaeid Molladavoudi, conseiller principal en science des données, Statistique CanadaMerve Hickok, fondatrice, présidente et directrice de recherche, Aiethicist.org, Center for AI and Digital Policy, Université du Michigan
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/4-membres-du-comite-technique

5. Préface

Il s’agit de la première édition de la norme CAN-ASC-6.2, Systèmes d’intelligence artificielle accessibles et équitables.La présente norme vise à s’harmoniser avec d’autres normes pertinentes, notamment les suivantes :CAN-ASC-EN 301 549:2024-Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT);CAN-ASC-1.1:2024 (RÉV-2025)-L’emploi;CSA ISO/IEC 42001:25-Information technology-Artificial intelligence - Management system (en anglais seulement);CSA ISO/IEC 30071-1:20-Information technology-Development of user interface accessibility-Part 1:Code of practice for creating accessible ICT products and services (en anglais seulement); etCSA ISO/IEC 29138-1:19-Information technology-User interface accessibility-Part 1:User accessibility needs (en anglais seulement).La présente norme vise à s’harmoniser aux lois, codes et règlements suivants :Loi canadienne sur l’accessibilité;Convention relative aux droits des personnes handicapées des Nations Unies; etLoi canadienne sur les droits de la personne.Cette norme volontaire peut être utilisée aux fins de l’évaluation de la conformité.L’élaboration de cette norme a été entreprise par Normes d’accessibilité Canada. Le contenu a été préparé par le comité technique sur les Systèmes d’intelligence artificielle accessibles et équitables, constitué par Normes d’accessibilité Canada, sous l’autorité de la direction de Normes d’accessibilité Canada. Le contenu a été officiellement approuvé par le comité technique. ,

5.1 Accords internationaux

5.1.1 Convention relative aux droits des personnes handicapées

La Convention relative aux droits des personnes handicapées des Nations Unies protège et promeut les droits et la dignité des personnes en situation de handicap sans discrimination et sur un pied d’égalité avec les autres. Les Parties à la Convention sont exigées de promouvoir et d’assurer la pleine jouissance des droits de la personne des personnes en situation de handicap, y compris la pleine égalité devant la loi. La Convention a servi de catalyseur majeur du mouvement mondial visant à considérer les personnes en situation de handicap comme des membres à part entière et égaux de la société.Cette norme s’harmonise avec les articles suivants de la Convention : Article 5 - Égalité et non-discriminationArticle 6 - Femmes handicapéesArticle 7 - Enfants handicapésArticle 8 - SensibilisationArticle 9 - AccessibilitéArticle 11 - Situations de risque et situations d’urgence humanitaireArticle 14 - Liberté et sécurité de la personneArticle 16 - Droit de ne pas être soumis à l’exploitation, à la violence et à la maltraitanceArticle 17 - Protection de l’intégrité de la personneArticle 22 - Respect de la vie privéeArticle 24 - ÉducationArticle 25 - SantéArticle 27 - Travail et emploiArticle 28 - Niveau de vie adéquat et protection sociale

5.1.2 Objectifs de développement durable

Le Programme 2030 des Nations unies pour le développement durable et ses 17 objectifs de développement durable constituent un appel à l’action mondial. Ils visent à ne laisser personne de côté et à relever les défis sociaux, économiques et environnementaux. Le Canada et 192 autres États membres des Nations Unies ont adopté le Programme 2030 en 2015. Les normes peuvent fournir des directives concrètes et exploitables pour atteindre les objectifs.Cette norme contribue aux objectifs suivants :Objectif 4 - Assurer à tous une éducation équitable, inclusive et de qualité et des possibilités d’apprentissage tout au long de la vieObjectif 5 - Parvenir à l’égalité des sexes et autonomiser toutes les femmes et les fillesObjectif 9 - Bâtir une infrastructure résiliente, promouvoir une industrialisation durable qui profite à tous et encourager l’innovationObjectif 17 - Renforcer les moyens de mettre en œuvre le Partenariat mondial pour le développement durable et le revitaliser 
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/5-preface

6. Introduction

La présente norme constitue le cadre d’une norme en plusieurs parties. Elle est destinée à créer une structure de haut niveau pour les futures parties, ainsi qu’à aborder les outils de décision automatisée qui ont précédé les grands modèles de langage et l’Intelligence Artificielle (IA) générative. C’est la diversité des personnes en situation de handicap dans les systèmes conçus pour favoriser les moyennes statistiques qui justifie l’urgence de cette norme. Bien que la conformité aux normes soit mieux soutenue par des spécifications testables et techniquement précises, les exigences, les protections nécessaires et les contextes d’utilisation de l’IA par les personnes en situation de handicap sont variables et changeants. La précision technique ne permettrait pas de répondre à cette diversité et de suivre le rythme des changements dans le domaine de l’IA. La présente norme est conçue pour favoriser l’adaptabilité contextuelle à la diversité des applications et des exigences des personnes en situation de handicap. La présente norme met l’accent sur le processus et les résultats escomptés et sera appuyée par des directives techniques plus précises.L’IA a le potentiel de présenter à la fois des bienfaits et des préjudices extrêmes pour les personnes en situation de handicap. Le respect des principes de la Loi canadienne sur l’accessibilité lors du déploiement de l’IA exige que les personnes en situation de handicap :tirent des bienfaits équitables des systèmes d’IA;ne subissent pas de préjudices inéquitables de la part des systèmes d’IA;ne subissent pas de perte de droits et libertés en raison de l’utilisation de systèmes d’IA; etont le pouvoir d’agir et sont traités avec respect dans leurs interactions avec les systèmes d’IA, y compris le droit de choisir des alternatives équitables.Ces quatre articles décrivent les exigences visant à s’assurer que :l’IA est accessible aux personnes en situation de handicap (article 10);les systèmes d’IA sont équitables pour les personnes en situation de handicap (article 11);les organismes mettent en œuvre les processus nécessaires pour atteindre une IA accessible et équitable (article 12); etl’éducation à l’IA soutient le changement systémique nécessaire pour parvenir à une IA accessible et équitable (article 13).
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/6-introduction

7. Portée

7.1 Terminologie

Dans la présente norme, trois termes sont définis comme suit :Le terme « doit » exprime une exigence ou une disposition que l’utilisateur doit satisfaire pour se conformer à la norme.Le terme « devrait » exprime une recommandation ou un conseil, mais non une exigence.Le terme « peut » exprime une possibilité ou une permission dans les limites de la norme.Une remarque qui accompagne un article ne doit pas comprendre d’exigences ou d’exigences de rechange. L’objectif d’une telle remarque est de séparer le texte explicatif ou informatif du texte de l’article.Une remarque qui accompagne un tableau ou une figure est considérée comme faisant partie de ce tableau ou de cette figure. Elle peut donc contenir des exigences.Chaque annexe est désignée comme étant normative (obligatoire) ou informative (facultative) pour définir la portée de son application.
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/7-portee

8. Références

La présente norme fait référence aux publications suivantes et, lorsqu’il fait référence à cette norme, elle se rapporte à l’édition énumérée ci-dessous :CAN-ASC-EN 301 549:2024-Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT);Loi canadienne sur l’accessibilité, 2019;Loi sur la protection des renseignements personnels et les documents électroniques, 2000; etLoi sur la protection des renseignements personnels, 1985.
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/8-references

9. Définitions

9.1 Définitions

Les définitions suivantes s’appliquent dans la présente norme :Biais (en IA) — erreurs systématiques ou injustice dans les résultats, les prédictions ou les décisions prises par les systèmes d’IA. Ces biais peuvent provenir de différentes étapes du cycle de vie d’un système d’IA, telles que la collecte de données, la conception de modèles, la formation ou le déploiement. Le biais de l’IA reflète ou amplifie souvent les biais présents dans les données, les processus ou les hypothèses utilisés pour construire le système. Cela peut entraîner des résultats inégaux ou discriminatoires, affectant l’équité, l’exactitude et la fiabilité d’un système d’IA.Bienfait — un résultat positif ou un avantage résultant d’une action ou d’une décision, qui contribue au bien-être, au bonheur ou à l’épanouissement des individus, des groupes ou de la société dans son ensemble.Remarque : La prise de décisions éthiques évalue les bienfaits en termes d’équité, de répartition et d’impact sur toutes les parties touchées, les évaluant souvent par rapport aux préjudices potentiels pour déterminer le plan d’action le plus moralement justifiable.Consentement éclairé — le consentement d’une personne lorsque suffisamment de renseignements ont été fournis pour lui permettre de comprendre la nature, le but et les conséquences possibles de la décision ou de l’action à laquelle elle consent.Remarque : Un consentement valable exige que les personnes disposent d’une véritable option de refus de consentement, soutenue par l’accès à un processus décisionnel alternatif tout aussi efficace et rapide, soit avec ou sans l’IA, qui comprend une surveillance humaine directe et une confirmation de la décision.Déploiement (systèmes d’IA) — l’utilisation réelle d’un système d’IA afin de générer du contenu ou de prendre des décisions, des recommandations ou des prédictions.Discrimination statistique — l’impact négatif du raisonnement statistique sur les personnes qui sont aberrantes ou qui s’éloignent de la moyenne statistique dans les données utilisées pour prendre des décisions statistiques. (Le raisonnement statistique est inexact ou erroné pour les personnes qui ne sont pas statistiquement moyennes.) La discrimination statistique est distincte du biais dans les données en ce sens qu’il n’est pas possible d’éliminer la discrimination statistique en assurant une représentation proportionnelle dans les données.Données d’entraînement — fait référence aux informations utilisées pendant le processus d’entraînement de l’IA. Ceci se compose d’exemples étiquetés ou structurés à partir desquels le modèle d’IA apprend.Éducation et formation (personnes, spécifiques à l’IA) — information et activités visant à élargir les connaissances et/ou les compétences.Égalité — fournir à chaque personne ou groupe de personnes les mêmes ressources et le même traitement.Entraînement de l’IA — processus d’utilisation de données pour enseigner à un modèle d’IA comment effectuer des tâches, à reconnaître des modèles, à prendre des décisions, à prédire des résultats ou à créer du contenu. Ceci comprend l’élaboration du modèle dès le début ou son amélioration (raffinement) au fil du temps.Équitable, équité — fait référence à la justice et à l’absence de discrimination. L’équité reconnaît que chaque personne a des circonstances différentes.L’équité vise à permettre à tous les individus d’obtenir des résultats égaux. Dans des systèmes équitables, les ressources et les possibilités sont façonnées en fonction de divers besoins individuels, et la personne est engagée pour déterminer les besoins ainsi que les ressources nécessaires pour répondre aux besoins.Gestion (en IA) — activités et décisions quotidiennes liées à la collecte, au stockage, à l’utilisation, au partage et à l’élimination sécuritaire des données utilisées par les systèmes d’IA.Gouvernance (en IA) — cadre clairement défini de responsabilisation dans la prise de décisions en matière d’IA. Cela comprend les organismes de gouvernance responsables qui prennent et expliquent les décisions concernant l’accès aux données et leur utilisation.Littératie en IA — comprendre ce qu’est l’IA, comment elle fonctionne à un niveau élémentaire et comment elle peut affecter les individus et les communautés. Elle comprend la sensibilisation aux éléments suivants :la façon dont les systèmes d’IA prennent des décisions ou génèrent des extrants; etle potentiel d’impacts négatifs immédiats et à long terme, tels que des décisions biaisées dans les services ou les politiques, ou les conséquences futures de mauvaises prévisions.Modèle d’IA — système ou programme qui a été entraîné à l’aide de données pour reconnaître des modèles, faire des prédictions ou effectuer des tâches. Il applique ce qu’il a appris des données d’entraînement à de nouvelles entrées invisibles.Opérations policières prédictives — déterminer la probabilité d’un comportement ou d’une activité criminelle ou suspecte en fonction de modèles statistiques, d’algorithmes et de données.Préjudice — tout ce qu’un produit ou un service pourrait faire pour créer une conséquence négative pour les gens de quelque manière que ce soit. Ces préjudices peuvent se manifester par des facteurs physiques, psychologiques, sociaux, économiques ou culturels.Les préjudices comprennent la perpétuation des stéréotypes, le renforcement des inégalités existantes et la création d’obstacles pour les personnes en situation de handicap. Les préjudices liés à l’accessibilité peuvent inclure la création d’interfaces inaccessibles, l’exclusion d’utilisateurs ayant des besoins spécifiques ou l’omission de tenir compte de divers modes d’interaction.Remarque : Les préjudices ne sont pas toujours évidents; ils peuvent apparaître subtilement, intégrés dans la façon dont un système d’IA est conçu, élaboré ou déployé.Préjudice cumulatif — l’effet cumulatif de multiples préjudices (y compris les impacts faibles et moyens) qui se recoupent et s’accumulent au fil du temps.Rechange équivalent — une solution de rechange dont la disponibilité, la rapidité, le coût et la commodité sont équivalents pour la personne en situation de handicap.Responsabilité (en IA) — la responsabilité d’un organisme pour les décisions, les résultats et l’impact des systèmes d’IA qu’elle utilise. L’identification claire d’une partie qui peut résoudre les problèmes liés à cette utilisation.Systèmes d’IA — systèmes technologiques qui, de manière autonome ou semi-autonome, traitent des données liées à l’activité humaine ou environnementale à l’aide de techniques telles que l’apprentissage automatique ou d’autres méthodes algorithmiques pour générer des extrants, notamment des décisions, des recommandations, des prédictions ou du contenu.Technologie d’assistance — équipement, système de produit, matériel, logiciel ou service utilisé pour augmenter, maintenir ou améliorer les capacités des individus.Remarque 1 : La technologie d’assistance est un terme générique qui est plus large que les produits d’assistance.Remarque 2 : Les technologies d’assistance peuvent comprendre les services d’assistance et les services professionnels nécessaires à l’évaluation, à la recommandation et à la prestation.Sources : Adapté de ISO/IEC Guide 71:2014 Guide pour l’intégration de l’accessibilité dans les normes et CAN-ASC-EN 301 549:2024Transparence (en IA) — fournir des avis et des renseignements accessibles concernant les données, les modèles, le fonctionnement, les décisions, les résultats et l’utilisation des systèmes d’IA.
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/9-definitions

10. L’IA accessible

Afin d’appuyer les principes de participation pleine et équitable des personnes en situation de handicap selon la Loi canadienne sur l’accessibilité, les éléments suivants doivent être accessibles aux personnes en situation de handicap :les systèmes d’IA; etles processus, ressources, services et outils utilisés pour planifier, acquérir, créer, mettre en œuvre, gouverner, gérer, entretenir, surveiller et utiliser les systèmes d’IA,Il doit être possible pour les personnes en situation de handicap d’être :participants actifs dans tous les rôles du cycle de vie de l’IA conformément à l’article 10.1; etutilisateurs des systèmes d’IA conformément à l’article 10.2. ,

10.1 Les personnes en situation de handicap en tant que participants à part entière au cycle de vie de l’IA

Les personnes en situation de handicap doivent pouvoir participer pleinement à tous les rôles et à toutes les étapes du cycle de vie de l’IA. Il s’agit notamment :de la création des ensembles de données;des systèmes d’IA et de composants (conception, codage, mise en œuvre, évaluation, perfectionnement);de l’approvisionnement;de la consommation;de la gouvernance;de la gestion; et de la surveillance.

10.1.1 Personnes en situation de handicap participant à la création de systèmes d’IA.

Les outils et processus déployés par les organismes pour créer (concevoir, coder, mettre en œuvre, évaluer, affiner), acheter, consommer, gouverner, gérer et surveiller les systèmes d’IA ainsi que leurs composants et leurs extrants doivent être accessibles aux personnes en situation de handicap.

10.1.1.1 Systèmes d’IA accessibles

Lorsque les organismes se livrent à la création de systèmes d’IA, les systèmes d’IA doivent être accessibles aux personnes en situation de handicap, y compris en respectant les articles pertinents de CAN-ASC-EN 301 549:2024.

10.1.1.2 Outils d’IA accessibles

Lorsqu’un organisme crée des outils utilisés pour concevoir et élaborer des systèmes d’IA, ces outils doivent, au minimum, satisfaire aux articles pertinents de la norme CAN-ASC-EN 301 549:2024, en particulier :les déclarations de rendement fonctionnel figurant à l’article 4;les exigences génériques figurant à l’article 5;les exigences Web figurant à l’article 9;les exigences relatives aux documents non-destinés au Web figurant à l’article 10;les exigences en matière de logiciels figurant à l’article 11; etla documentation et les services d’assistance figurant à l’article 12.

10.1.1.3 Extrants d’IA accessibles 

Lorsqu’un organisme crée des systèmes d’IA, les extrants de ces systèmes doivent, au minimum, satisfaire aux articles pertinents de la norme CAN-ASC-EN 301 549:2024, en particulier :les déclarations de rendement fonctionnel figurant à l’article 4;les exigences génériques figurant à l’article 5;les exigences Web figurant à l’article 9;les exigences relatives aux documents non-destinés au Web figurant à l’article 10;les exigences en matière de logiciels figurant à l’article 11; etla documentation et les services d’assistance figurant à l’article 12. 

10.1.1.4 Outils et extrants accessibles créés par les systèmes d’IA 

Lorsqu’un organisme utilise des systèmes d’IA pour créer (concevoir, coder, mettre en œuvre, évaluer, affiner) des outils, les outils créés à l’aide de systèmes d’IA et leurs extrants doivent, au minimum, satisfaire aux articles pertinents de la norme CAN-ASC-EN 301 549:2024, en particulier :les déclarations de rendement fonctionnel figurant à l’article 4;les exigences génériques figurant à l’article 5;les exigences Web figurant à l’article 9;les exigences relatives aux documents non-destinés au Web figurant à l’article 10;les exigences en matière de logiciels figurant à l’article 11; etla documentation et les services d’assistance figurant à l’article 12.

10.1.2 Personnes en situation de handicap participant au déploiement de systèmes d’IA

Lorsque des systèmes d’IA sont déployés, les outils et les ressources utilisés pour mettre en œuvre les systèmes d’IA, y compris les outils et les ressources utilisés pour personnaliser (des modèles entraînés au préalable), entraîner des modèles, configurer, maintenir, gouverner et gérer les systèmes d’IA, doivent être accessibles aux personnes en situation de handicap, y compris, au minimum, satisfaire aux articles pertinents de la norme CAN-ASC-EN 301 549:2024, en particulier :les déclarations de rendement fonctionnel figurant à l’article 4;les exigences génériques figurant à l’article 5;les exigences Web figurant à l’article 9;les exigences relatives aux documents non-destinés au Web figurant à l’article 10;les exigences en matière de logiciels figurant à l’article 11; etla documentation et les services d’assistance figurant à l’article 12.

10.1.3 Personnes en situation de handicap participant à la surveillance des systèmes d’IA

Les outils et processus déployés par les organismes pour analyser, surveiller, signaler des problèmes, évaluer et améliorer les systèmes d’IA doivent être accessibles aux personnes en situation de handicap et satisfaire, au minimum, les articles pertinents de la norme CAN-ASC-EN 301 549:2024, en particulier :les déclarations de rendement fonctionnel figurant à l’article 4;les exigences génériques figurant à l’article 5;les exigences Web figurant à l’article 9;les exigences relatives aux documents non-destinés au Web figurant à l’article 10;les exigences en matière de logiciels figurant à l’article 11; etla documentation et les services d’assistance figurant à l’article 12. ,

10.2 Les personnes en situation de handicap en tant qu’utilisateurs des systèmes d’IA

Les personnes en situation de handicap doivent être en mesure d’utiliser et de bénéficier équitablement des systèmes d’IA. Lorsque les organismes déploient des systèmes et des outils d’IA qui ont un impact sur les employés, les entrepreneurs, les partenaires, les clients ou les membres du public, les extrants des systèmes d’IA doivent, au minimum satisfaire aux articles pertinents de la norme CAN-ASC-EN 301 549:2024, en particulier :les déclarations de rendement fonctionnel figurant à l’article 4;les exigences génériques figurant à l’article 5;les exigences Web figurant à l’article 9;les exigences relatives aux documents non-destinés au Web figurant à l’article 10;les exigences en matière de logiciels figurant à l’article 11; etla documentation et les services d’assistance figurant à l’article 12.

10.2.1 Documentation accessible sur la transparence et l’explicabilité

Les informations relatives à la divulgation, à la notification, à la transparence, à l’explicabilité et à la contestabilité des systèmes d’IA, de leur fonction, des mécanismes de prise de décision, des risques potentiels et de leur mise en œuvre doivent être publiées avant le déploiement et tenues à jour (reflétant l’état actuel de l’IA utilisée) et doivent être accessibles aux personnes en situation de handicap en respectant, au minimum, la norme CAN-ASC-3.1:2025-Langage clair, et les articles pertinents de la norme CAN-ASC-EN 301 549:2024, en particulier :les déclarations de rendement fonctionnel figurant à l’article 4;les exigences génériques figurant à l’article 5;les exigences Web figurant à l’article 9;les exigences relatives aux documents non-destinés au Web figurant à l’article 10;les exigences en matière de logiciels figurant à l’article 11; etla documentation et les services d’assistance figurant à l’article 12.

10.2.2 Mécanismes de rétroaction accessibles

Les mécanismes de rétroaction (voir l’article 12.12) doivent être accessibles aux personnes en situation de handicap en respectant, au minimum, la norme CAN-ASC-3.1:2025-Langage clair, et les articles pertinents de la norme CAN-ASC-EN 301 549:2024, en particulier :les déclarations de rendement fonctionnel figurant à l’article 4;les exigences génériques figurant à l’article 5;les exigences Web figurant à l’article 9;les exigences relatives aux documents non-destinés au Web figurant à l’article 10;les exigences en matière de logiciels figurant à l’article 11; etla documentation et les services d’assistance figurant à l’article 12.

10.2.3 Atténuation de la discrimination statistique dans l’utilisation de la technologie d’assistance basée sur l’IA 

Toutes les personnes en situation de handicap ne bénéficieront pas de la même manière des adaptations fondées sur l’IA si leurs modes d’interaction ne sont pas pris en compte dans les données utilisées pour entraîner l’IA. Lorsqu’une technologie fondée sur l’IA est envisagée pour une mesure d’adaptation, les organismes doivent évaluer les inégalités en fonction du bénéficiaire prévu.Remarque : Par exemple, l’interprétation en langue des signes nécessite une formation spécialisée pour assurer l’exactitude linguistique et culturelle. Le remplacement des interprètes humains par l’IA ou l’utilisation de technologies de reconnaissance de la langue des signes alimentées par l’IA peut causer des préjudices aux signataires en ASL et LSQ, en particulier dans des contextes critiques tels que la justice et les soins de santé. Toute utilisation de l’IA pour la communication en langue des signes devrait faire l’objet d’un accord avec le bénéficiaire visé, avec la possibilité d’opter pour une alternative humaine à tout moment.
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/10-lia-accessible

11. L’IA équitable

Lorsque les systèmes d’IA prennent des décisions concernant des personnes en situation de handicap ou ont une incidence sur elles, ces décisions et l’utilisation des systèmes d’IA doivent aboutir à un traitement et résultat équitable pour les personnes en situation de handicap. Remarque : Cela bénéficiera aux personnes et aux groupes de population, ainsi qu’à la société dans son ensemble, en contribuant à garantir que toutes les personnes sont en mesure de mener une vie productive et de contribuer à la société.Principes : un traitement équitable exige que les personnes en situation de handicap :tire des bienfaits équitables des systèmes d’IA; ne subissent pas de préjudices inéquitables de la part des systèmes d’IA; ne subissent pas de perte de droits et libertés en raison de l’utilisation de systèmes d’IA; et ont une capacité d’agir et sont traités avec respect dans leurs interactions avec les systèmes d’IA, y compris le droit de choisir des alternatives équitables. ,

11.1 Accès équitable aux bienfaits

En partant du principe que les personnes en situation de handicap devraient être en mesure de bénéficier des systèmes d’IA, au moins de manière comparable aux autres, les organismes doivent s’efforcer de s’assurer que les personnes en situation de handicap bénéficient des bienfaits équitables des systèmes d’IA. 

11.1.1 Prévenir la sous-représentation et la fausse représentation dans les données de formation

Les organismes doivent s’assurer que les personnes en situation de handicap ne sont pas sous-représentées ou mal représentées dans les données de formation, notamment :en évitant les approximations biaisées;les étiquettes de données biaisées; oules données synthétiques qui ne reflètent pas les expériences, la diversité et la variabilité réelles des handicaps.

11.1.2 Rendement équitable entre les groupes d’utilisateurs

Les organismes doivent valider et mettre au point les systèmes d’IA pour qu’ils fonctionnent de manière comparable sur les plans de :la précision;la fiabilité; etla robustesse, tant pour les personnes en situation de handicap que pour les autres.

11.1.3 Mesures de rendement désagrégées

Les organismes doivent évaluer le rendement du système d’IA et en rendre compte à l’aide de résultats désagrégés pour les personnes en situation de handicap.

11.1.4 Surveillance des impacts réels sur les personnes en situation de handicap

Les organismes doivent surveiller en permanence le rendement des systèmes d’IA en fonction de critères de validation et les impacts réels des décisions prises à l’aide de l’IA sur les personnes en situation de handicap, conformément à l’article 12.8.

11.1.5 Amélioration du système grâce à la rétroaction et au perfectionnement

Les organismes doivent utiliser les données de surveillance et de rendement, y compris les données recueillies dans le registre public, conformément à l’article 12.8, pour :améliorer la convivialité du système;recueillir des données supplémentaires;améliorer la qualité des données; etaffiner les critères de validation,créant ainsi des boucles de rétroaction positives. ,

11.2 Évaluation et atténuation des préjudices

Les organismes doivent évaluer et atténuer les préjudices potentiels que les systèmes d’IA peuvent poser aux personnes en situation de handicap tout au long du cycle de vie de l’IA. Il s’agit notamment :d’identifier;de prioriser; etde traiter les risquesqui peuvent affecter de manière disproportionnée les personnes en situation de handicap en raison de leur statut de minorité statistique ou d’aberrations dans les systèmes axés sur les données.Les organismes doivent s’assurer que les évaluations des préjudices ne se limitent pas aux décisions ayant des impacts élevés, mais tiennent également compte des préjudices cumulatifs, indirects ou spécifiques au contexte. Ces préjudices peuvent inclure, sans s’y limiter :à la discrimination;la perte de vie privée;l’atteinte à la réputation;l’exclusion; oul’érosion de la capacité d’agir et de l’autonomie.

11.2.1 Évaluations équitables des risques

Lorsque des cadres d’évaluation des risques sont utilisés pour déterminer les risques et les bienfaits des systèmes d’IA, les risques pour les personnes en situation de handicap qui subissent l’impact le plus important des préjudices, doivent être considérées comme des priorités. L’évaluation des risques ne doit pas se fonder uniquement sur les risques et les bienfaits pour la majorité.

11.2.2 Atténuation des préjudices cumulatifs

Il faut veiller à reconnaître que les personnes en situation de handicap peuvent subir des préjudices plus élevés que les autres, causés par l’effet cumulatif de nombreux préjudices cumulatifs qui se recoupent ou s’accumulent au fil du temps à la suite de décisions assistées par l’IA qui ne sont pas autrement classées comme ayant un impact élevé. En cas de menace de préjudice grave ou irréversible, l’absence de certitude quantifiable (p. ex. dans l’évaluation des risques) ne doit pas être invoquée pour retarder l’adoption de mesures efficaces visant à prévenir les effets néfastes sur les personnes en situation de handicap.

11.2.3 Critères d’évaluation équitables de l’exactitude

Les organismes doivent choisir des critères d’évaluation de l’exactitude en fonction des résultats de l’évaluation des risques, en prenant soin de saisir les préjudices réels ou potentiels pour les personnes en situation de handicap qui sont des valeurs aberrantes dans les données.L’évaluation de l’exactitude devrait :inclure des mesures désagrégées pour les personnes en situation de handicap;tenir compte du contexte d’utilisation; ettenir compte des conditions relatives aux personnes en situation de handicap.

11.2.4 Sécurité de l’information pour les personnes en situation de handicap

Les organismes doivent élaborer des plans pour protéger les personnes en situation de handicap en cas d’atteinte à la protection des données ou d’attaques malveillantes contre les systèmes d’IA. Les plans doivent identifier les risques associés aux handicaps ainsi que des actions claires et rapides pour protéger les personnes en situation de handicap.Les personnes en situation de handicap ne devraient pas avoir à consentir à un niveau inférieur de sécurité de l’information pour bénéficier des systèmes d’IA.Remarque : Les données sur le handicap sont très uniques, ce qui les rend facilement identifiables. Par conséquent, les données des personnes en situation de handicap nécessitent un niveau de protection plus élevé. 

11.2.5 Équité et non-discrimination dans la prise de décision en matière d’IA

Il faut veiller à reconnaître que les personnes qui font l’objet de discriminations dans les décisions assistées par l’IA sont souvent des personnes en situation de handicap. Les organismes doivent veiller à ce que les systèmes d’IA n’aient pas de préjugés négatifs à l’égard des personnes en situation de handicap en raison :de choix biaisés lors de la modélisation des données;d’une mauvaise représentation des données d’entraînement;de l’utilisation d’approximations biaisées;d’un étiquetage biaisé des données;de données synthétiques non représentatives;d’une conception biaisée des systèmes;d’un réglage des systèmes effectué selon des critères incorrects ou incomplets; oude préjugés apparaissant dans le contexte de l’utilisation du système.

11.2.6 Atténuation de la discrimination statistique

Même avec une représentation proportionnelle complète dans les données, les personnes en situation de handicap resteront probablement des cas isolés ou des minorités marginalisées dans le contexte des décisions assistées par l’IA. C’est pourquoi, afin d’atténuer la discrimination statistique, les organismes ne doivent pas soumettre les personnes en situation de handicap à des décisions assistées par l’IA sans leur consentement éclairé, leur compréhension et leur accès à des rechanges équivalents.

11.2.7 Atteintes à la réputation

Les organismes doivent veiller à ce que les systèmes d’IA ne répètent pas ou ne diffusent pas de stéréotypes ou d’informations erronées sur les personnes en situation de handicap. ,

11.3 Respect des droits et des libertés

Les organismes doivent respecter les droits et libertés fondamentaux des personnes en situation de handicap dans toutes les utilisations des systèmes d’IA. Ceci comprend de s’assurer que les systèmes d’IA ne sont pas utilisés d’une manière qui compromet la vie privée, la dignité et l’autonomie.

11.3.1 Liberté de toute surveillance

Les organismes doivent s’abstenir d’utiliser de manière discriminatoire les outils d’IA à des fins de surveillance. 

11.3.2 Liberté de ne pas faire l’objet d’un profilage discriminatoire

Les organismes doivent s’abstenir d’utiliser des outils d’IA pour :la catégorisation biométrique; l’analyse des émotions; ou le maintien des opérations policières prédictives des personnes en situation de handicap. ,

11.4 Préservation de la capacité d’agir et traitement respectueux

Les organismes doivent s’assurer que les personnes en situation de handicap conservent leur capacité d’agir, leur autonomie et leur dignité dans toutes leurs interactions avec les systèmes d’IA. Ceci comprend :une participation significative aux processus décisionnels;l’accès à des informations précises et compréhensibles; etla capacité de choisir des alternatives équitables aux décisions assistées par l’IA.Les systèmes d’IA doivent être conçus et déployés de manière à respecter les droits des personnes en situation de handicap :de participer;de comprendre; etd’influencer les systèmes qui les touchent.Les organismes doivent fournir des mécanismes de :consentement éclairé;contestabilité; etsurveillance humaine.Les organismes doivent empêcher l’utilisation de systèmes d’IA pour désinformer ou manipuler.

11.4.1 Mobilisation et participation

Les organismes doivent solliciter et encourager la participation des personnes en situation de handicap à tous les stades des systèmes d’IA :de la considération;de la planification;de la conception;de l’élaboration;de l’utilisation; etde la gestion opérationnelle, y compris le contrôle continu après le déploiement.

11.4.2 Information et divulgation

Les organismes doivent informer les personnes de leur utilisation prévue ou réelle de systèmes d’IA qui prennent des décisions concernant les personnes en situation de handicap ou qui ont une incidence sur elles. Ces renseignements accessibles doivent être fournis d’une manière :exacte;accessible; etcompréhensible, conformément aux exigences énoncées à l’article 10.

11.4.3 Consentement, choix et recours

Lorsque des systèmes d’IA sont utilisés pour prendre ou aider à prendre des décisions, les organismes doivent proposer un mécanisme d’option à plusieurs niveaux pour :les clients;les employés; et  autres personnes concernées.Ces mécanismes permettront aux personnes identifiées à 11.4.3 a) de demander un processus décisionnel de rechange équivalent, complet et rapide qui, au choix de la personne, soit exécuté :sans l’utilisation de l’IA; ouexécuté à l’aide de l’IA avec une supervision et une vérification humaines directes de la décision.Les personnes doivent être informées avec des formats accessibles des moyens :de corriger;de contester;de modifier; oud’annuler une décision ou une action assistée par l’IA qui les concerne (voir l’article 11.2).Remarque : Les formats accessibles comprennent les formats qui seront accessibles au demandeur. Les formats alternatifs qui peuvent être demandés en vertu de la Loi canadienne sur l’accessibilité comprennent les formats audio, le braille, les gros caractères et les formats électroniques.

11.4.4 Liberté de la désinformation et de la manipulation 

Les organismes doivent veiller à ce que les systèmes d’IA ne servent pas à manipuler les personnes en situation de handicap ou à leur transmettre de l’information inexacte de façon spécifique.

11.4.5 Soutien au contrôle et à la surveillance par des êtres humains

Les organismes doivent y avoir une chaîne de responsabilité humaine traçable qui indique clairement qui est responsable de l’accessibilité et de l’équité des décisions prises par un système d’IA.  ,

11.5 Soutenir la recherche et le l’élaboration d’une IA équitable

Lorsque les organismes soutiennent la recherche et le l’élaboration en IA, elles doivent inclure la recherche à propos de systèmes d’IA accessibles et équitables.
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/11-lia-equitable

12. Processus organisationnels visant à soutenir une IA accessible et équitable

Lorsque les organismes mettent en œuvre ou utilisent des systèmes d’IA, ou les deux, les processus organisationnels doivent aboutir à des systèmes d’IA accessibles et équitables pour les personnes en situation de handicap (voir les articles 10 et 11 pour les définitions d’une IA « accessible » et « équitable »). Chaque processus doit :inclure les personnes en situation de handicap à la gouvernance et à la prise de décision tout au long du cycle de vie de l’IA; etêtre accessible aux personnes en situation de handicap qui sont :membres d’un comité de gouvernance ou de gestion;des employés;des entrepreneurs;des clients;des membres d’un organisme œuvrant pour les personnes en situation de handicap; oudes membres du public.Le cas échéant, cet article s’applique aux processus organisationnels utilisés pour :soutenir une gouvernance de l’IA accessible et équitable;planifier et justifier le besoin de systèmes d’IA;informer le public de son intention d’utiliser des systèmes d’IA;évaluer la pertinence des données pour leur utilisation par les systèmes d’IA;concevoir et élaborer des systèmes d’IA accessibles et équitables;acquérir des systèmes d’IA accessibles et équitables;personnaliser des systèmes d’IA accessibles et équitables;procéder à des évaluations de l’incidence, à une surveillance éthique et à un suivi continu des préjudices potentiels;former le personnel à une IA accessible et équitable;fournir des mécanismes de transparence, de responsabilisation et de consentement;donner accès à des approches de rechange équivalentes;traiter les rétroactions sur l’accessibilité et l’équité, les incidents et les plaintes concernant les systèmes d’IA;prévoir des mécanismes de révision, de perfectionnement et de clôture; etstocker et gérer les données en toute sécurité tout au long du cycle de vie de l’IA. ,

12.1 Soutenir une gouvernance de l’IA accessible et équitable

Les organismes doivent solliciter et encourager la participation des personnes en situation de handicap à tous les stades :de l’ensemble de données;des systèmes d’IA;  de leurs composantes (conception, codage, mise en œuvre, évaluation, perfectionnement);de l’acquisition;de la consommation;de la gouvernance;de la gestion; etdu suivi.Outre la consultation des personnes en situation de handicap externes à l’organisme sur des décisions précises liées à l’IA (voir les articles 12.4, 12.5, 12.6, 12.7, 12.9, 12.14), les organismes devraient faire participer de manière permanente et continue les personnes en situation de handicap en :recrutant;intégrant; etsoutenant leur participation.  Participation des personnes en situation de handicap devrait inclure :la personne;les entrepreneurs; etles membres de comités de gouvernance et de gestion (p. ex., le conseil d’administration, les comités directeurs, les comités consultatifs et les équipes de gestion). ,

12.2 Planifier et justifier l’utilisation des systèmes d’IA

Lorsqu’un organisme propose et planifie le déploiement d’un système d’IA, l’incidence sur les personnes en situation de handicap doit être prise en compte avant le déploiement et tout au long de l’utilisation du système d’IA. 

12.2.1 Planifier l’utilisation de l’IA 

Les organismes doivent créer un plan d’utilisation de l’IA qui : comprend des renseignements sur :la manière dont le contrôle et la surveillance humaine sont intégrés dans l’utilisation du système d’IA; etla manière dont les utilisateurs peuvent opter pour une solution de rechange humaine au système d’IA; etdécrit des mesures claires et rapides pour protéger les personnes en situation de handicap en cas de violation de données :à n’importe quelle étape du cycle de vie du projet; oulorsque des attaques malveillantes contre les systèmes d’IA surviennent après le déploiement.

12.2.2 Détermination des risques et des impacts

Des mesures efficaces visant à prévenir les incidences négatives sur les personnes en situation de handicap doivent être prises indépendamment de la disponibilité d’une ou de plusieurs déterminations des risques quantitatives ou prédictives, ou les deux.Les processus d’évaluation des impacts et des risques doivent :inclure les personnes en situation de handicap susceptibles d’être directement ou indirectement touchées par le système d’IA en tant que participants actifs aux décisions (voir l’article 11.2.2);inclure la détermination de l’impact sur le plus grand nombre possible de personnes en situation de handicap; ettenir compte des impacts globaux, pour les personnes en situation de handicap, des nombreux préjudices cumulés qui peuvent se croiser ou s’accumuler au fil du temps à la suite de décisions assistées par l’IA et qui ne sont pas classés comme ayant une incidence élevée.

12.2.3 Cadres d’évaluation des risques équitables

Lorsque des cadres d’évaluation des risques sont utilisés pour déterminer les risques et les bienfaits des systèmes d’IA (voir l’article 11.2.2), les organismes doivent :Donner la priorité à la prévention ou à l’atténuation, ou les deux, des risques pour les personnes en situation de handicap (qui sont des minorités et des valeurs aberrantes dans les modèles statistiques). Par exemple, en veillant à ce que les modèles d’évaluation des risques ne soient pas uniquement fondés sur les risques et les bienfaits pour la majorité (ou le cas « typique »).Sélectionner les critères d’évaluation de la précision en fonction des résultats de l’évaluation des risques, en veillant à prendre en compte les préjudices subis ou qui pourraient être subis par les personnes en situation de handicap et les autres groupes minoritaires ou défavorisés.Inclure des mesures désagrégées pour les personnes en situation de handicap dans les évaluations de la précision, et prendre en compte le contexte d’utilisation et les conditions relatives aux personnes en situation de handicap qui peuvent être touchés par l’utilisation du système d’IA. ,

12.3 Fournir un avis d’intention d’utiliser un système d’IA

L’intention d’utiliser un système d’IA doit être rendue publique dans des formats accessibles dans le cadre du plan d’accessibilité de l’organisme et distribuée aux organisations nationales de personnes en situation de handicap et aux parties intéressées.Remarque : Cet article s’applique à tous les systèmes d’IA, qu’il soit déterminé ou non qu’ils affectent directement les personnes en situation de handicap.

12.3.1 Demande d’avis

Les organismes doivent établir un processus par lequel toute partie intéressée peut demander à être inscrite sur une liste de distribution d’avis. 

12.3.2 Mécanismes d’entrée accessibles dans les avis

Les organismes doivent inclure des méthodes accessibles pour fournir des commentaires dans les avis.  ,

12.4 Évaluer la pertinence des données pour leur utilisation par les systèmes d’IA

Les organismes doivent déterminer si les ensembles de données potentiels contenant des renseignements sur les personnes en situation de handicap sont appropriés, inappropriés ou s’ils sont appropriés à certaines conditions pour être utilisés comme données d’entrée dans les systèmes d’IA, en associant les personnes en situation de handicap pertinentes à la détermination du caractère approprié.Il faut procéder à un alignement entre :l’ensemble de données utilisé comme entrée dans un système d’IA;le modèle ou la méthode utilisée par le système d’IA; etl’objectif ou la tâche assignée au système d’IA.Le caractère approprié de chaque ensemble de données doit être évalué avant qu’il ne soit utilisé en tant qu’intrant pour chaque :objectif ou tâche; etsystème d’IA.Remarque : Un ensemble de données peut être approprié pour un objectif ou une tâche en particulier dans un système d’IA, mais inapproprié pour d’autres tâches dans le même système d’IA, ou inapproprié lorsqu’il est appliqué à des personnes qui sont différentes de la majorité des personnes en fonction de plusieurs variables ou étiquettes.Voir l’annexe A pour des exemples.

12.4.1 Prévention des biais et des fausses représentations dans les données

Les organismes doivent recueillir, utiliser et gérer les données, les modèles de données, et d’algorithmes de manière à éviter les préjugés négatifs ou la discrimination injustifiée à l’égard des personnes en situation de handicap dans l’utilisation et les extrants des systèmes d’IA. En particulier, des mesures doivent être prises pour éviter :les choix biaisés lors de la modélisation des données;une représentation erronée dans les données d’entraînement;l’utilisation d’indicateurs biaisés;l’étiquetage biaisé des données;la conception biaisée des systèmes;la mise au point des systèmes selon des critères incorrects ou incomplets;les préjugés qui se révèlent dans le contexte de l’utilisation du système; etdonnées synthétiques qui reflètent une portée et un objectif insuffisants des expériences de handicap pertinentes par rapport à l’objectif du système d’IA.

12.4.2 Prévention des préjudices et de la discrimination

Les organismes doivent s’assurer de :prévenir les préjudices causés aux personnes en situation de handicap par des violations de données (qu’elles soient accidentelles ou délibérées);veiller à ce que les systèmes d’IA ne répètent pas ou ne diffusent pas de stéréotypes ou d’informations erronées sur les personnes en situation de handicap; etveiller à ce que les planificateurs, les développeurs, les opérateurs et les organes de gouvernance disposent de l’expertise nécessaire pour évaluer et traiter les cas où la non-discrimination exige que certaines personnes, y compris des personnes en situation de handicap, ne soient pas soumises à des décisions assistées par l’IA, parce qu’elles constituent des valeurs aberrantes statistiques dans les distributions statistiques utilisées par les systèmes d’IA (voir l’article 11.2). ,

12.5 Concevoir et élaborer des systèmes d’IA accessibles et équitables

Les organismes doivent s’assurer que la conception et l’élaboration de systèmes d’IA favorisent de manière proactive l’accessibilité et l’équité pour les personnes en situation de handicap. Cela doit inclure : d’intégrer les exigences en matière d’accessibilité et d’équité dès le départ;de mobiliser les personnes en situation de handicap de manière significative et rémunérée; etd’appliquer des pratiques de conception et de surveillance inclusives tout au long du cycle de vie de l’IA.

12.5.1 Exigences en matière d’accessibilité et d’équité dans la conception et l’élaboration

Les organismes doivent inclure des exigences en matière d’accessibilité et d’équité dans la conception et l’élaboration des systèmes d’IA conformément aux articles 10 et 11.

12.5.2 Participation des personnes en situation de handicap aux essais d’accessibilité

Avant la mise en œuvre ou l’utilisation ou les deux, d’un système d’IA ayant un impact direct ou indirect sur les personnes en situation de handicap, ces dernières et les organismes pour les personnes en situation de handicap pertinentes doivent être invités à mettre à l’essai l’accessibilité du système d’IA, conformément aux exigences de l’article 10.Les personnes qui participent à cette démarche doivent être rémunérées équitablement par l’entité réglementée.

12.5.3 Rétroaction des personnes en situation de handicap 

Il faut solliciter les rétroactions formulées par les personnes en situation de handicap ou des organismes œuvrant pour de personnes en situation de handicap dans toutes les décisions relatives à la conception et à l’élaboration de systèmes d’IA, conformément aux exigences de l’article 11.4Remarque : Cela garantira que ces systèmes offrent aux personnes en situation de handicap des bienfaits équitables, préservent la capacité d’agir individuelle, préviennent et/ou atténuent les effets néfastes sur les personnes en situation de handicap.

12.5.4 Interdire la surveillance et le profilage des personnes en situation de handicap

Les organismes doivent adopter des cadres de planification et de conception ainsi que des processus de surveillance pour s’assurer que tout système d’IA qu’ils utilisent, contrôlent ou gouvernent n’est pas utilisé :plus précisément pour exercer une surveillance sur les employés et les clients en situation de handicap en particulier;pour la catégorisation biométrique, l’analyse des émotions ou l’opération policière prédictive des employés et des clients en situation de handicap en particulier; nipour manipuler les personnes en situation de handicap ou leur transmettre de l’information erronée.

12.5.5 Prévenir les abus et les manipulations grâce à l’IA

Conformément aux exigences des articles 11.3 et 11.4, les organismes doivent adopter des cadres de planification et de conception ainsi que des processus de contrôle pour s’assurer que tout système d’IA qu’elles utilisent, contrôlent ou régissent : ne sers pas à :désinformer; oumanipuler les personnes en situation de handicap; etne produis pas un ou plusieurs des suivants :de répercussions discriminatoiresde préjudices ou de risques accrus de préjudicede reproduction de stéréotypesd’autres formes de préjugés à l’égard des personnes en situation de handicap lorsque le système d’IA est utilisé pour :exercer une surveillance sur les employés, des clients ou d’autres utilisateurs du système; oula catégorisation biométrique, l’analyse des émotions ou une opération policière prédictive des employés, des clients ou d’autres utilisateurs du système; outotue combinaison des éléments ci-dessus, y compris tous les éléments ci-dessus.

12.5.6 Établir la responsabilité des décisions relatives au système d’IA

La conception de tout système d’IA doit inclure des mécanismes de responsabilité et de gouvernance qui indiquent clairement qui est responsable des décisions prises par un système d’IA. ,

12.6 L’achat des systèmes d’IA accessibles et équitables

Les organismes doivent s’assurer que les processus d’approvisionnement pour les systèmes d’IA sont conçus pour maintenir l’accessibilité et l’équité pour les personnes en situation de handicap. Cela comprend l’application des exigences des articles 10 et 11, pour impliquer les personnes en situation de handicap aux décisions d’approvisionnement et la vérification de la conformité aux critères d’accessibilité et d’équité avant l’acquisition.

12.6.1 Appliquer les exigences en matière d’accessibilité et d’équité dans l’approvisionnement

Les organismes doivent inclure des exigences en matière d’approvisionnement, conformément aux articles 10 et 11. 

12.6.2 Rétroaction des personnes en situation de handicap pendant l’approvisionnement

Les organismes doivent solliciter les rétroactions des personnes en situation de handicap et des organismes œuvrant pour les personnes en situation de handicap dans toutes les décisions relatives à l’acquisition de systèmes d’IA afin de prévenir ou d’atténuer, ou les deux, des impacts négatifs sur les personnes en situation de handicap qui :ont une ampleur disproportionnée;produisent des résultats inéquitables pour les personnes en situation de handicap; etproduisent des préjudices cumulés pour les personnes en situation de handicap, quelle que soit l’ampleur de l’impact immédiat subi.

12.6.3 Faire participer les personnes en situation de handicap aux essais d’accessibilité et à l’évaluation des impacts

Avant la mise en œuvre ou l’utilisation, ou les deux, d’un système d’IA ayant un impact direct ou indirect sur les personnes en situation de handicap, ces dernières ou les organismes œuvrant pour les personnes en situation de handicap doivent être invités à :mettre à l’essai l’accessibilité du système d’IA; etprocéder à une évaluation des incidences.Les personnes qui participent à cette démarche doivent être rémunérées équitablement par l’organisme qui met en œuvre ou utilise l’IA.

12.6.4 Vérification de l’accessibilité et de la conformité à l’équité 

La conformité aux critères d’accessibilité et d’équité doit être vérifiée par des experts neutres en matière d’accessibilité et d’équité avant qu’une décision d’approvisionnement d’un système d’IA ne soit prise.Remarque : Les experts neutres sont des personnes ayant une expertise reconnue dans le domaine qui fournissent des conseils ou analyses impartiales, et qui n’ont aucun intérêt financier, personnel ou professionnel dans le résultat.

12.6.5 Dispositions relatives à la clôture des contrats d’approvisionnement

Les organismes doivent inclure des dispositions pour l’arrêt ou la clôture des contrats d’approvisionnement d’un système d’IA si :le système fonctionne mal; oule rendement mesuré par rapport aux critères d’accessibilité ou d’équité se dégrade ou n’est plus respecté. ,

12.7 Personnaliser des systèmes d’IA accessibles et équitables

Les organismes doivent personnaliser les systèmes d’IA de manière à maintenir l’accessibilité et l’équité pour les personnes en situation de handicap. Il s’agit notamment :d’appliquer les exigences pertinentes en matière d’accessibilité et d’équité;de faire participer activement les personnes en situation de handicap aux décisions relatives à la personnalisation; etde veiller à ce que l’accessibilité des systèmes personnalisés soit mise à l’essai avant leur déploiement.

12.7.1 Exigences en matière d’accessibilité et d’équité en matière de personnalisation

La personnalisation des systèmes d’IA doit respecter les exigences des articles 10 et 11. 

12.7.2 Rétroaction des personnes en situation de handicap pendant la personnalisation

La rétroaction des personnes en situation de handicap pertinentes et des organismes œuvrant à celles-ci doit être sollicitée dans toutes les décisions relatives à la personnalisation de systèmes d’IA afin de prévenir ou d’atténuer, ou les deux, les incidences négatives sur les personnes en situation de handicap qui :ont une ampleur disproportionnée;produisent des résultats inéquitables pour les personnes en situation de handicap; etproduisent des préjudices cumulés pour les personnes en situation de handicap, quelle que soit l’ampleur de l’impact immédiat subi.

12.7.3 Essais d’accessibilité de la personnalisation 

Avant la mise en œuvre ou l’utilisation, ou les deux, d’un système d’IA ayant un impact direct ou indirect sur les personnes en situation de handicap, les personnes en situation de handicap ou les organismes œuvrant pour celles-ci doivent être invités à mettre à l’essai l’accessibilité du système d’IA.Les personnes qui participent à cette démarche doivent être rémunérées équitablement par l’organisme qui met en œuvre ou utilise l’IA. ,

12.8 Procéder à des évaluations des impacts, à une surveillance éthique et à un suivi continu des préjudices potentiels

Les organismes doivent effectuer une surveillance continue de la qualité des données et des évaluations d’incidences afin de cerner :les biais nouveaux ou réels; oules sources de discrimination à l’égard des personnes en situation de handicap, ou les deux.

12.8.1 Surveillance et évaluation des extrants du système

Cette surveillance et cette évaluation doivent prendre en compte de multiples dimensions, y compris, mais sans s’y limiter, aux extrants du système d’IA en ce qui concerne les personnes en situation de handicap qui :peuvent avoir :des impacts discriminatoires;des préjudices ou un risque accru de préjudice;la reproduction de stéréotypes;d’autres formes de biais à l’égard des personnes en situation de handicap; outoute combinaison des éléments ci-dessus, y compris tous les éléments ci-dessus;peuvent donner lieu à un accès inéquitable aux bienfaits;peuvent entraîner des résultats inéquitables pour les personnes en situation de handicap;peuvent produire des préjudices cumulés pour les personnes en situation de handicap, quelle que soit l’ampleur de l’impact immédiat subi;peuvent porter atteinte :aux droits;aux libertés;à la dignité;à l’a capacité d’agir personnelle des personnes en situation de handicap; outoute combinaison des éléments ci-dessus, y compris tous les éléments ci-dessus; outoute combinaison des éléments ci-dessus, y compris tous les éléments ci-dessus.

12.8.2 Registre public des préjudices, des obstacles et du traitement inéquitable 

Les organismes doivent tenir un registre public des :préjudices;décisions contestées;obstacles à l’accès signalés; etcas de traitement inéquitable des personnes en situation de handicap liés aux systèmes d’IA.Le registre public doit :être conforme à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE);être conforme à la Loi sur la protection des renseignements personnels;consigner dans leur registre l’impact des décisions ayant un impact faible, moyen et élevé sur les personnes en situation de handicap; etêtre mis à la disposition du public dans un format accessible.Une fois qu’un système de surveillance accessible au public englobant tous les organismes qui utilisent des systèmes d’IA est établi et maintenu pour suivre l’impact cumulatif des décisions à impact faible, moyen et élevé sur les personnes en situation de handicap, les organismes devront soumettre ces informations au système.

12.8.3 Seuils de risque inacceptable 

Les seuils pour les niveaux inacceptables de risque et de préjudice doivent être établis avec les organismes nationaux œuvrant pour les personnes en situation de handicap et les organismes experts en matière d’accessibilité et d’équité à l’égard des personnes en situation de handicap. Au fur et à mesure que les résultats font l’objet d’une surveillance, les essais des systèmes d’IA doivent évoluer pour tenir compte des oublis et des préjudices, et le système doit être mis à jour pour atténuer ces oublis et ces préjudices ou proposer une solution de rechange qui les contourne.  ,

12.9 Former le personnel à une IA accessible et équitable

Tout le personnel responsable de n’importe quel aspect du cycle de vie de l’IA doit recevoir une formation sur l’IA accessible et équitable, offerte dans des formats accessibles. 

12.9.1 Mise à jour du contenu de la formation 

Les organismes doivent régulièrement mettre à jour le contenu de la formation pour tenir compte des problèmes, des technologies et des approches actuels. 

12.9.2 Contenu de la formation 

La formation doit être adaptée au contexte de l’apprenant. Cette formation doit comprendre des :considérations juridiques relatives à la protection des renseignements personnels;considérations relatives à l’accessibilité de l’interface utilisateur;stratégies de détection des préjudices et des risques;stratégies de détection et d’atténuation des préjugés; etmoyens de faire participer les personnes en situation de handicap au cycle de vie de l’IA.La formation doit être élaborée et mise en œuvre en collaboration avec les personnes en situation de handicap et/ou les organismes de personnes en situation de handicap, conformément à l’article 13.3. ,

12.10 Fournir des mécanismes de transparence, de responsabilisation et de consentement

Les organismes doivent informer les personnes de leur utilisation prévue ou réelle de données et de systèmes d’IA qui prennent des décisions concernant les personnes en situation de handicap ou qui ont un impact sur elles.La transparence en matière comprend la communication d’informations sur :les données utilisées pour préentraîner, personnaliser ou entraîner dynamiquement un système d’IA;les étiquettes de données et les données de substitution utilisées dans l’entraînement;la ou les décision(s) à prendre par le système d’IA et les facteurs déterminants de cette (ces) décision(s);la disponibilité de systèmes décisionnels complets, accessibles et facultatifs; etles noms et les coordonnées des personnes qui, au sein de l’organisme, sont responsables du système d’IA et des décisions qui en découlent.

12.10.1 Accessibilité de l’information sur la transparence

Toute information sur la transparence doit être fournie dans des formats accessibles et dans un format utilisant un langage simple et non technique, de sorte que l’impact potentiel du système d’IA soit clair.Remarque : Les formats accessibles comprennent les formats qui seront accessibles au demandeur. Les formats alternatifs qui peuvent être demandés en vertu de la Loi canadienne sur l’accessibilité comprennent les formats audio, le braille, les gros caractères et les formats électroniques.

12.10.2 Consentement à l’utilisation des données

Les organismes doivent mettre en œuvre des mécanismes de consentement et d’engagement appropriés en fonction de la façon dont les données sont collectées pour être utilisées dans les systèmes d’IA. Dans les cas où les systèmes d’IA utilisent des données recueillies avec le consentement des personnes concernées, les personnes en situation de handicap doivent être en mesure de retirer leur consentement pour une ou toutes parties de l’utilisation de leurs données, à tout moment et sans conséquences négatives.Lorsque des systèmes d’IA utilisent des données recueillies sans le consentement des personnes concernées (p. ex. les systèmes d’IA qui utilisent des données administratives dépersonnalisées concernant des services financés par l’État), les organismes doivent engager et impliquer les personnes en situation de handicap aux décisions relatives à l’utilisation des ensembles de données. ,

12.11 Donner accès à des approches de rechange équivalentes

Les organismes qui déploient des systèmes d’IA doivent offrir aux personnes en situation de handicap des options alternatives qui offrent une disponibilité équivalente ainsi qu’une rapidité, un coût et une commodité raisonnables pour la personne en situation de handicap.Les solutions de rechange suivantes doivent comprendre :la possibilité de demander que les décisions humaines soient prises par des personnes ayant des connaissances et de l’expertise des besoins des personnes en situation de handicap dans le domaine des décisions à prendre; oula possibilité de demander une supervision humaine ou de confier la prise de décision finale à une personne compétente dans le domaine des besoins des personnes en situation de handicap, guidée par l’IA.L’organisme doit maintenir en poste les personnes qui possèdent l’expertise nécessaire pour prendre des décisions humaines équitables concernant les personnes en situation de handicap lorsque des systèmes d’IA sont déployés pour remplacer des décisions qui étaient prises auparavant par des êtres humains. Remarque : Par exemple :Lorsque des systèmes de langue des signes IA sont déployés, les utilisateurs finaux sourds ont besoin d’avoir l’autonomie d’accepter ou de refuser l’utilisation de l’interprétation par IA. Il faut leur donner la possibilité de demander un interprète humain à la place, et ceci sans pénalité.Lorsque les systèmes d’IA qui utilisent une caméra pour surveiller un examen sont utilisés, les utilisateurs Aveugles ont besoin d’avoir l’autonomie d’accepter ou de refuser l’utilisation de la surveillance par IA qui peut détecter les mouvements oculaires. Il faut leur donner la possibilité réelle de demander un surveillant humain à la place, sans aucune pénalité. ,

12.12 Aborder de la rétroaction sur l’accessibilité et l’équité, les incidents et les plaintes concernant les systèmes d’IA

L’organisme doit traiter la rétroaction, les signalements d’incident et les plaintes en matière d’accessibilité et d’équités, notamment en fournissant des précisions sur les fonctions de recours, de contestation et d’appels pour les personnes en situation de handicap qui :fournissent des renseignements faciles à trouver, accessibles et compréhensibles sur la façon dont la rétroaction, les incidents et les plaintes sont traités;accusent réception de la rétroaction, des signalements d’incident et des plaintes, et répondent à la rétroaction dans en temps opportun;fournissent un calendrier pour traiter la rétroaction, les incidents et les plaintes;offrent une procédure permettant aux personnes en situation de handicap ou à leurs représentants de fournir de la rétroaction sur les décisions ou de les contester de manière anonyme;fournissent des détails sur les mesures à prendre pour donner suite à la rétroaction, aux incidents et aux plaintes; etcommuniquent aux personnes en situation de handicap ou à leurs représentants l’état d’avancement du traitement de la rétroaction, des incidents ou des plaintes et leur offrir la possibilité de faire appel ou de contester les mesures correctives proposées.La rétroaction relative aux préjudices doit être consignée dans le registre public des préjudices, à condition qu’elle puisse être rendue anonyme afin de protéger les renseignements personnels, conformément à la Loi sur la protection des renseignements personnels, à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et aux autres lois fédérales et provinciales applicables en matière de protection des renseignements personnels, avec le consentement de la personne qui soumet la rétroaction. ,

12.13 Fournir des mécanismes d’examen, d’amélioration, d’arrêt et de clôture

Les organismes qui déploient des systèmes d’IA doivent continuellement les examiner, les perfectionner et, si nécessaire, les arrêter ou y mettre fin. 

12.13.1 Prendre en compte toute la gamme des préjudices 

Les organismes doivent prendre en compte l’ensemble des préjudices, y compris les préjudices cumulés découlant de décisions ayant une incidence faible ou moyenne sur les personnes en situation de handicap.

12.13.2 Rétroaction des personnes en situation de handicap pendant l’examen et l’affinement

Les processus d’examen et d’affinement doivent impliquer des personnes en situation de handicap.

12.13.3 Conditions d’arrêt et de clôture

Dans le cas où le système se dégrade au point que les critères d’accessibilité ou d’équité pour les personnes en situation de handicap ne sont plus respectés, les organismes doivent cesser d’utiliser le système d’IA jusqu’à ce que l’obstacle à l’accessibilité ou le traitement inéquitable soit résolu, ou que le système soit clos.

12.13.4 Apprendre de ses erreurs et de ses échecs

Tous les systèmes d’IA doivent être mis à jour pour atténuer les risques si des préjudices pour les personnes en situation de handicap sont identifiés.Les systèmes d’IA qui utilisent l’apprentissage automatique doivent être conçus pour apprendre des erreurs et des échecs, y compris ceux détaillés dans le registre public aux articles 12.8 et 12.12.  ,

12.14 Stocker et gérer les données en toute sécurité tout au long du cycle de vie de l’IA

Les organismes doivent veiller à ce que les données relatives au handicap soient utilisées pour créer des systèmes d’IA équitables d’une manière sûre et sécurisée qui n’entraîne pas de préjudice pour les personnes qui fournissent leurs données.

12.14.1 Stockage et gestion des données

Les données relatives aux personnes en situation de handicap doivent être stockées et gérées en toute sécurité à chaque phase du cycle de vie des données, depuis :la collecte des données jusqu’à leur conservation (stockage);leur utilisation;leur divulgation (partage); etleur destruction.Remarque : L’utilisation abusive ou la violation de données relatives au handicap peut conduire à la discrimination, à l’exclusion et à d’autres préjudices pour les personnes en situation de handicap.Conformément à l’article 22 de la Convention relative aux droits des personnes en situation de handicap des Nations Unies, les organismes doivent protéger la confidentialité des renseignements personnels, des renseignements relatifs à la santé et à la réadaptation des personnes en situation de handicap sur la base de l’égalité avec les autres.Le stockage et la gestion des données doivent être conformes à la Loi sur la protection des renseignements personnels, à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et aux autres lois fédérales et provinciales applicables en matière de protection des renseignements personnels. 

12.14.2 Dépersonnalisation

Les organismes doivent s’assurer que la repersonnalisation n’est pas possible au moyen de techniques d’anonymisation rigoureuses.
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/12-processus-organisationnels-visant-soutenir-une-ia-accessible-et-equitable

13. L’éducation, la formation et la littératie accessibles en matière d’IA

Tous les acteurs de l’écosystème de l’IA, y compris ceux qui participent à la création, à l’acquisition, au déploiement et à la surveillance des systèmes d’IA, ceux qui utilisent l’IA dans la prise de décision et ceux qui sont directement ou indirectement touchés par les systèmes d’IA, faut être mieux informés sur l’accessibilité et l’équité. C’est pourquoi l’éducation, la formation et le soutien à l’acquisition de la littératie des personnes en matière d’IA doivent : être accessibles;comprendre des instructions sur l’accessibilité et l’équité de l’IA;inclure les personnes en situation de handicap à la création et à la prestation de ces programmes d’éducation et de formation; et contribuer aux efforts d’acquisition de la littératie visant à permettre aux personnes concernées par les décisions ou les actions assistées par l’IA d’exercer leur capacité d’agir et leur autonomie. ,

13.1 L’éducation, la formation et le soutien à la littératie en matière d’IA accessibles

Pour assurer la participation inclusive et équitable des personnes en situation de handicap à l’éducation, à la formation et à la littératie liées à l’IA, les organismes doivent veiller à ce qu’ils respectent une ou plusieurs des suivantes : Le matériel et les méthodologies y compris la technologie, le contenu, les méthodes et les processus d’enseignement, d’évaluation et de certification doivent être accessibles, en mettant en œuvre les exigences pertinentes de la norme CAN-ASC-EN 301 549:2024.L’éducation et la formation sur l’IA permettent aux personnes en situation de handicap de participer à la gouvernance et à la gestion des systèmes d’IA, en mettant en œuvre les exigences de l’article.L’acquisition de la littératie en matière d’IA permet aux personnes en situation de handicap de jouer un rôle actif dans la création, l’acquisition, le déploiement et la surveillance des systèmes d’IA. ,

13.2 Une IA accessible et équitable dans l’éducation et la formation pour ceux qui utilisent l’IA à titre professionnel

Les organismes sous réglementation fédérale doivent s’assurer que leur personnel actuel, y compris, mais sans s’y limiter, à ceux qui occupent des rôles techniques, reçoit une éducation et une formation sur l’IA qui intègre le contenu sur l’IA accessible et équitable couvert dans les articles 10 et 11, afin de s’assurer que tous les systèmes d’IA sont accessibles et équitables.La formation doit répondre aux exigences de l’article 12.9. ,

13.3 Participation des personnes en situation de handicap à l’élaboration et à la prestation de l’enseignement, la formation et au soutien à la littératie en IA

L’élaboration de matériels et de méthodes d’éducation, de formation et du matériel au soutien à la littératie, ainsi que la prestation de l’enseignement, doivent impliquer des personnes en situation de handicap. ,

13.4 La littératie en IA

Afin de promouvoir un engagement éclairé et équitable à l’égard des systèmes d’IA, les organismes doivent mettre en œuvre des initiatives de littératie en IA qui permettent aux personnes, notamment les personnes en situation de handicap, de comprendre et d’explorer les implications de ces systèmes, y compris les considérations suivantes :Lorsque les organismes mettent en œuvre des systèmes d’IA, elles doivent participer à des efforts de littératie en IA pour permettre aux personnes concernées par les systèmes d’IA mise en œuvre, y compris les personnes en situation de handicap, de comprendre les objectifs, les bienfaits et les risques de ces systèmes, ainsi que les problèmes d’accessibilité et d’équité. En particulier :les impacts de la participation et de la non-participation; oule consentement éclairé et la compréhension des options de rechange et des possibilités de recours; ou les deux.La littératie en IA doit permettre aux personnes touchées par la mise en œuvre des systèmes d’IA d’exercer un consentement éclairé, d’évaluer les impacts de la participation et de la non-participation, ainsi que de comprendre les autres options et possibilités de recours, conformément à ce qui est indiqué à l’article 11.4.
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/13-leducation-la-formation-et-la-litteratie-accessibles-en-matiere-dia

14. Annexe A (informative)

Cette annexe fournit un cas d’utilisation à l’appui de l’article 12.4. L’exemple comprend une description d’un ensemble de données hypothétique avec des exemples d’utilisation appropriée, d’utilisation conditionnellement appropriée et d’utilisation inappropriée.Ensemble de données : Données de reconnaissance faciale recueillies auprès de 100 000 personnes, pour la plupart sans handicap (>90 %) à l’aide d’un logiciel commercial de reconnaissance faciale dans des laboratoires contrôlés.Utilisation appropriée : Utilisation des données pour un système d’aide à la décision fondée sur l’IA qui aide les agents et agentes de bord à valider plus rapidement et plus précisément les photos d’identité, mais qui permet l’identification humaine en temps réel, sans retard ni différence dans les niveaux de service pour les personnes en situation de handicap.Utilisation conditionnellement appropriée : Données relatives à un système d’aide à la décision fondée sur l’IA qui permet d’identifier des personnes dans des environnements de transport non contrôlés, à condition que le système ait été validé pour tenir compte des différents angles de caméra, des conditions d’éclairage et des différences faciales dans ces environnements en particulier, et que le logiciel ait été adapté pour fonctionner dans divers environnements. D’autres méthodes de validation ont besoin d’être facilement disponibles pour les voyageurs qui choisissent de ne pas recourir à la reconnaissance faciale ou si celle-ci ne fonctionne pas pour eux.Utilisations inappropriées : Données utilisées comme données d’entrée pour un outil fondé sur l’IA qui contrôle l’entrée dans les immeubles sans surveillance humaine ou méthodes pour contourner le système de reconnaissance faciale. L’utilisation d’un outil ou d’un système fondé sur l’IA pour prendre ou éclairer des décisions concernant des personnes différentes de celles représentées dans les données d’entraînement où les différences sont si importantes qu’on ne pourrait pas s’attendre que l’outil ou le système fondé sur l’IA fournisse des extrants significatifs.
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/14-annexe-informative

15. Annexe B : Bibliographie (informative)

Remarque : Les conclusions des recherches menées dans le cadre du programme de subventions et de contributions pour l’avancement de la recherche sur les normes d’accessibilité de Normes d'accessibilité Canada ont éclairé la recherche de base et le processus d’élaboration de cette norme. Les rapports de recherche pertinents figurent dans la bibliographie ci-dessous.Cette norme fait référence aux publications suivantes et à leurs éditions précises: ,

15.1 Lois

Parlement européen. Loi sur l’IA de l’UE : première réglementation de l’intelligence artificielle. 2023Bureau de la science et de la technologie de la Maison-Blanche. Plan directeur pour une déclaration des droits de l’IA : faire en sorte que les systèmes automatisés fonctionnent pour le peuple américain. 2022 (en anglais seulement) ,

15.2 Ressources en ligne

Center for Responsible AI at New York University airesponsibly.com (en anglais seulement)Hickok, M. Éthicien de l’IA : IA digne de confiance, IA responsable, gouvernance de l’IA www.aiethicist.org (en anglais seulement)Inclusive Design Research Centre. We Count: Initiatives inclusives en matière d’intelligence artificielle (IA) wecount.inclusivedesign.ca (en anglais seulement)Montreal AI Ethics Institute. Démocratiser la littératie éthique de l’IA montrealethics.ai (en anglais seulement)Secrétariat du Conseil du Trésor du Canada, Gouvernement du Canada. Directive sur la prise de décisions automatisée https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 ,

15.3 Publications

Association des Personnes Intéressées à l’Aphasie et à l’Accident Vasculaire Cérébral. s.d. Vers une meilleure accessibilité communicationnelle : Identifier les barrières et les facilitateurs perçus par les personnes vivant avec une aphasie dans les institutions financières.Association des Sourds du Canada. 2023. Faire progresser les normes d’accessibilité pour les personnes sourdes, sourdes-aveugles et malentendantes au Canada.Association des Sourds du Canada. 2025. Vagues tranquilles Expériences directes des personnes sourdes, sourdes-aveugles et malentendantes Rapport sur les obstacles à la communication dans l’environnement bâti.Université de Carleton. 2023. Établir des normes relatives à l’acoustique de l’environnement bâti.Centre for Equitable Library Access. n.d. Normes d’accessibilité des livres audios commerciaux.Groupe CSA. 2021. Recherche sur l’amélioration des normes en matière d’accessibilité : Revue des normes du Groupe CSA en matière d’adaptation pour l’accessibilité.Société Neil Squire. 2023. Recherche et Information sur les Normes pour la Nouvelle Génération 911.Université Ontario College of Art and Design. 2021. L’avenir du travail et les personnes handicapées : l’inclusion, l’intelligence artificielle, l’apprentissage automatisé et le travail.Université Ontario College of Art and Design. 2023. Rapport de recherche sur les systèmes numériques équitables.Université Ontario College of Art and Design. 2025. Un Canada accessible, Un monde accessible / Accessible Canada, Accessible World.Unité de recherche PEACH. 2023. Visualisation des normes d’accessibilité : Une démonstration avec la norme CSA B651.Université Queen’s. 2023. La communication accessible.Realize. s.d. INDEED (Enquête sur le développement des normes d’accessibilité au Canada et l’inclusion/exclusion des invalidités épisodiques.Regroupement des aveugles et amblyopes du Québec. 2022. Rapport sur l’accessibilité Web des services bancaires et financiers canadiens.Réseau québécois pour l’inclusion des personnes sourdes et malentendantes. 2023. L’information accessible pour les sourds et malentendants canadiens Perception des citoyens sourds et malentendants, des interprètes et des diffuseurs.Université Ryerson. s.d. Mieux saisir l’expérience des téléspectateur trices du sous-titrage codé de supports médiatiques au rythme rapide, avec le compromis de vitesse/précision/délai de synchronisation.Surrey Place. 2023. L’utilisabilité de l’information et des technologies les personnes ayant une DID.Institut de technologie de l’université de l’Ontario. 2024. Une étude sur les technologies de l’information et de la communication (TIC) virtuelles et mixtes accessibles et inclusives pour la fonction publique fédérale et les industries réglementées par le gouvernement fédéral dans le Canada post-COVID-19.University Health Network. 2023. Recommandations concernant la prise en compte des technologies d’orientation dans les normes d’accessibilité au Canada. , Norme nationale du CanadaCAN-ASC-6.2:2025Systèmes d’intelligence artificielle accessibles et équitables Publiée en décembre 2025 par Normes d’accessibilité CanadaUn établissement public du gouvernement fédéral320, boulevard Saint-Joseph, bureau 246, Gatineau (Québec) J8Y 3Y8Pour accéder aux normes et aux publications connexes, consultez accessibilite.canada.ca ou composez le 1 833 854 7628.This National Standard of Canada is available in both French and English.Code(s) ICS : 03.100, 35.020, 35.040, 35.080, 35.100, 35.240ISBN 978-0-660-79224-8Numéro de catalogue AS4-34/1-2025F-PDF 
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/15-annexe-b-bibliographie-informative