ASC-6.2 Systèmes d’intelligence artificielle accessibles et équitables

Informations
Numéro de désignation
ASC-6.2
Domaine prioritaire
Technologies de l’information et de la communication
Statut de la norme
Examen public
Développé par
Normes d'accessibilité Canada
Date de publication
Mars
2025
Table des matières

1. À propos de Normes d’accessibilité Canada

Ouvert à l'examen public

La période d'examen public de cette norme est de 60 jours, à compter du 6 mars 2025. Les suggestions peuvent être soumises jusqu'à 23 h 59 (heure du Pacifique), le 5 mai 2025. 

Partagez vos commentaires

À propos de Normes d'accessibilité Canada

Normes d’accessibilité Canada (NAC), sous les auspices duquel la présente norme a été produite, est un établissement public du gouvernement du Canada mandaté conformément à la Loi canadienne sur l’accessibilité. Les normes de Normes d’accessibilité Canada contribuent à l’objectif de la Loi canadienne sur l’accessibilité, qui est de profiter à toutes les personnes, en particulier aux personnes en situation de handicap, par la réalisation d’un Canada sans obstacle grâce à la détermination, à l’élimination et à la prévention des obstacles à l’accessibilité.

Le terme handicap désigne, au sens de la Loi canadienne sur l’accessibilité, toute déficience notamment physique, intellectuelle, cognitive, mentale ou sensorielle, trouble d’apprentissage ou de la communication ou limitation fonctionnelle, de nature permanente, temporaire ou épisodique, manifeste ou non et dont l’interaction avec un obstacle nuit à la participation pleine et égale d’une personne dans la société.

Tous les travaux d’élaboration de normes de Normes d’accessibilité Canada, y compris le travail de nos comités techniques, reposent sur la reconnaissance des principes suivants de la Loi canadienne sur l’accessibilité :

  • le droit de toute personne à être traitée avec dignité, quels que soient ses handicaps;
  • le droit de toute personne à l’égalité des chances d’épanouissement, quels que soient ses handicaps;
  • le droit de toute personne à un accès exempt d’obstacles et à une participation pleine et égale dans la société, quels que soient ses handicaps;
  • le droit de toute personne d’avoir concrètement la possibilité de prendre des décisions pour elle-même, avec ou sans aide, quels que soient ses handicaps;
  • le fait que les lois, politiques, programmes, services et structures doivent tenir compte des handicaps des personnes, des différentes façons dont elles interagissent au sein de leurs environnements ainsi que des formes multiples et intersectionnelles de discrimination et de marginalisation vécues par celles-ci;
  • le fait que les personnes en situation de handicap doivent participer à l’élaboration et à la conception des lois, des politiques, des programmes, des services et des structures;
  • l’élaboration et la révision de normes d’accessibilité et la prise de règlements doivent être faites dans l’objectif d’atteindre le niveau d’accessibilité le plus élevé qui soit pour les personnes en situation de handicap.

Ces principes cadrent avec ceux de la Convention des Nations unies relative aux droits des personnes handicapées, ratifiée par le gouvernement du Canada en 2010 pour reconnaître l’importance de promouvoir, de protéger et de faire respecter les droits fondamentaux des personnes en situation de handicap à participer pleinement à la vie de leur collectivité.

Normes d’accessibilité Canada cherche à créer des normes qui sont conformes à sa vision. Ce travail comprend des engagements à éliminer les obstacles à l’accessibilité et à respecter le principe « Rien sans nous » dans notre processus d’élaboration de normes, où tout le monde, y compris les personnes en situation de handicap, peut s’attendre à un Canada exempt d’obstacles.

Dans le cadre du principe « Rien sans nous », Normes d’accessibilité Canada soutient que l’accessibilité nous concerne tous, car elle peut avoir des effets bénéfiques sur l’ensemble de la société. Par conséquent, les normes élaborées par Normes d’accessibilité Canada sont conçues pour atteindre les plus hauts niveaux d’accessibilité. Cela signifie que ces normes établissent des exigences techniques fondées sur l’équité tout en tenant compte des pratiques exemplaires nationales et internationales, plutôt que de se concentrer sur des exigences techniques minimales. 

Cette façon de faire vise à encourager l’innovation en matière de normes et à élaborer des exigences techniques ayant des effets positifs à grande échelle. Cette approche en matière d’innovation vise à améliorer les résultats pour tous les Canadiens, notamment en créant des possibilités d’emploi et des solutions qui contribuent à la croissance économique du Canada. 

Le processus d’élaboration de normes utilisé par Normes d’accessibilité Canada est le plus accessible au Canada, voire au monde. Normes d’accessibilité Canada offre des mesures d’adaptation pour répondre aux besoins des membres des comités techniques qui ont un handicap. Normes d’accessibilité Canada offre une rémunération aux personnes en situation de handicap afin de favoriser leur participation active. Normes d’accessibilité Canada assure un processus d’examen public accessible, notamment grâce à des formulaires d’autorisation accessibles et à la publication de la norme dans plusieurs formats, afin d’encourager les Canadiens en situation de handicap à formuler des commentaires. Afin d’assurer une accessibilité optimale pour tous, nos normes sont disponibles gratuitement sur notre site Web. Les normes peuvent être consultées dans divers formats, y compris des résumés en langage clair, en American Sign language (ASL) et en langue des signes québécoise (LSQ). Cela permet aux groupes suivants de profiter du contenu technique de nos normes :

  • les personnes en situation de handicap;
  • les personnes sans handicap;
  • le secteur public fédéral;
  • le secteur privé;
  • les organisations non gouvernementales;
  • les communautés autochtones; et
  • la société.

Normes d’accessibilité Canada applique un cadre intersectionnel pour tenir compte des expériences des personnes en situation de handicap qui s’identifient également comme 2ELGBTQ+, Autochtones, femmes ou minorités visibles. Son processus d’élaboration de normes exige que les comités techniques appliquent une perspective tenant compte de tous les handicaps pour s’assurer qu’aucun nouvel obstacle à l’accessibilité n’est créé involontairement. De plus, les normes élaborées par Normes d’accessibilité Canada cadrent avec 14 des 17 objectifs de développement durable des Nations unies, qui ont été adoptés par le Canada en 2015 pour promouvoir le partenariat, la paix et la prospérité pour tous les peuples et la planète d’ici 2030.

Normes d’accessibilité Canada participe à la préparation de normes d’accessibilité volontaires qui sont élaborées par des comités techniques sur la base d’une approche consensuelle. Chaque comité technique est composé d’un groupe équilibré d’experts qui élabore le contenu technique d’une norme. Au moins 30 % de ces experts techniques sont des personnes en situation de handicap et ayant une expérience vécue, et 30 % sont issus de groupes en quête d’équité, y compris la communauté 2ELGBTQ+, les Autochtones, les femmes et les minorités visibles. Ces experts techniques comprennent également des consommateurs et d’autres utilisateurs, des représentants du gouvernement et des autorités, des travailleurs et des syndicats, d’autres organismes d’élaboration de normes, des entreprises et des industries, des organismes universitaires et de recherche, ainsi que des organisations non gouvernementales.

Toutes les normes de Normes d’accessibilité Canada intègrent également des constatations connexes tirées de rapports de recherche produits dans le cadre du programme de subventions et de contributions pour l’avancement de l’accessibilité de Normes d’accessibilité Canada. Ce programme fait intervenir des personnes en situation de handicap, des experts et des organisations pour faire progresser la recherche sur les normes d’accessibilité et soutient des projets de recherche qui aident à repérer, à éliminer et à prévenir les nouveaux obstacles à l’accessibilité.

Les normes de Normes d’accessibilité Canada peuvent faire l’objet d’un examen et d’une révision pour s’assurer qu’elles tiennent compte des tendances actuelles et des pratiques exemplaires. Normes d’accessibilité Canada suivra le cycle international d’examen de l’entretien de cette norme. Les suggestions d’amélioration, qui sont toujours les bienvenues, devraient être portées à l’attention du comité technique concerné. Les modifications apportées aux normes sont publiées sous forme de modifications distinctes ou dans de nouvelles éditions des normes.

Normes d’accessibilité Canada est un organisme d’élaboration de normes accrédité par le Conseil canadien des normes et élabore donc toutes ses normes en suivant un processus d’élaboration de normes accrédité et les Exigences et lignes directrices pour les organismes d’élaboration de normes du Conseil canadien des normes. Ces normes volontaires s’appliquent aux entités sous réglementation fédérale et peuvent être recommandées au ministre responsable de la Loi canadienne sur l’accessibilité (c.-à-d. le ministre de l’Emploi, du Développement de la main-d’œuvre et de l’Inclusion des personnes en situation de handicap).

En plus de ses efforts d’élaboration de normes d’accessibilité, Normes d’accessibilité Canada fait figure de chef de file parmi les organisations fédérales canadiennes pour la promotion et l’adoption de l’accessibilité au sein du gouvernement. Il est le premier organisme du gouvernement fédéral à avoir un conseil d’administration dirigé majoritairement par des personnes en situation de handicap. Normes d’accessibilité Canada dispose de bureaux accessibles et modernes pour ses employés, son conseil d’administration et les membres des comités techniques. L’espace de travail accessible, soigneusement conçu, illustre la conviction de l’organisation quant à l’importance d’une conception équitable.

Pour obtenir des renseignements supplémentaires sur Normes d’accessibilité Canada, ses normes ou ses publications, veuillez communiquer avec nous :

Site Web : https://accessibilite.canada.ca/

Courriel : ASC.Standards-Normes.ASC@asc-nac.gc.ca 

Courrier : Normes d’accessibilité Canada
320, boulevard Saint-Joseph
Bureau 246
Gatineau (Québec) K1A 0H3

2. Avis juridique de NAC

Remarque : Le présent projet de norme est en cours d’élaboration et peut faire l’objet de changements. Il ne devrait pas être utilisé à des fins de référence.

Veuillez lire cet avis juridique de Normes d’accessibilité Canada (NAC) avant d’utiliser ce projet de norme.

2.1 Avis juridique concernant les normes

Les normes de l’Organisation canadienne d’élaboration de normes d’accessibilité (exerçant ses activités sous le nom de « Normes d’accessibilité Canada ») sont élaborées dans le cadre d’un processus d’élaboration des normes fondé sur le consensus et approuvé par le Conseil canadien des normes. Ce processus réunit des volontaires représentant des points de vue et des intérêts variés dans le but d’atteindre un consensus et d’élaborer des normes.

Bien que Normes d’accessibilité Canada administre le processus et établisse des règles pour favoriser l’impartialité dans l’atteinte d’un consensus, elle ne met à l’essai, n’évalue ni ne vérifie de façon indépendante le contenu des normes. Au cours de ce processus, Normes d’accessibilité Canada met le projet de norme à la disposition des intéressés pour qu’ils puissent le commenter, l’examiner et l’approuver.

2.2 Exclusion de responsabilité

Le présent document est une version provisoire aux fins de formulation, de commentaires, d’examen et d’approbation seulement. Il fournit sans assertion, garantie, ni condition explicite ou implicite de quelque nature que ce soit, y compris, mais non de façon limitative, les garanties ou conditions implicites relatives à la qualité marchande, à l’adaptation à un usage particulier ainsi qu’à l’absence de violation des droits de propriété intellectuelle des tiers. Normes d’accessibilité Canada ne fournit aucune garantie quant à l’exactitude, à l’intégralité ou à la pertinence des renseignements contenus dans ce document. Normes d’accessibilité Canada ne fait aucune assertion ni ne fournit aucune garantie quant à la conformité du document à toute désignation, règle ou réglementation applicable aux lois et aux règlements pertinents.

Normes d’accessibilité Canada, ses entrepreneurs, ses agents, ses employés, ses administrateurs ou dirigeants, ou Sa Majesté le Roi du Canada, ses employés, ses entrepreneurs, ses agents, administrateurs ou dirigeants ne doivent aucun cas être tenus responsables de toute blessure, perte, ou dépense, ou de tout dommage direct, indirect ou accessoire, y compris, mais non de façon limitative ou consécutive, toute perte de revenu l’interruption des activités, la perte ou l’altération de données, ou tout autre préjudice commercial ou économique, qu’il soit fondé sur un contrat, un délit civil (y compris le délit de négligence) ou tout autre élément de responsabilité tirant son origine de quelque façon que ce soit de l’accès au document, de sa possession ou de son utilisation, même si Normes d’accessibilité Canada a été avisé de l’éventualité de tels dommages, blessures, pertes, coûts ou dépenses.

En publiant et en rendant ce document accessible, Normes d’accessibilité Canada n’entend pas fournir des services professionnels ou autres au nom de quelques personnes ou entités que ce soit, ni remplir les engagements que de telles personnes ou entités auraient pris auprès de tiers. Les renseignements fournis dans ce document sont destinés aux utilisateurs qui possèdent le niveau de connaissance et d’expérience nécessaire pour utiliser et mettre en application ce contenu et Normes d’accessibilité Canada n’accepte aucune responsabilité découlant de quelque façon que ce soit de l’utilisation des renseignements contenus dans ce document ou de toute confiance qu’on leur porte.

Normes d’accessibilité Canada publie des normes volontaires et des documents connexes. Normes d’accessibilité Canada n’entend pas imposer la conformité au contenu des normes ou autres documents qu’elle publie et ne s’engage pas à le faire.

2.3 Propriété et droits de propriété intellectuelle

Comme il est convenu entre Normes d’accessibilité Canada et les utilisateurs du présent document (qu’il soit imprimé, électronique ou sous une autre forme), Normes d’accessibilité Canada est propriétaire, ou le licencié autorisé, de tous les droits d’auteur et droits moraux contenus dans le présent document. En outre, Normes d’accessibilité Canada est propriétaire de sa marque officielle. De façon non limitative, l’utilisation, la modification, la copie ou la divulgation non autorisée de ce document peut contrevenir aux lois qui protègent la propriété intellectuelle de Normes d’accessibilité Canada et/ou à d’autres parties d’exercer des recours légaux relativement à une telle utilisation, modification, copie ou divulgation. Dans la mesure permise par la licence ou la loi, Normes d’accessibilité Canada conserve tous les droits de propriété intellectuelle et autres droits relatifs à ce document.

2.4 Droits de brevet

Certains éléments de cette norme peuvent faire l’objet de droits de brevet. Normes d’accessibilité Canada ne doit pas être tenue responsable de préciser quels sont ces droits de brevet. Les utilisateurs de la présente norme sont avisés que c’est à eux qu’il incombe de vérifier la validité de ces droits de brevet.

2.5 Cession des droits d’auteur

Dans le présent avis juridique, un « commentaire » désigne toute information fournie de façon écrite ou orale, y compris toute suggestion, qu’un utilisateur fournit à Normes d’accessibilité Canada au sujet d’une norme et/ou d’un projet de norme. En fournissant un commentaire à Normes d’accessibilité Canada concernant une norme ou un projet de norme, l’auteur du commentaire accorde à Normes d’accessibilité Canada et au gouvernement du Canada une licence non exclusive, libre de redevances, perpétuelle, mondiale et irrévocable pour utiliser, traduire, reproduire, divulguer, distribuer, publier, modifier, autoriser à reproduire, communiquer au public par télécommunication, enregistrer, exécuter ou concéder en sous-licence le commentaire, en tout ou en partie, et sous quelque forme ou support que ce soit, pour réviser la norme ou le projet de norme, et/ou à des fins non commerciales. En fournissant le commentaire et étant le seul propriétaire du droit d’auteur ou ayant l’autorité de concéder le droit d’auteur, l’auteur du commentaire confirme sa capacité à concéder la licence et renonce à tous les droits moraux associés, y compris, sans limitation, tous les droits d’attribution en ce qui concerne le commentaire. Si la personne qui fournit le commentaire n’en est pas l’auteur, elle confirme, en offrant le commentaire, qu’une renonciation aux droits moraux de l’auteur a été faite en faveur de cette personne ou du détenteur des droits d’auteur concernant le commentaire. Au moment de fournir un commentaire, l’auteur du commentaire doit déclarer et fournir une citation pour toute propriété intellectuelle contenue dans le commentaire qui est détenue par une tierce partie.

2.6 Utilisations autorisées du présent document

Ce document, sous toutes ses formes (y compris dans un média substitut), n’est fourni par Normes d’accessibilité Canada qu’à des fins d’informationnelles, pédagogiques et non commerciale. Les utilisateurs de ce document ne sont autorisés qu’à effectuer les actions suivantes :

  • Télécharger ce document sur un ordinateur dans le seul but de le consulter.
  • Consulter et parcourir ce document.
  • Imprimer ce document s’il s’agit d’une version électronique.

En outre, les utilisateurs ne doivent pas faire ce qui suit et ne doivent pas permettre à d’autres personnes de le faire :

  • Modifier ce document de quelque façon que ce soit où retirer le présent avis juridique joint à cette norme.
  • Vendre ce document sans l’autorisation de Normes d’accessibilité Canada.
  • Utiliser ce document pour induire en erreur les utilisateurs d’un produit, d’un processus ou d’un service visé par cette norme.

Si vous êtes en désaccord avec l’une ou l’autre des conditions du présent avis juridique, vous ne devez pas télécharger ou utiliser le présent document ni en reproduire le contenu. L’utilisation de ce document indique que vous acceptez les conditions de cet avis juridique.

3. Portée

3.1 Terminologie

Dans la présente norme, trois termes sont définis comme suit :

  • Doit : Exprime une exigence ou une disposition que l’utilisateur est tenu de respecter pour se conformer à la norme.
  • Devrait : Exprime une recommandation, ou ce qui est conseillé, mais non exigé.
  • Peut : Exprime une option, ou ce qui est permis dans les limites de la norme.

Les remarques accompagnant les clauses ne comprennent pas d’exigences ou de prescriptions de remplacement; l’objectif d’une remarque accompagnant une clause est de séparer les éléments explicatifs ou informatifs.

Les remarques relatives aux tableaux et aux figures sont considérées comme faisant partie du tableau ou de la figure et peuvent être rédigées comme des exigences.

Les annexes sont désignées comme normatives (obligatoires) ou informatives (non obligatoires) pour définir leur application.

4. Définitions, symboles, et abréviations

4.1 Définitions

Les définitions suivantes s’appliquent à la présente norme :

Bienfait - un résultat positif ou un avantage résultant d’une action ou d’une décision, qui contribue au bien-être, au bonheur ou à l’épanouissement des individus, des groupes ou de la société dans son ensemble. La prise de décisions éthiques évalue les avantages en termes d’équité, de répartition et d’impact sur toutes les parties touchées, les évaluant souvent par rapport aux préjudices potentiels pour déterminer le plan d’action le plus moralement justifiable.

Biais d’IA – Erreurs systématiques ou injustice dans les résultats, les prédictions ou les décisions prises par les systèmes d’intelligence artificielle. Ces biais peuvent provenir de différentes étapes du cycle de vie d’un système d’IA, telles que la collecte de données, la conception de modèles, la formation ou le déploiement. Le biais de l’IA reflète ou amplifie souvent les biais présents dans les données, les processus ou les hypothèses utilisés pour construire le système. Cela peut entraîner des résultats inégaux ou discriminatoires, affectant l’équité, l’exactitude et la fiabilité d’un système d’IA.

Consentement éclairé - Lorsque des systèmes d’IA sont utilisés pour prendre des décisions ou aider à y prendre, il doit y avoir des mécanismes pour s’assurer que le consentement des clients et des autres personnes touchées est éclairé, valide, valable et modifiable. 

Le consentement d’une personne n’est éclairé et valide que s’il est raisonnable de s’attendre à ce que des renseignements suffisants aient été fournis pour lui permettre de comprendre la nature, l’objet et les conséquences potentielles de la décision ou de l’action assistée par l’IA à laquelle elle consent.

Le consentement valable comprend l’exigence selon laquelle les personnes doivent avoir une option authentique de refuser leur consentement parce qu’elles ont accès à un processus décisionnel alternatif complet et opportun qui est, au choix de la personne, soit effectué sans l’utilisation de l’IA, soit fait à l’aide de l’IA avec la surveillance humaine directe et la vérification de la décision. Le consentement modifiable signifie que les personnes peuvent modifier leur consentement à tout moment, y compris retirer leur consentement.

Déployer (systèmes d’IA) - Utilisation d’un système d’IA afin de générer du contenu ou de prendre des décisions, des recommandations ou des prédictions.

Éducation et formation (personnes, spécifiques à l’IA) - Informations et activités visant à élargir les connaissances et/ou les compétences.

Équitable, équité - fait référence à la justice et à l’absence de discrimination. L’équité reconnaît que chaque personne a des circonstances différentes.

L’équité se distingue de l’égalité. Bien que l’égalité fournisse à chaque individu ou groupe de personnes les mêmes ressources et les mêmes opportunités, l’équité vise à permettre à tous les individus d’obtenir des résultats égaux. Les systèmes, les ressources et les possibilités inéquitables sont façonnés en fonction de divers besoins individuels, et la personne est engagée pour déterminer les besoins ainsi que les ressources nécessaires pour répondre aux besoins.

Remarque: La définition d’équitable dans la présente norme est distincte et plus générale que la définition juridique précise des recours en équité en vertu du droit canadien.

Formation à l’IA - Utilisation des données pour développer et/ou affiner un modèle d’IA.

Gestion de l’IA - Prendre des décisions quotidiennes et effectuer le travail de collecte, de conservation, d’utilisation, de partage et/ou de destruction des données utilisées par l’IA.

Gouvernance de l’IA - Un lieu établi de responsabilisation dans la prise de décisions en IA, y compris des organes de gouvernance qui rendent compte de leurs décisions sur qui a accès à quelles données et à quelles fins.

Impact – Effets positifs et négatifs potentiels. 

Littératie en IA – Comprendre ce que fait l’IA et son impact sur l’utilisateur.

Préjudice - tout ce qu’un produit ou un service pourrait faire pour créer une conséquence négative pour les gens de quelque manière que ce soit. Cela peut avoir des conséquences réelles sur la vie des gens. Ces préjudices peuvent se manifester par des facteurs physiques, psychologiques, sociaux, économiques ou culturels.

Les préjudices comprennent la perpétuation des stéréotypes, le renforcement des inégalités existantes et la création d’obstacles pour les personnes en situation de handicap. Les préjudices liés à l’accessibilité peuvent inclure la création d’interfaces inaccessibles, l’exclusion d’utilisateurs ayant des besoins spécifiques ou l’omission de tenir compte de divers modes d’interaction. Les préjudices ne sont pas toujours forts ou évidents; ils peuvent apparaître discrètement, intégrés dans la façon dont un système d’IA est conçu, développé ou déployé.

Remarque : Le désalignement moral n’est pas la même chose. La réduction des préjudices est l’effort visant à réduire la présence et la prévalence des préjudices par des mesures continues.

Systèmes d’IA - Un système technologique qui, de manière autonome ou partiellement autonome, traite des données liées aux activités humaines grâce à l’utilisation d’un algorithme génétique, d’un réseau de neurones, de l’apprentissage automatique ou d’une autre technique afin de générer du contenu ou de prendre des décisions, des recommandations ou des prédictions.

Technologie d’assistance - Équipement, système de produit, matériel, logiciel ou service utilisé pour augmenter, maintenir ou améliorer les capacités des individus.

Remarque 1:  La technologie d’assistance est un terme générique qui est plus large que les produits d’assistance.

Remarque 2: Les technologies d’assistance peuvent comprendre les services d’assistance et les services professionnels nécessaires à l’évaluation, à la recommandation et à la prestation.

Remarque 3: Adapté de : ISO/IEC Guide 71:2014 Guide pour l’intégration de l’accessibilité dans les normes / CAN/ASC - EN 301 549:2024 Exigences d’accessibilité pour les produits et services TIC (EN 301 549 :2021, IDT)

5. Préface

L’intelligence artificielle est susceptible de présenter à la fois des possibilités et des inconvénients extrêmes pour les personnes en situation de handicap. Le respect des principes de la Loi canadienne sur l’accessibilité lors du déploiement de l’IA exige que les personnes en situation de handicap :

  1. bénéficient des systèmes d’IA, au moins de manière comparable aux autres personnes; 
  2. ne subissent pas plus de préjudices par les systèmes d’IA que les autres; 
  3. ne perdent pas de droits et libertés en raison de l’utilisation de systèmes d’IA; et
  4. ne soient pas privés de leur capacité d’agir et soient traitées avec respect dans leurs interactions avec les systèmes d’IA.  

Les quatre clauses décrivent les exigences à respecter pour garantir que :

  1. l’IA est accessible aux personnes en situation de handicap (clause 5.1); 
  2. les systèmes d’IA sont équitables pour les personnes en situation de handicap (clause 5.2);
  3. les organismes mettent en œuvre les processus nécessaires pour parvenir à une IA accessible et équitable (clause 5.3); et
  4. l’éducation à l’IA soutient le changement systémique nécessaire pour parvenir à une IA accessible et équitable (clause 5.4). 

5.1 L’IA accessible

Les systèmes d’IA (clause 5.1.2) et les processus, ressources, services et outils utilisés pour planifier, acquérir, créer, mettre en œuvre, régir, gérer, entretenir, contrôler et utiliser les systèmes d’IA (clause 5.1.1) doivent être accessibles aux personnes en situation de handicap. Les personnes en situation de handicap doivent pouvoir participer activement à tous les rôles du cycle de vie de l’IA et être des utilisateurs des systèmes d’IA.

5.1.1 Les personnes en situation de handicap en tant que participants à part entière au cycle de vie de l’IA

Les personnes en situation de handicap doivent pouvoir participer pleinement à tous les rôles et à toutes les étapes du cycle de vie de l’IA. Il s’agit notamment des ensembles de données, des systèmes d’IA et de la création de composants (conception, codage, mise en œuvre, évaluation, perfectionnement), de l’approvisionnement, de la consommation, de la gouvernance, de la gestion et du suivi.

5.1.1.1 Personnes en situation de handicap participant à la création de systèmes d’intelligence artificielle

Les outils et processus déployés par les entités réglementées pour créer (concevoir, coder, mettre en œuvre, évaluer, affiner), acheter, consommer, gouverner, gérer et contrôler les systèmes d’IA ainsi que leurs composants doivent être accessibles aux personnes en situation de handicap.

Lorsque les entités réglementées s’engagent dans la création de systèmes d’IA, les outils et les processus doivent être accessibles aux personnes en situation de handicap, y compris en respectant la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT)

Lorsqu’une entité réglementée crée des outils qui servent à concevoir et à élaborer des systèmes d’IA et leurs composants, les outils utilisés pour créer (concevoir, coder, mettre en œuvre, évaluer, affiner), acheter, consommer et utiliser des systèmes d’IA et leurs composants doivent au minimum être conformes à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :

  1. les déclarations de performances fonctionnelles figurant à la clause 4;
  2. les exigences génériques figurant à la clause 5;
  3. les exigences Web figurant à la clause 9;
  4. les exigences relatives aux documents non-Web figurant à la clause 10;
  5. les exigences en matière de logiciels figurant à la clause 11; et
  6. la documentation et les services d’assistance figurant à la clause 12.

Lorsqu’une entité réglementée crée des outils qui servent à concevoir et à élaborer des systèmes d’IA et leurs composants, les composants découlant des outils utilisés pour créer (concevoir, coder, mettre en œuvre, évaluer, affiner), acheter, consommer et utiliser des systèmes d’IA et leurs composants doivent au minimum être conformes à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :

  1. les déclarations de performances fonctionnelles figurant à la clause 4;
  2. les exigences génériques figurant à la clause 5;
  3. les exigences Web figurant à la clause 9;
  4. les exigences relatives aux documents non-Web figurant à la clause 10;
  5. les exigences en matière de logiciels figurant à la clause 11; et
  6. la documentation et les services d’assistance figurant à la clause 12. 

Lorsqu’une entité réglementée crée des outils qui servent à concevoir et à élaborer des systèmes d’IA et leurs composants, les outils utilisés pour créer (concevoir, coder, mettre en œuvre, évaluer, affiner), acheter et consommer des systèmes d’IA et leurs composants doivent soutenir la conception et l’élaboration d’outils d’IA qui, au minimum, sont conformes à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :

  1. les déclarations de performances fonctionnelles figurant à la clause 4,
  2. les exigences génériques figurant à la clause 5,
  3. les exigences Web figurant à la clause 9,
  4. les exigences relatives aux documents non-Web figurant à la clause 10,
  5. les exigences en matière de logiciels figurant à la clause 11, et
  6. la documentation et les services d’assistance figurant à la clause 12.

5.1.1.2 Personnes en situation de handicap participant au déploiement de systèmes d’IA

Lorsque des systèmes d’IA sont déployés, les outils et les ressources utilisés pour mettre en œuvre les systèmes d’IA, y compris les outils et les ressources utilisés pour personnaliser (des modèles entraînés au préalable), des modèles entraînés, configurer, tenir à jour, régir et gérer des systèmes d’IA, doivent être accessibles aux personnes en situation de handicap, et doivent au minimum être conformes à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :

  1. les déclarations de performances fonctionnelles figurant à la clause 4;
  2. les exigences génériques figurant à la clause 5;
  3. les exigences Web figurant à la clause 9;
  4. les exigences relatives aux documents non-Web figurant à la clause 10;
  5. les exigences en matière de logiciels figurant à la clause 11; et
  6. la documentation et les services d’assistance figurant à la clause 12.

5.1.1.3 Personnes en situation de handicap participant à la surveillance de systèmes d’IA

Les outils et processus déployés par les entités réglementées pour évaluer, contrôler, évaluer et améliorer les systèmes d’IA et signaler les problèmes doivent être accessibles aux personnes en situation de handicap et satisfaire au minimum à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :

  1. les déclarations de performances fonctionnelles figurant à la clause 4;
  2. les exigences génériques figurant à la clause 5;
  3. les exigences Web figurant à la clause 9;
  4. les exigences relatives aux documents non-Web figurant à la clause 10;
  5. les exigences en matière de logiciels figurant à la clause 11; et
  6. la documentation et les services d’assistance figurant à la clause 12.

5.1.2 Personnes en situation de handicap qui utilisent des systèmes d’IA

Les personnes en situation de handicap doivent pouvoir utiliser les systèmes d’IA et en bénéficier. Lorsque les entités réglementées déploient des systèmes et des outils d’IA qui ont une incidence sur les employés, les sous-traitants, les partenaires, les clients ou les membres du public, les résultats des systèmes d’IA doivent au minimum être conformes à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :

  1. les déclarations de performances fonctionnelles figurant à la clause 4;
  2. les exigences génériques figurant à la clause 5;
  3. les exigences Web figurant à la clause 9;
  4. les exigences relatives aux documents non-Web figurant à la clause 10;
  5. les exigences en matière de logiciels figurant à la clause 11; et
  6. la documentation et les services d’assistance figurant à clause 12.

5.1.2.1 Documentation accessible sur la transparence et l’explicabilité

Les informations relatives à la divulgation, à la notification, à la transparence, à l’explicabilité et à la contestabilité des systèmes d’IA, de leur fonction, des mécanismes de prise de décision, des risques et de la mise en œuvre doivent être à jour (refléter l’état actuel de l’IA utilisée) et doivent être accessibles aux personnes en situation de handicap, en respectant au minimum la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :

  1. les déclarations de performances fonctionnelles figurant à la clause 4;
  2. les exigences génériques figurant à la clause 5;
  3. les exigences Web figurant à la clause 9;
  4. les exigences relatives aux documents non-Web figurant à la clause 10;
  5. les exigences en matière de logiciels figurant à la clause 11; et
  6. la documentation et les services d’assistance figurant à la clause 12.

5.1.2.2 Mécanismes de rétroaction accessibles

Les mécanismes de rétroaction (voir la clause 5.3.12) doivent être accessibles aux personnes en situation de handicap et satisfaire au minimum à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :

  1. les déclarations de performances fonctionnelles figurant à la clause 4;
  2. les exigences génériques figurant à la clause 5;
  3. les exigences Web figurant à la clause 9;
  4. les exigences relatives aux documents non-Web figurant à la clause 10;
  5. les exigences en matière de logiciels figurant à la clause 11; et
  6. la documentation et les services d’assistance figurant à la clause 12.

5.1.2.3  Lutter contre la discrimination statistique dans les technologies d’assistance qui servent à la mise en œuvre de l’IA

Toutes les personnes en situation de handicap ne bénéficieront pas de la même manière des adaptations fondées sur l’IA si leurs modes d’interaction ne sont pas pris en compte dans les données utilisées pour entraîner l’IA. Lorsqu’une technologie fondée sur l’IA est envisagée pour une mesure d’adaptation, les entités réglementées doivent évaluer les inégalités de la précision en fonction du bénéficiaire prévu.

5.2 L’IA équitable

Lorsque les systèmes d’IA prennent des décisions concernant des personnes en situation de handicap ou ont une incidence sur elles, ces décisions et l’utilisation des systèmes d’IA doivent aboutir à un traitement équitable des personnes en situation de handicap. Cela bénéficiera aux personnes et aux groupes de population, ainsi qu’à la société dans son ensemble, en contribuant à garantir que toutes les personnes sont en mesure de mener une vie productive et de contribuer à la société.

Principes : Le traitement équitable exige que les personnes en situation de handicap :

  1. bénéficient des systèmes d’IA au moins de manière comparable aux autres personnes;
  2. ne subissent pas plus de préjudices par les systèmes d’IA que les autres;
  3. ne subissent pas de perte de droits et libertés en raison de l’utilisation de systèmes d’IA; et
  4. ne soient pas privés de leur capacité d’agir et soient traitées avec respect dans leurs interactions avec les systèmes d’IA.

5.2.1 Accès équitable aux prestations

En partant du principe que les personnes en situation de handicap devraient être en mesure de bénéficier des systèmes d’IA, au moins de manière comparable aux autres personnes, les entités réglementées qui déploient ces systèmes devraient prendre les mesures suivantes :

  • Rendre accessibles, dès la conception, toutes les composantes interactives des systèmes d’IA.
  • Veiller à ce que les personnes en situation de handicap ne soient pas sous-représentées ou mal représentées dans les données d’entraînement, par exemple en raison de l’utilisation d’approximations biaisées, d’étiquettes de données biaisées ou de données synthétiques qui ne représentent pas l’expérience réelle du handicap.
  • Valider et mettre au point les systèmes d’IA afin qu’ils fonctionnent de manière comparable pour les personnes en situation de handicap et pour les autres (sur les plans de la précision, de la fiabilité et de la robustesse).
  • Évaluer les performances du système d’IA et en rendre compte en incluant des résultats désagrégés pour les personnes en situation de handicap.
  • Contrôler en permanence les performances des systèmes d’IA en fonction des critères de validation et des impacts réels des décisions prises à l’aide de ces systèmes sur les personnes en situation de handicap.
  • Utiliser ces informations pour améliorer les performances du système en améliorant la convivialité, en recueillant des données supplémentaires, en améliorant la qualité des données et en affinant les critères de validation. Cela créera des boucles de rétroaction positive.

5.2.2 Évaluation et atténuation des préjudices

  • Évaluation équitable des risques : Lorsque des cadres d’évaluation des risques sont utilisés pour déterminer les risques et les avantages des systèmes d’IA, les risques pour les personnes en situation de handicap qui sont des minorités et des cas isolés, et qui subissent l’impact le plus important des préjudices, doivent être considérés comme des priorités. L’évaluation des risques ne doit pas se fonder uniquement sur les risques et les avantages pour la majorité.

    Il faut veiller à reconnaître que les personnes en situation de handicap peuvent subir des préjudices plus importants que les autres personnes en raison de l’effet global de nombreux préjudices cumulés qui se croisent ou s’accumulent au fil du temps à la suite de décisions assistées par l’IA qui ne sont pas autrement classées comme ayant un impact élevé. En cas de menaces de préjudice graves ou irréversibles, l’absence de certitude quantifiable (par exemple, dans l’évaluation des risques) ne doit pas servir de prétexte pour reporter l’adoption de mesures efficaces visant à prévenir les effets néfastes pour les personnes en situation de handicap.

  • Précision : Les entités réglementées doivent sélectionner les critères d’évaluation de la précision en fonction des résultats de l’évaluation des risques, en veillant à prendre en compte les préjudices subis ou qui pourraient être subis par les personnes en situation de handicap et les autres groupes minoritaires ou défavorisés. L’évaluation de la précision devrait inclure des mesures désagrégées pour les personnes en situation de handicap. Elles devraient également tenir compte du contexte d’utilisation et des conditions relatives aux personnes en situation de handicap.
     
  • Sécurité de l’information : Les entités réglementées doivent élaborer des plans visant à protéger les personnes en situation de handicap en cas de violation de données ou d’attaque malveillante des systèmes d’IA. Les plans doivent cerner les risques associés aux handicaps ainsi que des actions claires et rapides pour protéger les personnes en situation de handicap.
     
  • Équité et non-discrimination : Il faut veiller à reconnaître que les personnes qui font l’objet de discriminations dans les décisions assistées par l’IA sont souvent des personnes en situation de handicap. Les entités réglementées doivent veiller à ce que les systèmes d’IA n’aient pas de préjugés négatifs à l’égard des personnes en situation de handicap en raison de choix biaisés lors de la modélisation des données, d’une mauvaise représentation des données d’entraînement, de l’utilisation d’approximations biaisées, d’un étiquetage biaisé des données, de données synthétiques non représentatives, d’une conception biaisée des systèmes, d’un réglage des systèmes effectué selon des critères incorrects ou incomplets ou de préjugés apparaissant dans le contexte de l’utilisation du système.

    Même avec une représentation proportionnelle complète dans les données, les personnes en situation de handicap resteront probablement des cas isolés ou des minorités marginalisées dans le contexte des décisions assistées par l’IA. C’est pourquoi, afin d’atténuer la discrimination statistique, les personnes en situation de handicap ne devraient pas être soumises à des décisions assistées par l’IA sans leur consentement et leur pleine compréhension.
     

  • Prévention des atteintes à la réputation : Les entités réglementées doivent veiller à ce que les systèmes d’IA ne répètent pas ou ne diffusent pas de stéréotypes ou d’informations erronées sur les personnes en situation de handicap.

5.2.3 Respect des droits et des libertés

  • Liberté de toute surveillance : Les entités réglementées doivent s’abstenir d’utiliser des outils d’IA pour surveiller les personnes en situation de handicap.
     
  • Liberté de ne pas faire l’objet d’un profilage discriminatoire : Les entités réglementées doivent s’abstenir d’utiliser des outils d’IA pour la catégorisation biométrique, l’analyse des émotions ou le maintien de l’ordre prédictif des personnes en situation de handicap.

5.2.4 Préservation de la capacité d’agir et traitement respectueux

  • Mobilisation et participation : Les entités réglementées doivent solliciter et encourager la participation des personnes en situation de handicap à tous les stades de la conception, de l’élaboration, de l’utilisation et de la gestion opérationnelle des systèmes d’IA, y compris le contrôle continu après le déploiement.
     
  • Information et divulgation : Les entités réglementées doivent informer les personnes de leur utilisation prévue ou réelle de systèmes d’IA qui prennent des décisions concernant les personnes en situation de handicap ou qui ont une incidence sur elles. Ces informations doivent être fournies de manière précise, accessible et compréhensible.
     
  • Consentement, choix et recours : Lorsque des systèmes d’IA sont utilisés pour prendre ou aider à prendre des décisions, les entités réglementées doivent proposer un mécanisme d’option à plusieurs niveaux permettant aux clients, aux employés et aux autres personnes concernées de demander un processus décisionnel de rechange équivalent, complet et rapide qui, au choix de la personne, est soit exécuté sans l’utilisation de l’IA, soit exécuté à l’aide de l’IA avec une supervision et une vérification humaines directes de la décision. Dans la mesure du possible, les personnes seront informées des moyens de corriger, de contester, de modifier ou d’annuler une décision ou une action assistée par l’IA qui les concerne (voir la clause 5.2.2 pour les moyens d’évaluer l’impact).
     
  • Liberté de la désinformation et de la manipulation : Les entités réglementées doivent veiller à ce que les systèmes d’IA ne servent pas à manipuler les personnes en situation de handicap ou à leur transmettre de l’information inexacte.
     
  • Soutien au contrôle et à la surveillance par des êtres humains : Il doit y avoir une chaîne de responsabilité humaine traçable qui indique clairement qui est responsable de l’accessibilité et de l’équité des décisions prises par un système d’IA.

5.3 Processus organisationnels visant à soutenir une IA accessible et équitable

Lorsque les organismes mettent en œuvre ou utilisent des systèmes d’IA, les processus organisationnels doivent aboutir à des systèmes d’IA accessibles et équitables pour les personnes en situation de handicap (voir les clauses 5.1 et 5.2 pour les définitions d’une IA « accessible » et « équitable »). 

Chaque processus doit associer les personnes en situation de handicap à la gouvernance et à la prise de décision tout au long du cycle de vie de l’IA et doit être accessible aux personnes en situation de handicap qui sont membres d’un comité de gouvernance ou de gestion, des employés, des entrepreneurs, des clients, des membres d’un organisme œuvrant pour les personnes en situation de handicap ou des membres du public.

Les processus organisationnels auxquels cet clause s’applique comprennent, sans s’y limiter, les processus utilisés pour : 

  1. soutenir une gouvernance de l’IA inclusive et accessible;
  2. planifier et justifier le besoin de systèmes d’intelligence artificielle;
  3. informer le public de son intention d’utiliser des systèmes d’IA;
  4. évaluer les données pour déterminer si elles peuvent être utilisées par des systèmes d’IA;
  5. concevoir et élaborer des systèmes d’IA accessibles et équitables;
  6. acquérir des systèmes d’IA accessibles et équitables;
  7. personnaliser des systèmes d’IA accessibles et équitables;
  8. procéder à des évaluations de l’incidence, à une surveillance éthique et à un suivi continu des préjudices potentiels;
  9. former le personnel à une IA accessible et équitable;
  10. fournir des mécanismes de transparence, de responsabilisation et de consentement;
  11. donner accès à des approches de rechange équivalentes;
  12. traiter les rétroactions sur l’accessibilité, les incidents et les plaintes concernant les systèmes d’IA;
  13. prévoir des mécanismes de révision, de perfectionnement et de clôture; et
  14. stocker et gérer les données en toute sécurité tout au long du cycle de vie de l’IA.

5.3.1 Soutenir une gouvernance de l’IA inclusive et accessible

Afin de garantir l’accessibilité et l’équité des systèmes d’IA, les organismes doivent mettre en œuvre les exigences des clauses 5.1 et 5.2

Les organismes doivent solliciter et encourager la participation des personnes en situation de handicap à tous les stades de la création de l’ensemble de données, des systèmes d’IA et de leurs composantes (conception, codage, mise en œuvre, évaluation, perfectionnement), de l’acquisition, de la consommation, de la gouvernance, de la gestion et du suivi.

Outre la consultation des personnes en situation de handicap externes à l’organisme sur des décisions précises liées à l’IA (voir les clauses 5.3.4, 5.3.5, 5.3.6, 5.3.7, 5.3.9 et 5.3.14), les organismes devraient faire participer de manière permanente et continue les personnes en situation de handicap aux décisions liées à l’IA au moyen des rôles des employés, des entrepreneurs, de la direction et de la gouvernance.

Cela peut inclure, sans s’y limiter, le recrutement, l’intégration et le soutien à la participation des personnes en situation de handicap en tant qu’employés, entrepreneurs, membres des comités de gouvernance et de gestion (p. ex., le conseil d’administration, les comités directeurs, les comités consultatifs et les équipes de gestion).

5.3.2 Planifier et justifier l’utilisation des systèmes d’IA 

Lorsqu’un organisme propose et planifie le déploiement d’un système d’IA, l’incidence sur les personnes en situation de handicap doit être prise en compte.

Des mesures efficaces visant à prévenir les incidences négatives sur les personnes en situation de handicap doivent être prises indépendamment de la disponibilité d’une ou de plusieurs déterminations quantitatives ou prédictives des risques.

Les processus d’évaluation de l’incidence et des risques doivent :  

  1. Inclure les personnes en situation de handicap susceptibles d’être directement ou indirectement touchées par le système d’IA en tant que participants actifs aux décisions (voir la clause 5.2.2).
  2. Inclure la détermination de l’incidence sur le plus grand nombre possible de personnes en situation de handicap.
  3. Tenir compte des incidences globales, pour les personnes en situation de handicap, des nombreux préjudices cumulés qui peuvent se croiser ou s’accumuler au fil du temps à la suite de décisions assistées par l’IA et qui ne sont pas classées comme ayant une incidence élevée.

Lorsque des cadres d’évaluation des risques sont utilisés pour déterminer les risques et les avantages des systèmes d’IA, les organismes doivent (voir la clause 5.2.2) :

  1. Donner la priorité à la prévention ou à l’atténuation des risques pour les personnes en situation de handicap (qui sont des minorités et des valeurs aberrantes dans les modèles statistiques). Par exemple en veillant à ce que les modèles d’évaluation des risques ne soient pas uniquement fondés sur les risques et les avantages pour la majorité (ou le cas « typique »).
  2. Sélectionner les critères d’évaluation de la précision en fonction des résultats de l’évaluation des risques, en veillant à prendre en compte les préjudices subis ou qui pourraient être subis par les personnes en situation de handicap et les autres groupes minoritaires ou défavorisés. 
  3. Inclure des mesures désagrégées pour les personnes en situation de handicap dans les évaluations de la précision, et prendre en compte le contexte d’utilisation et les conditions relatives aux personnes en situation de handicap qui peuvent être touchées par l’utilisation du système d’IA.

Lorsque le système d’IA est destiné à remplacer ou à accroître une fonction existante, les personnes en situation de handicap qui rencontrent les plus grandes difficultés pour accéder à la fonction existante ou en bénéficier doivent être incluses dans le processus décisionnel.

Des plans doivent être mis en place pour prendre des mesures claires et rapides afin de protéger les personnes en situation de handicap en cas de violation de données, quel que soit le stade du cycle de vie du projet, ou d’attaques malveillantes contre les systèmes d’IA après leur déploiement.

5.3.3 Avis d’intention d’utiliser le système d’IA

L’intention d’utiliser un système d’IA doit être rendue publique dans des formats accessibles dans le cadre du plan d’accessibilité de l’organismes et distribuée aux organisations nationales de personnes en situation de handicap et aux parties intéressées. Une procédure est mise en place pour permettre à toute partie intéressée de demander à être inscrite sur une liste de distribution des avis. L’avis doit décrire les moyens accessibles par lesquels il est possible de formuler des observations. 

Remarque : Cet clause s’applique à tous les systèmes d’IA, qu’il soit déterminé ou non qu’ils affectent directement les personnes en situation de handicap.

5.3.4 Évaluer les données pour déterminer si elles peuvent être utilisées par des systèmes d’IA

Les organismes doivent déterminer si les ensembles de données potentiels contenant des renseignements sur les personnes en situation de handicap sont appropriés, inappropriés ou s’ils sont appropriés à certaines conditions pour être utilisés comme données d’entrée dans les systèmes d’IA, en associant les personnes en situation de handicap à la détermination du caractère approprié.

Il faut procéder à un alignement entre :

  1. l’ensemble de données utilisé comme entrée dans un système d’intelligence artificielle;
  2. le modèle ou la méthode utilisé par le système d’IA; et
  3. l’objectif ou la tâche assignée au système d’IA.

Un ensemble de données peut être approprié pour un objectif ou une tâche en particulier dans un système d’IA, mais inapproprié pour d’autres tâches dans le même système d’IA, ou inapproprié lorsqu’il est appliqué à des personnes qui sont différentes de la majorité des personnes en fonction de plusieurs variables ou étiquettes. 

Le caractère approprié de chaque ensemble de données doit être évalué pour chaque objectif ou tâche et chaque système d’IA avant qu’il ne soit utilisé en tant qu’intrant. 

Les organismes doivent recueillir, utiliser et gérer les données et les modèles de données et d’algorithmes de manière à éviter les préjugés négatifs ou la discrimination injustifiée à l’égard des personnes en situation de handicap dans l’utilisation et les résultats des systèmes d’IA. En particulier, des mesures doivent être prises pour éviter : 

  1. les choix biaisés lors de la modélisation des données;
  2. une représentation erronée dans les données d’entraînement;
  3. l’utilisation d’indicateurs biaisés;
  4. l’étiquetage biaisé des données;
  5. la conception biaisée des systèmes;
  6. la mise au point des systèmes selon des critères incorrects ou incomplets;
  7. les préjugés qui se révèlent dans le contexte de l’utilisation du système; et
  8. des données synthétiques qui dont la portée et l’objectif présentent des lacunes concernant les expériences de handicap pertinentes pour l’objectif du système d’IA.

Les organismes doivent : 

  1. prévenir les préjudices causés aux personnes en situation de handicap par des violations de données (qu’elles soient accidentelles ou délibérées);
  2. veiller à ce que les systèmes d’IA ne répètent pas ou ne diffusent pas de stéréotypes ou d’informations erronées sur les personnes en situation de handicap; et
  3. veiller à ce que les planificateurs, les développeurs, les opérateurs et les organes de gouvernance disposent de l’expertise nécessaire pour évaluer et traiter les cas où la non-discrimination exige que certaines personnes – y compris des personnes en situation de handicap – ne soient pas soumises à des décisions assistées par l’IA, parce qu’elles sont considérées comme des valeurs aberrantes dans les distributions statistiques que les systèmes d’IA modélisent et utilisent. (voir la clause 5.2.2).

Voir l’annexe A pour des exemples.

5.3.5 Concevoir et élaborer des systèmes d’IA accessibles et équitables

La conception et l’élaboration des systèmes d’IA doivent inclure les exigences des clauses 5.1 et 5.2.

Conformément aux exigences de la clause 5.1, avant la mise en œuvre ou l’utilisation d’un système d’IA ayant une incidence directe ou indirecte sur les personnes en situation de handicap, ces dernières et les organismes œuvrant pour les personnes en situation de handicap doivent être invités à mettre à l’essai l’accessibilité du système d’IA. Les personnes qui participent à cette démarche doivent être rémunérées équitablement.

Conformément aux exigences de la clause 5.2.2, il faut solliciter les rétroactions formulés par les personnes en situation de handicap et des organismes œuvrant pour les personnes en situation de handicap dans toutes les décisions relatives à la conception et à l’élaboration de systèmes d’IA afin de garantir des avantages comparables à ceux d’autres segments de la population concernée, de préserver la capacité d’agir individuelle, de prévenir ou d’atténuer les effets néfastes sur les personnes en situation de handicap.

Conformément aux exigences des clauses 5.2.3 et 5.2.4, les organismes doivent adopter des cadres de planification et de conception ainsi que des régimes de contrôle pour s’assurer que tout système d’IA qu’elles utilisent, contrôlent ou régissent :

  1. n’est pas utilisé pour exercer une surveillance sur les employés et les clients en situation de handicap; 
  2. n’est pas utilisé pour la catégorisation biométrique, l’analyse des émotions ou le maintien de la répression prédictive des employés et des clients en situation de handicap; et
  3. n’est pas utilisé pour manipuler les personnes en situation de handicap ou leur transmettre de l’information erronée. 

La conception de tout système d’IA doit inclure des mécanismes de responsabilité et de gouvernance qui indiquent clairement qui est responsable des décisions prises par un système d’IA. 

5.3.6 L’achat des systèmes d’IA accessibles et équitables

L’achat des systèmes d’IA doit inclure les exigences des clauses 5.1 et 5.2

Il faut solliciter les rétroactions des personnes en situation de handicap et des organismes œuvrant pour les personnes en situation de handicap dans toutes les décisions relatives à l’acquisition de systèmes d’IA afin de prévenir ou d’atténuer les incidences sur les personnes en situation de handicap : 

  1. qui sont disproportionnés par rapport aux incidences sur les personnes qui ne sont pas en situation de handicap;
  2. qui produisent des résultats disparates pour les personnes en situation de handicap par rapport aux résultats obtenus pour les autres personnes qui ne sont pas en situation de handicap; et
  3. qui produisent des préjudices cumulés pour les personnes en situation de handicap, quelle que soit l’ampleur de l’incidence immédiate subie.

Avant la mise en œuvre ou l’utilisation d’un système d’IA ayant une incidence directe ou indirecte sur les personnes en situation de handicap, ces dernières et les organismes œuvrant pour les personnes en situation de handicap doivent être invités à mettre à l’essai l’accessibilité du système d’IA et à procéder à une évaluation des incidences. Les personnes qui participent à cette démarche doivent être rémunérées équitablement. 

Conformité aux critères d’accessibilité et d’équité par une tierce partie experte en matière d’accessibilité et d’équité à l’égard des personnes en situation de handicap avant que la décision d’achat d’un système d’IA ne soit prise. 

Les contrats d’approvisionnement devraient prévoir la possibilité d’arrêter ou de mettre fin à un système d’IA en cas de dysfonctionnement du système ou si les performances mesurées par rapport à des critères d’équité diminuent ou si les critères ne sont plus respectés.

5.3.7 Personnaliser des systèmes d’IA accessibles et équitables

La personnalisation des systèmes d’IA doit inclure les exigences des clauses 5.1 et 5.2

Il faut solliciter les rétroactions des personnes en situation de handicap et des organismes œuvrant pour les personnes en situation de handicap dans toutes les décisions relatives à la personnalisation de systèmes d’IA afin de prévenir ou d’atténuer les incidences sur les personnes en situation de handicap : 

  1. qui sont disproportionnés par rapport aux incidences sur les personnes qui ne sont pas en situation de handicap;
  2. qui produisent des résultats disparates pour les personnes en situation de handicap par rapport aux résultats obtenus pour les autres personnes qui ne sont pas en situation de handicap; et
  3. qui produisent des préjudices cumulés pour les personnes en situation de handicap, quelle que soit l’ampleur de l’incidence immédiate subie.

Avant la mise en œuvre ou l’utilisation d’un système d’IA ayant une incidence directe ou indirecte sur les personnes en situation de handicap, ces dernières et les organismes œuvrant pour les personnes en situation de handicap doivent être invités à mettre à l’essai l’accessibilité du système d’IA. Les personnes qui participent à cette démarche doivent être rémunérées équitablement. 

5.3.8  Procéder à des évaluations de l’incidence, à une surveillance éthique et à un suivi continu des préjudices potentiels

Les organismes doivent effectuer une surveillance continue de la qualité des données et des évaluations d’incidences afin de cerner les sources de discrimination et les préjugés nouveaux ou réels à l’égard des personnes en situation de handicap. 

Cette surveillance et cette évaluation devraient prendre en compte de multiples dimensions, y compris, mais sans s’y limiter, les résultats du système d’IA en ce qui concerne les personnes en situation de handicap : 

  1. qui peuvent avoir une incidence disproportionnée par rapport aux incidences sur d’autres personnes qui ne sont pas en situation de handicap;
  2. qui peuvent donner lieu à un accès inéquitable aux prestations, par rapport à d’autres personnes qui ne sont pas en situation de handicap;
  3. qui peuvent produire des résultats disparates pour les personnes en situation de handicap par rapport aux résultats obtenus pour d’autres personnes qui ne sont pas en situation de handicap;
  4. qui peuvent produire des préjudices cumulés pour les personnes en situation de handicap, quelle que soit l’ampleur de l’incidence immédiate subie; ou
  5. qui peuvent porter atteinte aux droits, aux libertés, à la dignité ou à l’autonomie des personnes en situation de handicap.

Les organismes doivent également tenir un registre public des préjudices, des décisions contestées, des obstacles à l’accès signalés et des cas de traitement inéquitable des personnes en situation de handicap liés aux systèmes d’IA. Le registre doit être conforme à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE).

Tous les organismes sous réglementation fédérale consignent dans leur registre l’incidence des décisions à faible, à moyenne et à forte incidence sur les personnes en situation de handicap. Ces informations sont mises à la disposition du public dans un format accessible. Une fois qu’un système de surveillance accessible au public et englobant tous les organismes sous réglementation fédérale qui utilisent des systèmes d’IA sera mis en place et tenu à jour pour effectuer le suivi de l’incidence cumulative des décisions à faible, à moyenne et à forte incidence sur les personnes en situation de handicap, les organismes sous réglementation fédérale devront soumettre ces informations au système. 

Les seuils pour les niveaux inacceptables de risque et de préjudice doivent être établis avec les organismes nationaux œuvrant pour les personnes en situation de handicap et les organismes experts en matière d’accessibilité et d’équité à l’égard des personnes en situation de handicap. Au fur et à mesure que les résultats font l’objet d’une surveillance, les essais des systèmes d’IA doivent évoluer pour tenir compte des oublis et des préjudices, et le système doit être mis à jour pour atténuer ces oublis et ces préjudices ou proposer une solution de rechange qui les contourne.

5.3.9 Former le personnel à une IA accessible et équitable 

Tout le personnel responsable de l’un ou l’autre aspect du cycle de vie de l’IA doit recevoir une formation sur l’IA accessible et équitable. Cette formation doit être mise à jour et dispensée périodiquement dans des formats accessibles conformément à la clause 5.1

La formation doit être créée en collaboration avec les personnes en situation de handicap et être adaptée au contexte des apprenants et ne pas se limiter à une formation générique sur l’accessibilité et l’équité. Cette formation doit comprendre : 

  1. des considérations juridiques relatives à la protection des renseignements personnels;
  2. des considérations relatives à l’accessibilité de l’interface utilisateur;
  3. des stratégies de détection des préjudices et des risques; 
  4. les stratégies de détection et d’atténuation des préjugés; et
  5. les moyens de faire participer les personnes en situation de handicap au cycle de vie de l’IA.

5.3.10 Fournir des mécanismes de transparence, de responsabilisation et de consentement

Les organismes doivent informer les personnes de leur utilisation prévue ou réelle de systèmes d’IA qui prennent des décisions concernant les personnes en situation de handicap ou qui ont une incidence sur elles. Ces informations sont fournies de manière précise, accessible et compréhensible.  

La transparence en matière d’IA comprend la communication d’informations sur :

  1. les données utilisées pour pré-entraîner, personnaliser ou entraîner dynamiquement un système d’IA;
  2. les étiquettes de données et les données de substitution utilisées dans l’entraînement;
  3. la ou les décisions à prendre par le système d’IA et les facteurs déterminants de ces décisions;
  4. la disponibilité de systèmes décisionnels complets, accessibles et facultatifs; et
  5. les noms et les coordonnées des personnes qui, au sein de l’organisme, sont responsables du système d’IA et des décisions qui en découlent.

Tous les renseignements doivent être fournis dans des formats accessibles et dans un langage simple et non technique, de manière à ce que l’incidence potentielle du système d’IA soit claire. 

Dans les cas où les systèmes d’IA utilisent des données recueillies avec le consentement des personnes concernées, les personnes en situation de handicap doivent avoir la possibilité de retirer leur consentement pour une ou toutes les utilisations de leurs données, à tout moment et sans conséquences négatives. 

Lorsque des systèmes d’IA utilisent des données recueillies sans le consentement des personnes concernées (p. ex., les systèmes d’IA qui utilisent des données administratives dépersonnalisées concernant des services financés par l’État), les organismes font participer les personnes en situation de handicap aux décisions relatives à l’utilisation des ensembles de données.

5.3.11 Donner accès à des approches de rechange équivalentes

Les organismes qui déploient des systèmes d’IA doivent offrir aux personnes en situation de handicap les solutions de rechange suivantes :

  1. la possibilité de demander que les décisions humaines soient prises par des personnes ayant des connaissances et de l’expertise des besoins des personnes en situation de handicap dans le domaine des décisions à prendre; ou
  2. la possibilité de demander une supervision humaine ou de confier la prise de décision finale à une personne compétente dans le domaine des besoins des personnes en situation de handicap, guidée par l’IA.

Ces options de rechange doivent offrir une disponibilité, une rapidité, un coût et une commodité raisonnables. 

L’organisme doit maintenir en poste les personnes qui possèdent l’expertise nécessaire pour prendre des décisions humaines équitables concernant les personnes en situation de handicap lorsque des systèmes d’IA sont déployés pour remplacer des décisions qui étaient prises auparavant par des êtres humains.

5.3.12 Aborder de la rétroaction sur l’accessibilité, les incidents et les plaintes concernant les systèmes d’IA

L’organisme doit traiter la rétroaction, les signalements d’incident et les plaintes en matière d’accessibilité et d’équité, notamment en fournissant des précisions sur les fonctions de recours, de contestation et d’appels pour les personnes en situation de handicap qui :  

  1. sont faciles à trouver, accessibles et exploitables ;
  2. accusent réception de la rétroaction, des signalements d’incident et des plaintes et répondent à la rétroaction dans un délai maximum de 24 heures ;
  3. fournissent un calendrier pour traiter la rétroaction, les incidents et les plaintes ; 
  4. offrent une procédure permettant aux personnes en situation de handicap ou à leurs représentants de fournir de la rétroaction sur les décisions ou de les contester de manière anonyme ; et
  5. communiquent aux personnes en situation de handicap ou à leurs représentants l’état d’avancement du traitement de la rétroaction, des incidents ou des plaintes et leur offrir la possibilité de faire appel ou de contester les mesures correctives proposées. 

La rétroaction relative aux préjudices doit être consignée dans le registre public des préjudices, à condition qu’elle puisse être rendue anonyme afin de protéger les renseignements personnels, conformément à la Loi sur la protection des renseignements personnels, à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et aux autres lois fédérales et provinciales applicables en matière de protection des renseignements personnels, avec le consentement de la personne qui soumet la rétroaction.

5.3.13 Fournir des mécanismes de révision, de perfectionnement et de clôture

Les organismes qui déploient des systèmes d’IA doivent continuellement les examiner, les perfectionner et, si nécessaire, les arrêter ou y mettre fin. Ces processus d’examen et de perfectionnement continus doivent prendre en compte l’ensemble des préjudices, y compris les préjudices cumulés découlant de décisions ayant une incidence faible ou moyenne sur les personnes en situation de handicap. Les personnes en situation de handicap doivent avoir la possibilité de participer au processus d’examen.

Si le système se dégrade au point que les critères d’accessibilité ou d’équité pour les personnes en situation de handicap ne sont plus respectés, il faut mettre fin au système d’IA jusqu’à ce que l’obstacle à l’accessibilité ou le traitement inéquitable soit résolu, ou que le système soit arrêté.

Tous les systèmes d’IA doivent être mis à jour pour atténuer les risques si des préjudices pour les personnes en situation de handicap sont relevés. Les systèmes d’IA qui utilisent l’apprentissage automatique doivent être conçus pour apprendre des erreurs et des échecs.

5.3.14 Stocker et gérer les données en toute sécurité tout au long du cycle de vie de l’IA

Les organismes doivent veiller à ce que les données relatives au handicap soient utilisées pour créer des systèmes d’IA équitables d’une manière sûre et sécurisée qui n’entraîne pas de préjudice pour les personnes qui fournissent leurs données.

Les données relatives aux personnes en situation de handicap doivent être stockées et gérées en toute sécurité à chaque phase du cycle de vie des données, depuis la collecte des données jusqu’à leur conservation (stockage), leur utilisation, leur divulgation (partage) et leur destruction. L’utilisation abusive ou la violation de données relatives au handicap peut conduire à la discrimination, à l’exclusion et à d’autres préjudices pour les personnes en situation de handicap. 

Conformément à la clause 22 de la Convention relative aux droits des personnes en situation de handicap des Nations Unies, les organismes doivent protéger la confidentialité des renseignements personnels et des renseignements relatifs à la santé et à la réadaptation des personnes en situation de handicap sur la base de l’égalité avec les autres. 

Le stockage et la gestion des données doivent être conformes à la Loi sur la protection des renseignements personnels, à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et aux autres lois fédérales et provinciales applicables en matière de protection des renseignements personnels. Dans le cadre de leur mise en conformité, les organismes doivent s’efforcer de garantir que la réidentification n’est pas possible grâce à des techniques d’anonymisation rigoureuses.

5.4 L’éducation, la formation, et la littératie accessibles dans le domaine de l’IA

Tous les acteurs de l’écosystème de l’IA, y compris ceux qui participent à la création, à l’acquisition, au déploiement et à la surveillance des systèmes d’IA, ceux qui utilisent l’IA dans la prise de décision et ceux qui sont directement ou indirectement touchés par les systèmes d’IA, doivent être mieux informés sur l’accessibilité et l’équité. C’est pourquoi l’éducation, la formation et le soutien à l’acquisition de la littératie des personnes en matière d’IA doivent être accessibles. En outre, l’éducation, la formation et le soutien à l’acquisition de la littératie dans le domaine de l’IA doivent inclure des cours sur l’IA accessible et équitable. Pour favoriser la création de systèmes et d’outils d’IA accessibles et équitables, les organismes doivent associer les personnes en situation de handicap à la création et à la mise en œuvre de cette éducation et de cette formation. Enfin, les organismes doivent contribuer aux efforts d’acquisition de la littératie visant à permettre aux personnes concernées par les décisions ou les actions assistées par l’IA d’exercer leur capacité d’agir et de contrôler les incidences de ces décisions et actions.

5.4.1 L’éducation, la formation et le soutien à la littératie en matière d’IA doivent être accessibles

  1. Le matériel et les méthodologies y compris la technologie, le contenu, les méthodes et les processus d’enseignement, d’évaluation et de certification doivent être accessibles ; pour ce faire, il faut mettre en œuvre les exigences de la norme CAN/ASC EN 301 549 : 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT).
  2. L’éducation et la formation en matière d’IA doivent permettre aux personnes en situation de handicap de participer aux activités du personnel et d’être membres des comités de gouvernance et de gestion, conformément aux exigences de la clause 5.3.1.
  3. L’acquisition de la littératie en matière d’IA doit permettre aux personnes en situation de handicap de jouer un rôle actif dans la création, l’acquisition, le déploiement et la surveillance des systèmes d’IA.

5.4.2 L’éducation et la formation des personnes qui utilisent l’IA à des fins professionnelles doivent inclure l’IA accessible et équitable 

  1. Toute l’éducation et la formation sur l’IA doivent intégrer du contenu sur l’IA accessible et équitable, afin de veiller à ce que tous les systèmes d’IA soient accessibles et équitables. 
  2. Les organismes doivent veiller à ce que leur effectif actuel, y compris, mais sans s’y limiter, les personnes jouant un rôle technique, reçoive une formation sur l’IA accessible et équitable, y compris sur les exigences de la clause 5.3.9
  3. L’éducation et la formation portent sur l’application de méthodes participatives auprès des personnes en situation de handicap et par celles ci.

5.4.3 Participation des personnes en situation de handicap à l’enseignement de l’IA, à la formation et au soutien de l’acquisition de la littératie 

Les personnes en situation de handicap doivent être incluses lors de l’élaboration du matériel et des méthodes d’éducation, de formation et d’acquisition de littératie ainsi qu’à la présentation de l’enseignement.

5.4.4 La littératie en IA 

  1. Les organismes doivent participer à des efforts de littératie en IA pour permettre aux personnes concernées par les systèmes d’IA, y compris les personnes en situation de handicap, de comprendre les objectifs, les avantages et les risques de ces systèmes, ainsi que les problèmes d’accessibilité et d’équité. 
  2. La littératie en IA devrait permettre aux personnes concernées par les systèmes d’IA d’exercer un consentement éclairé, d’évaluer les incidences de la participation et de la non-participation, ainsi que de comprendre les autres options et les possibilités de recours, conformément à ce qui est indiqué à la clause 5.2.4.

6. Annexe A (Informative)

Ensemble de données : Données de reconnaissance faciale recueillies auprès de 100 000 personnes, pour la plupart sans handicap (>90 %) à l’aide d’un logiciel commercial de reconnaissance faciale dans des laboratoires contrôlés.

Utilisation appropriée : Utilisation des données pour un système d’aide à la décision fondé sur l’IA qui aide les agents et agentes de bord à valider plus rapidement et plus précisément les photos d’identité, mais qui permet l’identification humaine en temps réel, sans retard ni différence dans les niveaux de service pour les personnes en situation de handicap.

Utilisation appropriée conditionnelle : Données relatives à un système d’aide à la décision fondé sur l’IA qui permet d’identifier des personnes dans des environnements de transport non contrôlés, à condition que le système ait été validé pour tenir compte des différents angles de caméra, des conditions d’éclairage et des différences faciales dans ces environnements en particulier, et que le logiciel ait été adapté pour fonctionner dans divers environnements. D’autres méthodes de validation doivent être facilement disponibles pour les voyageurs qui choisissent de ne pas recourir à la reconnaissance faciale ou si celle-ci ne leur convient pas.

Utilisations inappropriées : Données utilisées comme données d’entrée pour un outil fondé sur l’IA qui contrôle l’entrée dans les immeubles sans surveillance humaine ou méthodes pour contourner le système de reconnaissance faciale. Utilisation d’un outil ou d’un système fondé sur l’IA pour prendre ou éclairer des décisions concernant des personnes différentes de celles représentées dans les données d’entraînement, lorsque les différences sont si importantes que l’outil ou le système fondé sur l’IA ne serait pas censé fournir des résultats significatifs les concernant.