L’intelligence artificielle est susceptible de présenter à la fois des possibilités et des inconvénients extrêmes pour les personnes en situation de handicap. Le respect des principes de la Loi canadienne sur l’accessibilité lors du déploiement de l’IA exige que les personnes en situation de handicap :bénéficient des systèmes d’IA, au moins de manière comparable aux autres personnes; ne subissent pas plus de préjudices par les systèmes d’IA que les autres; ne perdent pas de droits et libertés en raison de l’utilisation de systèmes d’IA; etne soient pas privés de leur capacité d’agir et soient traitées avec respect dans leurs interactions avec les systèmes d’IA. Les quatre clauses décrivent les exigences à respecter pour garantir que :l’IA est accessible aux personnes en situation de handicap (clause 5.1); les systèmes d’IA sont équitables pour les personnes en situation de handicap (clause 5.2);les organismes mettent en œuvre les processus nécessaires pour parvenir à une IA accessible et équitable (clause 5.3); etl’éducation à l’IA soutient le changement systémique nécessaire pour parvenir à une IA accessible et équitable (clause 5.4).
,
5.1 L’IA accessible
Les systèmes d’IA (clause 5.1.2) et les processus, ressources, services et outils utilisés pour planifier, acquérir, créer, mettre en œuvre, régir, gérer, entretenir, contrôler et utiliser les systèmes d’IA (clause 5.1.1) doivent être accessibles aux personnes en situation de handicap. Les personnes en situation de handicap doivent pouvoir participer activement à tous les rôles du cycle de vie de l’IA et être des utilisateurs des systèmes d’IA.5.1.1 Les personnes en situation de handicap en tant que participants à part entière au cycle de vie de l’IA
Les personnes en situation de handicap doivent pouvoir participer pleinement à tous les rôles et à toutes les étapes du cycle de vie de l’IA. Il s’agit notamment des ensembles de données, des systèmes d’IA et de la création de composants (conception, codage, mise en œuvre, évaluation, perfectionnement), de l’approvisionnement, de la consommation, de la gouvernance, de la gestion et du suivi.5.1.1.1 Personnes en situation de handicap participant à la création de systèmes d’intelligence artificielle
Les outils et processus déployés par les entités réglementées pour créer (concevoir, coder, mettre en œuvre, évaluer, affiner), acheter, consommer, gouverner, gérer et contrôler les systèmes d’IA ainsi que leurs composants doivent être accessibles aux personnes en situation de handicap.Lorsque les entités réglementées s’engagent dans la création de systèmes d’IA, les outils et les processus doivent être accessibles aux personnes en situation de handicap, y compris en respectant la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT). Lorsqu’une entité réglementée crée des outils qui servent à concevoir et à élaborer des systèmes d’IA et leurs composants, les outils utilisés pour créer (concevoir, coder, mettre en œuvre, évaluer, affiner), acheter, consommer et utiliser des systèmes d’IA et leurs composants doivent au minimum être conformes à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :les déclarations de performances fonctionnelles figurant à la clause 4;les exigences génériques figurant à la clause 5;les exigences Web figurant à la clause 9;les exigences relatives aux documents non-Web figurant à la clause 10;les exigences en matière de logiciels figurant à la clause 11; etla documentation et les services d’assistance figurant à la clause 12.Lorsqu’une entité réglementée crée des outils qui servent à concevoir et à élaborer des systèmes d’IA et leurs composants, les composants découlant des outils utilisés pour créer (concevoir, coder, mettre en œuvre, évaluer, affiner), acheter, consommer et utiliser des systèmes d’IA et leurs composants doivent au minimum être conformes à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :les déclarations de performances fonctionnelles figurant à la clause 4;les exigences génériques figurant à la clause 5;les exigences Web figurant à la clause 9;les exigences relatives aux documents non-Web figurant à la clause 10;les exigences en matière de logiciels figurant à la clause 11; etla documentation et les services d’assistance figurant à la clause 12. Lorsqu’une entité réglementée crée des outils qui servent à concevoir et à élaborer des systèmes d’IA et leurs composants, les outils utilisés pour créer (concevoir, coder, mettre en œuvre, évaluer, affiner), acheter et consommer des systèmes d’IA et leurs composants doivent soutenir la conception et l’élaboration d’outils d’IA qui, au minimum, sont conformes à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :les déclarations de performances fonctionnelles figurant à la clause 4,les exigences génériques figurant à la clause 5,les exigences Web figurant à la clause 9,les exigences relatives aux documents non-Web figurant à la clause 10,les exigences en matière de logiciels figurant à la clause 11, etla documentation et les services d’assistance figurant à la clause 12.5.1.1.2 Personnes en situation de handicap participant au déploiement de systèmes d’IA
Lorsque des systèmes d’IA sont déployés, les outils et les ressources utilisés pour mettre en œuvre les systèmes d’IA, y compris les outils et les ressources utilisés pour personnaliser (des modèles entraînés au préalable), des modèles entraînés, configurer, tenir à jour, régir et gérer des systèmes d’IA, doivent être accessibles aux personnes en situation de handicap, et doivent au minimum être conformes à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :les déclarations de performances fonctionnelles figurant à la clause 4;les exigences génériques figurant à la clause 5;les exigences Web figurant à la clause 9;les exigences relatives aux documents non-Web figurant à la clause 10;les exigences en matière de logiciels figurant à la clause 11; etla documentation et les services d’assistance figurant à la clause 12.5.1.1.3 Personnes en situation de handicap participant à la surveillance de systèmes d’IA
Les outils et processus déployés par les entités réglementées pour évaluer, contrôler, évaluer et améliorer les systèmes d’IA et signaler les problèmes doivent être accessibles aux personnes en situation de handicap et satisfaire au minimum à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :les déclarations de performances fonctionnelles figurant à la clause 4;les exigences génériques figurant à la clause 5;les exigences Web figurant à la clause 9;les exigences relatives aux documents non-Web figurant à la clause 10;les exigences en matière de logiciels figurant à la clause 11; etla documentation et les services d’assistance figurant à la clause 12.5.1.2 Personnes en situation de handicap qui utilisent des systèmes d’IA
Les personnes en situation de handicap doivent pouvoir utiliser les systèmes d’IA et en bénéficier. Lorsque les entités réglementées déploient des systèmes et des outils d’IA qui ont une incidence sur les employés, les sous-traitants, les partenaires, les clients ou les membres du public, les résultats des systèmes d’IA doivent au minimum être conformes à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :les déclarations de performances fonctionnelles figurant à la clause 4;les exigences génériques figurant à la clause 5;les exigences Web figurant à la clause 9;les exigences relatives aux documents non-Web figurant à la clause 10;les exigences en matière de logiciels figurant à la clause 11; etla documentation et les services d’assistance figurant à clause 12.5.1.2.1 Documentation accessible sur la transparence et l’explicabilité
Les informations relatives à la divulgation, à la notification, à la transparence, à l’explicabilité et à la contestabilité des systèmes d’IA, de leur fonction, des mécanismes de prise de décision, des risques et de la mise en œuvre doivent être à jour (refléter l’état actuel de l’IA utilisée) et doivent être accessibles aux personnes en situation de handicap, en respectant au minimum la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :les déclarations de performances fonctionnelles figurant à la clause 4;les exigences génériques figurant à la clause 5;les exigences Web figurant à la clause 9;les exigences relatives aux documents non-Web figurant à la clause 10;les exigences en matière de logiciels figurant à la clause 11; etla documentation et les services d’assistance figurant à la clause 12.5.1.2.2 Mécanismes de rétroaction accessibles
Les mécanismes de rétroaction (voir la clause 5.3.12) doivent être accessibles aux personnes en situation de handicap et satisfaire au minimum à la norme CAN/ASC EN 301 549: 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT), en particulier :les déclarations de performances fonctionnelles figurant à la clause 4;les exigences génériques figurant à la clause 5;les exigences Web figurant à la clause 9;les exigences relatives aux documents non-Web figurant à la clause 10;les exigences en matière de logiciels figurant à la clause 11; etla documentation et les services d’assistance figurant à la clause 12.5.1.2.3 Lutter contre la discrimination statistique dans les technologies d’assistance qui servent à la mise en œuvre de l’IA
Toutes les personnes en situation de handicap ne bénéficieront pas de la même manière des adaptations fondées sur l’IA si leurs modes d’interaction ne sont pas pris en compte dans les données utilisées pour entraîner l’IA. Lorsqu’une technologie fondée sur l’IA est envisagée pour une mesure d’adaptation, les entités réglementées doivent évaluer les inégalités de la précision en fonction du bénéficiaire prévu.
,
5.2 L’IA équitable
Lorsque les systèmes d’IA prennent des décisions concernant des personnes en situation de handicap ou ont une incidence sur elles, ces décisions et l’utilisation des systèmes d’IA doivent aboutir à un traitement équitable des personnes en situation de handicap. Cela bénéficiera aux personnes et aux groupes de population, ainsi qu’à la société dans son ensemble, en contribuant à garantir que toutes les personnes sont en mesure de mener une vie productive et de contribuer à la société.Principes : Le traitement équitable exige que les personnes en situation de handicap :bénéficient des systèmes d’IA au moins de manière comparable aux autres personnes;ne subissent pas plus de préjudices par les systèmes d’IA que les autres;ne subissent pas de perte de droits et libertés en raison de l’utilisation de systèmes d’IA; etne soient pas privés de leur capacité d’agir et soient traitées avec respect dans leurs interactions avec les systèmes d’IA.5.2.1 Accès équitable aux prestations
En partant du principe que les personnes en situation de handicap devraient être en mesure de bénéficier des systèmes d’IA, au moins de manière comparable aux autres personnes, les entités réglementées qui déploient ces systèmes devraient prendre les mesures suivantes :Rendre accessibles, dès la conception, toutes les composantes interactives des systèmes d’IA.Veiller à ce que les personnes en situation de handicap ne soient pas sous-représentées ou mal représentées dans les données d’entraînement, par exemple en raison de l’utilisation d’approximations biaisées, d’étiquettes de données biaisées ou de données synthétiques qui ne représentent pas l’expérience réelle du handicap.Valider et mettre au point les systèmes d’IA afin qu’ils fonctionnent de manière comparable pour les personnes en situation de handicap et pour les autres (sur les plans de la précision, de la fiabilité et de la robustesse).Évaluer les performances du système d’IA et en rendre compte en incluant des résultats désagrégés pour les personnes en situation de handicap.Contrôler en permanence les performances des systèmes d’IA en fonction des critères de validation et des impacts réels des décisions prises à l’aide de ces systèmes sur les personnes en situation de handicap.Utiliser ces informations pour améliorer les performances du système en améliorant la convivialité, en recueillant des données supplémentaires, en améliorant la qualité des données et en affinant les critères de validation. Cela créera des boucles de rétroaction positive.5.2.2 Évaluation et atténuation des préjudices
Évaluation équitable des risques : Lorsque des cadres d’évaluation des risques sont utilisés pour déterminer les risques et les avantages des systèmes d’IA, les risques pour les personnes en situation de handicap qui sont des minorités et des cas isolés, et qui subissent l’impact le plus important des préjudices, doivent être considérés comme des priorités. L’évaluation des risques ne doit pas se fonder uniquement sur les risques et les avantages pour la majorité.Il faut veiller à reconnaître que les personnes en situation de handicap peuvent subir des préjudices plus importants que les autres personnes en raison de l’effet global de nombreux préjudices cumulés qui se croisent ou s’accumulent au fil du temps à la suite de décisions assistées par l’IA qui ne sont pas autrement classées comme ayant un impact élevé. En cas de menaces de préjudice graves ou irréversibles, l’absence de certitude quantifiable (par exemple, dans l’évaluation des risques) ne doit pas servir de prétexte pour reporter l’adoption de mesures efficaces visant à prévenir les effets néfastes pour les personnes en situation de handicap.Précision : Les entités réglementées doivent sélectionner les critères d’évaluation de la précision en fonction des résultats de l’évaluation des risques, en veillant à prendre en compte les préjudices subis ou qui pourraient être subis par les personnes en situation de handicap et les autres groupes minoritaires ou défavorisés. L’évaluation de la précision devrait inclure des mesures désagrégées pour les personnes en situation de handicap. Elles devraient également tenir compte du contexte d’utilisation et des conditions relatives aux personnes en situation de handicap. Sécurité de l’information : Les entités réglementées doivent élaborer des plans visant à protéger les personnes en situation de handicap en cas de violation de données ou d’attaque malveillante des systèmes d’IA. Les plans doivent cerner les risques associés aux handicaps ainsi que des actions claires et rapides pour protéger les personnes en situation de handicap. Équité et non-discrimination : Il faut veiller à reconnaître que les personnes qui font l’objet de discriminations dans les décisions assistées par l’IA sont souvent des personnes en situation de handicap. Les entités réglementées doivent veiller à ce que les systèmes d’IA n’aient pas de préjugés négatifs à l’égard des personnes en situation de handicap en raison de choix biaisés lors de la modélisation des données, d’une mauvaise représentation des données d’entraînement, de l’utilisation d’approximations biaisées, d’un étiquetage biaisé des données, de données synthétiques non représentatives, d’une conception biaisée des systèmes, d’un réglage des systèmes effectué selon des critères incorrects ou incomplets ou de préjugés apparaissant dans le contexte de l’utilisation du système.Même avec une représentation proportionnelle complète dans les données, les personnes en situation de handicap resteront probablement des cas isolés ou des minorités marginalisées dans le contexte des décisions assistées par l’IA. C’est pourquoi, afin d’atténuer la discrimination statistique, les personnes en situation de handicap ne devraient pas être soumises à des décisions assistées par l’IA sans leur consentement et leur pleine compréhension. Prévention des atteintes à la réputation : Les entités réglementées doivent veiller à ce que les systèmes d’IA ne répètent pas ou ne diffusent pas de stéréotypes ou d’informations erronées sur les personnes en situation de handicap.5.2.3 Respect des droits et des libertés
Liberté de toute surveillance : Les entités réglementées doivent s’abstenir d’utiliser des outils d’IA pour surveiller les personnes en situation de handicap. Liberté de ne pas faire l’objet d’un profilage discriminatoire : Les entités réglementées doivent s’abstenir d’utiliser des outils d’IA pour la catégorisation biométrique, l’analyse des émotions ou le maintien de l’ordre prédictif des personnes en situation de handicap.5.2.4 Préservation de la capacité d’agir et traitement respectueux
Mobilisation et participation : Les entités réglementées doivent solliciter et encourager la participation des personnes en situation de handicap à tous les stades de la conception, de l’élaboration, de l’utilisation et de la gestion opérationnelle des systèmes d’IA, y compris le contrôle continu après le déploiement. Information et divulgation : Les entités réglementées doivent informer les personnes de leur utilisation prévue ou réelle de systèmes d’IA qui prennent des décisions concernant les personnes en situation de handicap ou qui ont une incidence sur elles. Ces informations doivent être fournies de manière précise, accessible et compréhensible. Consentement, choix et recours : Lorsque des systèmes d’IA sont utilisés pour prendre ou aider à prendre des décisions, les entités réglementées doivent proposer un mécanisme d’option à plusieurs niveaux permettant aux clients, aux employés et aux autres personnes concernées de demander un processus décisionnel de rechange équivalent, complet et rapide qui, au choix de la personne, est soit exécuté sans l’utilisation de l’IA, soit exécuté à l’aide de l’IA avec une supervision et une vérification humaines directes de la décision. Dans la mesure du possible, les personnes seront informées des moyens de corriger, de contester, de modifier ou d’annuler une décision ou une action assistée par l’IA qui les concerne (voir la clause 5.2.2 pour les moyens d’évaluer l’impact). Liberté de la désinformation et de la manipulation : Les entités réglementées doivent veiller à ce que les systèmes d’IA ne servent pas à manipuler les personnes en situation de handicap ou à leur transmettre de l’information inexacte. Soutien au contrôle et à la surveillance par des êtres humains : Il doit y avoir une chaîne de responsabilité humaine traçable qui indique clairement qui est responsable de l’accessibilité et de l’équité des décisions prises par un système d’IA.
,
5.3 Processus organisationnels visant à soutenir une IA accessible et équitable
Lorsque les organismes mettent en œuvre ou utilisent des systèmes d’IA, les processus organisationnels doivent aboutir à des systèmes d’IA accessibles et équitables pour les personnes en situation de handicap (voir les clauses 5.1 et 5.2 pour les définitions d’une IA « accessible » et « équitable »). Chaque processus doit associer les personnes en situation de handicap à la gouvernance et à la prise de décision tout au long du cycle de vie de l’IA et doit être accessible aux personnes en situation de handicap qui sont membres d’un comité de gouvernance ou de gestion, des employés, des entrepreneurs, des clients, des membres d’un organisme œuvrant pour les personnes en situation de handicap ou des membres du public.Les processus organisationnels auxquels cet clause s’applique comprennent, sans s’y limiter, les processus utilisés pour : soutenir une gouvernance de l’IA inclusive et accessible;planifier et justifier le besoin de systèmes d’intelligence artificielle;informer le public de son intention d’utiliser des systèmes d’IA;évaluer les données pour déterminer si elles peuvent être utilisées par des systèmes d’IA;concevoir et élaborer des systèmes d’IA accessibles et équitables;acquérir des systèmes d’IA accessibles et équitables;personnaliser des systèmes d’IA accessibles et équitables;procéder à des évaluations de l’incidence, à une surveillance éthique et à un suivi continu des préjudices potentiels;former le personnel à une IA accessible et équitable;fournir des mécanismes de transparence, de responsabilisation et de consentement;donner accès à des approches de rechange équivalentes;traiter les rétroactions sur l’accessibilité, les incidents et les plaintes concernant les systèmes d’IA;prévoir des mécanismes de révision, de perfectionnement et de clôture; etstocker et gérer les données en toute sécurité tout au long du cycle de vie de l’IA.5.3.1 Soutenir une gouvernance de l’IA inclusive et accessible
Afin de garantir l’accessibilité et l’équité des systèmes d’IA, les organismes doivent mettre en œuvre les exigences des clauses 5.1 et 5.2. Les organismes doivent solliciter et encourager la participation des personnes en situation de handicap à tous les stades de la création de l’ensemble de données, des systèmes d’IA et de leurs composantes (conception, codage, mise en œuvre, évaluation, perfectionnement), de l’acquisition, de la consommation, de la gouvernance, de la gestion et du suivi.Outre la consultation des personnes en situation de handicap externes à l’organisme sur des décisions précises liées à l’IA (voir les clauses 5.3.4, 5.3.5, 5.3.6, 5.3.7, 5.3.9 et 5.3.14), les organismes devraient faire participer de manière permanente et continue les personnes en situation de handicap aux décisions liées à l’IA au moyen des rôles des employés, des entrepreneurs, de la direction et de la gouvernance.Cela peut inclure, sans s’y limiter, le recrutement, l’intégration et le soutien à la participation des personnes en situation de handicap en tant qu’employés, entrepreneurs, membres des comités de gouvernance et de gestion (p. ex., le conseil d’administration, les comités directeurs, les comités consultatifs et les équipes de gestion).5.3.2 Planifier et justifier l’utilisation des systèmes d’IA
Lorsqu’un organisme propose et planifie le déploiement d’un système d’IA, l’incidence sur les personnes en situation de handicap doit être prise en compte.Des mesures efficaces visant à prévenir les incidences négatives sur les personnes en situation de handicap doivent être prises indépendamment de la disponibilité d’une ou de plusieurs déterminations quantitatives ou prédictives des risques.Les processus d’évaluation de l’incidence et des risques doivent : Inclure les personnes en situation de handicap susceptibles d’être directement ou indirectement touchées par le système d’IA en tant que participants actifs aux décisions (voir la clause 5.2.2).Inclure la détermination de l’incidence sur le plus grand nombre possible de personnes en situation de handicap.Tenir compte des incidences globales, pour les personnes en situation de handicap, des nombreux préjudices cumulés qui peuvent se croiser ou s’accumuler au fil du temps à la suite de décisions assistées par l’IA et qui ne sont pas classées comme ayant une incidence élevée.Lorsque des cadres d’évaluation des risques sont utilisés pour déterminer les risques et les avantages des systèmes d’IA, les organismes doivent (voir la clause 5.2.2) :Donner la priorité à la prévention ou à l’atténuation des risques pour les personnes en situation de handicap (qui sont des minorités et des valeurs aberrantes dans les modèles statistiques). Par exemple en veillant à ce que les modèles d’évaluation des risques ne soient pas uniquement fondés sur les risques et les avantages pour la majorité (ou le cas « typique »).Sélectionner les critères d’évaluation de la précision en fonction des résultats de l’évaluation des risques, en veillant à prendre en compte les préjudices subis ou qui pourraient être subis par les personnes en situation de handicap et les autres groupes minoritaires ou défavorisés. Inclure des mesures désagrégées pour les personnes en situation de handicap dans les évaluations de la précision, et prendre en compte le contexte d’utilisation et les conditions relatives aux personnes en situation de handicap qui peuvent être touchées par l’utilisation du système d’IA.Lorsque le système d’IA est destiné à remplacer ou à accroître une fonction existante, les personnes en situation de handicap qui rencontrent les plus grandes difficultés pour accéder à la fonction existante ou en bénéficier doivent être incluses dans le processus décisionnel.Des plans doivent être mis en place pour prendre des mesures claires et rapides afin de protéger les personnes en situation de handicap en cas de violation de données, quel que soit le stade du cycle de vie du projet, ou d’attaques malveillantes contre les systèmes d’IA après leur déploiement.5.3.3 Avis d’intention d’utiliser le système d’IA
L’intention d’utiliser un système d’IA doit être rendue publique dans des formats accessibles dans le cadre du plan d’accessibilité de l’organismes et distribuée aux organisations nationales de personnes en situation de handicap et aux parties intéressées. Une procédure est mise en place pour permettre à toute partie intéressée de demander à être inscrite sur une liste de distribution des avis. L’avis doit décrire les moyens accessibles par lesquels il est possible de formuler des observations. Remarque : Cet clause s’applique à tous les systèmes d’IA, qu’il soit déterminé ou non qu’ils affectent directement les personnes en situation de handicap.5.3.4 Évaluer les données pour déterminer si elles peuvent être utilisées par des systèmes d’IA
Les organismes doivent déterminer si les ensembles de données potentiels contenant des renseignements sur les personnes en situation de handicap sont appropriés, inappropriés ou s’ils sont appropriés à certaines conditions pour être utilisés comme données d’entrée dans les systèmes d’IA, en associant les personnes en situation de handicap à la détermination du caractère approprié.Il faut procéder à un alignement entre :l’ensemble de données utilisé comme entrée dans un système d’intelligence artificielle;le modèle ou la méthode utilisé par le système d’IA; etl’objectif ou la tâche assignée au système d’IA.Un ensemble de données peut être approprié pour un objectif ou une tâche en particulier dans un système d’IA, mais inapproprié pour d’autres tâches dans le même système d’IA, ou inapproprié lorsqu’il est appliqué à des personnes qui sont différentes de la majorité des personnes en fonction de plusieurs variables ou étiquettes. Le caractère approprié de chaque ensemble de données doit être évalué pour chaque objectif ou tâche et chaque système d’IA avant qu’il ne soit utilisé en tant qu’intrant. Les organismes doivent recueillir, utiliser et gérer les données et les modèles de données et d’algorithmes de manière à éviter les préjugés négatifs ou la discrimination injustifiée à l’égard des personnes en situation de handicap dans l’utilisation et les résultats des systèmes d’IA. En particulier, des mesures doivent être prises pour éviter : les choix biaisés lors de la modélisation des données;une représentation erronée dans les données d’entraînement;l’utilisation d’indicateurs biaisés;l’étiquetage biaisé des données;la conception biaisée des systèmes;la mise au point des systèmes selon des critères incorrects ou incomplets;les préjugés qui se révèlent dans le contexte de l’utilisation du système; etdes données synthétiques qui dont la portée et l’objectif présentent des lacunes concernant les expériences de handicap pertinentes pour l’objectif du système d’IA.Les organismes doivent : prévenir les préjudices causés aux personnes en situation de handicap par des violations de données (qu’elles soient accidentelles ou délibérées);veiller à ce que les systèmes d’IA ne répètent pas ou ne diffusent pas de stéréotypes ou d’informations erronées sur les personnes en situation de handicap; etveiller à ce que les planificateurs, les développeurs, les opérateurs et les organes de gouvernance disposent de l’expertise nécessaire pour évaluer et traiter les cas où la non-discrimination exige que certaines personnes – y compris des personnes en situation de handicap – ne soient pas soumises à des décisions assistées par l’IA, parce qu’elles sont considérées comme des valeurs aberrantes dans les distributions statistiques que les systèmes d’IA modélisent et utilisent. (voir la clause 5.2.2).Voir l’annexe A pour des exemples.5.3.5 Concevoir et élaborer des systèmes d’IA accessibles et équitables
La conception et l’élaboration des systèmes d’IA doivent inclure les exigences des clauses 5.1 et 5.2.Conformément aux exigences de la clause 5.1, avant la mise en œuvre ou l’utilisation d’un système d’IA ayant une incidence directe ou indirecte sur les personnes en situation de handicap, ces dernières et les organismes œuvrant pour les personnes en situation de handicap doivent être invités à mettre à l’essai l’accessibilité du système d’IA. Les personnes qui participent à cette démarche doivent être rémunérées équitablement.Conformément aux exigences de la clause 5.2.2, il faut solliciter les rétroactions formulés par les personnes en situation de handicap et des organismes œuvrant pour les personnes en situation de handicap dans toutes les décisions relatives à la conception et à l’élaboration de systèmes d’IA afin de garantir des avantages comparables à ceux d’autres segments de la population concernée, de préserver la capacité d’agir individuelle, de prévenir ou d’atténuer les effets néfastes sur les personnes en situation de handicap.Conformément aux exigences des clauses 5.2.3 et 5.2.4, les organismes doivent adopter des cadres de planification et de conception ainsi que des régimes de contrôle pour s’assurer que tout système d’IA qu’elles utilisent, contrôlent ou régissent :n’est pas utilisé pour exercer une surveillance sur les employés et les clients en situation de handicap; n’est pas utilisé pour la catégorisation biométrique, l’analyse des émotions ou le maintien de la répression prédictive des employés et des clients en situation de handicap; etn’est pas utilisé pour manipuler les personnes en situation de handicap ou leur transmettre de l’information erronée. La conception de tout système d’IA doit inclure des mécanismes de responsabilité et de gouvernance qui indiquent clairement qui est responsable des décisions prises par un système d’IA. 5.3.6 L’achat des systèmes d’IA accessibles et équitables
L’achat des systèmes d’IA doit inclure les exigences des clauses 5.1 et 5.2. Il faut solliciter les rétroactions des personnes en situation de handicap et des organismes œuvrant pour les personnes en situation de handicap dans toutes les décisions relatives à l’acquisition de systèmes d’IA afin de prévenir ou d’atténuer les incidences sur les personnes en situation de handicap : qui sont disproportionnés par rapport aux incidences sur les personnes qui ne sont pas en situation de handicap;qui produisent des résultats disparates pour les personnes en situation de handicap par rapport aux résultats obtenus pour les autres personnes qui ne sont pas en situation de handicap; etqui produisent des préjudices cumulés pour les personnes en situation de handicap, quelle que soit l’ampleur de l’incidence immédiate subie.Avant la mise en œuvre ou l’utilisation d’un système d’IA ayant une incidence directe ou indirecte sur les personnes en situation de handicap, ces dernières et les organismes œuvrant pour les personnes en situation de handicap doivent être invités à mettre à l’essai l’accessibilité du système d’IA et à procéder à une évaluation des incidences. Les personnes qui participent à cette démarche doivent être rémunérées équitablement. Conformité aux critères d’accessibilité et d’équité par une tierce partie experte en matière d’accessibilité et d’équité à l’égard des personnes en situation de handicap avant que la décision d’achat d’un système d’IA ne soit prise. Les contrats d’approvisionnement devraient prévoir la possibilité d’arrêter ou de mettre fin à un système d’IA en cas de dysfonctionnement du système ou si les performances mesurées par rapport à des critères d’équité diminuent ou si les critères ne sont plus respectés.5.3.7 Personnaliser des systèmes d’IA accessibles et équitables
La personnalisation des systèmes d’IA doit inclure les exigences des clauses 5.1 et 5.2. Il faut solliciter les rétroactions des personnes en situation de handicap et des organismes œuvrant pour les personnes en situation de handicap dans toutes les décisions relatives à la personnalisation de systèmes d’IA afin de prévenir ou d’atténuer les incidences sur les personnes en situation de handicap : qui sont disproportionnés par rapport aux incidences sur les personnes qui ne sont pas en situation de handicap;qui produisent des résultats disparates pour les personnes en situation de handicap par rapport aux résultats obtenus pour les autres personnes qui ne sont pas en situation de handicap; etqui produisent des préjudices cumulés pour les personnes en situation de handicap, quelle que soit l’ampleur de l’incidence immédiate subie.Avant la mise en œuvre ou l’utilisation d’un système d’IA ayant une incidence directe ou indirecte sur les personnes en situation de handicap, ces dernières et les organismes œuvrant pour les personnes en situation de handicap doivent être invités à mettre à l’essai l’accessibilité du système d’IA. Les personnes qui participent à cette démarche doivent être rémunérées équitablement. 5.3.8 Procéder à des évaluations de l’incidence, à une surveillance éthique et à un suivi continu des préjudices potentiels
Les organismes doivent effectuer une surveillance continue de la qualité des données et des évaluations d’incidences afin de cerner les sources de discrimination et les préjugés nouveaux ou réels à l’égard des personnes en situation de handicap. Cette surveillance et cette évaluation devraient prendre en compte de multiples dimensions, y compris, mais sans s’y limiter, les résultats du système d’IA en ce qui concerne les personnes en situation de handicap : qui peuvent avoir une incidence disproportionnée par rapport aux incidences sur d’autres personnes qui ne sont pas en situation de handicap;qui peuvent donner lieu à un accès inéquitable aux prestations, par rapport à d’autres personnes qui ne sont pas en situation de handicap;qui peuvent produire des résultats disparates pour les personnes en situation de handicap par rapport aux résultats obtenus pour d’autres personnes qui ne sont pas en situation de handicap;qui peuvent produire des préjudices cumulés pour les personnes en situation de handicap, quelle que soit l’ampleur de l’incidence immédiate subie; ouqui peuvent porter atteinte aux droits, aux libertés, à la dignité ou à l’autonomie des personnes en situation de handicap.Les organismes doivent également tenir un registre public des préjudices, des décisions contestées, des obstacles à l’accès signalés et des cas de traitement inéquitable des personnes en situation de handicap liés aux systèmes d’IA. Le registre doit être conforme à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE).Tous les organismes sous réglementation fédérale consignent dans leur registre l’incidence des décisions à faible, à moyenne et à forte incidence sur les personnes en situation de handicap. Ces informations sont mises à la disposition du public dans un format accessible. Une fois qu’un système de surveillance accessible au public et englobant tous les organismes sous réglementation fédérale qui utilisent des systèmes d’IA sera mis en place et tenu à jour pour effectuer le suivi de l’incidence cumulative des décisions à faible, à moyenne et à forte incidence sur les personnes en situation de handicap, les organismes sous réglementation fédérale devront soumettre ces informations au système. Les seuils pour les niveaux inacceptables de risque et de préjudice doivent être établis avec les organismes nationaux œuvrant pour les personnes en situation de handicap et les organismes experts en matière d’accessibilité et d’équité à l’égard des personnes en situation de handicap. Au fur et à mesure que les résultats font l’objet d’une surveillance, les essais des systèmes d’IA doivent évoluer pour tenir compte des oublis et des préjudices, et le système doit être mis à jour pour atténuer ces oublis et ces préjudices ou proposer une solution de rechange qui les contourne.5.3.9 Former le personnel à une IA accessible et équitable
Tout le personnel responsable de l’un ou l’autre aspect du cycle de vie de l’IA doit recevoir une formation sur l’IA accessible et équitable. Cette formation doit être mise à jour et dispensée périodiquement dans des formats accessibles conformément à la clause 5.1. La formation doit être créée en collaboration avec les personnes en situation de handicap et être adaptée au contexte des apprenants et ne pas se limiter à une formation générique sur l’accessibilité et l’équité. Cette formation doit comprendre : des considérations juridiques relatives à la protection des renseignements personnels;des considérations relatives à l’accessibilité de l’interface utilisateur;des stratégies de détection des préjudices et des risques; les stratégies de détection et d’atténuation des préjugés; etles moyens de faire participer les personnes en situation de handicap au cycle de vie de l’IA.5.3.10 Fournir des mécanismes de transparence, de responsabilisation et de consentement
Les organismes doivent informer les personnes de leur utilisation prévue ou réelle de systèmes d’IA qui prennent des décisions concernant les personnes en situation de handicap ou qui ont une incidence sur elles. Ces informations sont fournies de manière précise, accessible et compréhensible. La transparence en matière d’IA comprend la communication d’informations sur :les données utilisées pour pré-entraîner, personnaliser ou entraîner dynamiquement un système d’IA;les étiquettes de données et les données de substitution utilisées dans l’entraînement;la ou les décisions à prendre par le système d’IA et les facteurs déterminants de ces décisions;la disponibilité de systèmes décisionnels complets, accessibles et facultatifs; etles noms et les coordonnées des personnes qui, au sein de l’organisme, sont responsables du système d’IA et des décisions qui en découlent.Tous les renseignements doivent être fournis dans des formats accessibles et dans un langage simple et non technique, de manière à ce que l’incidence potentielle du système d’IA soit claire. Dans les cas où les systèmes d’IA utilisent des données recueillies avec le consentement des personnes concernées, les personnes en situation de handicap doivent avoir la possibilité de retirer leur consentement pour une ou toutes les utilisations de leurs données, à tout moment et sans conséquences négatives. Lorsque des systèmes d’IA utilisent des données recueillies sans le consentement des personnes concernées (p. ex., les systèmes d’IA qui utilisent des données administratives dépersonnalisées concernant des services financés par l’État), les organismes font participer les personnes en situation de handicap aux décisions relatives à l’utilisation des ensembles de données.5.3.11 Donner accès à des approches de rechange équivalentes
Les organismes qui déploient des systèmes d’IA doivent offrir aux personnes en situation de handicap les solutions de rechange suivantes :la possibilité de demander que les décisions humaines soient prises par des personnes ayant des connaissances et de l’expertise des besoins des personnes en situation de handicap dans le domaine des décisions à prendre; oula possibilité de demander une supervision humaine ou de confier la prise de décision finale à une personne compétente dans le domaine des besoins des personnes en situation de handicap, guidée par l’IA.Ces options de rechange doivent offrir une disponibilité, une rapidité, un coût et une commodité raisonnables. L’organisme doit maintenir en poste les personnes qui possèdent l’expertise nécessaire pour prendre des décisions humaines équitables concernant les personnes en situation de handicap lorsque des systèmes d’IA sont déployés pour remplacer des décisions qui étaient prises auparavant par des êtres humains.5.3.12 Aborder de la rétroaction sur l’accessibilité, les incidents et les plaintes concernant les systèmes d’IA
L’organisme doit traiter la rétroaction, les signalements d’incident et les plaintes en matière d’accessibilité et d’équité, notamment en fournissant des précisions sur les fonctions de recours, de contestation et d’appels pour les personnes en situation de handicap qui : sont faciles à trouver, accessibles et exploitables ;accusent réception de la rétroaction, des signalements d’incident et des plaintes et répondent à la rétroaction dans un délai maximum de 24 heures ;fournissent un calendrier pour traiter la rétroaction, les incidents et les plaintes ; offrent une procédure permettant aux personnes en situation de handicap ou à leurs représentants de fournir de la rétroaction sur les décisions ou de les contester de manière anonyme ; etcommuniquent aux personnes en situation de handicap ou à leurs représentants l’état d’avancement du traitement de la rétroaction, des incidents ou des plaintes et leur offrir la possibilité de faire appel ou de contester les mesures correctives proposées. La rétroaction relative aux préjudices doit être consignée dans le registre public des préjudices, à condition qu’elle puisse être rendue anonyme afin de protéger les renseignements personnels, conformément à la Loi sur la protection des renseignements personnels, à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et aux autres lois fédérales et provinciales applicables en matière de protection des renseignements personnels, avec le consentement de la personne qui soumet la rétroaction.5.3.13 Fournir des mécanismes de révision, de perfectionnement et de clôture
Les organismes qui déploient des systèmes d’IA doivent continuellement les examiner, les perfectionner et, si nécessaire, les arrêter ou y mettre fin. Ces processus d’examen et de perfectionnement continus doivent prendre en compte l’ensemble des préjudices, y compris les préjudices cumulés découlant de décisions ayant une incidence faible ou moyenne sur les personnes en situation de handicap. Les personnes en situation de handicap doivent avoir la possibilité de participer au processus d’examen.Si le système se dégrade au point que les critères d’accessibilité ou d’équité pour les personnes en situation de handicap ne sont plus respectés, il faut mettre fin au système d’IA jusqu’à ce que l’obstacle à l’accessibilité ou le traitement inéquitable soit résolu, ou que le système soit arrêté.Tous les systèmes d’IA doivent être mis à jour pour atténuer les risques si des préjudices pour les personnes en situation de handicap sont relevés. Les systèmes d’IA qui utilisent l’apprentissage automatique doivent être conçus pour apprendre des erreurs et des échecs.5.3.14 Stocker et gérer les données en toute sécurité tout au long du cycle de vie de l’IA
Les organismes doivent veiller à ce que les données relatives au handicap soient utilisées pour créer des systèmes d’IA équitables d’une manière sûre et sécurisée qui n’entraîne pas de préjudice pour les personnes qui fournissent leurs données.Les données relatives aux personnes en situation de handicap doivent être stockées et gérées en toute sécurité à chaque phase du cycle de vie des données, depuis la collecte des données jusqu’à leur conservation (stockage), leur utilisation, leur divulgation (partage) et leur destruction. L’utilisation abusive ou la violation de données relatives au handicap peut conduire à la discrimination, à l’exclusion et à d’autres préjudices pour les personnes en situation de handicap. Conformément à la clause 22 de la Convention relative aux droits des personnes en situation de handicap des Nations Unies, les organismes doivent protéger la confidentialité des renseignements personnels et des renseignements relatifs à la santé et à la réadaptation des personnes en situation de handicap sur la base de l’égalité avec les autres. Le stockage et la gestion des données doivent être conformes à la Loi sur la protection des renseignements personnels, à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et aux autres lois fédérales et provinciales applicables en matière de protection des renseignements personnels. Dans le cadre de leur mise en conformité, les organismes doivent s’efforcer de garantir que la réidentification n’est pas possible grâce à des techniques d’anonymisation rigoureuses.
,
5.4 L’éducation, la formation, et la littératie accessibles dans le domaine de l’IA
Tous les acteurs de l’écosystème de l’IA, y compris ceux qui participent à la création, à l’acquisition, au déploiement et à la surveillance des systèmes d’IA, ceux qui utilisent l’IA dans la prise de décision et ceux qui sont directement ou indirectement touchés par les systèmes d’IA, doivent être mieux informés sur l’accessibilité et l’équité. C’est pourquoi l’éducation, la formation et le soutien à l’acquisition de la littératie des personnes en matière d’IA doivent être accessibles. En outre, l’éducation, la formation et le soutien à l’acquisition de la littératie dans le domaine de l’IA doivent inclure des cours sur l’IA accessible et équitable. Pour favoriser la création de systèmes et d’outils d’IA accessibles et équitables, les organismes doivent associer les personnes en situation de handicap à la création et à la mise en œuvre de cette éducation et de cette formation. Enfin, les organismes doivent contribuer aux efforts d’acquisition de la littératie visant à permettre aux personnes concernées par les décisions ou les actions assistées par l’IA d’exercer leur capacité d’agir et de contrôler les incidences de ces décisions et actions.5.4.1 L’éducation, la formation et le soutien à la littératie en matière d’IA doivent être accessibles
Le matériel et les méthodologies y compris la technologie, le contenu, les méthodes et les processus d’enseignement, d’évaluation et de certification doivent être accessibles ; pour ce faire, il faut mettre en œuvre les exigences de la norme CAN/ASC EN 301 549 : 2024 – Exigences d’accessibilité pour les produits et services TIC (EN 301 549:2021, IDT).L’éducation et la formation en matière d’IA doivent permettre aux personnes en situation de handicap de participer aux activités du personnel et d’être membres des comités de gouvernance et de gestion, conformément aux exigences de la clause 5.3.1.L’acquisition de la littératie en matière d’IA doit permettre aux personnes en situation de handicap de jouer un rôle actif dans la création, l’acquisition, le déploiement et la surveillance des systèmes d’IA.5.4.2 L’éducation et la formation des personnes qui utilisent l’IA à des fins professionnelles doivent inclure l’IA accessible et équitable
Toute l’éducation et la formation sur l’IA doivent intégrer du contenu sur l’IA accessible et équitable, afin de veiller à ce que tous les systèmes d’IA soient accessibles et équitables. Les organismes doivent veiller à ce que leur effectif actuel, y compris, mais sans s’y limiter, les personnes jouant un rôle technique, reçoive une formation sur l’IA accessible et équitable, y compris sur les exigences de la clause 5.3.9. L’éducation et la formation portent sur l’application de méthodes participatives auprès des personnes en situation de handicap et par celles ci.5.4.3 Participation des personnes en situation de handicap à l’enseignement de l’IA, à la formation et au soutien de l’acquisition de la littératie
Les personnes en situation de handicap doivent être incluses lors de l’élaboration du matériel et des méthodes d’éducation, de formation et d’acquisition de littératie ainsi qu’à la présentation de l’enseignement.5.4.4 La littératie en IA
Les organismes doivent participer à des efforts de littératie en IA pour permettre aux personnes concernées par les systèmes d’IA, y compris les personnes en situation de handicap, de comprendre les objectifs, les avantages et les risques de ces systèmes, ainsi que les problèmes d’accessibilité et d’équité. La littératie en IA devrait permettre aux personnes concernées par les systèmes d’IA d’exercer un consentement éclairé, d’évaluer les incidences de la participation et de la non-participation, ainsi que de comprendre les autres options et les possibilités de recours, conformément à ce qui est indiqué à la clause 5.2.4.
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/5-preface