Lorsque les organismes mettent en œuvre ou utilisent des systèmes d’IA, ou les deux, les processus organisationnels doivent aboutir à des systèmes d’IA accessibles et équitables pour les personnes en situation de handicap (voir les articles 10 et 11 pour les définitions d’une IA « accessible » et « équitable »). Chaque processus doit :inclure les personnes en situation de handicap à la gouvernance et à la prise de décision tout au long du cycle de vie de l’IA; etêtre accessible aux personnes en situation de handicap qui sont :membres d’un comité de gouvernance ou de gestion;des employés;des entrepreneurs;des clients;des membres d’un organisme œuvrant pour les personnes en situation de handicap; oudes membres du public.Le cas échéant, cet article s’applique aux processus organisationnels utilisés pour :soutenir une gouvernance de l’IA accessible et équitable;planifier et justifier le besoin de systèmes d’IA;informer le public de son intention d’utiliser des systèmes d’IA;évaluer la pertinence des données pour leur utilisation par les systèmes d’IA;concevoir et élaborer des systèmes d’IA accessibles et équitables;acquérir des systèmes d’IA accessibles et équitables;personnaliser des systèmes d’IA accessibles et équitables;procéder à des évaluations de l’incidence, à une surveillance éthique et à un suivi continu des préjudices potentiels;former le personnel à une IA accessible et équitable;fournir des mécanismes de transparence, de responsabilisation et de consentement;donner accès à des approches de rechange équivalentes;traiter les rétroactions sur l’accessibilité et l’équité, les incidents et les plaintes concernant les systèmes d’IA;prévoir des mécanismes de révision, de perfectionnement et de clôture; etstocker et gérer les données en toute sécurité tout au long du cycle de vie de l’IA.
,
12.1 Soutenir une gouvernance de l’IA accessible et équitable
Les organismes doivent solliciter et encourager la participation des personnes en situation de handicap à tous les stades :de l’ensemble de données;des systèmes d’IA; de leurs composantes (conception, codage, mise en œuvre, évaluation, perfectionnement);de l’acquisition;de la consommation;de la gouvernance;de la gestion; etdu suivi.Outre la consultation des personnes en situation de handicap externes à l’organisme sur des décisions précises liées à l’IA (voir les articles 12.4, 12.5, 12.6, 12.7, 12.9, 12.14), les organismes devraient faire participer de manière permanente et continue les personnes en situation de handicap en :recrutant;intégrant; etsoutenant leur participation. Participation des personnes en situation de handicap devrait inclure :la personne;les entrepreneurs; etles membres de comités de gouvernance et de gestion (p. ex., le conseil d’administration, les comités directeurs, les comités consultatifs et les équipes de gestion).
,
12.2 Planifier et justifier l’utilisation des systèmes d’IA
Lorsqu’un organisme propose et planifie le déploiement d’un système d’IA, l’incidence sur les personnes en situation de handicap doit être prise en compte avant le déploiement et tout au long de l’utilisation du système d’IA. 12.2.1 Planifier l’utilisation de l’IA
Les organismes doivent créer un plan d’utilisation de l’IA qui : comprend des renseignements sur :la manière dont le contrôle et la surveillance humaine sont intégrés dans l’utilisation du système d’IA; etla manière dont les utilisateurs peuvent opter pour une solution de rechange humaine au système d’IA; etdécrit des mesures claires et rapides pour protéger les personnes en situation de handicap en cas de violation de données :à n’importe quelle étape du cycle de vie du projet; oulorsque des attaques malveillantes contre les systèmes d’IA surviennent après le déploiement.12.2.2 Détermination des risques et des impacts
Des mesures efficaces visant à prévenir les incidences négatives sur les personnes en situation de handicap doivent être prises indépendamment de la disponibilité d’une ou de plusieurs déterminations des risques quantitatives ou prédictives, ou les deux.Les processus d’évaluation des impacts et des risques doivent :inclure les personnes en situation de handicap susceptibles d’être directement ou indirectement touchées par le système d’IA en tant que participants actifs aux décisions (voir l’article 11.2.2);inclure la détermination de l’impact sur le plus grand nombre possible de personnes en situation de handicap; ettenir compte des impacts globaux, pour les personnes en situation de handicap, des nombreux préjudices cumulés qui peuvent se croiser ou s’accumuler au fil du temps à la suite de décisions assistées par l’IA et qui ne sont pas classés comme ayant une incidence élevée.12.2.3 Cadres d’évaluation des risques équitables
Lorsque des cadres d’évaluation des risques sont utilisés pour déterminer les risques et les bienfaits des systèmes d’IA (voir l’article 11.2.2), les organismes doivent :Donner la priorité à la prévention ou à l’atténuation, ou les deux, des risques pour les personnes en situation de handicap (qui sont des minorités et des valeurs aberrantes dans les modèles statistiques). Par exemple, en veillant à ce que les modèles d’évaluation des risques ne soient pas uniquement fondés sur les risques et les bienfaits pour la majorité (ou le cas « typique »).Sélectionner les critères d’évaluation de la précision en fonction des résultats de l’évaluation des risques, en veillant à prendre en compte les préjudices subis ou qui pourraient être subis par les personnes en situation de handicap et les autres groupes minoritaires ou défavorisés.Inclure des mesures désagrégées pour les personnes en situation de handicap dans les évaluations de la précision, et prendre en compte le contexte d’utilisation et les conditions relatives aux personnes en situation de handicap qui peuvent être touchés par l’utilisation du système d’IA.
,
12.3 Fournir un avis d’intention d’utiliser un système d’IA
L’intention d’utiliser un système d’IA doit être rendue publique dans des formats accessibles dans le cadre du plan d’accessibilité de l’organisme et distribuée aux organisations nationales de personnes en situation de handicap et aux parties intéressées.Remarque : Cet article s’applique à tous les systèmes d’IA, qu’il soit déterminé ou non qu’ils affectent directement les personnes en situation de handicap.12.3.1 Demande d’avis
Les organismes doivent établir un processus par lequel toute partie intéressée peut demander à être inscrite sur une liste de distribution d’avis. 12.3.2 Mécanismes d’entrée accessibles dans les avis
Les organismes doivent inclure des méthodes accessibles pour fournir des commentaires dans les avis.
,
12.4 Évaluer la pertinence des données pour leur utilisation par les systèmes d’IA
Les organismes doivent déterminer si les ensembles de données potentiels contenant des renseignements sur les personnes en situation de handicap sont appropriés, inappropriés ou s’ils sont appropriés à certaines conditions pour être utilisés comme données d’entrée dans les systèmes d’IA, en associant les personnes en situation de handicap pertinentes à la détermination du caractère approprié.Il faut procéder à un alignement entre :l’ensemble de données utilisé comme entrée dans un système d’IA;le modèle ou la méthode utilisée par le système d’IA; etl’objectif ou la tâche assignée au système d’IA.Le caractère approprié de chaque ensemble de données doit être évalué avant qu’il ne soit utilisé en tant qu’intrant pour chaque :objectif ou tâche; etsystème d’IA.Remarque : Un ensemble de données peut être approprié pour un objectif ou une tâche en particulier dans un système d’IA, mais inapproprié pour d’autres tâches dans le même système d’IA, ou inapproprié lorsqu’il est appliqué à des personnes qui sont différentes de la majorité des personnes en fonction de plusieurs variables ou étiquettes.Voir l’annexe A pour des exemples.12.4.1 Prévention des biais et des fausses représentations dans les données
Les organismes doivent recueillir, utiliser et gérer les données, les modèles de données, et d’algorithmes de manière à éviter les préjugés négatifs ou la discrimination injustifiée à l’égard des personnes en situation de handicap dans l’utilisation et les extrants des systèmes d’IA. En particulier, des mesures doivent être prises pour éviter :les choix biaisés lors de la modélisation des données;une représentation erronée dans les données d’entraînement;l’utilisation d’indicateurs biaisés;l’étiquetage biaisé des données;la conception biaisée des systèmes;la mise au point des systèmes selon des critères incorrects ou incomplets;les préjugés qui se révèlent dans le contexte de l’utilisation du système; etdonnées synthétiques qui reflètent une portée et un objectif insuffisants des expériences de handicap pertinentes par rapport à l’objectif du système d’IA.12.4.2 Prévention des préjudices et de la discrimination
Les organismes doivent s’assurer de :prévenir les préjudices causés aux personnes en situation de handicap par des violations de données (qu’elles soient accidentelles ou délibérées);veiller à ce que les systèmes d’IA ne répètent pas ou ne diffusent pas de stéréotypes ou d’informations erronées sur les personnes en situation de handicap; etveiller à ce que les planificateurs, les développeurs, les opérateurs et les organes de gouvernance disposent de l’expertise nécessaire pour évaluer et traiter les cas où la non-discrimination exige que certaines personnes, y compris des personnes en situation de handicap, ne soient pas soumises à des décisions assistées par l’IA, parce qu’elles constituent des valeurs aberrantes statistiques dans les distributions statistiques utilisées par les systèmes d’IA (voir l’article 11.2).
,
12.5 Concevoir et élaborer des systèmes d’IA accessibles et équitables
Les organismes doivent s’assurer que la conception et l’élaboration de systèmes d’IA favorisent de manière proactive l’accessibilité et l’équité pour les personnes en situation de handicap. Cela doit inclure : d’intégrer les exigences en matière d’accessibilité et d’équité dès le départ;de mobiliser les personnes en situation de handicap de manière significative et rémunérée; etd’appliquer des pratiques de conception et de surveillance inclusives tout au long du cycle de vie de l’IA.12.5.1 Exigences en matière d’accessibilité et d’équité dans la conception et l’élaboration
Les organismes doivent inclure des exigences en matière d’accessibilité et d’équité dans la conception et l’élaboration des systèmes d’IA conformément aux articles 10 et 11.12.5.2 Participation des personnes en situation de handicap aux essais d’accessibilité
Avant la mise en œuvre ou l’utilisation ou les deux, d’un système d’IA ayant un impact direct ou indirect sur les personnes en situation de handicap, ces dernières et les organismes pour les personnes en situation de handicap pertinentes doivent être invités à mettre à l’essai l’accessibilité du système d’IA, conformément aux exigences de l’article 10.Les personnes qui participent à cette démarche doivent être rémunérées équitablement par l’entité réglementée.12.5.3 Rétroaction des personnes en situation de handicap
Il faut solliciter les rétroactions formulées par les personnes en situation de handicap ou des organismes œuvrant pour de personnes en situation de handicap dans toutes les décisions relatives à la conception et à l’élaboration de systèmes d’IA, conformément aux exigences de l’article 11.4Remarque : Cela garantira que ces systèmes offrent aux personnes en situation de handicap des bienfaits équitables, préservent la capacité d’agir individuelle, préviennent et/ou atténuent les effets néfastes sur les personnes en situation de handicap.12.5.4 Interdire la surveillance et le profilage des personnes en situation de handicap
Les organismes doivent adopter des cadres de planification et de conception ainsi que des processus de surveillance pour s’assurer que tout système d’IA qu’ils utilisent, contrôlent ou gouvernent n’est pas utilisé :plus précisément pour exercer une surveillance sur les employés et les clients en situation de handicap en particulier;pour la catégorisation biométrique, l’analyse des émotions ou l’opération policière prédictive des employés et des clients en situation de handicap en particulier; nipour manipuler les personnes en situation de handicap ou leur transmettre de l’information erronée.12.5.5 Prévenir les abus et les manipulations grâce à l’IA
Conformément aux exigences des articles 11.3 et 11.4, les organismes doivent adopter des cadres de planification et de conception ainsi que des processus de contrôle pour s’assurer que tout système d’IA qu’elles utilisent, contrôlent ou régissent : ne sers pas à :désinformer; oumanipuler les personnes en situation de handicap; etne produis pas un ou plusieurs des suivants :de répercussions discriminatoiresde préjudices ou de risques accrus de préjudicede reproduction de stéréotypesd’autres formes de préjugés à l’égard des personnes en situation de handicap lorsque le système d’IA est utilisé pour :exercer une surveillance sur les employés, des clients ou d’autres utilisateurs du système; oula catégorisation biométrique, l’analyse des émotions ou une opération policière prédictive des employés, des clients ou d’autres utilisateurs du système; outotue combinaison des éléments ci-dessus, y compris tous les éléments ci-dessus.12.5.6 Établir la responsabilité des décisions relatives au système d’IA
La conception de tout système d’IA doit inclure des mécanismes de responsabilité et de gouvernance qui indiquent clairement qui est responsable des décisions prises par un système d’IA.
,
12.6 L’achat des systèmes d’IA accessibles et équitables
Les organismes doivent s’assurer que les processus d’approvisionnement pour les systèmes d’IA sont conçus pour maintenir l’accessibilité et l’équité pour les personnes en situation de handicap. Cela comprend l’application des exigences des articles 10 et 11, pour impliquer les personnes en situation de handicap aux décisions d’approvisionnement et la vérification de la conformité aux critères d’accessibilité et d’équité avant l’acquisition.12.6.1 Appliquer les exigences en matière d’accessibilité et d’équité dans l’approvisionnement
Les organismes doivent inclure des exigences en matière d’approvisionnement, conformément aux articles 10 et 11. 12.6.2 Rétroaction des personnes en situation de handicap pendant l’approvisionnement
Les organismes doivent solliciter les rétroactions des personnes en situation de handicap et des organismes œuvrant pour les personnes en situation de handicap dans toutes les décisions relatives à l’acquisition de systèmes d’IA afin de prévenir ou d’atténuer, ou les deux, des impacts négatifs sur les personnes en situation de handicap qui :ont une ampleur disproportionnée;produisent des résultats inéquitables pour les personnes en situation de handicap; etproduisent des préjudices cumulés pour les personnes en situation de handicap, quelle que soit l’ampleur de l’impact immédiat subi.12.6.3 Faire participer les personnes en situation de handicap aux essais d’accessibilité et à l’évaluation des impacts
Avant la mise en œuvre ou l’utilisation, ou les deux, d’un système d’IA ayant un impact direct ou indirect sur les personnes en situation de handicap, ces dernières ou les organismes œuvrant pour les personnes en situation de handicap doivent être invités à :mettre à l’essai l’accessibilité du système d’IA; etprocéder à une évaluation des incidences.Les personnes qui participent à cette démarche doivent être rémunérées équitablement par l’organisme qui met en œuvre ou utilise l’IA.12.6.4 Vérification de l’accessibilité et de la conformité à l’équité
La conformité aux critères d’accessibilité et d’équité doit être vérifiée par des experts neutres en matière d’accessibilité et d’équité avant qu’une décision d’approvisionnement d’un système d’IA ne soit prise.Remarque : Les experts neutres sont des personnes ayant une expertise reconnue dans le domaine qui fournissent des conseils ou analyses impartiales, et qui n’ont aucun intérêt financier, personnel ou professionnel dans le résultat.12.6.5 Dispositions relatives à la clôture des contrats d’approvisionnement
Les organismes doivent inclure des dispositions pour l’arrêt ou la clôture des contrats d’approvisionnement d’un système d’IA si :le système fonctionne mal; oule rendement mesuré par rapport aux critères d’accessibilité ou d’équité se dégrade ou n’est plus respecté.
,
12.7 Personnaliser des systèmes d’IA accessibles et équitables
Les organismes doivent personnaliser les systèmes d’IA de manière à maintenir l’accessibilité et l’équité pour les personnes en situation de handicap. Il s’agit notamment :d’appliquer les exigences pertinentes en matière d’accessibilité et d’équité;de faire participer activement les personnes en situation de handicap aux décisions relatives à la personnalisation; etde veiller à ce que l’accessibilité des systèmes personnalisés soit mise à l’essai avant leur déploiement.12.7.1 Exigences en matière d’accessibilité et d’équité en matière de personnalisation
La personnalisation des systèmes d’IA doit respecter les exigences des articles 10 et 11. 12.7.2 Rétroaction des personnes en situation de handicap pendant la personnalisation
La rétroaction des personnes en situation de handicap pertinentes et des organismes œuvrant à celles-ci doit être sollicitée dans toutes les décisions relatives à la personnalisation de systèmes d’IA afin de prévenir ou d’atténuer, ou les deux, les incidences négatives sur les personnes en situation de handicap qui :ont une ampleur disproportionnée;produisent des résultats inéquitables pour les personnes en situation de handicap; etproduisent des préjudices cumulés pour les personnes en situation de handicap, quelle que soit l’ampleur de l’impact immédiat subi.12.7.3 Essais d’accessibilité de la personnalisation
Avant la mise en œuvre ou l’utilisation, ou les deux, d’un système d’IA ayant un impact direct ou indirect sur les personnes en situation de handicap, les personnes en situation de handicap ou les organismes œuvrant pour celles-ci doivent être invités à mettre à l’essai l’accessibilité du système d’IA.Les personnes qui participent à cette démarche doivent être rémunérées équitablement par l’organisme qui met en œuvre ou utilise l’IA.
,
12.8 Procéder à des évaluations des impacts, à une surveillance éthique et à un suivi continu des préjudices potentiels
Les organismes doivent effectuer une surveillance continue de la qualité des données et des évaluations d’incidences afin de cerner :les biais nouveaux ou réels; oules sources de discrimination à l’égard des personnes en situation de handicap, ou les deux.12.8.1 Surveillance et évaluation des extrants du système
Cette surveillance et cette évaluation doivent prendre en compte de multiples dimensions, y compris, mais sans s’y limiter, aux extrants du système d’IA en ce qui concerne les personnes en situation de handicap qui :peuvent avoir :des impacts discriminatoires;des préjudices ou un risque accru de préjudice;la reproduction de stéréotypes;d’autres formes de biais à l’égard des personnes en situation de handicap; outoute combinaison des éléments ci-dessus, y compris tous les éléments ci-dessus;peuvent donner lieu à un accès inéquitable aux bienfaits;peuvent entraîner des résultats inéquitables pour les personnes en situation de handicap;peuvent produire des préjudices cumulés pour les personnes en situation de handicap, quelle que soit l’ampleur de l’impact immédiat subi;peuvent porter atteinte :aux droits;aux libertés;à la dignité;à l’a capacité d’agir personnelle des personnes en situation de handicap; outoute combinaison des éléments ci-dessus, y compris tous les éléments ci-dessus; outoute combinaison des éléments ci-dessus, y compris tous les éléments ci-dessus.12.8.2 Registre public des préjudices, des obstacles et du traitement inéquitable
Les organismes doivent tenir un registre public des :préjudices;décisions contestées;obstacles à l’accès signalés; etcas de traitement inéquitable des personnes en situation de handicap liés aux systèmes d’IA.Le registre public doit :être conforme à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE);être conforme à la Loi sur la protection des renseignements personnels;consigner dans leur registre l’impact des décisions ayant un impact faible, moyen et élevé sur les personnes en situation de handicap; etêtre mis à la disposition du public dans un format accessible.Une fois qu’un système de surveillance accessible au public englobant tous les organismes qui utilisent des systèmes d’IA est établi et maintenu pour suivre l’impact cumulatif des décisions à impact faible, moyen et élevé sur les personnes en situation de handicap, les organismes devront soumettre ces informations au système.12.8.3 Seuils de risque inacceptable
Les seuils pour les niveaux inacceptables de risque et de préjudice doivent être établis avec les organismes nationaux œuvrant pour les personnes en situation de handicap et les organismes experts en matière d’accessibilité et d’équité à l’égard des personnes en situation de handicap. Au fur et à mesure que les résultats font l’objet d’une surveillance, les essais des systèmes d’IA doivent évoluer pour tenir compte des oublis et des préjudices, et le système doit être mis à jour pour atténuer ces oublis et ces préjudices ou proposer une solution de rechange qui les contourne.
,
12.9 Former le personnel à une IA accessible et équitable
Tout le personnel responsable de n’importe quel aspect du cycle de vie de l’IA doit recevoir une formation sur l’IA accessible et équitable, offerte dans des formats accessibles. 12.9.1 Mise à jour du contenu de la formation
Les organismes doivent régulièrement mettre à jour le contenu de la formation pour tenir compte des problèmes, des technologies et des approches actuels. 12.9.2 Contenu de la formation
La formation doit être adaptée au contexte de l’apprenant. Cette formation doit comprendre des :considérations juridiques relatives à la protection des renseignements personnels;considérations relatives à l’accessibilité de l’interface utilisateur;stratégies de détection des préjudices et des risques;stratégies de détection et d’atténuation des préjugés; etmoyens de faire participer les personnes en situation de handicap au cycle de vie de l’IA.La formation doit être élaborée et mise en œuvre en collaboration avec les personnes en situation de handicap et/ou les organismes de personnes en situation de handicap, conformément à l’article 13.3.
,
12.10 Fournir des mécanismes de transparence, de responsabilisation et de consentement
Les organismes doivent informer les personnes de leur utilisation prévue ou réelle de données et de systèmes d’IA qui prennent des décisions concernant les personnes en situation de handicap ou qui ont un impact sur elles.La transparence en matière comprend la communication d’informations sur :les données utilisées pour préentraîner, personnaliser ou entraîner dynamiquement un système d’IA;les étiquettes de données et les données de substitution utilisées dans l’entraînement;la ou les décision(s) à prendre par le système d’IA et les facteurs déterminants de cette (ces) décision(s);la disponibilité de systèmes décisionnels complets, accessibles et facultatifs; etles noms et les coordonnées des personnes qui, au sein de l’organisme, sont responsables du système d’IA et des décisions qui en découlent.12.10.1 Accessibilité de l’information sur la transparence
Toute information sur la transparence doit être fournie dans des formats accessibles et dans un format utilisant un langage simple et non technique, de sorte que l’impact potentiel du système d’IA soit clair.Remarque : Les formats accessibles comprennent les formats qui seront accessibles au demandeur. Les formats alternatifs qui peuvent être demandés en vertu de la Loi canadienne sur l’accessibilité comprennent les formats audio, le braille, les gros caractères et les formats électroniques.12.10.2 Consentement à l’utilisation des données
Les organismes doivent mettre en œuvre des mécanismes de consentement et d’engagement appropriés en fonction de la façon dont les données sont collectées pour être utilisées dans les systèmes d’IA. Dans les cas où les systèmes d’IA utilisent des données recueillies avec le consentement des personnes concernées, les personnes en situation de handicap doivent être en mesure de retirer leur consentement pour une ou toutes parties de l’utilisation de leurs données, à tout moment et sans conséquences négatives.Lorsque des systèmes d’IA utilisent des données recueillies sans le consentement des personnes concernées (p. ex. les systèmes d’IA qui utilisent des données administratives dépersonnalisées concernant des services financés par l’État), les organismes doivent engager et impliquer les personnes en situation de handicap aux décisions relatives à l’utilisation des ensembles de données.
,
12.11 Donner accès à des approches de rechange équivalentes
Les organismes qui déploient des systèmes d’IA doivent offrir aux personnes en situation de handicap des options alternatives qui offrent une disponibilité équivalente ainsi qu’une rapidité, un coût et une commodité raisonnables pour la personne en situation de handicap.Les solutions de rechange suivantes doivent comprendre :la possibilité de demander que les décisions humaines soient prises par des personnes ayant des connaissances et de l’expertise des besoins des personnes en situation de handicap dans le domaine des décisions à prendre; oula possibilité de demander une supervision humaine ou de confier la prise de décision finale à une personne compétente dans le domaine des besoins des personnes en situation de handicap, guidée par l’IA.L’organisme doit maintenir en poste les personnes qui possèdent l’expertise nécessaire pour prendre des décisions humaines équitables concernant les personnes en situation de handicap lorsque des systèmes d’IA sont déployés pour remplacer des décisions qui étaient prises auparavant par des êtres humains. Remarque : Par exemple :Lorsque des systèmes de langue des signes IA sont déployés, les utilisateurs finaux sourds ont besoin d’avoir l’autonomie d’accepter ou de refuser l’utilisation de l’interprétation par IA. Il faut leur donner la possibilité de demander un interprète humain à la place, et ceci sans pénalité.Lorsque les systèmes d’IA qui utilisent une caméra pour surveiller un examen sont utilisés, les utilisateurs Aveugles ont besoin d’avoir l’autonomie d’accepter ou de refuser l’utilisation de la surveillance par IA qui peut détecter les mouvements oculaires. Il faut leur donner la possibilité réelle de demander un surveillant humain à la place, sans aucune pénalité.
,
12.12 Aborder de la rétroaction sur l’accessibilité et l’équité, les incidents et les plaintes concernant les systèmes d’IA
L’organisme doit traiter la rétroaction, les signalements d’incident et les plaintes en matière d’accessibilité et d’équités, notamment en fournissant des précisions sur les fonctions de recours, de contestation et d’appels pour les personnes en situation de handicap qui :fournissent des renseignements faciles à trouver, accessibles et compréhensibles sur la façon dont la rétroaction, les incidents et les plaintes sont traités;accusent réception de la rétroaction, des signalements d’incident et des plaintes, et répondent à la rétroaction dans en temps opportun;fournissent un calendrier pour traiter la rétroaction, les incidents et les plaintes;offrent une procédure permettant aux personnes en situation de handicap ou à leurs représentants de fournir de la rétroaction sur les décisions ou de les contester de manière anonyme;fournissent des détails sur les mesures à prendre pour donner suite à la rétroaction, aux incidents et aux plaintes; etcommuniquent aux personnes en situation de handicap ou à leurs représentants l’état d’avancement du traitement de la rétroaction, des incidents ou des plaintes et leur offrir la possibilité de faire appel ou de contester les mesures correctives proposées.La rétroaction relative aux préjudices doit être consignée dans le registre public des préjudices, à condition qu’elle puisse être rendue anonyme afin de protéger les renseignements personnels, conformément à la Loi sur la protection des renseignements personnels, à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et aux autres lois fédérales et provinciales applicables en matière de protection des renseignements personnels, avec le consentement de la personne qui soumet la rétroaction.
,
12.13 Fournir des mécanismes d’examen, d’amélioration, d’arrêt et de clôture
Les organismes qui déploient des systèmes d’IA doivent continuellement les examiner, les perfectionner et, si nécessaire, les arrêter ou y mettre fin. 12.13.1 Prendre en compte toute la gamme des préjudices
Les organismes doivent prendre en compte l’ensemble des préjudices, y compris les préjudices cumulés découlant de décisions ayant une incidence faible ou moyenne sur les personnes en situation de handicap.12.13.2 Rétroaction des personnes en situation de handicap pendant l’examen et l’affinement
Les processus d’examen et d’affinement doivent impliquer des personnes en situation de handicap.12.13.3 Conditions d’arrêt et de clôture
Dans le cas où le système se dégrade au point que les critères d’accessibilité ou d’équité pour les personnes en situation de handicap ne sont plus respectés, les organismes doivent cesser d’utiliser le système d’IA jusqu’à ce que l’obstacle à l’accessibilité ou le traitement inéquitable soit résolu, ou que le système soit clos.12.13.4 Apprendre de ses erreurs et de ses échecs
Tous les systèmes d’IA doivent être mis à jour pour atténuer les risques si des préjudices pour les personnes en situation de handicap sont identifiés.Les systèmes d’IA qui utilisent l’apprentissage automatique doivent être conçus pour apprendre des erreurs et des échecs, y compris ceux détaillés dans le registre public aux articles 12.8 et 12.12.
,
12.14 Stocker et gérer les données en toute sécurité tout au long du cycle de vie de l’IA
Les organismes doivent veiller à ce que les données relatives au handicap soient utilisées pour créer des systèmes d’IA équitables d’une manière sûre et sécurisée qui n’entraîne pas de préjudice pour les personnes qui fournissent leurs données.12.14.1 Stockage et gestion des données
Les données relatives aux personnes en situation de handicap doivent être stockées et gérées en toute sécurité à chaque phase du cycle de vie des données, depuis :la collecte des données jusqu’à leur conservation (stockage);leur utilisation;leur divulgation (partage); etleur destruction.Remarque : L’utilisation abusive ou la violation de données relatives au handicap peut conduire à la discrimination, à l’exclusion et à d’autres préjudices pour les personnes en situation de handicap.Conformément à l’article 22 de la Convention relative aux droits des personnes en situation de handicap des Nations Unies, les organismes doivent protéger la confidentialité des renseignements personnels, des renseignements relatifs à la santé et à la réadaptation des personnes en situation de handicap sur la base de l’égalité avec les autres.Le stockage et la gestion des données doivent être conformes à la Loi sur la protection des renseignements personnels, à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et aux autres lois fédérales et provinciales applicables en matière de protection des renseignements personnels. 12.14.2 Dépersonnalisation
Les organismes doivent s’assurer que la repersonnalisation n’est pas possible au moyen de techniques d’anonymisation rigoureuses.
https://accessibilite.canada.ca/elaboration-normes-accessibilite/asc-62-systemes-intelligence-artificielle-accessibles-equitables/12-processus-organisationnels-visant-soutenir-une-ia-accessible-et-equitable