CAN-ASC-6.2:2025- Systèmes d’intelligence artificielle accessibles et équitables
9. Définitions
Informations
Table des matières
Membres du comité technique
- Lisa Snider, consultante principale en accessibilité numérique et formatrice, Access Changes Everything Inc.
- Nancy McLaughlin, conseillère principale en matière d’accessibilité, Conseil de la radiodiffusion et des télécommunications canadiennes
- John Willis, conseiller principal, Bureau de l’accessibilité de la fonction publique (BAFP), Centre d’excellence pour les droits de la personne
- Jutta Treviranus (présidente), directrice et professeure, Inclusive Design Research Centre, Université OCAD
- Alison Paprica, professeure adjointe et chercheuse principale, Institut pour la politique de santé, gestion et évaluation, Université de Toronto
- Gary Birch, directeur exécutif, Neil Squire Society
- Lisa Liskovoi, conceptrice inclusive principale et spécialiste de l’accessibilité numérique, Inclusive Design Research Centre, Université OCAD
- Clayton Lewis, professeur, Université du Colorado
- Julia Stoyanovich, professeure associée et directrice, Tandon School of Engineering, l’université de New York
- Anne Jackson, professeure, Seneca College
- Kave Noori, responsable de la politique en matière d’intelligence artificielle, European Disability Forum
- Mia Ahlgren, agente des politiques en matière de droits des personnes en situation de handicap, Swedish Disability Rights Federation
- Sambhavi Chandrashekar (vice-présidente), responsable mondiale de l’accessibilité, D2L Corporation
- Julianna Rowsell, cheffe principale de produit, Équité des produits, Adobe
- Kate Kalcevich, responsable de l’innovation en matière d’accessibilité, Fable
- Saeid Molladavoudi, conseiller principal en science des données, Statistique Canada
- Merve Hickok, fondatrice, présidente et directrice de recherche, Aiethicist.org, Center for AI and Digital Policy, Université du Michigan
9.1 Définitions
Les définitions suivantes s’appliquent dans la présente norme :
Biais (en IA) — erreurs systématiques ou injustice dans les résultats, les prédictions ou les décisions prises par les systèmes d’IA. Ces biais peuvent provenir de différentes étapes du cycle de vie d’un système d’IA, telles que la collecte de données, la conception de modèles, la formation ou le déploiement. Le biais de l’IA reflète ou amplifie souvent les biais présents dans les données, les processus ou les hypothèses utilisés pour construire le système. Cela peut entraîner des résultats inégaux ou discriminatoires, affectant l’équité, l’exactitude et la fiabilité d’un système d’IA.
Bienfait — un résultat positif ou un avantage résultant d’une action ou d’une décision, qui contribue au bien-être, au bonheur ou à l’épanouissement des individus, des groupes ou de la société dans son ensemble.
Remarque : La prise de décisions éthiques évalue les bienfaits en termes d’équité, de répartition et d’impact sur toutes les parties touchées, les évaluant souvent par rapport aux préjudices potentiels pour déterminer le plan d’action le plus moralement justifiable.
Consentement éclairé — le consentement d’une personne lorsque suffisamment de renseignements ont été fournis pour lui permettre de comprendre la nature, le but et les conséquences possibles de la décision ou de l’action à laquelle elle consent.
Remarque : Un consentement valable exige que les personnes disposent d’une véritable option de refus de consentement, soutenue par l’accès à un processus décisionnel alternatif tout aussi efficace et rapide, soit avec ou sans l’IA, qui comprend une surveillance humaine directe et une confirmation de la décision.
Déploiement (systèmes d’IA) — l’utilisation réelle d’un système d’IA afin de générer du contenu ou de prendre des décisions, des recommandations ou des prédictions.
Discrimination statistique — l’impact négatif du raisonnement statistique sur les personnes qui sont aberrantes ou qui s’éloignent de la moyenne statistique dans les données utilisées pour prendre des décisions statistiques. (Le raisonnement statistique est inexact ou erroné pour les personnes qui ne sont pas statistiquement moyennes.) La discrimination statistique est distincte du biais dans les données en ce sens qu’il n’est pas possible d’éliminer la discrimination statistique en assurant une représentation proportionnelle dans les données.
Données d’entraînement — fait référence aux informations utilisées pendant le processus d’entraînement de l’IA. Ceci se compose d’exemples étiquetés ou structurés à partir desquels le modèle d’IA apprend.
Éducation et formation (personnes, spécifiques à l’IA) — information et activités visant à élargir les connaissances et/ou les compétences.
Égalité — fournir à chaque personne ou groupe de personnes les mêmes ressources et le même traitement.
Entraînement de l’IA — processus d’utilisation de données pour enseigner à un modèle d’IA comment effectuer des tâches, à reconnaître des modèles, à prendre des décisions, à prédire des résultats ou à créer du contenu. Ceci comprend l’élaboration du modèle dès le début ou son amélioration (raffinement) au fil du temps.
Équitable, équité — fait référence à la justice et à l’absence de discrimination. L’équité reconnaît que chaque personne a des circonstances différentes.
L’équité vise à permettre à tous les individus d’obtenir des résultats égaux. Dans des systèmes équitables, les ressources et les possibilités sont façonnées en fonction de divers besoins individuels, et la personne est engagée pour déterminer les besoins ainsi que les ressources nécessaires pour répondre aux besoins.
Gestion (en IA) — activités et décisions quotidiennes liées à la collecte, au stockage, à l’utilisation, au partage et à l’élimination sécuritaire des données utilisées par les systèmes d’IA.
Gouvernance (en IA) — cadre clairement défini de responsabilisation dans la prise de décisions en matière d’IA. Cela comprend les organismes de gouvernance responsables qui prennent et expliquent les décisions concernant l’accès aux données et leur utilisation.
Littératie en IA — comprendre ce qu’est l’IA, comment elle fonctionne à un niveau élémentaire et comment elle peut affecter les individus et les communautés. Elle comprend la sensibilisation aux éléments suivants :
- la façon dont les systèmes d’IA prennent des décisions ou génèrent des extrants; et
- le potentiel d’impacts négatifs immédiats et à long terme, tels que des décisions biaisées dans les services ou les politiques, ou les conséquences futures de mauvaises prévisions.
Modèle d’IA — système ou programme qui a été entraîné à l’aide de données pour reconnaître des modèles, faire des prédictions ou effectuer des tâches. Il applique ce qu’il a appris des données d’entraînement à de nouvelles entrées invisibles.
Opérations policières prédictives — déterminer la probabilité d’un comportement ou d’une activité criminelle ou suspecte en fonction de modèles statistiques, d’algorithmes et de données.
Préjudice — tout ce qu’un produit ou un service pourrait faire pour créer une conséquence négative pour les gens de quelque manière que ce soit. Ces préjudices peuvent se manifester par des facteurs physiques, psychologiques, sociaux, économiques ou culturels.
Les préjudices comprennent la perpétuation des stéréotypes, le renforcement des inégalités existantes et la création d’obstacles pour les personnes en situation de handicap. Les préjudices liés à l’accessibilité peuvent inclure la création d’interfaces inaccessibles, l’exclusion d’utilisateurs ayant des besoins spécifiques ou l’omission de tenir compte de divers modes d’interaction.
Remarque : Les préjudices ne sont pas toujours évidents; ils peuvent apparaître subtilement, intégrés dans la façon dont un système d’IA est conçu, élaboré ou déployé.
Préjudice cumulatif — l’effet cumulatif de multiples préjudices (y compris les impacts faibles et moyens) qui se recoupent et s’accumulent au fil du temps.
Rechange équivalent — une solution de rechange dont la disponibilité, la rapidité, le coût et la commodité sont équivalents pour la personne en situation de handicap.
Responsabilité (en IA) — la responsabilité d’un organisme pour les décisions, les résultats et l’impact des systèmes d’IA qu’elle utilise. L’identification claire d’une partie qui peut résoudre les problèmes liés à cette utilisation.
Systèmes d’IA — systèmes technologiques qui, de manière autonome ou semi-autonome, traitent des données liées à l’activité humaine ou environnementale à l’aide de techniques telles que l’apprentissage automatique ou d’autres méthodes algorithmiques pour générer des extrants, notamment des décisions, des recommandations, des prédictions ou du contenu.
Technologie d’assistance — équipement, système de produit, matériel, logiciel ou service utilisé pour augmenter, maintenir ou améliorer les capacités des individus.
Remarque 1 : La technologie d’assistance est un terme générique qui est plus large que les produits d’assistance.
Remarque 2 : Les technologies d’assistance peuvent comprendre les services d’assistance et les services professionnels nécessaires à l’évaluation, à la recommandation et à la prestation.
Sources : Adapté de ISO/IEC Guide 71:2014 Guide pour l’intégration de l’accessibilité dans les normes et CAN-ASC-EN 301 549:2024
Transparence (en IA) — fournir des avis et des renseignements accessibles concernant les données, les modèles, le fonctionnement, les décisions, les résultats et l’utilisation des systèmes d’IA.