Pratiques d'IA responsable
Une IA conçue de manière responsable pour des solutions fiables
Nous développons des fonctionnalités d'IA de manière responsable dès la conception, offrant à nos clients les outils et les capacités dont ils ont besoin pour déployer, configurer et utiliser l'IA en toute confiance et atteindre leurs objectifs.
L'IA responsable chez Workday
Workday est un leader du secteur en matière de gouvernance de l'IA responsable (RAI). Parce que nous voulons que notre IA soit une force positive, nous évaluons et gérons avec rigueur les risques associés. Notre équipe collabore dans toute l'entreprise Workday pour garantir que notre IA est conçue dans le respect des droits humains et de la sécurité, et qu'elle bénéficie réellement à la société, en mettant en œuvre une IA responsable dès sa conception.
Nous avons pris les devants en établissant plusieurs partenariats, par exemple avec Coalfire, un leader en cybersécurité, pour évaluer nos processus d'IA selon le cadre de gestion des risques de l'IA du NIST, et avec Schellman pour certifier notre programme selon les normes ISO 42001. Ces évaluations indépendantes valident notre engagement à respecter les normes les plus strictes en matière d'IA responsable, y compris les contrôles en matière de sécurité et de confidentialité de l'IA.
Évaluation rigoureuse des risques
En termes de risques menaçant les droits et la sécurité des utilisateurs, toutes les IA ne se valent pas. La première étape consiste donc toujours à évaluer rigoureusement les risques. Cela nous aide à identifier les domaines potentiellement préoccupants, afin de nous assurer que toute notre IA, qu'elle soit destinée aux clients ou à nos propres équipes, soit responsable et éthique.
Le parcours d'évaluation prévoit différents points de contrôle et nous révisons nos cas d'usage de l'IA au moins deux fois : une première fois au moment de la conception et une autre fois avant son utilisation. Cela nous permet de détecter rapidement tout problème éventuel. Nous créons ensuite des plans clairs pour gérer ces préoccupations, selon que notre rôle consiste à développer l'IA ou à la déployer.
Notre méthode d'évaluation des risques
Le niveau est déterminé par des facteurs incluant la capacité du produit à établir des prédictions ou catégorisations concernant les contributeurs individuels, son impact potentiel principal ou secondaire sur leurs opportunités économiques, et d'autres aspects liés aux caractéristiques ou au contexte de l'IA utilisée. Nous prenons également en compte le « risque inacceptable » dans cette évaluation pour identifier les cas d'usage qui ne respectent pas notre structure de gouvernance approuvée en raison de possibles préjudices causés aux personnes ou de menaces pour les droits humains fondamentaux.
Chaque niveau de risque est associé à un ensemble spécifique de protocoles ou de normes visant à atténuer ces risques. Les fonctionnalités d'IA présentant un risque plus élevé sont soumises à des exigences plus rigoureuses et à un plus grand nombre de protocoles. Cela permet de nous assurer que le niveau de surveillance est proportionnel aux risques encourus lorsque le produit est utilisé.
Que nous développions l'IA ou que nous l'utilisions, nos évaluations sont adaptées en conséquence. Cela nous aide à anticiper, à détecter rapidement les problèmes potentiels et à développer et utiliser notre IA de manière sûre et responsable. Nos politiques internes définissent plus précisément les cas d'usage de l'IA interdits, les rôles et les responsabilités, et décrivent le calendrier et les exigences spécifiques pour mener à bien l'évaluation des risques de l'IA responsable.
Notre engagement en faveur d'une IA responsable
L'utilisation responsable de l'IA est une démarche qui s'inscrit dans le temps. Nous nous engageons à suivre en permanence l'évolution des tendances réglementaires, des attentes sociétales et des cadres de bonnes pratiques. Notre équipe continue de faire évoluer activement ses pratiques et ses programmes pour que notre approche du développement et du déploiement de l'IA reste juste, fiable, éthique et alignée sur les normes les plus strictes de l'IA responsable.
Nous sommes régis par des cadres de gouvernance de l'IA tels que le cadre de gestion des risques liés à l'IA du NIST (AI RMF). Nous procédons également à une évaluation continue des réglementations actuelles et en développement selon notre programme et nos pratiques d'IA responsable, y compris la loi sur l'IA de l'UE, la loi sur l'IA du Colorado et d'autres réglementations et cadres directeurs émergents au niveau des États, local, national et international.
Chez Workday, nous privilégions la transparence et fournissons des informations claires pour faciliter la prise de décision. Ci-dessous, nous décrivons les principaux protocoles d'IA responsable que nous avons adoptés pour une gouvernance basée sur les risques dans notre cycle de vie de l'IA, que nous partageons avec nos équipes de développement et de déploiement de l'IA selon le niveau de risque du cas d'usage, comme décrit précédemment.
Responsabilité de l'IA
Identification des risques
Description du développement
Identifier et évaluer de manière proactive le niveau de risque du produit ou de la fonctionnalité dans son ensemble.
Cela inclut les risques éthiques, sociaux et techniques inhérents au cas d'usage et aux caractéristiques prévus de la fonctionnalité d'IA, ce qui nous permet d'atténuer les préjudices qui pourraient se produire en aval de la production.
Cela nous permet de comprendre les préjudices potentiels, mais aussi les possibles conséquences positives d'un développement adéquat, et cela nous montre la voie pour fournir ces fonctionnalités en toute sécurité.
Description du déploiement
Similaire à la description du développement.
Rôles et responsabilités
Description du développement
Définir clairement les rôles et responsabilités des différentes équipes impliquées dans le développement des fonctionnalités d'IA ; par exemple, produit et technologie, ingénierie ML, juridique et conformité, confidentialité, etc. Cela garantit la responsabilité, la collaboration et la diversité des contributions tout au long du parcours de développement de l'IA.
Par ailleurs, cela crée naturellement un réseau d'experts qui pourront être sollicités pour des questions et du support lorsque de nouvelles équipes se pencheront sur la structure de gouvernance.
Enfin, cela permet une contribution structurée au cadre de gouvernance de l'IA responsable à mesure que de nouveaux cas particuliers sont identifiés et que l'entreprise change et se développe.
Description du déploiement
Similaire à la description du développement.
Preuve d'utilité
Description du développement
Recueillir et documenter les informations démontrant l'utilité de la fonctionnalité d'IA. Il s'agit de prouver comment la fonctionnalité atteint l'objectif visé et apporte une valeur ajoutée aux utilisateurs.
En d'autres termes, la fonctionnalité d'IA apporte-t-elle réellement de la valeur aux utilisateurs ?
Description du déploiement
Similaire à la description du développement.
Transparence et explicabilité
Explicabilité
Description du développement
Apporter des explications claires sur le fonctionnement de la fonctionnalité d'IA et sur la façon dont ses résultats sont obtenus. Il peut s'agir de documents destinés aux clients, tels que des fiches d'information sur l'IA, des descriptions de l'interface utilisateur et d'autres méthodes visant à favoriser la transparence et la compréhension des données utilisées pour générer les résultats.
Description du déploiement
Similaire à la description du développement.
Interprétabilité
Description du développement
Viser à rendre les résultats des fonctionnalités d'IA aussi compréhensibles et clairs que possible pour les clients et utilisateurs.
Offrir des explications claires et des documents de support dans les fiches d'information sur l'IA pour aider les clients et les utilisateurs finaux à comprendre la signification et les implications des résultats de l'IA dans le contexte du ou des cas d'usage prévus.
Description du déploiement
Similaire à la description du développement.
Avis
Description du développement
Concevoir la fonctionnalité d'IA en y associant des avis clairs et accessibles informant les utilisateurs finaux qu'ils interagissent avec un système d'IA.
Offrir des conseils et proposer un langage par défaut que les clients peuvent utiliser pour décrire le type de données traitées par la fonctionnalité d'IA.
L'avis peut s'afficher sous forme de texte ou de graphique indiquant que la fonctionnalité utilise l'IA et que ses résultats doivent être considérés en conséquence.
Description du déploiement
Similaire à la description du développement.
Conception et contrôle centrés sur l'humain
Une IA qui tient compte du facteur humain
Description du développement
Concevoir la fonctionnalité d'IA de sorte à favoriser la supervision et le contrôle humains. Nous fournissons une documentation aux clients expliquant comment les résultats des fonctionnalités d'IA sont destinés à soutenir, et non à remplacer, la prise de décision humaine.
La fonctionnalité doit également intégrer une expérience utilisateur pratique où les humains sont les décideurs finaux pour les décisions essentielles, que les résultats générés par la fonctionnalité soient acceptés ou ajustés, le tout renforcé par des normes pour garantir l'explicabilité des résultats.
Description du déploiement
Similaire à la description du développement.
Procédures alternatives
Description du développement
Concevoir la fonctionnalité d'IA de sorte à prévoir des procédures alternatives de traitement des données, comme la révision humaine, par rapport au traitement standard de la fonctionnalité d'IA, le cas échéant. Offrir aux clients des instructions claires et de la documentation sur la façon de mettre en œuvre ces procédures alternatives.
Description du déploiement
Garantir que les personnes concernées disposent d'options dans l'interface utilisateur ou ailleurs (par exemple, dans les communications qui leur sont destinées) pour demander des procédures alternatives à la solution d'IA traitant leurs données et présentant des résultats individualisés. Il peut s'agir d'inclure une révision humaine plutôt qu'une révision uniquement par machine.
Inclusivité
Description du développement
Concevoir la fonctionnalité d'IA en tenant compte de l'inclusivité, en veillant à ce qu'elle soit accessible et utilisable par divers utilisateurs finaux. Tenir compte de facteurs tels que la langue, la culture, la situation de handicap et d'autres obstacles potentiels à l'accès et à l'engagement. Veiller à ce que la qualité de l'expérience de l'utilisateur ne soit en aucun cas diminuée, quelles que soient les capacités et/ou les préférences des utilisateurs.
Description du déploiement
Veiller à ce que la solution d'IA offre des options raisonnables dans son interface utilisateur. L'objectif est de permettre à divers utilisateurs finaux d'y accéder et de l'utiliser selon des modalités favorables à l'équité.
Exportations intégrées
Description du développement
Proposer des options permettant aux clients d'accéder à des données pertinentes exportées par le biais de la fonctionnalité d'IA. Les clients peuvent ainsi effectuer leurs propres contrôles et tests avec leurs propres experts, ce qui facilite la transparence et la surveillance.
Description du déploiement
Veiller à ce que l'équipe chargée de configurer le produit reçoive des instructions suffisantes spécifiant les options d'accès et d'exportation des données de sortie qui sont nécessaires pour tester les performances de la solution d'IA.
Configurabilité
Description du développement
Concevoir la fonctionnalité d'IA en gardant à l'esprit la configurabilité, afin de permettre aux clients d'adapter ses fonctionnalités à leurs besoins et préférences spécifiques. Fournir une documentation et des outils clairs, adaptés aux décisions de configuration spécifique des clients. Cela reste dans l'esprit des protocoles précédents, en maintenant les humains au centre de toutes les décisions, y compris choisir la manière dont ils veulent interagir avec les fonctionnalités de la plateforme IA de Workday.
Description du déploiement
Configurer la solution d'IA pour l'adapter au(x) cas d'usage prévu(s) localement.
Tests et surveillance
Tests d'équité
Description du développement
Soumettre la fonctionnalité d'IA à des tests d'équité. Pour le développement, ces tests peuvent s'effectuer à l'aide de données de synthèse ou d'échantillons agrégés de données de sortie, en fonction de leur disponibilité. Analyser les résultats pour détecter les biais potentiels et documenter les conclusions et les stratégies d'atténuation. Le cas échéant, nous incluons un résumé descriptif des tests d'équité effectués par les développeurs dans nos fiches d'information sur les fonctionnalités d'IA.
Description du déploiement
Pour le déploiement, envisager d'utiliser de véritables données de sorties de la fonctionnalité lorsqu'elles sont disponibles.
Efficacité
Description du développement
Tester rigoureusement la fonctionnalité d'IA pour garantir que ses résultats sont conformes et fiables par rapport à son objectif et à la qualité du cas d'usage. Documenter la méthodologie et les résultats des tests, en démontrant la capacité de l'IA à produire des résultats précis.
Description du déploiement
Similaire à la description du développement.
Robustesse
Description du développement
Tester la capacité de la fonctionnalité d'IA à maintenir ses performances dans diverses conditions, par exemple avec des données d'entrée, populations et paramètres utilisateur différents. Documenter les procédures et résultats des tests, démontrant la capacité de l'IA à maintenir ses performances dans différents scénarios.
Description du déploiement
Similaire à la description du développement.
Tests programmés
Description du développement
Élaborer et tenir un calendrier régulier pour tester et surveiller les performances de la fonctionnalité d'IA, notamment en termes de précision, de robustesse, d'utilité et d'équité. Définir, implémenter et documenter la fréquence et les procédures des tests.
Description du déploiement
Similaire à la description du développement.
Normes de maintenance
Description du développement
Établir des normes et procédures claires pour la maintenance continue et la mise à jour de la fonctionnalité d'IA et de ses modèles ML sous-jacents. Définir les critères déterminant quand des mises à jour sont nécessaires et comment elles seront mises en œuvre et communiquées.
Description du déploiement
Documenter les normes à utiliser pour déterminer quand et si la solution d'IA ou sa configuration doit être mise à jour et/ou réévaluée.
Confidentialité et sécurité
Qualité des données
Description du développement
Veiller à ce que les données utilisées pour développer la fonctionnalité d'IA soient de haute qualité, appropriées pour le(s) cas d'usage prévu(s) et représentatives des populations concernées, en appliquant des pratiques de documentation transparentes telles que nos fiches d'information sur les fonctionnalités d'IA.
Description du déploiement
Similaire à la description du développement.
Traçabilité
Description du développement
Concevoir la fonctionnalité d'IA de sorte à soutenir les capacités de surveillance et de traçabilité du système.
Description du déploiement
Garantir qu'un mécanisme est en place pour prendre en charge la surveillance et la traçabilité du système.
Exclusion géographique
Description du développement
Offrir aux clients la capacité de contrôler la disponibilité géographique de la fonctionnalité d'IA. Les clients peuvent ainsi se conformer aux lois et réglementations locales pour gérer la disponibilité de la fonctionnalité d'IA dans différentes régions.
Description du déploiement
Similaire à la description du développement.
Mise à jour et retrait
Description du développement
Développer un plan complet de conduite du changement pour les mises à jour de la fonctionnalité d'IA et de ses modèles ML sous-jacents. Ce plan doit inclure des protocoles de communication pour informer les clients des mises à jour et de tout impact potentiel sur leur utilisation de la fonctionnalité.
Description du déploiement
Développer et documenter un plan spécifique de conduite du changement pour les mises à jour de la solution d'IA ou de sa configuration.
Gestion de l'efficacité
Description du développement
Concevoir la fonctionnalité d'IA avec des mesures de protection pour atténuer les vulnérabilités potentielles et les risques pour son efficacité. Cela comprend la protection contre les attaques par exemples contradictoires, l'empoisonnement des données et autres tentatives d'exploitation ou de sabotage du système d'IA.
Description du déploiement
Garantir que les vulnérabilités liées aux erreurs humaines des utilisateurs finaux et aux acteurs malveillants cherchant à « manipuler » ou à compromettre la solution d'IA ou la sécurité de la propriété intellectuelle sont identifiées, atténuées et gérées.