Pratiche di AI responsabile
AI sviluppata in modo responsabile: soluzioni di cui ti puoi fidare
Sviluppiamo funzionalità AI in modo responsabile a partire dalla fase di progettazione, fornendo ai nostri clienti gli strumenti e le capacità di cui hanno bisogno per implementare, configurare e utilizzare l'AI in tutta sicurezza in modo che possano raggiungere i loro obiettivi.
AI responsabile in Workday
Workday è leader nella governance dell'AI responsabile (RAI) e vogliamo che la nostra AI diffonda un approccio etico. Ecco perché è importante valutare e gestire attentamente i rischi dell'AI. La collaborazione all'interno del team Workday garantisce che l'AI sia progettata per rispettare i diritti umani e la sicurezza e apportare reali benefici alla società. Ecco perché ci assicuriamo che la nostra AI sia responsabile fin dalla fase di progettazione.
Abbiamo proattivamente creato una partnership con Coalfire, leader nella sicurezza informatica, per valutare i nostri processi AI in base al NIST AI Risk Management Framework e con Schellman per certificare il nostro programma secondo gli standard ISO 42001. Queste valutazioni indipendenti confermano il nostro impegno nei confronti dei più elevati standard di AI responsabile, compresi i controlli per la sicurezza e la privacy.
Valutazione dei rischi affidabile
Non tutte le AI sono uguali quando si tratta di rischi per i diritti e la sicurezza delle persone. Il nostro primo passo è sempre un'attenta valutazione dei rischi. Questo ci aiuta a concentrarci sulle aree potenzialmente problematiche, per garantire che la nostra AI sia totalmente responsabile ed etica per i clienti e per il nostro team.
Ci sono diversi punti di controllo lungo il percorso e rivediamo gli use case dell'AI almeno due volte: una volta mentre la sviluppiamo e un'altra prima che venga utilizzata. Questo ci aiuta a individuare tempestivamente eventuali problemi. Quindi creiamo piani chiari per gestire tali problematiche, a seconda della fase di cui ci stiamo occupando: sviluppo o implementazione.
Come valutiamo il rischio
Il livello è determinato da fattori quali la capacità del prodotto di effettuare previsioni o categorizzazioni relative ai singoli collaboratori, il suo potenziale impatto primario o secondario sulle loro opportunità economiche e aspetti aggiuntivi correlati alle caratteristiche o al contesto dell'AI utilizzata. In questa valutazione teniamo conto anche del "rischio inaccettabile" per identificare gli use case che non rientrano nella nostra struttura di governance approvata a causa di potenziali danni alle persone o di minacce ai diritti umani fondamentali.
Ogni livello di rischio è associato a un insieme specifico di protocolli o standard per la riduzione del rischi. Le funzionalità AI a rischio più elevato sono soggette a requisiti più rigorosi e a un numero maggiore di protocolli. Ciò garantisce che il livello di supervisione sia proporzionato ai potenziali rischi connessi all'utilizzo del prodotto.
Che si tratti di sviluppare l'AI o di utilizzarla, le nostre valutazioni sono personalizzate in base alle esigenze. Questo ci aiuta a guardare avanti, a individuare tempestivamente potenziali problemi e a garantire che la nostra AI venga sviluppata e utilizzata in modo sicuro e responsabile. Le nostre politiche interne definiscono ulteriormente gli use case inaccettabili dell'AI, nonché i ruoli e le responsabilità di questa, e delineano i tempi e i requisiti specifici per condurre la valutazione dei rischi dell'AI responsabile.
Il nostro impegno per un'AI responsabile
L'uso responsabile dell'AI è un processo infinito. Ci impegniamo a monitorare costantemente l'evoluzione delle tendenze normative, delle aspettative della società e dei framework di best practice. Il nostro team continua a sviluppare attivamente le proprie pratiche e i propri programmi per garantire che il nostro approccio allo sviluppo e all'implementazione dell'AI rimanga equo, affidabile, etico e allineato ai più elevati standard di AI responsabile.
Ci basiamo su framework di governance dell'AI come il NIST AI Risk Management Framework (AI RMF). Ci impegniamo inoltre nella valutazione continua delle normative attuali e in via di sviluppo in base al nostro programma e alle nostre pratiche RAI, tra cui l'EU AI Act, l'AI Act del Colorado e altre normative e quadri normativi emergenti a livello statale, locale, nazionale e internazionale.
In Workday diamo priorità alla trasparenza, fornendo informazioni chiare a supporto del processo decisionale. Di seguito forniamo la descrizione dei principali protocolli per un'AI responsabile che abbiamo adottato per una governance basata sul rischio nel ciclo di vita della nostra AI. Tali protocolli sono condivisi con i nostri team di sviluppo e implementazione dell'AI in base al livello di rischio dello use case, come descritto sopra.
Responsabilità legate all'AI
Identificazione dei rischi
Sviluppo
Identificare e valutare in modo proattivo il livello di rischio del prodotto o della funzionalità nel suo complesso.
Questa fase riguarda i rischi etici, sociali e tecnici inerenti allo use case previsto e alle caratteristiche della funzionalità AI, in modo da mitigare potenziali danni a valle in produzione prima che si verifichino.
Facciamo questo non solo per comprendere i potenziali danni, ma anche i possibili vantaggi che potrebbero derivare da una corretta esecuzione di questa fase, e per individuare un percorso finalizzato a fornire le funzionalità necessarie in modo sicuro a tale scopo.
Implementazione
Simile allo sviluppo.
Ruoli e responsabilità
Sviluppo
Definire chiaramente i ruoli e le responsabilità dei diversi team coinvolti nello sviluppo delle funzionalità AI, ad esempio Product & Technology, ML Engineering, Legal and Compliance, Privacy e altri. Ciò garantisce responsabilità, collaborazione e diversity a livello di input durante tutto il ciclo di sviluppo dell'AI.
Inoltre, viene ampliata in modo organico la rete di esperti a cui i nuovi team che si muovono all'interno della struttura di governance possono rivolgersi per porre domande e richiedere assistenza.
Infine, questo garantisce un contributo strutturato al framework di governance RAI man mano che vengono identificati nuovi casi limite e che l'attività si sposta, cambia e cresce.
Implementazione
Simile allo sviluppo.
Prova di utilità
Sviluppo
Raccogliere e documentare informazioni che dimostrino l'utilità della funzionalità AI. Ciò dovrebbe mostrare in che modo la funzionalità raggiunge lo scopo previsto e fornisce valore agli utenti.
In altre parole, la funzionalità AI aggiunge un valore significativo per gli utenti?
Implementazione
Simile allo sviluppo.
Trasparenza e comprensibilità
Comprensibilità
Sviluppo
Offrire spiegazioni chiare su come funziona la funzionalità AI e su come vengono ottenuti i relativi output. Questo può prevedere documentazione per i clienti, come schede informative sull'AI, descrizioni di interfacce utente e altri metodi per promuovere la trasparenza e la comprensione dei dati utilizzati per generare gli output.
Implementazione
Simile allo sviluppo.
Interpretabilità
Sviluppo
Impegnarsi per rendere i risultati delle funzionalità AI il più comprensibili e chiari possibile per clienti e utenti.
Fornire spiegazioni chiare e materiali di supporto all'interno delle schede informative sull'AI per aiutare i clienti e gli utenti finali a comprendere il significato e le implicazioni degli output dell'AI nel contesto degli use case previsti.
Implementazione
Simile allo sviluppo.
Avvisi
Sviluppo
Progettare la funzionalità AI con avvisi chiari e accessibili che informino gli utenti finali che stanno interagendo con un sistema AI.
Fornire indicazioni e un linguaggio predefinito che i clienti possano utilizzare per descrivere il tipo di dati elaborati dalla funzionalità AI.
L'avviso può essere un testo o un'immagine che indica che la funzionalità utilizza l'AI e che il suo output deve essere considerato di conseguenza.
Implementazione
Simile allo sviluppo.
Design e controllo incentrati sulle persone
Approccio human-in-the-loop
Sviluppo
Progettare la funzionalità AI per supportare la supervisione e il controllo umani. Forniamo ai clienti la documentazione che spiega come gli output delle funzionalità AI siano concepiti per supportare, e non sostituire, il successivo processo decisionale umano.
La funzionalità dovrebbe inoltre incorporare un'esperienza utente pratica in cui gli esseri umani siano i decision maker finali per le decisioni critiche, indipendentemente dal fatto che i risultati della funzionalità vengano accettati o modificati, con il supporto degli standard di comprensibilità nei relativi output.
Implementazione
Simile allo sviluppo.
Procedure alternative
Sviluppo
Progettare la funzionalità AI in modo da consentire procedure di elaborazione dati, come la revisione umana, alternative all'elaborazione standard della funzionalità AI, quando appropriato. Fornire ai clienti istruzioni e documentazione chiare su come implementare queste procedure alternative.
Implementazione
Fare in modo che ai soggetti interessati venga offerta la possibilità, nell'interfaccia utente o altrove (ad esempio nelle comunicazioni ai soggetti interessati), di richiedere procedure alternative a quelle della soluzione AI che elabora i loro dati e produce risultati personalizzati. Questo potrebbe includere una revisione umana anziché una revisione esclusivamente automatizzata.
Inclusività
Sviluppo
Progettare la funzionalità AI tenendo presente l'inclusività, assicurando che sia accessibile e utilizzabile da diversi utenti finali e considerando fattori quali la lingua, la cultura, lo stato di disabilità e altri potenziali ostacoli all'accesso e al coinvolgimento. Impegnarsi a garantire che la qualità dell'esperienza utente non venga compromessa, indipendentemente dalle capacità e/o dalle preferenze.
Implementazione
Assicurarsi che la soluzione AI offra una gamma ragionevolmente ampia di scelte all'interno della relativa interfaccia utente. Ciò consente agli utenti finali dalle capacità più diverse di accedervi e usarla in modi che promuovono l'equità.
Esportazioni incorporate
Sviluppo
Offrire ai clienti opzioni per accedere ai dati esportati pertinenti dalla funzionalità AI. Ciò consente ai clienti di effettuare il monitoraggio e i test in autonomia insieme ai propri esperti, garantendo trasparenza e controllo.
Implementazione
Assicurarsi che vengano fornite istruzioni sufficienti al team che configura il prodotto per l'uso nell'ambito della descrizione delle opzioni per l'accesso e l'esportazione di dati di output della soluzione AI necessari per testare le performance della soluzione.
Configurabilità
Sviluppo
Progettare la funzionalità AI tenendo conto della configurabilità, garantendo ai clienti la possibilità di adattarne le funzionalità alle proprie esigenze e preferenze specifiche. Fornire documentazione e strumenti chiari per supportare le decisioni del cliente relative alla configurazione. Questo è in linea con lo spirito dei protocolli descritti in precedenza: le persone devono essere al centro di tutte le decisioni, inclusa quella sulla modalità di partecipazione alle funzionalità della piattaforma Workday AI.
Implementazione
Configurare la soluzione AI in modo che si adatti agli use case locali previsti.
Test e monitoraggio
Test di equità
Sviluppo
Eseguire test di equità sulla funzionalità AI. Per lo sviluppo, ciò può essere realizzato utilizzando dati sintetici o campioni aggregati di output, a seconda della disponibilità. Analizzare i risultati per individuare potenziali distorsioni e documentare i risultati e le strategie di mitigazione. Dove rilevante, nelle nostre schede informative sulle funzionalità AI includiamo un riepilogo descrittivo dei test di equità effettuati dagli sviluppatori.
Implementazione
Per l'implementazione, valutare l'utilizzo di output di funzionalità reali, se disponibili.
Efficacia
Sviluppo
Testare rigorosamente la funzionalità AI per garantire che i suoi output siano intenzionali e affidabili rispetto allo scopo e alla qualità dello use case. Documentare la metodologia e i risultati dei test, dimostrando la capacità dell'AI di produrre output accurati.
Implementazione
Simile allo sviluppo.
Solidità
Sviluppo
Testare la capacità della funzionalità AI di mantenere costanti le performance in diverse condizioni, ad esempio nel caso di dati di input, impostazioni utente o popolazioni diverse. Documentare le procedure e i risultati dei test, dimostrando la capacità dell'AI di mantenere costanti le performance in diversi scenari.
Implementazione
Simile allo sviluppo.
Test pianificati
Sviluppo
Sviluppare e mantenere una pianificazione regolare per testare e monitorare le performance delle funzionalità AI , tra cui accuratezza, solidità, utilità ed equità. Definire, implementare e documentare la frequenza e le procedure dei test.
Implementazione
Simile allo sviluppo.
Standard di manutenzione
Sviluppo
Stabilire standard e procedure chiari per la manutenzione ordinaria e l'aggiornamento della funzionalità AI e dei modelli di apprendimento automatico sottostanti. Definire criteri per stabilire quando sono necessari gli aggiornamenti e come verranno implementati e comunicati.
Implementazione
Usare standard documentali per determinare quando e se la soluzione AI o la sua configurazione debbano essere aggiornate e/o rivalutate.
Privacy e sicurezza
Qualità dei dati
Sviluppo
Assicurarsi che i dati utilizzati per sviluppare la funzionalità AI siano di alta qualità, appropriati per gli use case previsti e rappresentativi delle popolazioni interessate. Questo può essere dimostrato attraverso pratiche di documentazione trasparenti, come le nostre schede informative sulle funzionalità AI.
Implementazione
Simile allo sviluppo.
Tracciabilità
Sviluppo
Progettare la funzionalità AI per supportare le capacità di monitoraggio e tracciabilità del sistema.
Implementazione
Assicurarsi che sia in atto un meccanismo che supporti il monitoraggio e la tracciabilità del sistema.
Esclusione di aree geografiche
Sviluppo
Offrire ai clienti la possibilità di controllare la disponibilità geografica della funzionalità AI. Ciò consente ai clienti di rispettare le leggi e le normative locali per gestire la disponibilità della funzionalità AI in diverse aree geografiche.
Implementazione
Simile allo sviluppo.
Aggiornamento e revoca
Sviluppo
Sviluppare un piano completo di gestione del cambiamento per gli aggiornamenti della funzionalità AI e dei modelli di machine learning sottostanti. Questo piano dovrebbe includere protocolli di comunicazione per informare i clienti sugli aggiornamenti e su qualsiasi potenziale impatto sul loro utilizzo della funzionalità.
Implementazione
Sviluppare e documentare un piano di gestione del cambiamento specifico per gli aggiornamenti della soluzione AI o della sua configurazione.
Gestione dell'efficacia
Sviluppo
Progettare la funzionalità AI con misure di sicurezza per mitigare potenziali vulnerabilità e rischi per la sua efficacia. Ciò include la protezione da attacchi di avversari, avvelenamento dei dati e altri tentativi di sfruttare o indebolire il sistema AI.
Implementazione
Garantire che le vulnerabilità dovute all'errore umano dell'utente finale e ai malintenzionati che cercano di "manipolare" o mettere a rischio in altro modo la soluzione AI o la sicurezza della nostra proprietà intellettuale siano identificate, mitigate e gestite.