Prácticas de IA responsables
IA concebida con responsabilidad: soluciones de confianza
Desarrollamos funcionalidades de IA concebidas de forma responsable, empoderando a nuestros clientes con las herramientas y capacidades que necesitan para implementar, configurar y utilizar la IA con confianza para alcanzar sus objetivos.
IA responsable en Workday
Workday es líder del sector en el gobierno de la IA responsable y queremos que nuestra IA tenga una influencia positiva. Por eso evaluamos y gestionamos a fondo los riesgos de la IA. Nuestro equipo colabora en todo Workday para garantizar que nuestra IA se cree respetando los derechos humanos y la seguridad, y beneficie realmente a la sociedad mediante la implementación de una IA responsable desde el diseño.
Nos hemos asociado de forma proactiva con Coalfire, líder en ciberseguridad, para evaluar nuestros procesos de IA en relación con el Marco de Gestión de Riesgos de IA del NIST, y con Schellman para certificar nuestro programa según las normas ISO 42001. Estas evaluaciones independientes validan nuestro compromiso con las normas más estrictas de IA responsable, incluidos los controles de seguridad y privacidad de la IA.
Evaluación sólida del riesgo
Cuando hablamos de riesgos para los derechos y la seguridad de las personas, no todas las IA son iguales. Nuestro primer paso es siempre evaluar cuidadosamente los riesgos. Esto nos ayuda a centrarnos en áreas de interés potencial, garantizando que la totalidad de nuestra IA, ya sea para clientes o para nuestros propios equipos, sea responsable y ética.
Hay múltiples puntos de control en el camino, y revisamos nuestros casos de uso de IA al menos dos veces: una mientras la estamos diseñando y otra antes de implementarla. Esto nos ayuda a detectar posibles problemas desde el principio. A continuación, creamos planes claros para gestionar esos problemas, dependiendo de si somos nosotros quienes desarrollamos la IA o quienes la implementamos.
Cómo evaluamos el riesgo
El nivel viene determinado por una serie de factores, como la capacidad del producto para realizar predicciones o categorizaciones relativas a empleados individuales, su potencial para influir primaria o secundariamente en sus oportunidades económicas, y aspectos adicionales relacionados con las características o el contexto de la IA que se utiliza. En esta evaluación, también tenemos en cuenta el "riesgo inaceptable", para identificar los casos de uso que quedan fuera de nuestra estructura de gobierno aprobada debido al daño potencial causado a las personas o a las amenazas a los derechos humanos fundamentales.
Cada nivel de riesgo se asigna a un conjunto específico de protocolos, o normas, para mitigar esos riesgos. Las funcionalidades de IA de mayor riesgo están sujetas a requisitos más rigurosos y a un mayor número de protocolos. Así se garantiza que el nivel de supervisión sea proporcional a los riesgos potenciales que entraña la utilización del producto.
Tanto si diseñamos la IA como si la utilizamos, nuestras evaluaciones se adaptan según corresponda. Esto nos ayuda a anticiparnos, detectar posibles problemas y garantizar que nuestra IA se desarrolle y utilice de forma segura y responsable. Nuestras políticas internas definen con más detalle los casos de uso de IA inaceptables, los roles y las responsabilidades, y esbozan el momento y los requisitos específicos para llevar a cabo la evaluación de riesgos del gobierno de la IA responsable.
Nuestro compromiso con la IA responsable
El uso responsable de la IA es un proceso continuo. Nos comprometemos a supervisar continuamente la evolución de las tendencias normativas, las expectativas de la sociedad y los marcos de mejores prácticas. Nuestro equipo sigue desarrollando activamente sus prácticas y programas para garantizar que nuestro enfoque del desarrollo y la implementación de la IA siga siendo justo, fiable, ético y alineado con las normas más estrictas de la IA responsable.
Nos regimos por marcos de gobierno de IA, como el Marco de Gestión de Riesgos de IA del NIST (AI RMF). También evaluamos constantemente las normativas vigentes y en desarrollo en relación con nuestro programa y prácticas de gobierno de IA responsable, como la Ley de IA de la UE, la Ley de IA de Colorado y otras normativas y marcos de orientación estatales, locales, nacionales e internacionales.
En Workday damos prioridad a la transparencia, proporcionando información clara y útil a la hora de tomar decisiones. A continuación, describimos los protocolos clave de IA responsable que hemos adoptado para un gobierno basado en el riesgo en nuestro ciclo de vida de IA, que compartimos con nuestros equipos de desarrollo e implementación de IA en función del nivel de riesgo del caso de uso, como se ha descrito anteriormente.
IA y responsabilidad
Identificación de riesgos
Descripción del desarrollo
Identificar y evaluar de forma proactiva el nivel de riesgo del producto o funcionalidad en su conjunto.
Esto incluye los riesgos éticos, sociales y técnicos inherentes al caso de uso previsto y a las características de la funcionalidad de IA, lo que nos permite mitigar los posibles daños posteriores antes de que se produzcan.
Lo hacemos no solo para comprender los daños potenciales, sino para ver las posibles ventajas de hacer las cosas bien y de una metodología para ofrecer funcionalidades de forma segura con ese fin.
Descripción de la implementación
Similar al desarrollo
Roles y responsabilidades
Descripción del desarrollo
Definir claramente los roles y responsabilidades de los diferentes equipos que participan en el desarrollo de funcionalidades de IA, como el equipo de Producto y Tecnología, Ingeniería de ML, Sector Legal y de Cumplimiento Normativo, y Privacidad, entre otros. Esto garantiza la adjudicación de responsabilidades, la colaboración y la diversidad de contribuciones a lo largo del ciclo de vida del desarrollo de la IA.
Además, hace crecer orgánicamente la red de expertos a los que se puede recurrir para realizar preguntas y obtener asistencia cuando los nuevos equipos se enfrentan a la estructura de gobierno.
Por último, esto facilita contribuciones estructuradas al marco de gobierno de IA responsable a medida que se identifican nuevos casos atípicos y la empresa evoluciona, cambia y crece.
Descripción de la implementación
Similar al desarrollo
Pruebas de utilidad
Descripción del desarrollo
Recopilar y documentar información que demuestre la utilidad de la funcionalidad de IA. Debe mostrar cómo la funcionalidad cumple su objetivo y aporta valor a los usuarios.
Dicho de otro modo, ¿aporta la funcionalidad de IA un valor añadido significativo para los usuarios?
Descripción de la implementación
Similar al desarrollo
Transparencia y explicabilidad
Explicabilidad
Descripción del desarrollo
Explicar claramente cómo funciona la funcionalidad de IA y cómo se obtienen sus resultados. Esto puede incluir documentación para los clientes, como fichas informativas sobre IA, descripciones de la interfaz de usuario y otros métodos para promover la transparencia y la comprensión de los datos que se utilizan para generar los resultados.
Descripción de la implementación
Similar al desarrollo
Interpretaciones
Descripción del desarrollo
Trabajar para que los resultados de las funcionalidades de IA sean lo más comprensibles y claros posible para clientes y usuarios.
Proporcionar explicaciones claras y materiales complementarios en las fichas informativas de IA para ayudar a los clientes y usuarios finales a comprender el significado y las implicaciones de los resultados de la IA en el contexto de los casos de uso previstos.
Descripción de la implementación
Similar al desarrollo
Avisos
Descripción del desarrollo
Diseñar la funcionalidad de IA con avisos claros y accesibles que informen a los usuarios finales de que están interactuando con un sistema de IA.
Proporcionar orientación y un lenguaje predeterminado que los clientes puedan utilizar para describir el tipo de datos procesados por la funcionalidad de IA.
El aviso puede aparecer mediante textos o gráficos que indiquen que la funcionalidad utiliza IA y que el resultado debe considerarse teniéndolo en cuenta.
Descripción de la implementación
Similar al desarrollo
Diseño y control centrados en las personas
IA con participación humana
Descripción del desarrollo
Diseñar la funcionalidad de IA de modo que pueda ser supervisada y controlada por las personas. Facilitamos documentación a los clientes en la que se explica cómo los resultados de las funcionalidades de IA están pensados para asistir, no para sustituir, la toma de decisiones humanas consecuentes.
La funcionalidad también debe incorporar una experiencia de usuario práctica en la que el ser humano sea el responsable final de las decisiones clave, tanto si se aceptan como si se ajustan los resultados de la funcionalidad, y debe estar reforzada por normas de explicabilidad en sus resultados.
Descripción de la implementación
Similar al desarrollo
Procedimientos alternativos
Descripción del desarrollo
Diseñar la funcionalidad de IA de modo que, cuando sea necesario, se permitan procedimientos alternativos de procesamiento de datos, por ejemplo, a través de la revisión humana. Proporcionar instrucciones claras y documentación a los clientes sobre cómo aplicar estos procedimientos alternativos.
Descripción de la implementación
Garantizar que los interesados tengan la opción, en la interfaz de usuario o en cualquier otro lugar (como las comunicaciones), de solicitar procedimientos alternativos a los de la solución de IA que procesa sus datos y presenta resultados individualizados. Por ejemplo, se podría ofrecer una revisión humana en lugar de solo una revisión de una máquina.
Inclusión
Descripción del desarrollo
Diseñar la funcionalidad de IA teniendo en cuenta la inclusión, garantizando que sea accesible y utilizable por diversos usuarios finales. Tener en cuenta factores como el idioma, la cultura, la discapacidad y otras posibles barreras al acceso y la implicación. Garantizar que la calidad de la experiencia de usuario no se vea mermada, independientemente de las capacidades o preferencias.
Descripción de la implementación
Garantizar que la solución de IA ofrezca opciones razonables dentro de la interfaz de usuario de dicha solución. Esto permite a diversos usuarios finales acceder a ella y utilizarla de formas que promueven la equidad.
Exportaciones integradas de forma nativa
Descripción del desarrollo
Ofrecer opciones a los clientes para acceder a los datos exportados pertinentes de la funcionalidad de IA. Esto permite a los clientes realizar su propio seguimiento y pruebas junto con sus propios expertos, promoviendo la transparencia y el control.
Descripción de la implementación
Garantizar que el equipo que configura el producto reciba instrucciones suficientes para especificar las opciones de acceso y exportación de los datos de salida de la solución de IA necesarios para comprobar el desempeño de dicha solución.
Configurabilidad
Descripción del desarrollo
Diseñar la funcionalidad de IA teniendo en cuenta la configurabilidad, para que los clientes puedan adaptarla a sus necesidades y preferencias. Proporcionar documentación y herramientas claras para asistir al cliente en sus decisiones de configuración. Esto sigue el espíritu de los protocolos anteriores, manteniendo a las personas en el centro de todas las decisiones, incluida la forma en que deciden involucrarse con las funcionalidades de la plataforma de IA de Workday.
Descripción de la implementación
Configurar la solución de IA para que se ajuste a los casos de uso locales previstos.
Pruebas y supervisión
Pruebas de imparcialidad
Descripción del desarrollo
Realizar pruebas de imparcialidad en la funcionalidad de IA. Para el desarrollo, esto puede lograrse utilizando datos sintéticos o muestras agregadas de resultados, en función de la disponibilidad. Analizar los resultados en busca de posibles sesgos y documentar las conclusiones y las estrategias de mitigación. En nuestras fichas informativas de la funcionalidad de IA incluimos un resumen descriptivo de las pruebas de imparcialidad realizadas por los desarrolladores.
Descripción de la implementación
Para la implementación, considerar la posibilidad de utilizar resultados de funcionalidades reales siempre que sea posible.
Eficacia
Descripción del desarrollo
Realizar pruebas rigurosas de la funcionalidad de IA para garantizar que sus resultados sean los previstos y que sean fiables para su propósito y la calidad del caso de uso. Documentar la metodología y los resultados de las pruebas, demostrando la capacidad de la IA para producir resultados precisos.
Descripción de la implementación
Similar al desarrollo
Solidez
Descripción del desarrollo
Probar la capacidad de la funcionalidad de IA para mantener el desempeño en diversas condiciones, como diferentes datos de entrada, ajustes del usuario y poblaciones. Documentar los procedimientos y los resultados de las pruebas, demostrando la capacidad de la IA para mantener el desempeño en distintos escenarios.
Descripción de la implementación
Similar al desarrollo
Pruebas programadas
Descripción del desarrollo
Desarrollar y mantener un calendario regular de pruebas y supervisión de la funcionalidad de IA, incluida la precisión, solidez, utilidad e imparcialidad. Definir, aplicar y documentar la frecuencia y los procedimientos de las pruebas.
Descripción de la implementación
Similar al desarrollo
Normas de mantenimiento
Descripción del desarrollo
Establecer normas y procedimientos claros para el mantenimiento y la actualización continuos de la funcionalidad de IA y sus modelos de ML subyacentes. Definir los criterios para determinar cuándo es necesario realizar actualizaciones y cómo se aplicarán y comunicarán.
Descripción de la implementación
Documentar las normas que deben utilizarse para determinar cuándo y si la solución de IA o su configuración deben actualizarse o reevaluarse.
Privacidad y seguridad
Calidad de los datos
Descripción del desarrollo
Garantizar que los datos utilizados para desarrollar la funcionalidad de IA sean de gran calidad, adecuados para los casos de uso previstos y representativos de las poblaciones pertinentes. Esto debe demostrarse a través de prácticas de documentación transparentes, como nuestras fichas informativas de la funcionalidad de IA.
Descripción de la implementación
Similar al desarrollo
Trazabilidad
Descripción del desarrollo
Diseñar la funcionalidad de IA de modo que respalde las capacidades de trazabilidad y supervisión del sistema.
Descripción de la implementación
Garantizar la existencia de un mecanismo que respalde la supervisión y trazabilidad del sistema.
Exclusión de ubicación
Descripción del desarrollo
Proporcionar a los clientes la posibilidad de controlar la disponibilidad geográfica de la funcionalidad de IA. Esto permite a los clientes cumplir con las leyes y normativas locales para gestionar la disponibilidad de la funcionalidad de IA en diferentes regiones.
Descripción de la implementación
Similar al desarrollo
Actualización y retirada
Descripción del desarrollo
Desarrollar un plan integral de gestión del cambio para las actualizaciones de la funcionalidad de IA y sus modelos de ML subyacentes. Esta planificación debe incluir protocolos de comunicación para informar a los clientes sobre las actualizaciones y cualquier posible repercusión en el uso que hagan de la funcionalidad.
Descripción de la implementación
Desarrollar y documentar un plan específico de gestión del cambio para las actualizaciones de la solución de IA o su configuración.
Gestión de la eficacia
Descripción del desarrollo
Diseñar la funcionalidad de IA con medidas de protección para mitigar posibles vulnerabilidades y riesgos para su eficacia. Esto incluye la protección contra ataques antagónicos, envenenamiento de datos y otros intentos de explotar o socavar el sistema de IA.
Descripción de la implementación
Garantizar que se identifiquen, gestionen y mitiguen las vulnerabilidades ante errores humanos de los usuarios finales y agentes malintencionados que intenten "explotar" o poner en peligro la solución de IA o la seguridad de nuestra propiedad intelectual.