QU’EST-CE QU’UNE IA RESPONSABLE?

Une IA responsable sur laquelle vous pouvez compter.

L’IA offre des possibilités d’innovation illimitées, mais elle doit aussi être développée et utilisée de manière sécuritaire et éthique. Découvrez ce que nous faisons pour accroître la confiance et la transparence afin de bâtir un avenir meilleur.

Image d’une femme souriante.

NOTRE APPROCHE

Les piliers d’une IA responsable auxquels nous tenons.

Image d’un homme serrant une main.

Principes

Nous pensons que l’IA doit être une force pour le bien et qu’elle doit faire passer l’humain avant tout.

Nous nous laissons guider par nos valeurs.

L’IA responsable n’est pas seulement une bonne chose pour les affaires, c’est la bonne chose à faire. Nous nous efforçons de créer des solutions optimisées par l’IA qui viennent s’ajouter au potentiel humain, qui favorisent la transparence et l’équité, et qui assurent la confidentialité et la protection des données.

Voyez comment nos principes s’alignent sur nos valeurs fondamentales.

Image de personnes discutant et collaborant.

Pratiques

Nous créons et suivons des pratiques exemplaires pour atténuer les risques.

Gouvernance : nous définissons et atténuons les risques.

Nous avons adopté une approche de l’IA responsable basée sur les risques en déterminant le niveau de sensibilité de chaque nouvelle application d’IA. Nous gérons ensuite les risques associés aux conséquences involontaires tout au long de la création et de la maintenance de chaque application.

Découvrez comment nous atténuons les risques.

Image de personnes souriant à un bureau.

Personnes

Nous nous appuyons sur un groupe d’experts diversifié pour élaborer et mettre à jour nos principes de gouvernance.

Nous réunissons des experts en produits et des personnes ayant des points de vue différents.

Notre directeur de l’IA et notre équipe dévouée de spécialistes des sciences sociales et des données, d’ingénieurs et d’experts en technologie assurent le respect de notre gouvernance de l’IA responsable. Un conseil de cadres dirigeants guide ce travail, et nos champions de l’IA responsable veillent à son adoption.

Découvrez comment placer l’humain au cœur de l’IA.

Image de personnes en réunion qui collaborent.

Politique générale

Nous menons des efforts pour une réglementation de l’IA qui accroît la confiance et favorise l’innovation.

Nous préconisons une IA responsable.

Nous sommes fiers de jouer un rôle de premier plan dans les discussions sur les politiques en matière d’IA, qu’elles soient fédérales, provinciales, étatiques ou locales, aux États-Unis, en Europe et en Asie.

Nous avons également travaillé avec des chefs de file du secteur pour établir des pratiques exemplaires en matière d’IA au travail. 

Apprenez-en davantage au sujet de ces efforts.

Image de personnes qui collaborent.

PRATIQUES CLÉS

Un développement responsable, à chaque étape.

Nos principes constituent une base solide pour notre approche. Toutefois, nous ne nous arrêtons pas là : nous les mettons en pratique à chaque étape du développement. Découvrez quelques-unes de nos pratiques clés.

Prôner des cadres bien pensés.

Nous participons activement à l’élaboration de cadres et de réglementations de premier plan, comme le cadre de gestion des risques liés à l’IA du National Institute of Standards and Technology (NIST) des États-Unis et la loi sur l’IA de l’Union européenne.

Concevoir une IA responsable.

Nous tenons compte de la possibilité de conséquences involontaires tout au long du développement de nos produits et gardons toujours la sécurité à l’esprit. Nous mettons donc en place des mécanismes de protection pour assurer l’équité, la transparence, l’explicabilité, la fiabilité, etc.

Faire preuve de transparence envers nos clients.

Pour aider nos clients à mettre en place une IA responsable dans leurs propres organisations, nous leur expliquons les méthodes de conception de nos solutions d’IA, leur fonctionnement et la façon dont elles sont entraînées et testées. Tous nos clients ont accès à des fiches de renseignements, qui décrivent notamment les évaluations de risques et les mesures d’atténuation pertinentes.

« La transparence sur la manière dont les modèles d’IA et d’apprentissage automatique sont entraînés est essentielle pour instaurer la confiance. Les systèmes qui ne sont pas assez sophistiqués pour offrir une telle transparence auront des difficultés. Workday dispose des ressources et de la capacité de réflexion nécessaires pour nous permettre d’aller de l’avant. »

— Vice-président principal et directeur des technologies de l’information

Image d’une personne à un bureau.

PERSPECTIVES D’AVENIR

Un avenir équitable et transparent pour l’IA.

Le paysage technologique et le travail que nous accomplissons pour faire progresser l’utilisation responsable de l’IA évoluent en parallèle. Nous sommes impatients de découvrir des cas d’utilisation encore plus novateurs tout en assurant l’équité et la transparence pour tous.

Élargir notre conseil consultatif.

Nous intégrons davantage de points de vue en accueillant des gens issus de disciplines et de domaines d’expertise différents.

Accroître l’investissement.

Nous continuons d’explorer les formations continues sur l’IA responsable et les possibilités de collaboration avec nos clients, nos partenaires et les législateurs.

Travailler en partenariat avec nos clients.

Nous collaborons avec nos clients en continu pour trouver d’autres possibilités de déploiement responsable de l’IA.

RAPPORT SUR L’INTELLIGENCE ARTIFICIELLE

Renforcer la confiance envers l’IA.

Les dirigeants et les employés reconnaissent que l’IA présente de nombreuses occasions d’affaires, mais le manque de confiance dans son déploiement responsable constitue un obstacle. La solution? La collaboration et la réglementation. 

62 %

des dirigeants accueillent favorablement l’adoption de l’IA dans leur organisation.

23 %

des employés pensent que leur employeur risque de privilégier ses propres intérêts lors de l’adoption de l’IA.

70 %

des dirigeants d’entreprise estiment que l’IA doit permettre une intervention humaine.

80 %

des travailleurs affirment que leur entreprise ne communique pas de directives sur l’utilisation de l’IA.


Notre approche en matière de confiance.

Des questions? Communiquez avec nous!