Dernières actus

Lutte contre la pénurie d’experts en data science : le GENES prévoit d’augmenter de 43% le nombre de diplômés dès… voir

Job crafting : faire du sur-mesure avec son poste !. Julie Asselin, Responsable Marketing chez 365TalentsEt si l’… voir

Neuf entreprises européennes sur dix comptent sur une aide extérieure pour la paie. La rapidité et l’efficacité… voir

Un nouveau rapport fournit des mesures détaillées pour diminuer le risque de biais de l'IA

WASHINGTON – le 9 juin 2021 – L'intelligence artificielle (IA) permet de réaliser des avancées significatives : qu'il s'agisse d'améliorer les soins de santé ou aider à atteindre les objectifs de développement durable, les nouvelles technologies de l'IA libèrent l'innovation et la croissance économique. Alors que l'utilisation de l’IA a un impact grandissant sur les citoyens, il est important que les décideurs politiques et les leaders de l’industrie s’accordent sur un ensemble de bonnes pratiques afin d’atténuer les risques de biais de l'IA.

Aujourd'hui, BSA appelle les gouvernements à adopter des législations pour obliger les entreprises du secteur privé à effectuer des études d'impact sur les utilisations à haut risque des technologies de l'IA. Pour soutenir les gouvernements vers cet objectif, BSA publie aujourd'hui Confronting Bias: BSA's Framework to Build Trust in AI.

Ce document-cadre détaille la manière dont les entreprises peuvent effectuer des études d'impact pour identifier, puis atténuer les risques de biais qui peuvent apparaître tout au long du cycle de vie d'un système d'IA. Avec plus de 50 éléments de diagnostic précisant les actions à mettre en œuvre par les entreprises, aux stades de conception, développement et déploiement d'un service d'IA, ce document-cadre est le premier du genre.

Ce nouveau rapport n'est qu'un élément d'une gestion efficace des risques liés à l'IA. BSA appelle également l’ensemble des gouvernements à mettre en œuvre des réglementations et des législations pour requérir des études d'impact, afin de réduire le potentiel de biais dans les utilisations à haut risque de l'IA. Le cadre BSA, dont l’objectif est d’instaurer la confiance dans l'IA, se veut être une ressource pour les décideurs politiques et l'industrie qui s’efforcent de tirer le meilleur parti des avantages de l'IA, sans perpétuer les inégalités existantes.

"Le moment est venu pour l'industrie d'aller de l'avant et de collaborer avec les décideurs politiques afin d'adopter un cadre réglementaire permettant de lutter contre les risques de biais de l'IA, et BSA contribuera à conduire cet effort. Les entreprises et les gouvernements devraient utiliser le cadre de gestion des risques liés à l'IA de BSA comme un guide permettant d’instaurer la confiance et la transparence à chaque étape du cycle de vie de l'IA, de la conception au déploiement," a déclaré Victoria Espinel, présidente et directrice générale de BSA | The Software Alliance. "Les membres de BSA s'engagent à identifier et à mettre en œuvre les bonnes pratiques pour préserver les systèmes d'IA d’éventuelles conséquences indésirables et involontaires. Les décideurs politiques de l'Union Européenne ont d’ores et déjà engagé des travaux sur une législation visant à réglementer l'IA, et nous continuerons à travailler avec l'UE, les États-Unis, et les décideurs politiques du monde entier pour élaborer la meilleure approche et la retranscrire dans le cadre législatif.

"L'IA a le potentiel de remodeler industries et d'améliorer la qualité de vie partout dans le monde. Mais, en l'absence de garanties fondamentales, l'IA est également susceptible d'ancrer et d'exacerber les inégalités existantes," a déclaré Christian Troncoso, directeur principal des politiques chez BSA. "Comme pour la cybersécurité et la vie privée, la gestion des risques de biais de l'IA nécessite un engagement organisationnel qui s'étend tout au long du cycle de vie d'un système. Les organisations peuvent utiliser le cadre proposé par BSA pour renforcer la confiance dans leurs systèmes d'IA grâce à des processus de gestion de risques qui favorisent l'équité, la transparence et la responsabilité."

Le cadre de BSA pour renforcer la confiance dans l'IA définit un système de gestion des risques que les organisations peuvent utiliser pour effectuer des études d'impact afin d'identifier et d'atténuer le risque possible de biais, qui peut émerger tout au long du cycle de vie d'un système d'IA. En outre, le cadre :

  •     Définit les principales structures de gouvernance d'entreprise, les processus et les mesures de protection qui sont nécessaires pour mettre en œuvre et soutenir un système efficace de gestion des risques liés à l'IA ; et
  •     Identifie les meilleures pratiques existantes, les outils techniques et les ressources que les organisations peuvent utiliser pour atténuer les risques de biais spécifiques à l'IA qui peuvent émerger tout au long du cycle de vie d'un système d'IA.

Consultez le cadre complet de BSA pour renforcer la confiance dans l'IA ici.

societes
Sticky Menu
COLOR SKINS
COLOR SCHEMES