14 avril 2021

Pourquoi et comment faire une évaluation du risque éthique de l'IA ?

Les contributeurs
Caroline Adam
Chef de Incubation
Aucun élément trouvé.
S'abonner à la newsletter
Partager cet article

L'intelligence artificielle a connu un essor considérable ces dernières années et nous sommes convaincus que l'IA peut faire beaucoup de bien. Cependant, nous reconnaissons que parallèlement à ces développements, il existe des préoccupations croissantes concernant l'utilisation de l'IA et son impact sur la société. Dans ce billet de blog, nous expliquons ce qu'est l'IA éthique et digne de confiance et comment, chez ML6, nous aidons nos clients à libérer toute la valeur de l'IA et à établir la confiance avec leurs clients, leurs employés et la société dans son ensemble. 

‚Äć

Une brève introduction à l'IA digne de confiance et éthique


Chez ML6, nous croyons fermement que l'IA a le potentiel de faire beaucoup de bien, de la création de valeur commerciale à l'augmentation de la croissance économique, et même d'aider à relever les grands défis sociétaux tels que le changement climatique, la mobilité et la santé. Cependant, ce potentiel ne peut être atteint que si les clients, les employés et la société font confiance aux solutions d'IA qui sont développées. C'est là qu'intervient l'argument en faveur d'une IA digne de confiance, car ce n'est qu'en alignant la conception et l'application de l'IA sur des valeurs éthiques et juridiques, et en communiquant de manière transparente à leur sujet, que nous pourrons favoriser la confiance et l'adoption de la technologie de l'IA. 


Prenons d'abord un peu de recul.

Que voulons-nous dire lorsque nous parlons d'IA digne de confiance ? L'IA digne de confiance a trois composantes : L'IA légale, l'IA éthique et l'IA robuste. 


Composants d'une IA digne de confiance (Source : Agoria)

‚Äć


Avec l'IA légale, les choses sont assez claires - tout développement de l'IA doit se conformer aux lois et règlements applicables, par exemple le GDPR. Avec les deux autres composantes, les choses deviennent un peu plus délicates, car il est difficile de définir explicitement des règles applicables et une compréhension commune. 


Pourquoi est-ce un tel défi ? Eh bien, l'éthique d'une technologie commence par les valeurs éthiques de ses créateurs, donc des développeurs et de toute autre personne impliquée dans le processus de création d'une solution d'IA. Cependant, l'éthique est intrinsèquement personnelle, il n'y a pas de "bonne réponse". Chacun d'entre nous a des principes différents, qui dépendent souvent du contexte et de la culture dans lesquels nous avons grandi. 


Que devons-nous donc prendre en compte lors du développement d'une IA digne de confiance ?

La mise en place de solutions d'IA comporte certains risques, qui doivent être pris en compte et atténués de manière proactive. L'UE définit ces risques selon sept dimensions :

  1. Agence humaine et surveillance
  2. Robustesse technique et sécurité
  3. Vie privée et gouvernance des données
  4. Transparence
  5. Diversité, non-discrimination et équité
  6. Bien-être sociétal et environnemental
  7. Responsabilité


Prenons un exemple pour rendre cela plus tangible. Imaginez une solution d'IA qui prédit les candidats les plus aptes à occuper un poste vacant. En alimentant cette solution avec des données du passé, l'algorithme pourrait apprendre que les candidats masculins ont été considérés plus souvent pour un poste d'ingénieur, par exemple, et donc "apprendre" que les hommes sont mieux adaptés pour ce poste. Dans ce cas, l'apprentissage sur des données historiques biaisées introduit un biais dans nos prédictions. Un tel risque doit être identifié et corrigé. 


L'évaluation des risques éthiques de l'IA ML6 - de quoi s'agit-il ?


Récemment, nous avons constaté une augmentation de l'intérêt pour le sujet de l'IA éthique, et des entreprises nous demandant de les aider à naviguer dans cet environnement complexe, en particulier dans les secteurs à haut risque comme les RH, le secteur public et les soins de santé. Nous avons donc décidé d'ouvrir à nos clients notre cadre interne utilisé pour évaluer les risques éthiques de nos projets d'IA - sous la forme d'une évaluation des risques éthiques de l'IA. 


Qu'est-ce que l'offre d'évaluation des risques éthiques de l'IA ? Il s'agit de l'approche de ML6 pour comprendre et évaluer les risques associés à une solution/un cas d'utilisation spécifique de l'IA. ML6 a développé un cadre basé sur les directives éthiques de l'UE pour une IA digne de confiance, visant à permettre l'évaluation de projets ou d'idées à un niveau plus pratique. 



√Čvaluation des risques √©thiques de l'IA - Concept



Au cours de ce court engagement, nos experts en IA √©thique travaillent √† l'√©laboration d'un rapport soulignant les avantages et les risques d'un cas d'utilisation sp√©cifique de l'IA et recommandent des actions potentielles pour att√©nuer ou limiter ces risques. Lors d'entretiens avec des experts commerciaux et techniques du c√īt√© du client, nous obtiendrons une image claire de l'objectif et du but, de la technologie et de l'utilisation pr√©vue de l'application.


Nous examinons ensuite d'une part les avantages de la solution pour les individus, l'entreprise et la société, et d'autre part les risques éthiques dans les 7 dimensions de risque. Pour chaque dimension, nous avons développé une série de questions spécifiques afin de guider le processus de réflexion. En notant chacune de ces dimensions sur une échelle de 0 à 5, nous pouvons mettre en évidence les dimensions à haut risque pour un certain projet dans un résumé exécutif et suggérer des actions d'atténuation. 


Illustration - √Čvaluation des risques √† travers 7 dimensions¬†



Il est important de noter que nous devons toujours prendre en compte le contexte d'une solution. Une application d'IA faisant correspondre des candidats √† des emplois potentiels comportera probablement des risques plus √©lev√©s qu'une solution permettant de d√©tecter des d√©fauts sur la cha√ģne de fabrication.¬†

Pourquoi et quand devriez-vous vous en préoccuper ?

Maintenant, quand devriez-vous envisager une évaluation des risques éthiques de l'IA ?

Nous voyons actuellement trois scénarios possibles pour la nécessité d'une telle évaluation :

  1. Vous avez une id√©e pour un nouveau produit ou service qui fait appel √† l'IA ? Vous n'√™tes pas encore s√Ľr des risques de ce projet d'IA et des points auxquels il faut pr√™ter une attention particuli√®re pendant le d√©veloppement ? Int√©grez une √©valuation des risques au d√©but de votre projet et int√©grez des consid√©rations et des mesures d'att√©nuation d√®s le d√©part.¬†


  1. Vous avez déjà commencé à élaborer une solution, vous êtes peut-être sur le point de la déployer pour une utilisation plus large et vous souhaitez renforcer la confiance dans votre solution ? Montrez à vos clients et à vos employés que vous tenez compte des implications éthiques et que vous traitez les risques de manière proactive.


  1. Vous avez déjà déployé votre solution d'IA, mais certaines préoccupations spécifiques ont été soulevées par des clients ou des employés ? Laissez ML6 mener un examen indépendant et créer la documentation nécessaire pour aider à atténuer les préoccupations et suggérer des moyens de traiter les zones à risque. 


Avec notre offre de conseil en √©thique, nous voulons vous aider √† d√©velopper des solutions dignes de confiance, √† cr√©er une confiance dans l'IA avec vos clients et vos employ√©s, et √† limiter votre exposition au risque. √Čquip√© de ce cadre, vous serez √©galement en mesure d'√©valuer vous-m√™me les futurs cas d'utilisation.¬†¬†


Avons-nous suscité votre intérêt ? N'hésitez pas à nous contacter si vous voulez en savoir plus ou si vous souhaitez que nous vous aidions à évaluer les risques éthiques de votre application d'IA !



Postes connexes

Voir tout le contenu
Aucun résultat n'a été trouvé.
Il n'y a pas de résultats correspondant à ces critères. Essayez de modifier votre recherche.
Grand modèle linguistique
Modèles de fondation
Entreprise
Personnes
Données Structurées
Chat GPT
Durabilité
Voix et son
Développement frontal
Protection des données et sécurité
IA responsable/éthique
Infrastructure
Hardware et capteurs
MLOps
IA générative
Natural Language Processing
Vision par ordinateur