L'intelligence artificielle a connu un essor considérable ces dernières années et nous sommes convaincus que l'IA peut faire beaucoup de bien. Cependant, nous reconnaissons que parallèlement à ces développements, il existe des préoccupations croissantes concernant l'utilisation de l'IA et son impact sur la société. Dans ce billet de blog, nous expliquons ce qu'est l'IA éthique et digne de confiance et comment, chez ML6, nous aidons nos clients à libérer toute la valeur de l'IA et à établir la confiance avec leurs clients, leurs employés et la société dans son ensemble.
Chez ML6, nous croyons fermement que l'IA a le potentiel de faire beaucoup de bien, de la création de valeur commerciale à l'augmentation de la croissance économique, et même d'aider à relever les grands défis sociétaux tels que le changement climatique, la mobilité et la santé. Cependant, ce potentiel ne peut être atteint que si les clients, les employés et la société font confiance aux solutions d'IA qui sont développées. C'est là qu'intervient l'argument en faveur d'une IA digne de confiance, car ce n'est qu'en alignant la conception et l'application de l'IA sur des valeurs éthiques et juridiques, et en communiquant de manière transparente à leur sujet, que nous pourrons favoriser la confiance et l'adoption de la technologie de l'IA.
Prenons d'abord un peu de recul.
Que voulons-nous dire lorsque nous parlons d'IA digne de confiance ? L'IA digne de confiance a trois composantes : L'IA légale, l'IA éthique et l'IA robuste.
Avec l'IA légale, les choses sont assez claires - tout développement de l'IA doit se conformer aux lois et règlements applicables, par exemple le GDPR. Avec les deux autres composantes, les choses deviennent un peu plus délicates, car il est difficile de définir explicitement des règles applicables et une compréhension commune.
Pourquoi est-ce un tel défi ? Eh bien, l'éthique d'une technologie commence par les valeurs éthiques de ses créateurs, donc des développeurs et de toute autre personne impliquée dans le processus de création d'une solution d'IA. Cependant, l'éthique est intrinsèquement personnelle, il n'y a pas de "bonne réponse". Chacun d'entre nous a des principes différents, qui dépendent souvent du contexte et de la culture dans lesquels nous avons grandi.
Que devons-nous donc prendre en compte lors du développement d'une IA digne de confiance ?
La mise en place de solutions d'IA comporte certains risques, qui doivent être pris en compte et atténués de manière proactive. L'UE définit ces risques selon sept dimensions :
Prenons un exemple pour rendre cela plus tangible. Imaginez une solution d'IA qui prédit les candidats les plus aptes à occuper un poste vacant. En alimentant cette solution avec des données du passé, l'algorithme pourrait apprendre que les candidats masculins ont été considérés plus souvent pour un poste d'ingénieur, par exemple, et donc "apprendre" que les hommes sont mieux adaptés pour ce poste. Dans ce cas, l'apprentissage sur des données historiques biaisées introduit un biais dans nos prédictions. Un tel risque doit être identifié et corrigé.
Récemment, nous avons constaté une augmentation de l'intérêt pour le sujet de l'IA éthique, et des entreprises nous demandant de les aider à naviguer dans cet environnement complexe, en particulier dans les secteurs à haut risque comme les RH, le secteur public et les soins de santé. Nous avons donc décidé d'ouvrir à nos clients notre cadre interne utilisé pour évaluer les risques éthiques de nos projets d'IA - sous la forme d'une évaluation des risques éthiques de l'IA.
Qu'est-ce que l'offre d'évaluation des risques éthiques de l'IA ? Il s'agit de l'approche de ML6 pour comprendre et évaluer les risques associés à une solution/un cas d'utilisation spécifique de l'IA. ML6 a développé un cadre basé sur les directives éthiques de l'UE pour une IA digne de confiance, visant à permettre l'évaluation de projets ou d'idées à un niveau plus pratique.
Au cours de ce court engagement, nos experts en IA éthique travaillent à l'élaboration d'un rapport soulignant les avantages et les risques d'un cas d'utilisation spécifique de l'IA et recommandent des actions potentielles pour atténuer ou limiter ces risques. Lors d'entretiens avec des experts commerciaux et techniques du côté du client, nous obtiendrons une image claire de l'objectif et du but, de la technologie et de l'utilisation prévue de l'application.
Nous examinons ensuite d'une part les avantages de la solution pour les individus, l'entreprise et la société, et d'autre part les risques éthiques dans les 7 dimensions de risque. Pour chaque dimension, nous avons développé une série de questions spécifiques afin de guider le processus de réflexion. En notant chacune de ces dimensions sur une échelle de 0 à 5, nous pouvons mettre en évidence les dimensions à haut risque pour un certain projet dans un résumé exécutif et suggérer des actions d'atténuation.
Il est important de noter que nous devons toujours prendre en compte le contexte d'une solution. Une application d'IA faisant correspondre des candidats à des emplois potentiels comportera probablement des risques plus élevés qu'une solution permettant de détecter des défauts sur la chaîne de fabrication.
Maintenant, quand devriez-vous envisager une évaluation des risques éthiques de l'IA ?
Nous voyons actuellement trois scénarios possibles pour la nécessité d'une telle évaluation :
Avec notre offre de conseil en éthique, nous voulons vous aider à développer des solutions dignes de confiance, à créer une confiance dans l'IA avec vos clients et vos employés, et à limiter votre exposition au risque. Équipé de ce cadre, vous serez également en mesure d'évaluer vous-même les futurs cas d'utilisation.