Loi européenne sur l'IA : ce que vous devez savoir

Les contributeurs
Caroline Adam
Chef de Incubation
Aucun élément trouvé.
S'abonner Ă  la newsletter
Partager cet article

L'article suivant est une version abrégée de l'article "Hoe staat het met het voorstel voor de AI Act" par Agoria. Lire l'article original d'Agoria ici (en néerlandais)

‍

‍

Qu'en est-il de la proposition de loi sur l'IA ?

‍

Le 21 avril 2021, la Commission européenne a proposé l'"AI Act", une proposition de règlement pour l'intelligence artificielle. Aujourd'hui, près d'un an après la publication de cette proposition, il y a un certain nombre d'évolutions au Parlement et au Conseil. L'entrée en vigueur de l'AI Act est actuellement prévue pour le début de l'année 2025. 

‍

‍

La loi sur l'IA en bref

‍

La loi sur l'IA est la première réglementation européenne spécifiquement axée sur l'intelligence artificielle. La Commission est consciente que tous les systèmes d'IA n'ont pas besoin d'être réglementés de manière exhaustive et adopte donc une "approche basée sur le risque" pour le cadre juridique. Cela signifie que le risque (potentiel) d'une application d'IA détermine les règles qui s'appliqueront. La proposition énumère quatre catégories, chacune étant assortie d'un ensemble de règles et d'exigences : "risque faible et minimal", "risque limité", "risque élevé" et "risque inacceptable".

‍

‍

La proposition se trouve actuellement dans la "phase de trilogue", avec des réunions informelles entre les représentants du Parlement européen, de la Commission européenne et du Conseil. Tous les éléments de la proposition sont réexaminés car elle a suscité de nombreuses réactions divergentes. À l'issue du trilogue, les trois organes réuniront leurs propositions pour finaliser la loi sur l'IA. Une période de transition d'environ 24 mois suivra.

‍

‍

‍

‍

‍

‍

‍

‍

‍

‍

Évolution actuelle au sein du Conseil européen

‍

Parmi les ajustements actuellement proposés par le Conseil européen figure une réécriture de la définition de l'IA. Quelques autres sujets ont été mis à jour, comme par exemple :

‍

Les types de risques d'un système d'IA ainsi que la gestion des risques ont été réécrits (article 9). En ce qui concerne la gestion des données, les biais potentiels dans les ensembles de données sont désormais définis comme "susceptibles d'affecter la santé et la sécurité des personnes ou d'entraîner une discrimination". Les ensembles de données étant rarement exempts d'erreurs ou complets, l'expression "aussi bien que possible" a été ajoutée pour assouplir les dispositions. Enfin, en l'absence de formation d'un système d'IA, les dispositions ne s'appliquent plus qu'aux ensembles de données utilisés pour les tests (article 10). 

‍

L'article sur les actions correctives a également été mis à jour : Lorsqu'un système d'IA est jugé non conforme par des utilisateurs, les fournisseurs doivent collaborer avec ces utilisateurs pour examiner le problème (article 21). Les subtilités de la supervision humaine ont été reformulées (article 29).

‍

Les articles concernant les modalités et la durée de conservation de la documentation et des journaux ont également été mis à jour (articles 11 à 14, 16 à 18 et 20). Les articles 53 et 54 décrivent comment les bacs à sable doivent contribuer à une liste d'objectifs ainsi que leurs conditions financières et diverses règles concernant la coordination et la participation aux bacs à sable. Enfin, de nouveaux articles ont été ajoutés pour décrire comment tester un système d'IA dans un bac à sable ou dans des conditions réelles, comment le superviser et obtenir le consentement des sujets testés.

‍

Pour une liste plus complète des ajustements proposés, veuillez vous référer à l'article original d'Agoria ici (en néerlandais).

 

‍

Postes connexes

Voir tout le contenu
Aucun résultat n'a été trouvé.
Il n'y a pas de résultats correspondant à ces critères. Essayez de modifier votre recherche.
Grand modèle linguistique
Modèles de fondation
Entreprise
Personnes
Données Structurées
Chat GPT
Durabilité
Voix et son
DĂ©veloppement frontal
Protection des données et sécurité
IA responsable/Ă©thique
Infrastructure
Hardware et capteurs
MLOps
IA générative
Natural Language Processing
Vision par ordinateur