L'article suivant est une version abrégée de l'article "Hoe staat het met het voorstel voor de AI Act" par Agoria. Lire l'article original d'Agoria ici (en néerlandais)
‍
‍
‍
Le 21 avril 2021, la Commission europĂ©enne a proposĂ© l'"AI Act", une proposition de règlement pour l'intelligence artificielle. Aujourd'hui, près d'un an après la publication de cette proposition, il y a un certain nombre d'Ă©volutions au Parlement et au Conseil. L'entrĂ©e en vigueur de l'AI Act est actuellement prĂ©vue pour le dĂ©but de l'annĂ©e 2025.Â
‍
‍
‍
La loi sur l'IA est la première réglementation européenne spécifiquement axée sur l'intelligence artificielle. La Commission est consciente que tous les systèmes d'IA n'ont pas besoin d'être réglementés de manière exhaustive et adopte donc une "approche basée sur le risque" pour le cadre juridique. Cela signifie que le risque (potentiel) d'une application d'IA détermine les règles qui s'appliqueront. La proposition énumère quatre catégories, chacune étant assortie d'un ensemble de règles et d'exigences : "risque faible et minimal", "risque limité", "risque élevé" et "risque inacceptable".
‍
‍
La proposition se trouve actuellement dans la "phase de trilogue", avec des réunions informelles entre les représentants du Parlement européen, de la Commission européenne et du Conseil. Tous les éléments de la proposition sont réexaminés car elle a suscité de nombreuses réactions divergentes. À l'issue du trilogue, les trois organes réuniront leurs propositions pour finaliser la loi sur l'IA. Une période de transition d'environ 24 mois suivra.
‍
‍
‍
‍
‍
‍
‍
‍
‍
‍
Parmi les ajustements actuellement proposés par le Conseil européen figure une réécriture de la définition de l'IA. Quelques autres sujets ont été mis à jour, comme par exemple :
‍
Les types de risques d'un système d'IA ainsi que la gestion des risques ont Ă©tĂ© réécrits (article 9). En ce qui concerne la gestion des donnĂ©es, les biais potentiels dans les ensembles de donnĂ©es sont dĂ©sormais dĂ©finis comme "susceptibles d'affecter la santĂ© et la sĂ©curitĂ© des personnes ou d'entraĂ®ner une discrimination". Les ensembles de donnĂ©es Ă©tant rarement exempts d'erreurs ou complets, l'expression "aussi bien que possible" a Ă©tĂ© ajoutĂ©e pour assouplir les dispositions. Enfin, en l'absence de formation d'un système d'IA, les dispositions ne s'appliquent plus qu'aux ensembles de donnĂ©es utilisĂ©s pour les tests (article 10).Â
‍
L'article sur les actions correctives a également été mis à jour : Lorsqu'un système d'IA est jugé non conforme par des utilisateurs, les fournisseurs doivent collaborer avec ces utilisateurs pour examiner le problème (article 21). Les subtilités de la supervision humaine ont été reformulées (article 29).
‍
Les articles concernant les modalités et la durée de conservation de la documentation et des journaux ont également été mis à jour (articles 11 à 14, 16 à 18 et 20). Les articles 53 et 54 décrivent comment les bacs à sable doivent contribuer à une liste d'objectifs ainsi que leurs conditions financières et diverses règles concernant la coordination et la participation aux bacs à sable. Enfin, de nouveaux articles ont été ajoutés pour décrire comment tester un système d'IA dans un bac à sable ou dans des conditions réelles, comment le superviser et obtenir le consentement des sujets testés.
‍
Pour une liste plus complète des ajustements proposés, veuillez vous référer à l'article original d'Agoria ici (en néerlandais).
Â
‍