Découvrez la proposition de la Commission européenne pour encadrer l’intelligence artificielle. Ce cadre législatif vise à garantir des usages responsables de l’IA en Europe, avec des règles adaptées au risque, tout en soutenant l’innovation. Une régulation mondiale pour prévenir les dérives technologiques.

La Commission européenne a récemment dévoilé une proposition de réglementation pour encadrer l’usage de l’intelligence artificielle (IA) afin de prévenir ses dérives. Ce projet s’appuie sur une approche proportionnelle, prenant en compte les risques liés à chaque utilisation de l’IA. L'objectif est de créer un environnement favorable à l’innovation tout en protégeant la sécurité et les droits fondamentaux des citoyens européens.
Cette proposition vise à instaurer un cadre juridique similaire à celui du RGPD, pour garantir que l'IA soit utilisée de manière digne de confiance. Elle s'appliquera aux pays de l'UE, mais également à la Suisse, notamment pour les entreprises ayant des relations commerciales avec l’UE. La Suisse pourrait s’inspirer de cette réglementation pour élaborer ses propres règles, comme l'indiquent les lignes directrices fixées par la confédération fin 2020.
L’UE a bien conscience qu'une réglementation trop stricte pourrait freiner l’innovation, notamment face à la concurrence des États-Unis et de la Chine. C'est pourquoi une approche fondée sur le risque est privilégiée. Les systèmes présentant un "risque inacceptable" seront interdits, comme les technologies de reconnaissance faciale en temps réel utilisées par les forces de l'ordre, ou encore les systèmes de notation sociale similaires à ceux développés en Chine.
A l'inverse, les systèmes d’IA présentant un risque minimal ne seront soumis à aucune obligation légale supplémentaire. Cependant, leurs fournisseurs pourront choisir d'adhérer volontairement à des codes de conduite.
La réglementation se concentre principalement sur une vingtaine d’usages jugés à haut risque. Parmi ces usages, on trouve l’utilisation de l’IA dans les ressources humaines (recrutement, promotions, évaluations de productivité) ou dans l’administration publique pour déterminer l’éligibilité à des prestations sociales. L'IA utilisée pour évaluer la solvabilité des individus fait également partie des systèmes à haut risque.
Les entreprises ou autorités publiques qui développent ou utilisent ces applications à risque élevé devront respecter des exigences strictes. Les fournisseurs devront suivre un processus d’évaluation, qui inclut l’utilisation de bonnes pratiques en matière de gouvernance des données, la documentation technique du système, ainsi que des mécanismes pour enregistrer et surveiller le fonctionnement des systèmes d'IA.
Les utilisateurs devront s’assurer que les données utilisées sont pertinentes et vérifier le bon fonctionnement des systèmes selon les instructions d’utilisation.
Le coût de la mise en conformité varie selon les parties prenantes. Pour les fournisseurs, l’évaluation d'un système d’IA à moyen risque serait d’environ 6 000 à 7 000 euros, tandis que la surveillance humaine des systèmes d’IA pour les utilisateurs pourrait coûter entre 5 000 et 8 000 euros par an.
Alors que l’Europe avance sur la régulation de l’IA, les États-Unis suivent également cette tendance. La Federal Trade Commission (FTC) a récemment publié des lignes directrices pour prévenir les discriminations générées par des algorithmes biaisés. Elle a averti les fournisseurs que la responsabilité de la performance des algorithmes leur incombe et qu’elle pourrait engager des actions en justice en cas de discrimination ou de tromperie.
Ainsi, la régulation de l’IA est sur le point de devenir un enjeu mondial, avec des initiatives législatives en cours tant en Europe qu’aux États-Unis.
Source : ICTjournal