Entreprise

Comment Bruxelles veut réglementer l’IA sans freiner l’innovation

Découvrez la proposition de la Commission européenne pour encadrer l’intelligence artificielle. Ce cadre législatif vise à garantir des usages responsables de l’IA en Europe, avec des règles adaptées au risque, tout en soutenant l’innovation. Une régulation mondiale pour prévenir les dérives technologiques.

Comment Bruxelles veut réglementer l’IA sans freiner l’innovation

La Commission Européenne propose un cadre légal pour l’intelligence artificielle

La Commission européenne a récemment dévoilé une proposition de réglementation pour encadrer l’usage de l’intelligence artificielle (IA) afin de prévenir ses dérives. Ce projet s’appuie sur une approche proportionnelle, prenant en compte les risques liés à chaque utilisation de l’IA. L'objectif est de créer un environnement favorable à l’innovation tout en protégeant la sécurité et les droits fondamentaux des citoyens européens.

Un cadre adapté à l’évolution de l'IA

Cette proposition vise à instaurer un cadre juridique similaire à celui du RGPD, pour garantir que l'IA soit utilisée de manière digne de confiance. Elle s'appliquera aux pays de l'UE, mais également à la Suisse, notamment pour les entreprises ayant des relations commerciales avec l’UE. La Suisse pourrait s’inspirer de cette réglementation pour élaborer ses propres règles, comme l'indiquent les lignes directrices fixées par la confédération fin 2020.

Une approche proportionnelle et fondée sur le risque

L’UE a bien conscience qu'une réglementation trop stricte pourrait freiner l’innovation, notamment face à la concurrence des États-Unis et de la Chine. C'est pourquoi une approche fondée sur le risque est privilégiée. Les systèmes présentant un "risque inacceptable" seront interdits, comme les technologies de reconnaissance faciale en temps réel utilisées par les forces de l'ordre, ou encore les systèmes de notation sociale similaires à ceux développés en Chine.

A l'inverse, les systèmes d’IA présentant un risque minimal ne seront soumis à aucune obligation légale supplémentaire. Cependant, leurs fournisseurs pourront choisir d'adhérer volontairement à des codes de conduite.

Vingt usages à haut risque identifiés

La réglementation se concentre principalement sur une vingtaine d’usages jugés à haut risque. Parmi ces usages, on trouve l’utilisation de l’IA dans les ressources humaines (recrutement, promotions, évaluations de productivité) ou dans l’administration publique pour déterminer l’éligibilité à des prestations sociales. L'IA utilisée pour évaluer la solvabilité des individus fait également partie des systèmes à haut risque.

Exigences spécifiques pour les fournisseurs et utilisateurs

Les entreprises ou autorités publiques qui développent ou utilisent ces applications à risque élevé devront respecter des exigences strictes. Les fournisseurs devront suivre un processus d’évaluation, qui inclut l’utilisation de bonnes pratiques en matière de gouvernance des données, la documentation technique du système, ainsi que des mécanismes pour enregistrer et surveiller le fonctionnement des systèmes d'IA.

Les utilisateurs devront s’assurer que les données utilisées sont pertinentes et vérifier le bon fonctionnement des systèmes selon les instructions d’utilisation.

Coût de la mise en conformité

Le coût de la mise en conformité varie selon les parties prenantes. Pour les fournisseurs, l’évaluation d'un système d’IA à moyen risque serait d’environ 6 000 à 7 000 euros, tandis que la surveillance humaine des systèmes d’IA pour les utilisateurs pourrait coûter entre 5 000 et 8 000 euros par an.

Les États-Unis aussi sur la voie de la régulation

Alors que l’Europe avance sur la régulation de l’IA, les États-Unis suivent également cette tendance. La Federal Trade Commission (FTC) a récemment publié des lignes directrices pour prévenir les discriminations générées par des algorithmes biaisés. Elle a averti les fournisseurs que la responsabilité de la performance des algorithmes leur incombe et qu’elle pourrait engager des actions en justice en cas de discrimination ou de tromperie.

Ainsi, la régulation de l’IA est sur le point de devenir un enjeu mondial, avec des initiatives législatives en cours tant en Europe qu’aux États-Unis.

 

Source : ICTjournal

Entreprise, Régulation, Technologiques, Conception
4 min de lecture
avr. 24, 2021
Par L. F.
Partager

Articles associés

janv. 28, 2025 • 4 min de lecture
Pourquoi tout ce buzz autour de Deepseek ?

Découvrez Deepseek, la start-up chinoise qui secoue l'IA avec son modèle R1 open source. Gratuit et...

janv. 27, 2025 • 2 min de lecture
Avec Operator, les ambitions d’OpenAI dans l’IA agentique se précisent

Découvrez Operator d'OpenAI, un agent IA qui réinvente l'automatisation des tâches web. Capable de r...

déc. 16, 2024 • 2 min de lecture
Le Conseil fédéral définit sa stratégie numérique pour 2025

Découvrez la stratégie numérique de la Suisse pour 2025, axée sur l'intelligence artificielle (IA),...

Pour améliorer votre expérience, ce site utilise des cookies. En poursuivant votre navigation, vous acceptez leur utilisation. Politique de Cookies