L’utilisation de l’IA dans l’Union européenne sera réglementée par la loi sur l’intelligence artificielle, la première loi globale sur l’IA au monde. Découvrez comment il vous protégera.
dans le cadre d’un dossier stratégie numériqueL’Union européenne veut réglementer l’intelligence artificielle (IA) pour assurer de meilleures conditions de développement et d’utilisation de cette technologie innovante. L’intelligence artificielle peut créer de nombreux avantages, comme de meilleurs soins de santé; un transport plus sûr et plus propre; Une production d’énergie plus efficace, moins chère et plus durable.
En avril 2021, la Commission européenne a proposé le premier UE Le cadre réglementaire de l’intelligence artificielle. Il indique que les systèmes d’IA pouvant être utilisés dans différentes applications sont analysés et classés en fonction des risques qu’ils présentent pour les utilisateurs. Différents niveaux de risque signifient plus ou moins de réglementation. Une fois approuvées, ces règles seront les premières au monde sur l’intelligence artificielle.
Ce que le Parlement veut dans la législation sur l’IA
Priorité du Parlement Il s’agit de garantir que les systèmes d’IA utilisés dans l’UE sont sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement. Les systèmes d’IA doivent être supervisés par des personnes, et non par l’automatisation, pour éviter des résultats néfastes.
Le Parlement souhaite également créer une définition unifiée et techniquement neutre de l’IA qui puisse être appliquée aux futurs systèmes d’IA.
En savoir plus sur Les travaux du Parlement sur l’intelligence artificielle Et pour lui Une vision du futur de l’intelligence artificielle
Loi sur l’IA : différentes règles pour différents niveaux de risque
Les nouvelles règles établissent des obligations pour les fournisseurs de services et les utilisateurs en fonction du niveau de risque lié à l’IA. Bien que de nombreux systèmes d’IA présentent peu de risques, ils doivent être évalués.
Risques inacceptables
Des risques inacceptables Les systèmes d’IA sont des systèmes qui sont considérés comme une menace pour les personnes et qui seront interdits. Ils comprennent:
- Manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques : par exemple, des jeux activés par la voix qui encouragent les comportements à risque chez les enfants
- Classification sociale : classification des personnes sur la base du comportement, du statut socio-économique ou des caractéristiques personnelles
- Systèmes d’identification en temps réel et à distance, tels que la reconnaissance faciale
Certaines exceptions peuvent être autorisées : par exemple, les systèmes « d’identification à distance » où l’identification a lieu après un délai important permettront de poursuivre les infractions graves mais seulement après l’approbation du tribunal.
Risque élevé
Les systèmes d’IA qui ont un impact négatif sur la sécurité ou les droits fondamentaux seront considérés comme à haut risque et seront divisés en deux catégories :
1) Les systèmes d’intelligence artificielle utilisés dans les produits qui en relèvent Législation de l’Union européenne sur la sécurité des produits. Cela comprend les jouets, l’aviation, les voitures, les dispositifs médicaux et les ascenseurs.
2) Les systèmes d’IA relèvent de huit domaines spécifiques dans lesquels ils doivent être enregistrés UE Base de données:
- Identification et classification des personnes physiques
- Gestion et exploitation des infrastructures critiques
- Éducation et formation professionnelle
- Recrutement et gestion des travailleurs et accès au travail indépendant
- Accéder et profiter des services privés essentiels et des services et avantages publics
- forces de l’ordre
- Département de l’immigration, de l’asile et du contrôle des frontières
- Aider à l’interprétation juridique et à l’application de la loi.
Tous les systèmes d’IA à haut risque seront évalués avant leur mise sur le marché et également tout au long de leur cycle de vie.
Intelligence artificielle générative
L’IA générative, comme ChatGPT, doit respecter des exigences de transparence :
- Détecter que le contenu a été généré par l’intelligence artificielle
- Concevoir le formulaire pour l’empêcher de générer du contenu illégal
- Publier des résumés des données protégées par le droit d’auteur utilisées pour la formation
Des risques limités
Les systèmes d’IA à risque limité doivent respecter des exigences minimales de transparence qui permettraient aux utilisateurs de prendre des décisions éclairées. Après avoir interagi avec les applications, l’utilisateur peut alors décider s’il souhaite continuer à les utiliser. Les utilisateurs doivent être informés lorsqu’ils interagissent avec l’IA. Cela inclut les systèmes d’IA qui créent ou manipulent du contenu image, audio ou vidéo, par exemple des deepfakes.
prochaines étapes
Le Parlement doit approuver sa position de négociation en juin 2023, après quoi des discussions commenceront avec les pays de l’UE au sein du Conseil sur la forme finale de la loi.
L’objectif est de parvenir à un accord d’ici la fin de l’année.