La loi sur l’IA introduit une définition prospective de l’IA, basée sur une approche européenne basée sur la sécurité des produits et basée sur les risques :
- Risque minime: La plupart des systèmes d’IA, tels que les systèmes de recommandation compatibles avec l’IA et les filtres anti-spam, entrent dans cette catégorie. Ces systèmes ne sont soumis à aucune obligation en vertu de la loi sur l’IA en raison de leur risque minime pour les citoyens. droits et la sécurité. Les entreprises peuvent adopter volontairement des codes de conduite supplémentaires.
- Risque spécifique de transparence: les systèmes d’IA comme les chatbots doit clairement indiquer aux utilisateurs qu’ils interagissent avec une machine. Certains contenus générés par l’IA, y compris les deep fakes, doivent être étiquetés comme tels, et les utilisateurs doivent être informés lorsque des systèmes de catégorisation biométrique ou de reconnaissance des émotions sont utilisés. En outre, les fournisseurs devront concevoir des systèmes de manière à ce que le contenu synthétique audio, vidéo, texte et images soit marqué dans un format lisible par machine et détectable comme généré ou manipulé artificiellement.
- Risque élevé: Les systèmes d’IA identifiés comme à haut risque devront se conformer aux des exigences strictes, y compris des systèmes d’atténuation des risques, des ensembles de données de haute qualité, une journalisation des activités, une documentation détaillée, des informations claires sur les utilisateurs, une surveillance humaine et un niveau élevé de robustesse, d’exactitude et de cybersécurité. Les bacs à sable réglementaires faciliteront l’innovation responsable et le développement de systèmes d’IA conformes. Ces systèmes d’IA à haut risque comprennent par exemple les systèmes d’IA utilisés pour le recrutement, ou pour évaluer si quelqu’un a le droit d’obtenir un prêt, ou encore pour faire fonctionner des robots autonomes.
- Risque inacceptable : Les systèmes d’IA considérés comme une menace évidente pour les droits fondamentaux des personnes seront banni. Cela inclut les systèmes ou applications d’IA qui manipulent le comportement humain pour contourner le libre arbitre des utilisateurs, tels que les jouets utilisant une assistance vocale encourageant les comportements dangereux des mineurs, les systèmes qui permettent une « notation sociale » par les gouvernements ou les entreprises, et certaines applications de police prédictive. En outre, certaines utilisations des systèmes biométriques seront interdites, par exemple les systèmes de reconnaissance des émotions utilisés sur le lieu de travail et certains systèmes de catégorisation des personnes ou d’identification biométrique à distance en temps réel à des fins d’application de la loi dans les espaces accessibles au public (à quelques exceptions près).
Pour compléter ce système, la loi sur l’IA introduit également des règles pour ce que l’on appelle modèles d’IA à usage général, qui sont des modèles d’IA très performants conçus pour effectuer une grande variété de tâches, telles que la génération de texte de type humain. Les modèles d’IA à usage général sont de plus en plus utilisés comme composants d’applications d’IA. La loi sur l’IA garantira la transparence tout au long de la chaîne de valeur et répondra aux éventuels risques systémiques des modèles les plus performants.
Application et respect des règles en matière d’IA
Les États membres ont jusqu’au 2 août 2025 pour désigner les autorités nationales compétentes, qui superviseront l’application des règles relatives aux systèmes d’IA et mèneront des activités de surveillance du marché. La Commission Bureau de l’IA sera le principal organisme de mise en œuvre de la loi sur l’IA au niveau de l’UE, ainsi que l’organisme chargé de l’application des règles à usage général. Modèles d’IA.
Trois organismes consultatifs soutiendront la mise en œuvre des règles. Le Conseil européen de l’intelligence artificielle garantira une application uniforme de la loi sur l’IA dans l’ensemble UE États membres et fera office de principal organe de coopération entre la Commission et les États membres. Un panel scientifique d’experts indépendants offrira des conseils techniques et des contributions sur l’application. Ce panneau peut notamment émettre des alertes à l’AI Office sur les risques associés aux modèles d’IA à usage général. Le Bureau d’AI peut également recevoir des conseils de un forum consultatifcomposé d’un ensemble diversifié de parties prenantes.
Les entreprises qui ne respecteront pas les règles seront sanctionnées. Les amendes pourraient aller jusqu’à 7 % du chiffre d’affaires annuel mondial en cas de violation d’applications d’IA interdites, jusqu’à 3 % en cas de violation d’autres obligations et jusqu’à 1,5 % en cas de fourniture d’informations incorrectes.
Prochaines étapes
La majorité des règles de la loi sur l’IA entreront en vigueur le 2 août 2026. Toutefois, les interdictions des systèmes d’IA jugés présenter un risque inacceptable s’appliqueront déjà après six mois, tandis que les règles relatives aux modèles d’IA dits à usage général s’appliqueront après 12 mois.
Afin de combler la période de transition avant la mise en œuvre complète, la Commission a lancé le Pacte sur l’IA. Cette initiative invite les développeurs d’IA à adopter volontairement les principales obligations de la loi sur l’IA avant les délais légaux.
La Commission élabore également des lignes directrices pour définir et détailler la manière dont la loi sur l’IA devrait être mise en œuvre et faciliter les instruments de corégulation tels que les normes et les codes de bonnes pratiques. La Commission a ouvert un appel à manifestation d’intérêt participer à l’élaboration du premier code de bonnes pratiques généralistes de l’IA, ainsi que d’un consultation multipartite donner l’opportunité à toutes les parties prenantes de s’exprimer sur le premier code de bonnes pratiques en vertu de la loi sur l’IA.
Arrière-plan
Le 9 décembre 2023, le La Commission a salué l’accord politique sur la loi sur l’IA. Le 24 janvier 2024 la Commission a lancé un ensemble de mesures soutenir les startups et PME européennes dans le développement d’une IA fiable. Le 29 mai 2024, la Commission a dévoilé le Bureau de l’IA. Le 9 juillet 2024, le Le règlement EuroHPC JU modifié est entré en vigueur, permettant ainsi la mise en place d’usines d’IA. Cela permet d’utiliser des supercalculateurs d’IA dédiés pour la formation de modèles d’IA à usage général (GPAI).
Poursuite des recherches indépendantes et fondées sur des données probantes produites par le Centre commun de recherche (JRC) a joué un rôle fondamental pour façonner les politiques de l’UE en matière d’IA et garantir leur mise en œuvre efficace.
Publié à l’origine dans The European Times.