©Adobe Stock
Loi de l’UE sur l’IA: Aperçu du contenu et des exigences clés
Le Loi de l’UE sur l’IA est dans toutes les bouches, beaucoup ne savent pas ce qu’il s’agit, qui le concerne et quelles en sont les conséquences.
La contribution suivante explique ce que vous devez savoir — simple et compact.
Qu’est-ce que l’AI Act?
L’AI Act est devenu: première réglementation globale de l’UE en matière d’IA présenté en juillet 2024. Depuis août 2024, cette réglementation: périodes transitoires échelonnées entrée en vigueur. Par conséquent, davantage de règles s’appliqueront progressivement.
L’AI Act divise les systèmes d’IA sur la base de la technologie sous-jacente et du contexte d’application en quatre étapes:
- Risque minimal (par exemple, filtre pour spam d’IA)
- Risque limité (par exemple, dialogueurs d’IA dans le service après-vente)
- Risque élevé (par exemple, systèmes d’IA pour la sélection des candidats)
- Risque inacceptable (par exemple, systèmes d’évaluation sociale fondés sur l’IA)
Les systèmes d’IA présentant un risque inacceptable sont: interdite dans l’UE depuis février 2025. En principe: Plus le risque est élevé, plus les exigences et les obligations sont strictes.
Pourquoi l’AI Act est-il nécessaire?
L’utilisation de l’IA est en augmentation depuis longtemps. Entre-temps, elle s’est également inscrite dans notre travail quotidien. L’absence de cadre juridique est source d’incertitude, étant donné que de nombreuses questions restaient en suspens. Par exemple, ce qui est autorisé et qui assume la responsabilité des dommages susceptibles de survenir en cas de mauvaise utilisation.
L’AI Act vise à clarifier ces questions et à: Améliorer la sécurité des fournisseurs, des déployeurs et des utilisateurs de l’IA.
Il vise également à contribuer à: Encourager l’innovation ainsi que les Santé, sécurité et droits fondamentaux à protéger.
Qui est concerné par l’AI Act?
L’AI Act a deux objectifs principaux:
- Les fournisseurs d’IA; développer ou mettre sur le marché de l’UE des systèmes d’IA
- Opérateurs d’IA, «utilisant des systèmes d’IA pour leur propre exploitation
Bien que la loi de l’UE sur l’IA s’adresse principalement aux entreprises, concerne également le personnel: indirecte. En agissant de manière responsable, ils peuvent protéger leur entreprise contre les dommages et les sanctions.
Nécessité d’une maîtrise de l’IA
En vertu de l’article 4 de la loi de l’UE sur l’IA, les employeurs sont déjà soumis, depuis février 2025, à l’obligation de: Veiller à ce que le personnel dispose d’une compétence suffisante en matière d’IA. Le profil de l’utilisateur, qui comprend les connaissances et l’expérience, ainsi que le contexte de l’application, y compris le système d’IA utilisé, doivent être pris en compte dans les mesures.
Les L’Agence fédérale des réseaux a publié en juin 2025 Document d’information, les trois étapes pour structurer les actions. Dans ce contexte, les étapes: une orientation, pas d’obligation représentant:
- Créer une compréhension de base des données et de l’IA au sein de l’organisation
- Développer des compétences avancées dans le domaine de l’IA
- Formation spécifique au rouleau avec un centre de gravité individuel
À côté risques éventuels en matière de responsabilité peuvent également: autres sanctions au titre de la loi sur l’IA à effectuer. Les entreprises devraient donc prendre des mesures précoces pour développer les compétences en matière d’IA.
Envie d’en savoir plus? Ces sources vous fournissent de plus amples informations:
Autrice
Michelle Jörgens
AWSi