Le AI Act, adopté le 13 juin 2024 et publié au Journal officiel le 12 juillet 2024, est une étape décisive dans la régulation de l’intelligence artificielle en Europe. Ce règlement vise à encadrer les systèmes d’IA selon leur niveau de risque, tout en garantissant la protection des droits fondamentaux et la sécurité des citoyens.
Champ d’application: qui est concerné
Le champ d’application du AI Act est extrêmement large et s’étend à tous les acteurs impliqués dans le cycle de vie d’un système d’IA, dès lors que celui-ci est mis sur le marché, utilisé ou produit dans l’Union européenne, même si le fournisseur est situé hors UE.
Sont concernés :
- Fournisseurs de systèmes ou modèles d’IA, y compris ceux à usage général
- Déployeurs (utilisateurs professionnels)
- Importateurs, distributeurs, fabricants intégrant de l’IA dans leurs produits
- Représentants autorisés de fournisseurs non établis dans l’UE
- Personnes physiques ou morales utilisant l’IA dans un cadre professionnel
Sont exclus :
- Systèmes d’IA à usage militaire, de défense ou de sécurité nationale
- Systèmes utilisés à des fins de recherche scientifique
- Utilisation personnelle et non professionnelle
- Modèles open source, sauf s’ils présentent un risque élevé ou relèvent d’articles spécifiques
Décrets et dispositions réglementaires
Le AI Act est un règlement européen, ce qui signifie qu’il est directement applicable dans tous les États membres. Toutefois, plusieurs décrets d’application et lignes directrices sont publiés pour en préciser les modalités
Calendrier d’application
L’entrée en vigueur du AI Act se fait progressivement, selon un calendrier bien défini. Dès le 2 février 2025, les pratiques jugées inacceptables sont interdites, comme la manipulation cognitive ou la reconnaissance faciale non autorisée. Cette première étape s’accompagne également d’obligations de formation pour les acteurs du secteur.
Le 2 août 2025, les premières dispositions concernant les modèles d’intelligence artificielle à usage général entrent en application. Cela inclut notamment des exigences de transparence sur les données utilisées et la documentation technique.
Puis, à partir du 2 août 2026, le règlement s’applique aux systèmes d’IA à haut risque listés dans l’Annexe III du texte. Ces systèmes devront répondre à des critères stricts de traçabilité, d’évaluation et de supervision humaine.
Enfin, le 2 août 2027 marque l’achèvement de la mise en œuvre complète du AI Act pour les systèmes à haut risque répertoriés dans l’Annexe I. Tous les opérateurs concernés devront être pleinement conformes aux obligations prévues par le règlement
Gouvernance et supervision
Le AI Act prévoit la création d’un Comité européen de l’intelligence artificielle, chargé :
- de coordonner les autorités nationales
- de publier des lignes directrices
- de surveiller les systèmes à haut risque et à usage général
- de gérer une base de données européenne recensant les IA à haut risque déployées dans l’UE
Phase actuelle de mise en oeuvre du AI Act
En juillet 2025, l’Union européenne se trouve dans une phase clé de mise en œuvre du AI Act. Depuis février, les pratiques considérées comme inacceptables, comme la reconnaissance faciale illégale ou la notation sociale, sont interdites, marquant un premier tournant réglementaire. Les opérateurs doivent désormais se former aux risques liés à l’IA et préparer la prochaine échéance du 2 août 2025, où les règles encadrant les modèles à usage général et la gouvernance centrale (AI Office, comité de supervision) entreront en vigueur. C’est une période de transition intense, où les acteurs publics et privés doivent adapter leurs outils, procédures et responsabilités à une nouvelle culture de transparence et de responsabilité algorithmique.
Source: EU Artificial







