L’AI Act (Artificial Intelligence Act) est un règlement européen adopté le 21 mai 2024 et publié au Journal Officiel de l’UE le 12 juillet 2024, visant à encadrer le développement et l’utilisation de l’intelligence artificielle au sein de l’Union européenne. Ce texte établit des règles harmonisées pour la mise sur le marché, la mise en service et l’utilisation des systèmes d’IA dans l’UE.
L’AI Act classe les applications de l’IA en quatre niveaux de risque :
- Risque inacceptable : pratiques interdites comme la manipulation inconsciente ou l’exploitation des vulnérabilités.
- Haut risque : applications soumises à des exigences légales spécifiques.
- Risque faible : applications soumises à des obligations de transparence.
- Risque minime : applications largement non réglementées.

Pyramide des risques du Règlement sur l’IA ou AI Act – ©Alexandre SALQUE/ORSYS le mag
Les principaux objectifs de l’AI Act sont :
- Garantir la sécurité et le respect des droits fondamentaux pour les systèmes d’IA mis sur le marché.
- Promouvoir une IA axée sur l’humain et digne de confiance.
- Faciliter les investissements et l’innovation dans l’IA, notamment pour les PME.
- Harmoniser les réglementations au sein de l’UE pour améliorer le fonctionnement du marché intérieur.
L’application de l’AI Act se fera progressivement, avec des dates clés comme le 2 février 2025 pour l’interdiction de certaines pratiques d’IA (les risques inacceptables en rouge sur la pyramide), et le 2 août 2026 pour l’application générale du règlement.
Pour en savoir plus, vous pouvez lire l’article :