IA Act : comprendre le règlement européen sur l'intelligence artificielle
Enseignement & Formation

IA Act : comprendre le règlement européen sur l'intelligence artificielle

Analyse du règlement européen IA Act : classification des risques, obligations des fournisseurs et déployeurs, sanctions et calendrier d'application 2025-2027.

4 min de lecture

L’IA Act impose le premier cadre juridique mondial dédié à la régulation de l’intelligence artificielle. Adopté en 2024 par le Parlement européen avec 523 voix pour, ce règlement classe chaque système d’IA selon son niveau de risque et fixe des obligations proportionnées — de l’interdiction pure à l’absence totale de contrainte.

Quatre niveaux de risque, quatre régimes distincts

Le règlement repose sur une pyramide à quatre étages. Chaque catégorie déclenche un degré d’obligation différent.

Risque inacceptable : les lignes rouges

Certaines pratiques sont interdites depuis février 2025 :

  • La notation sociale (social scoring) par les autorités publiques
  • L’exploitation des vulnérabilités liées à l’âge ou au handicap
  • La reconnaissance faciale en temps réel dans l’espace public, sauf trois exceptions (menace terroriste imminente, recherche de victimes, enquête sur infraction grave)
  • La manipulation subliminale causant un préjudice

Selon la Commission européenne, moins de 5 % des systèmes d’IA commercialisés en Europe relèvent de cette catégorie.

Risque élevé : le cœur du dispositif

Les systèmes d’IA à haut risque concentrent 80 % des obligations du règlement. Sont visés les systèmes utilisés dans :

  • Le recrutement et la gestion RH
  • L’accès au crédit, à l’assurance et aux services essentiels
  • L’application de la loi et la justice
  • L’éducation et la formation professionnelle
  • Les infrastructures critiques (énergie, transport, eau)

Six obligations structurantes :

Obligation Ce que ça implique concrètement
Évaluation de conformité Audit avant mise sur le marché, par l’entreprise ou un organisme notifié
Gestion des risques Processus documenté, révisé au minimum une fois par an
Qualité des données Jeux d’entraînement pertinents, représentatifs, sans biais discriminatoires
Transparence Documentation technique lisible par un non-spécialiste
Supervision humaine Un opérateur humain doit pouvoir interrompre le système à tout moment
Robustesse technique Résilience face aux erreurs, aux attaques adverses et aux tentatives de manipulation

Ces exigences de robustesse recoupent directement les obligations légales de cybersécurité déjà en vigueur (NIS 2, DORA).

Risque limité : l’obligation de transparence

Les chatbots, deepfakes et contenus générés par IA relèvent de cette catégorie. Seule contrainte : informer l’utilisateur qu’il interagit avec une machine. 70 % des systèmes d’IA déployés en entreprise en Europe entrent dans ce périmètre, d’après une estimation de l’OCDE publiée en janvier 2026.

Risque minimal : pas d’obligation spécifique

Les filtres anti-spam, les correcteurs orthographiques, les systèmes de recommandation de contenu. Aucune contrainte au titre de l’IA Act.

Ce que doivent faire les fournisseurs

Un fournisseur développe ou fait développer un système d’IA à haut risque. Ses obligations :

  1. Déployer un système de gestion de la qualité conforme à l’article 17 du règlement
  2. Réaliser l’évaluation de conformité — auto-évaluation pour la majorité des cas, organisme notifié pour les systèmes biométriques
  3. Apposer le marquage CE attestant la conformité
  4. Enregistrer le système dans la base de données européenne (opérationnelle depuis août 2025)
  5. Surveiller le fonctionnement après commercialisation et signaler tout incident grave

Ce que doivent faire les déployeurs

Les entreprises qui achètent et utilisent un système d’IA à haut risque portent aussi des obligations :

  • Respecter le mode d’emploi fourni par le fournisseur
  • Garantir une supervision humaine effective
  • Surveiller le fonctionnement en conditions réelles
  • Remonter tout dysfonctionnement au fournisseur sous 72 heures
  • Réaliser une analyse d’impact sur les droits fondamentaux (secteurs public, bancaire, assurantiel)

Les outils legaltech exploitant l’IA pour l’aide à la décision judiciaire entrent dans cette catégorie à haut risque.

Calendrier : quatre dates à retenir

Date Ce qui entre en vigueur
Février 2025 Interdictions (risque inacceptable)
Août 2025 Obligations sur les modèles d’IA à usage général (GPT, Gemini, Mistral)
Août 2026 Totalité des obligations pour les systèmes à haut risque
Août 2027 Application complète, y compris les systèmes intégrés dans des produits réglementés (dispositifs médicaux, machines industrielles)

Sanctions : des montants dissuasifs

Les amendes suivent une logique de proportionnalité :

  • 35 millions d’euros ou 7 % du CA mondial pour l’utilisation d’un système interdit
  • 15 millions d’euros ou 3 % du CA mondial pour le non-respect des obligations (haut risque, IA à usage général)
  • 7,5 millions d’euros ou 1 % du CA mondial pour les informations inexactes fournies aux autorités

À titre de comparaison, le RGPD plafonne à 20 millions d’euros ou 4 % du CA. L’IA Act va plus loin.

Cinq actions pour se préparer maintenant

Les entreprises développant ou déployant des systèmes d’IA gagnent à anticiper :

  1. Cartographier chaque système d’IA en service et le classer par niveau de risque
  2. Désigner un responsable IA conformité, distinct du DPO (même si les deux profils doivent collaborer)
  3. Constituer la documentation technique exigée — registre des systèmes, évaluations de conformité, journaux de supervision
  4. Former les équipes métier et IT aux nouvelles obligations, en intégrant ce volet dans le plan de développement des compétences
  5. Budgéter la mise en conformité : entre 50 000 et 400 000 euros pour une ETI, selon le nombre de systèmes concernés (estimation PwC, 2025)

Les entreprises qui structurent leur conformité IA dès maintenant transformeront cette contrainte réglementaire en avantage concurrentiel face à des concurrents moins préparés.

Partager