TL;DR. Le 2 août 2026 — dans 118 jours — le règlement européen sur l'IA entre en application complète pour les systèmes à haut risque de l'annexe III. La vague agentique s'accélère dans les entreprises sans que les dispositifs de conformité suivent au même rythme. Sanction pour manquement : jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires mondial, selon l'article 99 du règlement.
Ce qui s'active le 2 août 2026
Le règlement (UE) 2024/1689 suit un calendrier d'application stratifié. L'interdiction des pratiques d'IA prohibées (article 5) est entrée en vigueur le 2 février 2025. Les dispositions sur les modèles d'IA à usage général (chapitre V) et les exigences de transparence (article 50) s'appliquent depuis le 2 août 2025. Le prochain palier est le plus contraignant opérationnellement.
Le 2 août 2026, les articles 6 à 51 s'appliquent intégralement aux systèmes d'IA à haut risque listés à l'annexe III. Ces systèmes couvrent des domaines précis : gestion des infrastructures critiques, éducation et formation professionnelle, emploi et ressources humaines, accès aux services essentiels, application de la loi, gestion des migrations, administration de la justice et processus démocratiques. Pour toute organisation utilisant des agents IA dans l'un de ces contextes, les obligations sont désormais concrètes et exécutoires.
La distinction entre fournisseur et déployeur est centrale. Le fournisseur — qui développe ou met sur le marché le système — doit réaliser une évaluation de conformité et constituer la documentation technique requise par l'annexe IV. Le déployeur — qui utilise le système dans un cadre professionnel — a ses propres obligations au titre de l'article 26 : surveillance humaine, évaluation d'impact sur les droits fondamentaux, notification à l'autorité nationale compétente pour certaines catégories. Les deux rôles peuvent coexister au sein d'une même organisation.
Trois avantages à préparer maintenant
- La documentation technique se construit de façon itérative. L'annexe IV exige une description complète du système, des données d'entraînement, des mesures de robustesse et des métriques de performance. Constituer ce dossier après coup en trois mois est irréaliste — 118 jours, approchés méthodiquement, permettent encore de le bâtir couche par couche.
- La traçabilité automatique doit être embarquée avant le déploiement, pas après. L'article 12 impose la tenue de journaux automatiques pour les systèmes à haut risque. Intégrer cette exigence dans les architectures existantes mobilise du temps de développement : anticiper évite une refonte dans l'urgence.
- La conformité anticipée devient un avantage commercial mesurable. Les acheteurs publics européens et les grandes entreprises commencent à intégrer la conformité AI Act dans leurs critères d'appels d'offres. Disposer d'une attestation avant août 2026 se traduit en avantage concurrentiel réel pour le second semestre 2026.
Trois risques de l'attente
- Les sanctions s'appliquent dès le premier jour. L'article 99 prévoit des amendes pouvant atteindre 15 millions d'euros ou 3 % du chiffre d'affaires mondial annuel pour les manquements aux obligations relatives aux systèmes à haut risque. Une certaine proportionnalité est prévue pour les PME — mais la date de conformité est identique pour toutes les organisations.
- La suspension d'usage est le vrai risque opérationnel. L'article 79 autorise les autorités nationales compétentes à exiger la restriction ou le retrait du marché d'un système non conforme. Une organisation dont les processus RH ou de scoring client reposent sur un agent IA peut être contrainte d'interrompre ces opérations.
- L'empilement réglementaire multiplie la dette de conformité. L'AI Act se superpose au RGPD sans le remplacer. Un agent IA qui traite des données personnelles doit satisfaire aux deux régimes simultanément. Attendre jusqu'en juillet 2026 revient à devoir corriger deux non-conformités sous pression temporelle maximale.
La réalité européenne en avril 2026
Le Bureau européen de l'IA (European AI Office), établi au sein de la Commission pour superviser la conformité des fournisseurs de modèles à usage général, a publié ses premiers projets de codes de pratique en 2025. La vague agentique, elle, n'attend pas : Google et Kaggle ont ouvert les inscriptions à un cours intensif de cinq jours sur les agents IA prévu pour juin 2026, selon l'annonce officielle du 27 avril 2026 — signal que ces déploiements entrent dans le mainstream professionnel. Parallèlement, Google a intégré des fonctionnalités agentiques de contrôle de sécurité et de politique directement dans son outil Google Ads Advisor, selon la publication officielle du 21 avril 2026, illustrant la vitesse à laquelle ces systèmes passent de l'expérimentation au workflow opérationnel — précisément le contexte que le législateur européen avait anticipé.
Trois leviers à activer cette semaine
- Cartographier tous vos déploiements IA par rapport à l'annexe III. Lister l'ensemble des systèmes IA en usage dans l'organisation — agents, outils de scoring, systèmes de recommandation RH, chatbots en contexte réglementé — et vérifier pour chacun si son domaine d'usage correspond à l'une des catégories à haut risque. Cette cartographie peut être conduite en une journée avec un responsable juridique et un responsable technique dans la même salle.
- Identifier votre qualité juridique pour chaque système. Fournisseur ou déployeur ? Le statut détermine l'ensemble des obligations applicables. Un système développé en interne place l'organisation en position de fournisseur ; un système acquis auprès d'un éditeur tiers en fait un déployeur. Certains cas mixtes — personnalisation profonde d'un modèle tiers — nécessitent une analyse juridique dédiée.
- Planifier l'évaluation d'impact sur les droits fondamentaux pour les systèmes qualifiés. L'article 27 prévoit une procédure d'évaluation de l'impact sur les droits fondamentaux pour les déployeurs de systèmes à haut risque. Cette évaluation doit être conduite avant le déploiement — ou, pour les systèmes déjà en production, avant le 2 août 2026.
Votre organisation peut-elle prouver aujourd'hui que ses agents IA respectent l'AI Act ?
Si ce décryptage vous parle, je publie une analyse de ce calibre chaque jour sur l'innovation digitale et l'IA en entreprise. 👉 Recevez la prochaine directement dans votre boîte mail — l'inscription prend dix secondes, et chaque édition est lue avant 9h par des dirigeants de PME, d'ETI et d'institutions belges.
Sources
Cet article fait partie du Neurolinks AI & Automation blog.
Lire en: English | neerlandais