Le Règlement (UE) 2024/1689, communément appelé AI Act ou Règlement sur l'Intelligence Artificielle, constitue la première législation globale au monde encadrant l'intelligence artificielle.
Ce livre blanc présente une analyse neutre et factuelle de ce texte majeur : son contenu, ses implications, son calendrier d'application et ses impacts pour les organisations européennes et internationales.
1. Introduction
1.1 Contexte : Pourquoi l'Union Européenne Régule l'IA
L'intelligence artificielle transforme profondément nos sociétés, nos économies et nos modes de vie. Face à cette révolution technologique, l'Union européenne a choisi d'établir un cadre réglementaire harmonisé plutôt que de laisser chaque État membre légiférer individuellement.
Cette approche s'inscrit dans la continuité de la stratégie numérique européenne, qui comprend notamment le Règlement Général sur la Protection des Données (RGPD), le Digital Services Act (DSA) et le Digital Markets Act (DMA).
Les motivations principales de cette réglementation sont :
- Protection des droits fondamentaux : Prévenir les discriminations algorithmiques et protéger la dignité humaine
- Sécurité des personnes : Garantir que les systèmes d'IA intégrés dans des produits ne mettent pas en danger la santé et la sécurité
- Harmonisation du marché intérieur : Créer un cadre uniforme pour les 27 États membres, évitant la fragmentation réglementaire
- Compétitivité européenne : Établir un standard mondial que l'UE peut exporter (« effet Bruxelles »)
1.2 Objectifs du Règlement
L'AI Act poursuit plusieurs objectifs complémentaires, explicitement énoncés dans ses considérants :
Approche fondée sur le risque
Le règlement adopte une approche proportionnée : plus le risque d'un système d'IA est élevé, plus les exigences sont strictes. Les applications à faible risque restent largement non réglementées.
Innovation préservée
Le règlement prévoit des bacs à sable réglementaires (regulatory sandboxes) et des dérogations pour la recherche afin de ne pas freiner l'innovation européenne.
1.3 Portée Géographique et Extraterritoriale
L'AI Act a une portée extraterritoriale significative. Il s'applique à :
- Les fournisseurs établis dans l'UE ou dans un pays tiers, qui mettent sur le marché ou en service des systèmes d'IA dans l'Union
- Les déployeurs de systèmes d'IA situés dans l'Union
- Les fournisseurs et déployeurs situés dans un pays tiers, lorsque les résultats produits par le système d'IA sont utilisés dans l'Union
- Les importateurs et distributeurs de systèmes d'IA
- Les fabricants de produits qui mettent sur le marché ou en service un système d'IA avec leur produit sous leur propre nom ou marque
« Toute entreprise, quelle que soit sa localisation, qui commercialise des systèmes d'IA destinés au marché européen ou dont les résultats sont utilisés dans l'UE doit se conformer à l'AI Act. »
1.4 Ce que ce Livre Blanc Couvre
Ce document présente une analyse complète et neutre du Règlement (UE) 2024/1689. Il couvre :
- La genèse et le calendrier d'entrée en application
- Le système de classification des risques (quatre niveaux)
- Les dispositions spécifiques aux modèles d'IA à usage général (GPAI)
- Les obligations différenciées par type d'acteur
- Le régime de gouvernance et d'enforcement
- Les sanctions applicables
- L'impact sectoriel (RH, santé, finance, éducation)
- La comparaison avec les approches internationales
2. Chronologie et Cadre Juridique
2.1 Genèse du Règlement (2021-2024)
L'élaboration de l'AI Act a été un processus législatif de plusieurs années :
La Commission européenne publie sa proposition initiale de règlement sur l'IA, première tentative mondiale de réglementation horizontale de l'intelligence artificielle.
Négociations tripartites entre la Commission, le Parlement européen et le Conseil. L'émergence de ChatGPT (novembre 2022) conduit à l'ajout de dispositions spécifiques sur les modèles d'IA à usage général.
Accord politique provisoire entre le Parlement et le Conseil sur le texte final.
Adoption formelle par le Parlement européen (523 voix pour, 46 contre, 49 abstentions).
Adoption définitive par le Conseil de l'Union européenne.
Publication au Journal Officiel de l'Union européenne sous la référence Règlement (UE) 2024/1689.
Entrée en vigueur du règlement (20 jours après publication).
2.2 Calendrier d'Application Progressif
Le règlement adopte une mise en application échelonnée sur trois ans, permettant aux acteurs de s'adapter progressivement :
| Date | Délai | Dispositions Applicables |
|---|---|---|
| 2 février 2025 | 6 mois |
Pratiques interdites (Article 5) Littératie IA (Article 4) |
| 2 août 2025 | 12 mois |
Obligations GPAI (Chapitre V) Gouvernance : Désignation des autorités nationales Codes de pratique pour modèles GPAI |
| 2 août 2026 | 24 mois |
Systèmes à haut risque (Annexe III) Obligations des fournisseurs et déployeurs Régime de sanctions (Article 99) Majorité des dispositions |
| 2 août 2027 | 36 mois |
Systèmes à haut risque dans produits réglementés (Annexe I) Dispositifs médicaux, machines, véhicules, aéronefs Conformité complète GPAI (modèles antérieurs à août 2025) |
| 31 déc. 2030 | 6+ ans |
Systèmes IT à grande échelle (Annexe X) Systèmes existants mis sur le marché avant cette date |
Point d'attention
Les pratiques interdites sont déjà en vigueur depuis le 2 février 2025. Les organisations doivent avoir cessé toute utilisation de systèmes d'IA prohibés (scoring social, reconnaissance émotionnelle au travail, etc.).
3. Classification des Risques
L'AI Act introduit une approche pyramidale fondée sur le risque. Quatre niveaux sont définis, chacun avec des obligations proportionnées :
INTERDIT
RÉGLEMENTÉ
TRANSPARENCE
NON RÉGLEMENTÉ
3.1 Risque Inacceptable – Pratiques Interdites (Article 5)
Le règlement interdit huit catégories de systèmes d'IA considérées comme portant atteinte aux droits fondamentaux ou à la dignité humaine. Ces interdictions sont effectives depuis le 2 février 2025.
1. Techniques subliminales et manipulatrices
Systèmes déployant des techniques subliminales, manipulatrices ou trompeuses pour altérer le comportement d'une personne, causant un préjudice significatif.
2. Exploitation des vulnérabilités
Systèmes exploitant les vulnérabilités liées à l'âge, au handicap ou à la situation socio-économique pour altérer le comportement et causer un préjudice.
3. Scoring social
Évaluation ou classification de personnes basée sur leur comportement social, conduisant à un traitement défavorable injustifié ou disproportionné.
4. Évaluation du risque criminel par profilage
Systèmes évaluant le risque qu'une personne commette une infraction pénale uniquement sur la base du profilage ou de traits de personnalité.
5. Scraping facial non ciblé
Constitution ou extension de bases de données de reconnaissance faciale par scraping non ciblé d'images sur Internet ou via des caméras de vidéosurveillance.
6. Reconnaissance émotionnelle au travail et à l'école
Systèmes d'inférence des émotions sur le lieu de travail ou dans les établissements d'enseignement, sauf pour raisons médicales ou de sécurité.
7. Catégorisation biométrique sensible
Systèmes catégorisant les personnes sur la base de données biométriques pour déduire la race, les opinions politiques, l'appartenance syndicale, les convictions religieuses ou l'orientation sexuelle.
8. Identification biométrique à distance en temps réel
Systèmes d'identification biométrique à distance en temps réel dans les espaces publics par les forces de l'ordre, sauf exceptions strictement encadrées (recherche de victimes, menaces terroristes, infractions graves).
3.2 Risque Élevé – Systèmes Réglementés (Articles 6-49)
Les systèmes d'IA à haut risque représentent le cœur du règlement. Ils sont soumis à des obligations strictes avant mise sur le marché et tout au long de leur cycle de vie.
Catégorie 1 : Composants de sécurité de produits réglementés (Annexe I)
Systèmes d'IA constituant un composant de sécurité d'un produit couvert par la législation d'harmonisation de l'Union, notamment :
- Machines et équipements industriels
- Jouets
- Ascenseurs
- Équipements sous pression
- Dispositifs médicaux et dispositifs médicaux de diagnostic in vitro
- Véhicules (homologation)
- Aéronefs et systèmes de gestion du trafic aérien
- Équipements marins
- Équipements ferroviaires
Catégorie 2 : Domaines sensibles (Annexe III)
Systèmes d'IA déployés dans des domaines à fort impact sur les droits fondamentaux :
| Domaine | Exemples de systèmes à haut risque |
|---|---|
| Biométrie | Identification biométrique à distance (hors temps réel interdit), vérification biométrique |
| Infrastructures critiques | Gestion du trafic routier, réseaux d'eau/gaz/électricité/chauffage |
| Éducation et formation | Systèmes d'admission, évaluation des apprentissages, surveillance des examens |
| Emploi et gestion du personnel | Tri de CV, recrutement, évaluation des performances, affectation des tâches, promotion, licenciement |
| Services essentiels | Évaluation de solvabilité (crédit), scoring d'assurance (sauf automobile), services d'urgence |
| Application de la loi | Évaluation des preuves, profilage criminel, détecteurs de mensonges |
| Migration et asile | Évaluation des demandes d'asile, contrôle aux frontières, détection de fraude documentaire |
| Justice | Aide à l'interprétation des faits et du droit, résolution alternative des litiges |
| Processus démocratiques | Systèmes influençant le résultat d'élections ou le comportement électoral |
3.3 Risque Limité – Obligations de Transparence (Article 50)
Certains systèmes d'IA présentent un risque de tromperie mais ne sont pas considérés comme à haut risque. Ils sont soumis à des obligations de transparence :
- Chatbots et agents conversationnels : Les utilisateurs doivent être informés qu'ils interagissent avec une IA (sauf si c'est évident au vu des circonstances)
- Systèmes de reconnaissance des émotions : Information des personnes concernées (hors cas interdits)
- Systèmes de catégorisation biométrique : Information des personnes (hors cas interdits)
- Deepfakes et contenus générés : Marquage clair que le contenu (image, audio, vidéo, texte) a été généré ou manipulé par IA
3.4 Risque Minimal – Non Réglementé
La grande majorité des systèmes d'IA relèvent de cette catégorie et ne sont pas spécifiquement réglementés par l'AI Act. Exemples :
- Jeux vidéo utilisant l'IA
- Filtres anti-spam
- Systèmes de recommandation de contenu
- Assistants de traduction
- Outils d'optimisation industrielle
Ces systèmes restent toutefois soumis aux autres législations applicables (RGPD, droit de la consommation, droit de la concurrence, etc.).
4. Modèles d'IA à Usage Général (GPAI)
Les modèles d'IA à usage général (General-Purpose AI ou GPAI) font l'objet d'un chapitre dédié (Chapitre V), ajouté lors des négociations finales pour répondre à l'émergence de systèmes comme ChatGPT, Claude, Gemini ou DALL-E.
4.1 Définition
Un modèle GPAI est défini comme :
« Un modèle d'IA, y compris lorsqu'il est entraîné à l'aide d'un grand volume de données en utilisant l'auto-supervision à grande échelle, qui présente une généralité significative et est capable d'exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont le modèle est mis sur le marché, et qui peut être intégré dans une variété de systèmes ou d'applications en aval. »
Exemples : GPT-4, Claude, Gemini, LLaMA, Mistral, DALL-E, Midjourney, Stable Diffusion.
4.2 Obligations des Fournisseurs de Modèles GPAI
Tous les fournisseurs de modèles GPAI doivent, à compter du 2 août 2025 :
- Rédiger et tenir à jour une documentation technique du modèle et de son processus d'entraînement
- Établir et documenter une politique de conformité au droit d'auteur de l'UE
- Publier un résumé détaillé du contenu utilisé pour l'entraînement du modèle
- Fournir des informations et de la documentation aux fournisseurs en aval intégrant le modèle
- Désigner un représentant dans l'Union (pour les fournisseurs hors UE)
4.3 Modèles GPAI à Risque Systémique
Un modèle GPAI présente un risque systémique lorsque :
Critère de calcul : >10²⁵ FLOPS
Le modèle est présumé à risque systémique si la quantité cumulée de calcul utilisée pour son entraînement dépasse 10²⁵ opérations en virgule flottante (FLOPS).
Alternativement, la Commission peut désigner un modèle comme présentant un risque systémique en raison de ses capacités.
Les fournisseurs de modèles GPAI à risque systémique doivent, en plus des obligations générales :
- Réaliser des évaluations de modèles conformément à des protocoles et outils normalisés
- Effectuer des tests adversariaux pour identifier et atténuer les risques systémiques
- Suivre, documenter et signaler les incidents graves à l'AI Office et aux autorités nationales
- Assurer un niveau adéquat de cybersécurité pour le modèle et son infrastructure
- Notifier la Commission dans les 2 semaines si leur modèle atteint le seuil de risque systémique
4.4 Code de Pratique GPAI
Le 10 juillet 2025, la Commission européenne a publié le Code de Pratique pour les modèles GPAI, un instrument de droit souple (soft law) permettant aux fournisseurs de démontrer leur conformité.
L'adhésion volontaire au Code offre aux fournisseurs :
- Une présomption de conformité aux obligations de l'AI Act
- Une réduction de la charge administrative
- Une plus grande sécurité juridique
5. Obligations par Acteur
L'AI Act distingue plusieurs catégories d'acteurs dans la chaîne de valeur de l'IA, chacun avec des obligations spécifiques.
5.1 Fournisseurs (Providers/Developers)
Les fournisseurs sont les personnes physiques ou morales qui développent ou font développer un système d'IA en vue de le mettre sur le marché ou en service sous leur propre nom ou marque.
Obligations pour les systèmes à haut risque :
Système de gestion des risques (Article 9)
Établir, mettre en œuvre, documenter et maintenir un système de gestion des risques tout au long du cycle de vie du système d'IA.
Gouvernance des données (Article 10)
S'assurer que les jeux de données d'entraînement, de validation et de test sont pertinents, représentatifs, exempts d'erreurs et complets.
Documentation technique (Article 11)
Rédiger une documentation technique démontrant la conformité du système avant sa mise sur le marché.
Journalisation (Article 12)
Concevoir le système pour permettre l'enregistrement automatique des événements (logs) tout au long de son fonctionnement.
Transparence (Article 13)
Concevoir le système pour permettre aux déployeurs de comprendre son fonctionnement et d'interpréter ses résultats.
Contrôle humain (Article 14)
Concevoir le système pour permettre une supervision humaine efficace pendant son utilisation.
Précision, robustesse et cybersécurité (Article 15)
S'assurer que le système atteint un niveau approprié de précision, de robustesse et de cybersécurité.
Système de gestion de la qualité (Article 17)
Mettre en place un système de gestion de la qualité documenté sous forme de politiques et de procédures écrites.
Évaluation de conformité et marquage CE (Articles 43, 48)
Réaliser une évaluation de conformité (auto-évaluation ou via organisme notifié) et apposer le marquage CE.
Enregistrement dans la base de données UE (Article 49)
Enregistrer le système dans la base de données publique de l'UE avant sa mise sur le marché.
5.2 Déployeurs (Deployers/Users)
Les déployeurs sont les personnes physiques ou morales qui utilisent un système d'IA sous leur propre autorité (hors activité personnelle non professionnelle).
Obligations principales :
- Utilisation conforme : Utiliser le système conformément aux instructions d'utilisation fournies par le fournisseur
- Contrôle humain : Veiller à ce que la surveillance humaine soit exercée par des personnes compétentes et habilitées
- Données d'entrée : S'assurer que les données d'entrée sont pertinentes au regard de la finalité du système
- Surveillance du fonctionnement : Surveiller le fonctionnement du système et suspendre son utilisation en cas de dysfonctionnement
- Conservation des journaux : Conserver les journaux générés automatiquement (minimum 6 mois)
- Information des personnes : Informer les personnes concernées qu'elles sont soumises à une décision prise par un système à haut risque
- Analyse d'impact sur les droits fondamentaux : Réaliser une analyse d'impact avant la mise en service (pour certains déployeurs)
5.3 Importateurs et Distributeurs
Importateurs : Personnes établies dans l'Union qui mettent sur le marché un système d'IA provenant d'un pays tiers.
Distributeurs : Personnes (autres que le fournisseur ou l'importateur) qui mettent un système d'IA à disposition sur le marché.
Leurs obligations portent principalement sur :
- La vérification de la conformité et du marquage CE
- La vérification de la documentation et des instructions
- La traçabilité et l'identification des acteurs dans la chaîne d'approvisionnement
- La coopération avec les autorités de surveillance
5.4 Obligation Transversale : Littératie IA (Article 4)
En vigueur depuis le 2 février 2025, l'obligation de littératie IA s'applique à tous les fournisseurs et déployeurs :
Article 4 - Littératie en matière d'IA
« Les fournisseurs et les déployeurs de systèmes d'IA prennent des mesures pour garantir, dans toute la mesure du possible, un niveau suffisant de littératie en matière d'IA de leur personnel et des autres personnes s'occupant du fonctionnement et de l'utilisation de systèmes d'IA en leur nom, en tenant compte de leurs connaissances techniques, de leur expérience, de leur éducation et de leur formation, ainsi que du contexte dans lequel les systèmes d'IA sont destinés à être utilisés. »
6. Gouvernance et Enforcement
L'AI Act établit une architecture de gouvernance multi-niveaux combinant supervision européenne et nationale.
6.1 Au Niveau Européen
L'AI Office (Bureau européen de l'IA)
Créé au sein de la Commission européenne, l'AI Office est responsable de :
- La supervision des modèles GPAI et des modèles à risque systémique
- L'élaboration de lignes directrices et de codes de pratique
- La coordination avec les autorités nationales
- L'application des règles aux fournisseurs de modèles GPAI
Le Comité européen de l'intelligence artificielle (AI Board)
Composé de représentants des États membres, il :
- Conseille et assiste la Commission
- Contribue à l'application cohérente du règlement
- Coordonne les autorités nationales
- Émet des recommandations et des avis
6.2 Au Niveau National
Chaque État membre devait désigner au moins une autorité compétente avant le 2 août 2025 :
- Autorité notifiante : Responsable de la désignation et du contrôle des organismes notifiés
- Autorité de surveillance du marché : Responsable du contrôle et de l'application du règlement
Ces autorités peuvent être regroupées au sein d'une même entité ou réparties entre plusieurs organismes.
6.3 Plans de Mise en Œuvre Nationaux
Plusieurs États membres ont publié leurs plans de mise en œuvre de l'AI Act :
- France : La CNIL et la DGE co-pilotent la mise en œuvre
- Allemagne : L'Office fédéral de la sécurité des technologies de l'information (BSI) joue un rôle central
- Italie, Espagne, Pays-Bas : Ont également publié leurs stratégies
7. Sanctions et Pénalités
L'AI Act prévoit un régime de sanctions administratives gradué (Article 99), applicable à compter du 2 août 2025.
7.1 Structure des Amendes
| Type d'Infraction | Montant Maximum |
|---|---|
| Pratiques interdites (Article 5) |
35 millions € ou 7% du CA mondial annuel (le montant le plus élevé) |
| Autres obligations du règlement |
15 millions € ou 3% du CA mondial annuel (le montant le plus élevé) |
| Informations incorrectes aux autorités |
7,5 millions € ou 1% du CA mondial annuel (le montant le plus élevé) |
Pour les PME et startups, les montants maximums sont adaptés :
- Les plafonds en pourcentage du CA s'appliquent de la même manière
- Les plafonds en montant absolu s'appliquent s'ils sont plus favorables
7.2 Autres Conséquences
Au-delà des amendes, les autorités peuvent :
- Ordonner le retrait du marché ou le rappel d'un système non conforme
- Interdire la mise en service d'un système d'IA
- Exiger des mesures correctives dans un délai déterminé
- Publier les décisions de non-conformité (name and shame)
Impact réputationnel
Les actions d'enforcement deviennent publiques, ce qui peut créer des dommages significatifs à l'image de marque et un désavantage concurrentiel. Le coût réputationnel peut excéder les sanctions financières.
8. Impact Sectoriel
L'AI Act a des implications différenciées selon les secteurs d'activité. Cette section analyse les quatre secteurs les plus impactés.
8.1 Ressources Humaines et Recrutement
Le secteur RH est particulièrement concerné par l'AI Act, la plupart des applications IA dans ce domaine étant classées à haut risque.
Systèmes classés à haut risque :
- Outils de tri et de scoring de CV
- Systèmes de matching candidat-poste
- Outils d'analyse d'entretien vidéo
- Systèmes d'évaluation des performances
- Outils d'affectation des tâches et des horaires
- Systèmes de décision de promotion ou de licenciement
Pratiques interdites en contexte RH :
- Reconnaissance émotionnelle au travail (sauf raisons médicales/sécurité)
- Scoring social des employés
- Surveillance biométrique invasive
Obligations clés pour les employeurs :
- Inventaire des systèmes IA utilisés en gestion RH
- Formation à la littératie IA des équipes RH (obligatoire depuis février 2025)
- Information des candidats et employés sur l'utilisation de l'IA dans les processus décisionnels
- Mise en place d'une supervision humaine effective des décisions automatisées
- Analyse d'impact sur les droits fondamentaux pour certains systèmes
8.2 Santé et Dispositifs Médicaux
Le secteur de la santé combine deux cadres réglementaires : l'AI Act et le Règlement sur les dispositifs médicaux (MDR 2017/745).
Systèmes classés à haut risque :
- Systèmes d'aide au diagnostic (imagerie médicale, pathologie)
- Outils de triage des patients
- Systèmes de recommandation de traitement
- Dispositifs médicaux intégrant de l'IA
- Systèmes de priorisation des urgences
Spécificités du secteur :
- Les systèmes IA dans les dispositifs médicaux bénéficient d'un délai prolongé (août 2027)
- Évaluation de conformité souvent réalisée par un organisme notifié
- Interaction avec les réglementations de pharmacovigilance et de matériovigilance
8.3 Finance et Assurance
Le secteur financier utilise largement l'IA pour l'évaluation des risques, ce qui le place dans le périmètre du haut risque.
Systèmes classés à haut risque :
- Scoring de crédit et évaluation de solvabilité
- Tarification d'assurance basée sur l'IA (sauf assurance automobile)
- Systèmes de détection de fraude ayant un impact sur l'accès aux services
- Évaluation des risques pour les prêts immobiliers
Points d'attention :
- Interaction avec la réglementation financière existante (MiFID II, Solvabilité II)
- Exigences accrues en matière de transparence et d'explicabilité des décisions
- Obligation de permettre aux clients de contester les décisions automatisées
8.4 Éducation
L'IA dans l'éducation est classée à haut risque en raison de son impact potentiel sur les trajectoires de vie des apprenants.
Systèmes classés à haut risque :
- Systèmes d'admission (algorithmes Parcoursup-like)
- Correction automatisée d'examens
- Évaluation des apprentissages et recommandations de parcours
- Systèmes de surveillance des examens (proctoring)
- Détection de plagiat avec implications décisionnelles
Interdictions spécifiques :
- Reconnaissance émotionnelle dans les établissements d'enseignement (interdite)
- Surveillance biométrique généralisée des étudiants
9. Comparaison Internationale
L'AI Act s'inscrit dans un contexte de course mondiale à la réglementation de l'IA. Les approches varient significativement selon les juridictions.
| Juridiction | Approche | Caractéristiques |
|---|---|---|
| Union Européenne | Réglementation horizontale |
AI Act : cadre global fondé sur le risque Approche prescriptive avec obligations détaillées Priorité aux droits fondamentaux |
| États-Unis | Approche fragmentée |
Pas de législation fédérale unifiée Ordres exécutifs (révoqués/modifiés selon administrations) Patchwork de lois étatiques et locales Focus sur l'innovation et la compétitivité |
| Chine | Réglementation par application |
Règlements sectoriels (recommandations, deepfakes, IA générative) Contrôle fort sur les contenus générés Exigences de sécurité nationale |
| Royaume-Uni | Approche pro-innovation |
Cadre non contraignant (framework) Régulation par les autorités sectorielles existantes Priorité à la flexibilité et l'innovation |
| Canada | En développement |
Projet de loi AIDA (Artificial Intelligence and Data Act) Approche fondée sur le risque similaire à l'UE |
9.1 L'Effet Bruxelles
Comme pour le RGPD, l'AI Act pourrait générer un effet Bruxelles – la tendance des entreprises mondiales à aligner leurs pratiques sur les standards européens pour accéder au marché unique.
Facteurs favorisant cet effet :
- Taille du marché européen (450 millions de consommateurs)
- Complexité de maintenir des versions différentes de systèmes d'IA
- Pression des partenaires commerciaux européens
- Avantage compétitif d'être « AI Act compliant »
10. Recommandations Pratiques
Cette section présente une checklist de conformité pour les organisations souhaitant se préparer à l'AI Act.
10.1 Actions Immédiates (Déjà Applicables)
Vérifier qu'aucun système d'IA interdit (scoring social, reconnaissance émotionnelle au travail, etc.) n'est utilisé.
Former le personnel utilisant ou supervisant des systèmes d'IA.
10.2 Actions à Court Terme (Avant Août 2026)
Recenser tous les systèmes d'IA utilisés ou développés par l'organisation.
Classifier chaque système selon les catégories de l'AI Act (interdit, haut risque, limité, minimal).
Identifier les écarts entre les pratiques actuelles et les exigences de l'AI Act.
Préparer la documentation requise pour les systèmes à haut risque.
Mettre en place des procédures de contrôle humain pour les systèmes à haut risque.
Établir un système de gestion de la qualité documenté.
10.3 Gouvernance Recommandée
- Désigner un responsable AI/IA au sein de l'organisation
- Constituer un comité IA pluridisciplinaire (juridique, technique, métier, éthique)
- Intégrer l'AI Act dans les processus de conformité existants (RGPD, compliance)
- Établir une politique IA définissant les principes d'utilisation de l'IA
- Mettre en place un registre IA centralisé pour suivre tous les systèmes
Télécharger le livre blanc complet
Format PDF haute qualité (22 pages) – Parfait pour partager ou imprimer
11. Conclusion
Le Règlement (UE) 2024/1689 sur l'intelligence artificielle constitue une avancée réglementaire majeure à l'échelle mondiale. Premier cadre juridique global sur l'IA, il établit un équilibre entre protection des droits fondamentaux et préservation de l'innovation.
Points Clés à Retenir
- Approche fondée sur le risque : Les obligations sont proportionnées au niveau de risque du système d'IA
- Application progressive : De février 2025 (pratiques interdites) à décembre 2030 (systèmes IT à grande échelle)
- Portée extraterritoriale : Toute organisation affectant des utilisateurs dans l'UE est concernée
- Sanctions significatives : Jusqu'à 35 millions d'euros ou 7% du CA mondial
- Gouvernance multi-niveaux : Coordination entre l'AI Office européen et les autorités nationales
Évolutions Attendues
Le cadre réglementaire continuera d'évoluer :
- Publication de normes harmonisées par les organismes de normalisation européens
- Émission de lignes directrices supplémentaires par la Commission
- Développement de jurisprudence par les autorités de contrôle et les tribunaux
- Potentielles révisions du règlement pour s'adapter aux évolutions technologiques
« L'AI Act n'est pas une fin en soi, mais le début d'un processus d'encadrement de l'intelligence artificielle qui évoluera avec la technologie. »
12. Annexes
Glossaire
- Système d'IA
- Système basé sur une machine conçu pour fonctionner avec différents niveaux d'autonomie, qui peut faire preuve d'adaptabilité après déploiement et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu'il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions.
- Fournisseur (Provider)
- Personne physique ou morale qui développe un système d'IA ou un modèle GPAI, ou fait développer un système d'IA ou un modèle GPAI, et le met sur le marché ou met le système d'IA en service sous son propre nom ou sa propre marque.
- Déployeur (Deployer)
- Personne physique ou morale utilisant un système d'IA sous sa propre autorité, sauf lorsque le système d'IA est utilisé dans le cadre d'une activité personnelle à caractère non professionnel.
- GPAI (General-Purpose AI)
- Modèle d'IA à usage général capable d'exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont il est mis sur le marché.
- Risque systémique
- Risque spécifique aux capacités à fort impact des modèles GPAI, ayant un effet significatif sur le marché de l'Union en raison de leur portée, ou d'effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sécurité, les droits fondamentaux ou la société.
- FLOPS
- Floating Point Operations Per Second. Mesure de la puissance de calcul. Le seuil de risque systémique est fixé à 10²⁵ FLOPS cumulés pour l'entraînement.
- Marquage CE
- Marquage attestant la conformité d'un produit aux exigences essentielles de la législation d'harmonisation de l'Union.
- Bac à sable réglementaire (Regulatory Sandbox)
- Cadre contrôlé établi par une autorité compétente permettant le développement, la formation et la validation de systèmes d'IA innovants pendant une durée limitée avant leur mise sur le marché.
Ressources Officielles
- Texte officiel du Règlement (EUR-Lex)
- EU AI Act Portal (analyses et résumés)
- Commission Européenne - Cadre réglementaire IA
- Timeline d'implémentation officielle
- Guidelines pour les fournisseurs GPAI
- AI Act Service Desk de la Commission
Calendrier Récapitulatif
Document : Livre Blanc – AI Act Européen : Le Guide de Référence
Version : 1.0
Date de publication : 20 janvier 2026
Auteur : JAIKIN
Ce document est fourni à titre informatif et ne constitue pas un avis juridique. Pour toute question spécifique relative à la conformité à l'AI Act, veuillez consulter un conseiller juridique qualifié.
Nous intervenons dans toute la France
Prêt à intégrer l'IA dans vos processus ?
Audit IA gratuit. Nous identifions les cas d'usage les plus pertinents pour votre activité et vous accompagnons de A à Z.
À lire aussi
AI Act 2026 : ce que change la réglementation européenne pour votre IA
Le règlement européen sur l'IA entre en application par phases. Calendrier, classification des risques, obligations concrètes et 8 étapes pour rendre votre IA conforme.
LireIA et RGPD : comment déployer une IA conforme en entreprise
73% des entreprises s'inquiètent de la conformité IA/RGPD. Ce guide détaille vos 7 obligations, une checklist pratique, et notre approche IA conforme by design.
LireAutomatisation IA conforme : concilier performance et réglementation
La conformité n'est pas un frein à l'automatisation — c'est un avantage concurrentiel. Découvrez les 3 piliers d'une automatisation IA conforme RGPD et AI Act.
Lire