Tout comprendre à l’AI Act en 2025

Julien Fournari
Par 
Julien Fournari
SEO & Growth Manager
Dernière mise à jour le 
22
 
April
 
2025
Formez-vous à l'art du Prompt Engineering et boostez votre carrière !
Se former au Prompting
Comment l’IA Act va changer l’usage de l’IA en Europe ?
Sommaire

Les outils d’intelligence artificielle se multiplient et transforment déjà notre quotidien. Mais doit-on vraiment tout leur autoriser ? Pour y répondre, l’Union européenne a adopté l’AI Act, la première loi au monde qui vise à encadrer l’usage de l’IA.

Son ambition : rendre l’intelligence artificielle plus fiable et plus éthique. Le but ? Que citoyens comme entreprises puissent en tirer parti, sans en subir les dérives.

Dans cet article, vous découvrirez tout ce qu’il faut savoir sur l’Artificial Intelligence Act : son contenu, son calendrier de mise en application et ses conséquences concrètes.

Vous souhaitez apprendre à utiliser l’IA, ou même vous reconvertir dans ce domaine en pleine croissance ? Alors jetez un œil à notre comparatif des meilleures formations en intelligence artificielle, qui vous permettront d'acquérir des compétences concrètes pour faire évoluer votre carrière.

Formez-vous à l'art du Prompt Engineering et boostez votre carrière !
Se former au Prompting
Formation Prompt EngineeringFormation Prompt Engineering

Qu’est-ce que l’AI Act ?

Le règlement européen sur l’intelligence artificielle, aussi appelé Artificial Intelligence Act ou AI Act, est le premier cadre législatif complet dédié à l’IA. Son objectif ? Encadrer l’usage de l’IA afin de le rendre plus sûr, plus éthique, plus transparent et surtout, aligné avec les valeurs européennes.

Ce texte est une réponse directe aux inquiétudes liées à l’émergence et à la popularisation des modèles comme ChatGPT, à leurs biais algorithmiques, ou encore à l’usage croissant de la reconnaissance faciale qui repose en grande partie sur l’IA.

Concrètement, l’AI Act classe les systèmes d’IA selon leur niveau de risque et impose des obligations adaptées à chaque cas.

Loin de vouloir freiner l’innovation, ce règlement européen ambitionne au contraire de nous aider à avoir confiance en l’intelligence artificielle afin de favoriser son adoption en Europe. Mais pour éviter tout dérapage, il était essentiel de poser un cadre clair.

Quand l’IA Act va-t-il entrer en vigueur ?

Rome ne s’est pas faite en un jour, et pour l’IA Act, c’est la même chose. En discussion depuis 2020, il aura fallu plusieurs années pour aboutir à ce règlement, et il en faudra encore quelques unes pour qu’il soit correctement appliqué dans tous les États membres de l’UE. Voici les dates clés à retenir :

  • Février 2020 : publication du « Livre blanc sur l'intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance » par la Commission européenne.  
  • Octobre 2020 : ouverture des débats entre les dirigeants européens sur l’encadrement de l’IA.  
  • 21 avril 2021 : proposition officielle de l’Artificial Intelligence Act par la Commission, avec pour objectif d’harmoniser les règles sur l’usage de l’IA dans l’UE.  
  • 24 janvier 2024 : création du Bureau européen de l’intelligence artificielle pour superviser la mise en œuvre de l’AI Act.  
  • 1er août 2024 : entrée en vigueur du règlement, avec une application progressive prévue sur 6 à 36 mois.  
  • Depuis début 2025 : ouverture des négociations et des consultations entre la Commission européenne et les différentes parties prenantes (plateformes d’IA, auteurs, presse, artistes…) pour tenter d’aboutir à un code de bonne conduite.  
  • Février 2025 : les premières obligations entrent en application ; cela concerne notamment l’interdiction des systèmes d’IA à risque inacceptable.  
  • Août 2025 : mise en œuvre de nouvelles dispositions, dont l’encadrement des modèles d’IA à usage général, l’organisation de la gouvernance liée à l’IA à l’échelle européenne, et l’entrée en vigueur des premières règles relatives aux sanctions et à la confidentialité des données.  
  • Août 2026 :  à quelques exceptions près, l’essentiel du règlement doit être entré en application, notamment en ce qui concerne les systèmes à haut risque.  
  • Août 2027 : l’AI Act est pleinement applicable dans tous les États membres de l’Union européenne.

Comme vous avez pu le constater, certaines mesures prévues par ce règlement sur l’IA sont ainsi déjà effectives :

  • Les systèmes d’IA à risque inacceptable sont d’ores et déjà interdits dans l’UE.  
  • Des autorités de contrôle ont déjà vu le jour.

À qui s’applique l’Artificial Intelligence Act ?

L’IA Act en Europe ne concerne pas que les géants de la tech. Il vise tous les acteurs qui développent, utilisent ou diffusent des systèmes d’intelligence artificielle, que ce soit en Europe ou à l’international. Sont notamment dans le viseur :

  • Les fournisseurs et développeurs d’IA, qu’ils soient basés dans l’UE (comme l’IA française Mistral AI) ou non.  
  • Les entreprises qui utilisent ou intègrent des systèmes d’IA dans leurs produits ou services (notamment les banques, les plateformes e-commerce, les entreprises de logistique…).  
  • Les personnes qui utilisent l’IA à titre professionnel, tout en travaillant dans des secteurs sensibles (comme les RH, la santé, l’éducation ou encore la sécurité).  
  • Les importateurs et distributeurs qui commercialisent des systèmes d’IA étrangers sur le territoire européen.

En résumé : si vous concevez, diffusez ou utilisez une IA à des fins professionnelles dans l’UE, vous êtes concerné.

Quels sont les 5 niveaux de risque dans l’IA Act ?

L’Artificial Intelligence Act repose sur un principe fondamental : plus l’IA est risquée, plus elle doit être encadrée. Le règlement proposait au départ 4 niveaux de risques pour classer les intelligences artificielles des plus dangereuses (qui sont interdites dans l’UE) aux plus inoffensives. En 2023 est venu s’ajouter un cinquième niveau, spécifique aux IA à usage général, souvent accessibles au grand public.

Risque inacceptable : IA interdite

Ce niveau définit la zone rouge de l’IA. Ici, on retrouve les systèmes considérés comme incompatibles avec les droits fondamentaux et les valeurs défendues par l’UE. Cela concerne notamment :

  • Les systèmes de notation sociale, inspirés du modèle chinois, qui évaluent les citoyens selon leurs comportements.  
  • Les outils de manipulation cognitive ou comportementale, comme les jouets ou assistants vocaux qui incitent des enfants à adopter des comportements dangereux.  
  • La reconnaissance faciale en temps réel dans l’espace public, interdite sauf cas exceptionnels de lutte contre le terrorisme.

À de très rares exceptions près, ces technologies sont ainsi interdites sur le sol européen. Leur utilisation peut néanmoins être autorisée dans des circonstances bien précises, par exemple dans le cadre d’enquêtes pénales graves, pour retrouver des personnes disparues, ou pour prévenir une menace imminente à la sécurité publique. Mais même dans ces cas, leur usage doit être strictement encadré, temporaire, et validé par une autorité judiciaire ou administrative compétente.

En dehors de ces situations exceptionnelles, ces systèmes sont ainsi totalement proscrits dans l’Union européenne.

Risque élevé : IA réglementée strictement

Les IA à haut risque ne sont pas interdites, mais leur usage est rigoureusement encadré. Cela concerne les systèmes utilisés dans des domaines sensibles comme la santé, la justice, l’éducation, l’emploi ou encore la sécurité, tels que :

  • Les outils de tri de CV  
  • Les outils d’aides à la décision médicale  
  • Les algorithmes d’octroi de crédit ou d’évaluation de témoignages  
  • Les systèmes de soutien au maintien de l’ordre

Les intelligences artificielles concernées doivent ainsi :

  • Être évaluées avant leur mise sur le marché, puis tout au long de leur cycle de vie.  
  • Fournir une documentation complète et transparente (incluant les objectifs de ces systèmes, leur mode de fonctionnement, les types de données utilisés) aux autorités compétentes.  
  • Fonctionner sous supervision humaine.  
  • Intégrer des mécanismes de contrôle en continu.

IA à usage général : sous surveillance renforcée

Face à la montée en puissance des IA génératives comme ChatGPT, l’UE a dû prévoir une catégorie spécifique dans l’intelligence artificielle Act : les GPAI (General-Purpose Artificial Intelligence). Ces modèles sont par exemple capables de générer du texte, des vidéos, des images ou même du code, et peuvent avoir une multitude d’applications.

Problème : du fait de leur polyvalence, il est très facile de les détourner pour fabriquer de faux contenus, manipuler l’opinion ou encore diffuser des deepfakes. À cela s’ajoutent d’autres problèmes éthiques, comme le respect du droit d’auteur ou encore l’impact environnemental de ces technologies accessibles au grand public.

L’AI Act considère ainsi que si elles ne sont pas dangereuses par nature, ces technologies peuvent avoir un fort impact systémique. En conséquence, ces types d’IA sont soumis à des règles strictes :

  • Obligation de transparence, notamment quant à la consommation énergétique et aux données d’entraînement utilisées.  
  • Limitation dans les types de contenus générés, pour essayer d’empêcher la production de contenus illégaux.  
  • Obligation de déclarer les incidents graves résultant de l’utilisation de ces IA.  
  • Obligation de mettre en place des mesures de cybersécurité renforcées.

C’est notamment pour cette raison que certaines fonctions de ChatGPT, comme Sora, prennent plus de temps à arriver en Europe.

Risque limité : obligations de transparence

Le risque limité concerne notamment les IA que vous utilisez tous les jours, parfois sans le savoir, mais qui peuvent vous induire en erreur si elles ne sont pas bien encadrées. Cela inclut notamment les IA génératives comme ChatGPT ou Midjourney, qui peuvent avoir tendance à halluciner certaines réponses.

Ces technologies ne sont pas interdites, ni même particulièrement restreintes. En revanche, elles doivent jouer cartes sur table et faire preuve de transparence :

  • L’utilisateur doit être clairement informé qu’il a affaire à une IA (et non à un humain).  
  • Les contenus générés doivent pouvoir être facilement identifiables.  
  • Les développeurs doivent prévenir les biais et assurer une certaine robustesse du système.

Risque minimal : IA libre d’utilisation

Enfin, à l’autre bout du spectre, vous trouvez les systèmes d’IA à risque minimal, considérés comme étant sans danger, ou presque. De nombreux outils que vous utilisez au quotidien (filtres anti-spam, suggestions de films, moteurs de recommandation, ou encore assistants virtuels) intègrent ce type d’IA.

Ces systèmes ne sont soumis à aucune obligation spécifique. Ils ne nécessitent ni évaluation, ni déclaration, ni contrôle particulier. En revanche, les fournisseurs sont encouragés à suivre des codes de bonne conduite, notamment en matière d’accessibilité ou d’impact environnemental.

Pourquoi l’AI Act a-t-il été mis en place en Europe ?

Alors que l’intelligence artificielle se fait une place dans tous les pans de notre société, l’Union européenne a voulu poser un cadre clair pour éviter les dérives. De manière plus concrète, cette loi sur l’IA en Europe vise à :

  • Protéger les droits fondamentaux des citoyens européens, comme le respect de la vie privée, de la démocratie, de la liberté d’expression ou encore de l’État de droit.  
  • Encadrer l’usage de l’IA dans les secteurs critiques, notamment la santé, la justice, l’éducation ou la sécurité.  
  • Prévenir les dérives, comme la surveillance des masses, la manipulation comportementale ou l’usage militaire incontrôlé.  
  • Renforcer la confiance des citoyens et des entreprises dans ces nouvelles technologies, en posant des règles communes qui permettront de proposer un marché de l’IA plus éthique et plus sécurisé.

Quelles sont les sanctions en cas de non-respect de l’IA Act ?

L’Union européenne ne plaisante pas avec l’intelligence artificielle. Comme pour le RGPD en matière de protection des données personnelles, l’AI Act prévoit un régime de sanctions particulièrement sévère pour les acteurs qui ne respecteraient pas ses règles.

Le montant des amendes dépendra ainsi de la gravité du manquement :

  • Concernant les manquements moins critiques (comme les erreurs dans les obligations de transparence ou de coopération), vous risquez une amende allant jusqu’à 7,5 millions d’euros ou 1 % de votre chiffre d’affaires mondial.  
  • Concernant les défauts de conformité (IA à haut risque non évaluée, absence de documentation technique), l’amende pourra s’élever à 15 millions d’euros ou 3 % de votre chiffre d’affaires mondial.  
  • Concernant les violations les plus graves (comme l’usage d’un système d’IA interdit), votre amende pourra atteindre les 35 millions d’euros ou 7 % de votre chiffre d’affaires mondial.

Bon à savoir : le montant retenu sera toujours celui étant le plus élevé.

Des montants élevés, qui ne cherchent pas à pénaliser les acteurs de l’IA, mais à les encourager à développer des technologies plus éthiques.

Quels sont les avantages de l’IA Act pour l’Europe et ses utilisateurs ?

Cela valorise les IA françaises et européennes

Le principal avantage de l’AI Act, c’est qu’il valorise les modèles d’IA développés en Europe. Pourquoi ? Parce que leurs créateurs baignent dans les valeurs européennes, souvent depuis leur naissance. Il est ainsi presque naturel pour eux de créer des technologies qui les respectent, en témoigne l’IA française Mistral AI, qui pour faire preuve d’un maximum de transparence, a choisi d’être open source.

Ce nouveau cadre permet ainsi aux acteurs européens :

  • De se différencier face aux géants américains ou chinois, souvent moins regardants sur l’éthique.  
  • D’être mieux intégré aux marchés publics et aux secteurs régulés en Europe (comme la santé, l’éducation, ou les différentes institutions publiques),  
  • De bénéficier d’un environnement stable et prévisible, crucial pour le développement de solutions IA responsables.

En bref : l’IA Act devrait permettre à l’UE de gagner en souveraineté, et de s’approprier une partie du juteux marché de l’intelligence artificielle.

Cela protège les utilisateurs et encourage une IA plus éthique

Plus que de se contenter de poser des règles pour les entreprises, l’AI Act vise surtout à protéger les citoyens européens et les utilisateurs finaux de ces technologies. Sa mission : en finir avec les modèles IA opaques et les biais algorithmiques, ceci pour proposer des IA plus responsables, plus sûres, et surtout, qui respectent votre vie privée et vos droits fondamentaux.

En bref, l’idée derrière ce règlement était de poser un cadre qui vous aide à faire confiance à ces nouvelles technologies, tout en tirant l’IA vers le haut et en l’incitant à placer les débats sur l’intelligence artificielle au centre de son évolution.

Quelles sont les limites de la réglementation de l’IA en Europe ?

Un risque de déclassement technologique pour l’Europe

Des figures comme Sam Altman (CEO d’OpenAI, la société derrière ChatGPT) ont publiquement exprimé leur inquiétude quant à l’AI Act. Leur principale crainte : qu’un cadre trop strict freine l’innovation, notamment lors des phases de recherche et développement.

Les critiques pointent notamment :

  • Une lenteur administrative à l’échelle européenne, souvent incompatible avec les cycles rapides d’innovation dans la tech.  
  • Le risque que les talents européens soient tentés de rejoindre des écosystèmes plus souples, comme ceux de la Silicon Valley ou de Shenzhen, où les réglementations sont moins contraignantes.  
  • La réticence des investisseurs à s’engager aux côtés de start-ups IA européennes, qui seraient perçues comme moins compétitives à l’international à cause des obligations imposées par l’AI Act.

En bref : une régulation trop rigide pourrait rendre l’Europe moins attractive, et constituer un véritable frein à l’innovation sur le vieux continent.

Un accès restreint à certaines IA pour les utilisateurs européens

Conséquence directe des restrictions imposées par l’AI Act, certaines technologies ne sont pas disponibles en Europe, ou mettent plus de temps à l’être, créant un décalage avec le reste du monde. Par exemple :

  • Clearview AI est interdit dans l’UE, à cause de l’usage massif de données biométriques sans consentement.  
  • Sora, le générateur de vidéo développé par OpenAI, n’a été rendu disponible dans l’UE que près d’un an après sa sortie aux États-Unis, notamment à cause des craintes liées à la génération de Deepfakes et aux obligations de transparence.  
  • Les utilisateurs Apple ont dû attendre plusieurs mois pour pouvoir utiliser Apple Intelligence en Europe, le temps que la firme américaine réussisse à mettre cette technologie en conformité avec le Digital Markets Act et l’AI Act.

Comment se former à l’IA éthique ?

L’intelligence artificielle transforme nos vies, nos métiers et nos décisions. Mais pour en tirer le meilleur sans sombrer dans ses dérives, encore faut-il comprendre ses mécanismes et maîtriser ses usages. C’est justement pour ça que l’AI Act a été adopté.

Sa mise en œuvre progressive aura un impact significatif sur tous les métiers liés à l’IA en Europe. Si vous êtes passionné par l’IA, sachez que vous pouvez vous former dès aujourd’hui — et financer votre apprentissage grâce à votre CPF. En vous formant avec Jedha, vous bénéficierez d’une formation axée sur la pratique, pensée pour vous faire monter en compétences rapidement et vous ouvrir de réelles opportunités professionnelles dans la tech :

  • Optez pour notre formation pour devenir Data Scientist, d’une durée de 450 heures, si vous souhaitez apprendre à entraîner des modèles, à les évaluer et à les déployer, tout en comprenant les enjeux éthiques liés à leur utilisation.  
  • Rejoignez notre formation pour devenir Data Engineer, d’une durée de 150 heures, si vous avez déjà de l’expérience dans la Data et souhaitez apprendre à construire des infrastructures capables de faire tourner des modèles d’IA à grande échelle, tout en maîtrisant les outils essentiels au traitement et à la sécurisation des données.  
  • Suivez notre formation en Prompt Engineering, d’une durée de 42 heures, si vous souhaitez devenir un pro des IA génératives comme ChatGPT.

Envie d’en savoir plus ? Alors téléchargez sans attendre notre syllabus pour découvrir nos différentes formations en détail, et venez nous rencontrer lors de notre prochaine Soirée Portes Ouvertes en ligne !

Questions fréquentes à propos de l’IA Act

Qu’est-ce que le Digital Markets Act (DMA) ?

Le DMA (pour Digital Markets Act) est un règlement européen distinct de l’AI Act, qui vise à limiter les abus de position dominante des grandes plateformes numériques (qualifiées de « gatekeepers »). Il impose ainsi de faire preuve de plus de transparence et d’interopérabilité à des géants comme Alphabet, Amazon, Apple, ByteDance, Microsoft ou encore Meta.

Existe-t-il un standard mondial de régulation IA ?

Pas encore. L’Europe est la première à adopter un cadre juridique aussi complet avec l’AI Act. D’autres pays, comme les États-Unis ou le Canada, travaillent sur des initiatives similaires, mais pour le moment, il n’existe aucun standard international unifié qui régulerait l’utilisation de l’IA dans le monde.

ChatGPT est-il impacté par l’IA Act ?

Oui. ChatGPT est classé comme IA à usage général, et doit donc respecter des règles strictes en matière de transparence, de documentation et de sécurité. Certaines fonctionnalités, comme Sora, ont d’ailleurs été retardées en Europe à cause de ces exigences.

Soirée Portes Ouvertes Jedha BootcampSoirée Portes Ouvertes Jedha Bootcamp
Julien Fournari
Julien Fournari
SEO & Growth Manager
Julien occupe le poste de SEO & Growth Manager chez Jedha depuis Mexico. Sa mission est de créer et d'orchestrer du contenu pour la communauté Jedha, de simplifier les processus et de dénicher de nouvelles opportunités, tant pour Jedha que pour ses étudiants, en exploitant sa maîtrise du digital.
Testez vos connaissances sur l’IA en 3 minutes 🤖
Faire le quiz