Conformité

Loi sur l'IA de l'UE : façonner un avenir sûr en matière d'IA

L'utilisation croissante de l'IA pour prendre des décisions dans des domaines à haut risque tels que la santé, les ressources humaines, l'éducation et le commerce électronique a suscité des préoccupations éthiques, sociétales et économiques.

Auteur
Dr. Kilian Schmidt
Date
Mis à jour le
4.5.2026
Loi sur l'IA de l'UE : façonner un avenir sûr en matière d'IA
  • La loi de l'UE sur l'IA est le premier ensemble complet de règles visant à réglementer l'IA dans le monde et répond aux défis éthiques et sociétaux
  • Une approche basée sur les risques classe les systèmes d'IA en quatre niveaux de risque et fixe des exigences strictes pour les applications à haut risque
  • La portée extraterritoriale et les lourdes sanctions garantissent que tous les fournisseurs respectent les exigences
  • Mise en œuvre progressive à partir de 2024 pour promouvoir des systèmes d'IA sûrs et transparents en Europe

L'IA dans les zones de conflit : pourquoi des règles claires sont nécessaires pour une utilisation responsable

Ces dernières années, nous sommes de plus en plus enthousiasmés par l'énorme potentiel de l'intelligence artificielle (IA), notamment en raison de la diffusion rapide des grands modèles linguistiques (LLM), de l'IA générative et des outils d'automatisation. Mais l'utilisation croissante de l'IA pour prendre des décisions dans des domaines à haut risque tels que la santé, les ressources humaines, l'éducation et le commerce électronique soulève des préoccupations éthiques, sociétales et économiques.

Les faiblesses de l'IA (atteintes potentielles à la vie privée des individus, augmentation des préjugés, opacité des processus décisionnels et déshumanisation algorithmique) montrent à quel point une réglementation est nécessaire de toute urgence. L'IA a atteint un point où ses capacités et son utilisation doivent être équilibrées avec son impact sur la société. Les réglementations précédentes n'offraient pas une protection suffisante contre leur capacité d'adaptation, leurs implications éthiques et leurs progrès rapides.

Loi sur l'IA de l'UE

Le Loi sur l'IA de l'UE, également connue sous le nom de Loi sur l'intelligence artificielle de l'Union européenne, a été introduite pour réglementer le développement et l'utilisation de l'IA dans l'UE. L'objectif est de trouver un équilibre entre l'innovation offerte par l'IA et les droits fondamentaux des citoyens de l'UE. Avec le paquet d'innovation en matière d'IA et le plan coordonné pour l'IA, la loi de l'UE sur l'IA constitue un ensemble de mesures qui soutiennent le développement d'une IA fiable en Europe et au-delà.

Il s'agit du premier cadre juridique complet pour l'IA au monde et il a des répercussions considérables sur tous les acteurs clés de la chaîne de valeur de l'IA. Le champ d'application de la loi de l'UE sur l'IA est similaire à celui de GDPR. Cela signifie que chaque fournisseur qui lance ou utilise son système d'IA dans l'UE est tenu de se conformer à la loi, qu'il soit basé dans un État non membre de l'UE ou non. Les entreprises non européennes dont les systèmes d'IA affectent les citoyens de l'UE sont également soumises à la portée extraterritoriale de la loi.

Principaux acteurs de la chaîne de valeur de l'IA :

  • fournisseurs: Développeurs de systèmes d'IA ou de modèles d'IA à usage général (GPAI)
  • utilisateur: utilisateurs ou implémenteurs de systèmes d'IA
  • importateurs: entreprises qui importent des systèmes d'IA de pays non membres de l'UE vers l'UE

Approche réglementaire basée sur les risques

La loi européenne sur l'IA adopte une approche basée sur les risques et classe les produits d'IA en quatre classes de risque : risque minimal, risque limité, risque élevé et risque inacceptable.

Risque minimal

La loi permet une utilisation illimitée des produits d'IA avec un risque minimal, sans que les développeurs aient à prendre des précautions supplémentaires. La plupart des applications d'IA de l'UE entrent dans cette catégorie, comme les jeux vidéo alimentés par l'IA et les filtres anti-spam.

Risque limité

Les risques limités incluent les systèmes d'IA dans lesquels les développeurs doivent garantir la transparence en informant les utilisateurs qu'ils interagissent avec l'IA. Les chatbots, qui obligent les sites Web à informer les utilisateurs qu'ils communiquent avec une machine afin qu'ils puissent prendre une décision éclairée, en sont un exemple.

Risque inacceptable

L'article 5 classe certaines technologies d'IA qui violent les valeurs de l'UE et les droits fondamentaux des citoyens dans la catégorie des « risques inacceptables ». L'utilisation, la commercialisation et la fourniture de tels produits sont strictement interdites. Parmi les applications inacceptables, citons le grattage massif d'images faciales sur Internet, les systèmes d'identification biométrique en temps réel et les systèmes d'évaluation sociale opaques.

Risque élevé

L'article 6 de la loi qualifie les systèmes d'IA susceptibles d'avoir une incidence négative sur la sécurité, les droits fondamentaux ou d'autres aspects critiques comme présentant un risque élevé.

Les critères qui classent un système d'IA comme présentant un risque élevé sont notamment les suivants :

  • Systèmes d'IA pour évaluer les candidats dans un contexte d'emploi,
  • gérer les infrastructures critiques susceptibles de mettre en danger la vie et la santé des citoyens,
  • gestion automatisée de la migration, de l'asile ou du contrôle des frontières,
  • la détermination de l'accès aux principaux services publics, y compris l'évaluation de l'éligibilité aux prestations et de la solvabilité,
  • les systèmes dans les domaines judiciaire et démocratique qui visent à influencer les résultats des élections,
  • Systèmes d'identification biométrique qui ne sont pas interdits mais qui sont utilisés exclusivement à des fins de vérification d'identité.

Des exceptions à la catégorie à haut risque peuvent survenir si un ou plusieurs des critères énoncés dans la Loi sont respectés, notamment :

  • Une tâche d'ingénierie des procédés étroitement définie doit être réalisée à l'aide d'applications d'IA
  • Une autorité judiciaire ou une autre autorité indépendante approuve l'utilisation de l'application d'IA avec des restrictions spécifiques quant à la portée géographique, aux bases de données consultées et à la période de temps.

Les fournisseurs de systèmes d'IA à haut risque sont tenus de réaliser une évaluation de conformité et de répondre aux exigences suivantes :

  • veiller à ce que le système d'IA soit conforme aux règles de l'UE en matière de droits de l'homme, de protection des données et de sécurité,
  • réalisation d'une évaluation de conformité interne ou d'un audit par un tiers,
  • Démontrer la conformité aux normes techniques en termes de sécurité, de précision, de transparence et de responsabilité.

Application et mise en œuvre

Le non-respect des pratiques interdites en matière d'IA peut entraîner des amendes pouvant aller jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial annuel, le montant le plus élevé étant retenu. Les infractions dans le domaine des applications à haut risque peuvent entraîner des amendes pouvant aller jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires mondial annuel.

En outre, le partage d'informations fausses ou incomplètes avec les autorités peut entraîner une amende pouvant aller jusqu'à 7,5 millions d'euros ou 1 % du chiffre d'affaires mondial annuel. Pour les PME et les start-up, la loi fixe des amendes moins élevées et favorise l'innovation, notamment au sein de l'écosystème des start-up.

Conformément à l'article 99, paragraphe 6, de la loi de l'UE sur l'IA, toute amende visée dans cet article peut atteindre les pourcentages ou les montants indiqués aux paragraphes 3, 4 et 5, le montant le plus bas étant retenu.

En février 2024, le Parlement européen a créé l'Office européen de l'IA, qui surveille l'application et la mise en œuvre de la loi dans les États membres. Il vise à créer un environnement sûr pour les personnes dans lequel les technologies d'IA respectent leur dignité, leurs droits et leur confiance.

Calendrier de mise en œuvre

  • Le projet de loi a été présenté pour la première fois en avril 2021, a fait l'objet de plusieurs discussions et a été adopté à une écrasante majorité le 21 mai 2024 (523 voix pour, 46 contre, 49 abstentions) adopté.
  • La Loi est entrée en vigueur le 1er août 2024 et sera pleinement applicable 24 mois plus tard.
  • À compter de l'entrée en vigueur, les entreprises doivent mettre fin aux demandes « présentant un risque inacceptable » pendant une période de six mois.
  • Après 12 mois, les règles relatives au GPAI s'appliquent aux nouveaux modèles ; les modèles GPAI déjà sur le marché ont 36 mois à compter de leur entrée en vigueur pour se conformer.
  • Après 24 mois, les règles visant à réglementer les applications à haut risque entrent en vigueur.
  • Après 36 mois, les règles s'appliquent aux systèmes d'IA, qui sont des produits ou des composants de sécurité de produits relevant de la législation spécifique de l'UE.

conclusion

L'adoption de la loi de l'UE sur l'IA a permis de répondre au besoin d'une législation ciblée et spécifique à l'IA. Il attire beaucoup d'attention dans le monde entier et est considéré comme une référence pour le secteur de l'IA, à l'instar du RGPD en 2018 pour la protection des données.

Avec Kertos, vous pouvez répondre aux exigences de conformité des systèmes d'IA à haut risque. Nos experts vérifient les niveaux de risque de votre système d'IA, vous aident à mettre en œuvre les mesures de protection nécessaires et garantissent la conformité à la loi européenne sur l'IA.

Le guide du fondateur à propos de NIS2 : Préparez votre entreprise maintenant

Protégez votre start-up : découvrez comment NIS2 peut avoir un impact sur votre activité et ce que vous devez prendre en compte dès maintenant. Lisez le livre blanc gratuit dès maintenant !

Der Founder-Guide zur NIS2: Bereite dein Unternehmen jetzt vor

Schütze dein Startup: Entdecke, wie sich NIS2 auf dein Unternehmen auswirken kann und was du jetzt beachten musst. Lies jetzt das kostenlose Whitepaper!

Loi sur l'IA de l'UE : façonner un avenir sûr en matière d'IA
Bereit, deine Compliance auf Autopilot zu setzen?
Dr Kilian Schmidt

Dr Kilian Schmidt

PDG et cofondateur de Kertos GmbH

Le Dr Kilian Schmidt a développé très tôt un vif intérêt pour les processus juridiques. Après des études de droit, il a commencé sa carrière en tant que conseiller juridique principal et responsable de la protection des données au sein du groupe Home24. Après avoir travaillé chez Freshfields Bruckhaus Deringer, il a rejoint TIER Mobility, où, en tant que directeur juridique, il a participé de manière significative à l'expansion du département juridique et des politiques publiques. L'entreprise est passée d'une à 65 villes et de 50 à 800 employés. Motivé par les avancées technologiques limitées dans le secteur juridique et inspiré par son travail de consultant chez Gorillas Technologies, il a cofondé Kertos pour développer la prochaine génération de technologies européennes de protection des données.

À propos de Kertos

Kertos est l'épine dorsale moderne des activités de protection des données et de conformité des entreprises en pleine expansion. Nous permettons à nos clients de mettre en œuvre des processus intégrés de protection des données et de sécurité des informations conformément au RGPD, à la norme ISO 27001, à la TISAX®, à la SOC2 et à de nombreuses autres normes rapidement et à moindre coût grâce à l'automatisation.

Prêts pour un allègement concernant le DSGVO ?

CTA Image

📅 Schedule Your 5min Compliance Check

Please enter your business email to continue. We require a company email address to ensure we can best serve your organization.

📞 5min Compliance Check