L'AI ACT - Règlementation européenne
March 10, 2025

L'AI ACT

L'Artificial Intelligence Act (AI Act) est une législation européenne adoptée en mars 2024, visant à encadrer le développement et l'utilisation de l'intelligence artificielle (IA) au sein de l'Union européenne.

Objectifs principaux de l'AI Act :

  • Assurer une utilisation éthique et sécurisée de l'IA : Garantir que les systèmes d'IA respectent les droits fondamentaux et les valeurs de l'Union européenne.​
  • Promouvoir l'innovation : Établir un cadre réglementaire clair pour favoriser le     développement de technologies d'IA fiables et transparentes.​

Classification des systèmes d'IA selon leur niveau de risque :

  1. Risque inacceptable : Systèmes interdits car portant atteinte aux valeurs de l'UE, tels que la notation sociale des citoyens ou les systèmes de manipulation comportementale.​    
  2. Risque élevé : Systèmes soumis à des exigences strictes (évaluations de conformité, surveillance humaine) avant leur mise sur le marché, notamment dans les secteurs de la santé, de l'éducation ou du recrutement.
  3. Risque limité : Systèmes nécessitant des obligations de transparence, informant les utilisateurs qu'ils interagissent avec une IA, comme les chatbots.
  4. Risque minimal : Systèmes sans obligations spécifiques, tels que les filtres anti-spam ou les jeux vidéo utilisant l'IA.

Mise en œuvre et application :

L'AI Act est entré en vigueur le 1ᵉʳ août 2024, avec une application progressive des dispositions sur une période de trois ans. Les autorités nationales de surveillance sont chargées de veiller au respect de la réglementation, avec des sanctions pouvant atteindre jusqu'à 6 % du chiffre d'affaires annuel mondial d'une entreprise en cas de non-conformité.​

Implications pour les entreprises et les citoyens :

Pour les entreprises, l'AI Act impose des obligations de transparence, de sécurité et d'éthique dans le développement et la mise en œuvre des systèmes d'IA. Pour les citoyens, cette législation vise à renforcer la confiance dans les technologies d'IA en assurant leur utilisation responsable et respectueuse des droits fondamentaux.​

l'AI Act positionne l'Union européenne comme un leader mondial dans la régulation de l'intelligence artificielle, en établissant un équilibre entre innovation technologique et protection des valeurs fondamentales.

​Le Règlement sur l'intelligence artificielle (AI Act) de l'Union européenne est entré en vigueur le 1ᵉʳaoût 2024. Sa mise en application se déroule en plusieurs étapes clés :

  • Février 2025 : Application des dispositions générales et des interdictions concernant les systèmes d'IA à risque "inacceptable".​
  • Août 2025 : Mise en œuvre des sections relatives aux autorités, aux modèles     d'IA à usage général, à la gouvernance et aux sanctions, à l'exception des amendes applicables aux fournisseurs.​    
  • Août 2026 : Application complète du règlement, à l'exception de certaines obligations spécifiques liées aux systèmes d'IA à risque "élevé".
  • Août 2027 : Pleine application de l'ensemble du règlement.

Ces étapes permettent une transition progressive pour les acteurs concernés, leur offrant le temps nécessaire pour se conformer aux nouvelles exigences réglementaires. ​

Parallèlement, des discussions sont en cours concernant la transparence des données utilisées pour entraîner les modèles d'IA. Le règlement impose aux fabricants d'IA de fournir un résumé détaillé des données d'entraînement, soulevant des questions sur la valeur et la rémunération des contenus utilisés. ​

De plus, certaines grandes entreprises technologiques hésitent à adhérer immédiatement au pacte volontaire de l'UE sur l'IA, préférant se concentrer sur la conformité au AI Act. ​

Ces dynamiques illustrent les défis et les débats entourant la mise en œuvre du AI Act, alors que l'Europe cherche à équilibrer innovation technologique et régulation éthique.