Réglementation Union Européenne Mars 2024

Règlement européen IA (AI Act)

Le Règlement européen sur l'intelligence artificielle (AI Act) est le premier cadre juridique complet au monde encadrant le développement et l'utilisation de l'IA, avec des dispositions spécifiques pour le secteur de la santé.

1. Présentation du règlement

Le Règlement (UE) 2024/1689, dit "AI Act", a été adopté par le Parlement européen en mars 2024. Il constitue le premier cadre juridique complet au monde encadrant l'intelligence artificielle et s'applique à tous les États membres de l'Union européenne.

Les objectifs du règlement sont :

  • Garantir la sécurité des systèmes d'IA mis sur le marché européen
  • Protéger les droits fondamentaux des citoyens
  • Favoriser l'innovation tout en encadrant les risques
  • Harmoniser les règles au niveau européen
  • Établir la confiance dans les technologies d'IA

Bon à savoir : Le règlement s'applique aux fournisseurs et déployeurs d'IA dans l'UE, y compris ceux établis hors UE si leurs systèmes sont utilisés dans l'Union.

2. Classification des risques

Le règlement adopte une approche fondée sur les risques avec quatre niveaux :

Risque inacceptable (interdits)

Systèmes de scoring social, manipulation subliminale, reconnaissance faciale en temps réel dans l'espace public (sauf exceptions).

Haut risque (très encadrés)

IA en santé, éducation, emploi, services essentiels, justice, migration. Soumis à des obligations strictes de conformité.

Risque limité (obligations de transparence)

Chatbots, deepfakes : obligation d'informer l'utilisateur qu'il interagit avec une IA.

Risque minimal (libre)

Jeux vidéo, filtres anti-spam : pas d'obligations spécifiques.

3. IA et secteur santé/médico-social

Le secteur de la santé et du médico-social est particulièrement concerné par le règlement. La plupart des systèmes d'IA utilisés sont classés à haut risque.

Systèmes à haut risque en santé

  • Dispositifs médicaux intégrant de l'IA (imagerie, diagnostic)
  • Systèmes d'aide à la décision clinique
  • Outils de triage et d'orientation des patients
  • IA pour l'évaluation des besoins (MDPH, APA)
  • Systèmes de prédiction des risques de santé

Point de vigilance : Les ESMS utilisant des systèmes d'IA pour l'évaluation ou l'orientation des personnes accompagnées doivent vérifier la conformité de ces outils au règlement.

4. Obligations des acteurs

Fournisseurs

  • Système de gestion des risques
  • Qualité des données d'entraînement
  • Documentation technique
  • Traçabilité (logs)
  • Contrôle humain
  • Marquage CE

Déployeurs (utilisateurs)

  • Utilisation conforme aux instructions
  • Contrôle humain effectif
  • Surveillance du fonctionnement
  • Conservation des logs
  • Information des personnes concernées
  • Analyse d'impact (si secteur public)

5. Calendrier d'application

Date Entrée en vigueur
Fév 2025 Interdiction des pratiques à risque inacceptable
Août 2025 Obligations pour les IA à usage général (GPAI)
Août 2026 Application complète (systèmes à haut risque)
Août 2027 Systèmes IA composants de produits réglementés

6. Se préparer à la conformité

Pour les établissements de santé et médico-sociaux, plusieurs actions sont recommandées :

7. Ressources liées

Besoin d'aide pour la conformité AI Act ?

INTELIGIA vous accompagne dans votre mise en conformité au règlement européen.

Contactez-nous