1. Présentation du règlement
Le Règlement (UE) 2024/1689, dit "AI Act", a été adopté par le Parlement européen en mars 2024. Il constitue le premier cadre juridique complet au monde encadrant l'intelligence artificielle et s'applique à tous les États membres de l'Union européenne.
Les objectifs du règlement sont :
- Garantir la sécurité des systèmes d'IA mis sur le marché européen
- Protéger les droits fondamentaux des citoyens
- Favoriser l'innovation tout en encadrant les risques
- Harmoniser les règles au niveau européen
- Établir la confiance dans les technologies d'IA
Bon à savoir : Le règlement s'applique aux fournisseurs et déployeurs d'IA dans l'UE, y compris ceux établis hors UE si leurs systèmes sont utilisés dans l'Union.
2. Classification des risques
Le règlement adopte une approche fondée sur les risques avec quatre niveaux :
Risque inacceptable (interdits)
Systèmes de scoring social, manipulation subliminale, reconnaissance faciale en temps réel dans l'espace public (sauf exceptions).
Haut risque (très encadrés)
IA en santé, éducation, emploi, services essentiels, justice, migration. Soumis à des obligations strictes de conformité.
Risque limité (obligations de transparence)
Chatbots, deepfakes : obligation d'informer l'utilisateur qu'il interagit avec une IA.
Risque minimal (libre)
Jeux vidéo, filtres anti-spam : pas d'obligations spécifiques.
3. IA et secteur santé/médico-social
Le secteur de la santé et du médico-social est particulièrement concerné par le règlement. La plupart des systèmes d'IA utilisés sont classés à haut risque.
Systèmes à haut risque en santé
- Dispositifs médicaux intégrant de l'IA (imagerie, diagnostic)
- Systèmes d'aide à la décision clinique
- Outils de triage et d'orientation des patients
- IA pour l'évaluation des besoins (MDPH, APA)
- Systèmes de prédiction des risques de santé
Point de vigilance : Les ESMS utilisant des systèmes d'IA pour l'évaluation ou l'orientation des personnes accompagnées doivent vérifier la conformité de ces outils au règlement.
4. Obligations des acteurs
Fournisseurs
- Système de gestion des risques
- Qualité des données d'entraînement
- Documentation technique
- Traçabilité (logs)
- Contrôle humain
- Marquage CE
Déployeurs (utilisateurs)
- Utilisation conforme aux instructions
- Contrôle humain effectif
- Surveillance du fonctionnement
- Conservation des logs
- Information des personnes concernées
- Analyse d'impact (si secteur public)
5. Calendrier d'application
| Date | Entrée en vigueur |
|---|---|
| Fév 2025 | Interdiction des pratiques à risque inacceptable |
| Août 2025 | Obligations pour les IA à usage général (GPAI) |
| Août 2026 | Application complète (systèmes à haut risque) |
| Août 2027 | Systèmes IA composants de produits réglementés |
6. Se préparer à la conformité
Pour les établissements de santé et médico-sociaux, plusieurs actions sont recommandées :
7. Ressources liées
Besoin d'aide pour la conformité AI Act ?
INTELIGIA vous accompagne dans votre mise en conformité au règlement européen.