L’Union européenne est devenue le premier continent à adopter une législation stricte sur l’intelligence artificielle (IA) avec l’entrée en vigueur des premières mesures de l’AI Act le 2 février 2025. Ce règlement vise à protéger les citoyens contre les dérives potentielles de l’IA tout en encadrant son développement.
Les entreprises opérant en Europe doivent désormais se conformer à de nouvelles obligations, sous peine de sanctions sévères pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial. Certaines pratiques sont totalement interdites, tandis que d’autres nécessitent une surveillance accrue.
Quelles sont les principales interdictions ?
L’AI Act interdit strictement plusieurs usages jugés contraires aux valeurs européennes :
– Les bases de données biométriques obtenues par collecte massive d’images sans consentement sont désormais prohibées.
– Les systèmes de notation sociale, inspirés du modèle chinois de crédit social, sont bannis.
– La police prédictive, qui cible des individus sur des critères ethniques ou comportementaux, est interdite.
– La manipulation exploitant les vulnérabilités des personnes, comme leur âge, leur handicap ou leur précarité, est illégale.
– La reconnaissance faciale en temps réel dans les espaces publics est interdite, sauf dans des cas exceptionnels (terrorisme, disparition d’enfant).
– Les détecteurs d’émotions ne peuvent plus être utilisés dans les écoles et entreprises.
Ces restrictions visent à préserver la vie privée et les droits fondamentaux des citoyens, tout en empêchant des dérives dangereuses liées à l’usage abusif de l’IA.
Quelles obligations pour les entreprises qui utilisent l’intelligence artificielle ?
Les entreprises doivent désormais classer leurs systèmes d’IA en fonction de leur niveau de risque (interdit, élevé, limité, minimal) et adapter leurs pratiques en conséquence. Parmi les nouvelles exigences :
– Cartographie des systèmes d’IA : d’ici août 2025, toutes les entreprises doivent analyser les technologies d’IA qu’elles utilisent et leur niveau de conformité.
– Formation obligatoire des employés : d’ici juin 2025, tous les salariés doivent suivre une formation éthique sur l’IA.
– Transparence accrue : les chatbots et autres outils automatisés doivent informer les utilisateurs dès le premier contact qu’ils interagissent avec une intelligence artificielle.
Pour éviter un frein à l’innovation, l’Union européenne prévoit la création de «bacs à sable réglementaires » permettant aux entreprises d’expérimenter des projets d’IA dans des conditions encadrées. Ces espaces de test, supervisés par des autorités nationales comme la commission nationale de l’informatique et des libertés (CNIL) en France, offriront des dérogations temporaires pour tester des solutions innovantes dans des secteurs clés comme la santé ou l’énergie.
Les prochaines étapes du déploiement de l’AI Act incluent :
Août 2025 : mise en conformité obligatoire pour les secteurs de la banque et de l’assurance.
Février 2026 : certification des systèmes critiques dans la santé et les transports.
Août 2026 : audit complet des modèles d’IA générative.
Avec ces nouvelles règles, l’Union européenne espère encadrer l’intelligence artificielle sans freiner son développement, en trouvant un équilibre entre innovation technologique et respect des droits fondamentaux.