L’Union Européenne a franchi un cap historique en adoptant le 13 juin 2024 le premier cadre mondial régulant l’Intelligence Artificielle de manière générale : le Règlement sur l’Intelligence Artificielle (dit « AI ACT »). Conçu comme un cadre dynamique et progressif, ce texte inédit impose des règles strictes aux entreprises et organismes publics en matière d’Intelligence Artificielle. Anne-Sophie Viard-Cretat, avocate associée en droit des nouvelles technologies décrypte ce nouveau réglément impliquant des mises en conformité échelonnées dès février 2025, exigeant ainsi une préparation proactive des entreprises. |
Les entreprises et organismes concernés par l’AI ACT
L’AI ACT concerne un large éventail d’acteurs, du secteur privé au secteur public, incluant toute entreprise ou organisation développant, distribuant ou utilisant des systèmes d’IA au sein de l’Union Européenne, indépendamment de leur taille ou de leur domaine d’activité (industrie, services, etc.).
Il est à noter que le texte ne vise pas seulement l’utilisation de LLM (« Large Language Model ») tels que ChatGPT mais aussi :
- Des outils de tri de CV dans le cadre de recrutement
- Des dispositifs médicaux intégrant de l’IA
- Des objets connectés ou plus spécifiquement des jouets intégrant de l’IA
- Des logiciels de production ou de gestion avec de l’IA
- Des machines industrielles intégrant de l’IA
- Des outils tels que des chatbots ou des filtres de contenus pour modérer des plateformes
- Etc.
Les obligations de l’AI ACT vont dépendre de la qualification juridique des acteurs concernés dans la chaine de conception et de commercialisation de l’IA : fabricant, distributeur, déployeur (l’organisme qui déploie le système d’IA dans sa structure).
Les systèmes d’IA classés selon leur risque : vers des obligations ciblées avec l’AI ACT
L’AI ACT distingue trois grandes catégories de systèmes d’Intelligence Artificielle :
1. Systèmes d’IA interdits : Il s’agit des applications d’IA jugées dangereuses pour les droits fondamentaux ou l’ordre public, comme les systèmes manipulant de façon subliminale les comportements des utilisateurs ou ceux évaluant de manière « sociale » la réputation d’individus. Ces systèmes sont strictement interdits dans l’Union Européenne.
2. Systèmes d’IA à haut risque : Cette catégorie inclut des applications dans les domaines sensibles comme la santé, l’éducation, ou la sécurité publique. Par exemple, un système de reconnaissance faciale dans les espaces publics, ou un logiciel de tri de candidatures pour un emploi. Les entreprises qui développent ou utilisent de tels systèmes doivent mettre en place des mesures de conformité renforcées, telles que des évaluations de risques, des audits réguliers, et l’enregistrement du système sur un registre européen public. Des obligations supplémentaires s’appliqueront aux employeurs qui déploient des systèmes d’IA dans leur organisation (obligation d’information du CSE) ou aux entités publiques.
3. Systèmes d’IA à risque limité : Ces systèmes, présentant un risque moindre pour les droits des utilisateurs, sont soumis à des obligations d’information, notamment via des instructions transparentes pour l’utilisateur final. Par exemple, un chatbot utilisé dans le service client devra informer les utilisateurs qu’ils interagissent avec une IA et non avec un humain.
Les obligations applicables dépendront donc de cette qualification et pèseront sur les acteurs concernés. Une analyse circonstanciée pour chaque structure et pour chaque système d’IA est donc impérative.
Quelles sont les sanctions en cas de non-respect de ces obligations ?
Sur le plan des sanctions administratives, celles-ci varient selon la nature du manquement relevé et peuvent atteindre 35 millions d’euros ou 7% du chiffre d’affaires annuel de l’entité concernée. Ces sanctions record seront rendues publiques et auront un impact sur l’image de la structure.
Sur le plan de la responsabilité, les acteurs engageront leur responsabilité civile, voire pénale, auprès des tiers si le système d’IA ou son utilisation cause un préjudice à une personne (ex : un outil d’aide au diagnostic médical). Il est à noter que l’Union Européenne a adopté deux propositions de Directive relative à la responsabilité en matière d’IA :
> L’une visant à modifier la Directive en vigueur concernant la responsabilité du fait des produits défectueux afin d’y intégrer les logiciels et les systèmes d’IA ;
> La seconde visant à établir un cadre spécifique à la responsabilité extracontractuelle des acteurs de l’IA.
Comment anticiper l’application de l’AI ACT ?
Compte tenu de l’ampleur des obligations à respecter et des sanctions applicables, il est primordial d’anticiper dès maintenant les contraintes fixées par le texte.
Que vous soyez dirigeant d'une start-up ou d'une PME, vous pouvez bénéficier de l'accompagnement TGS France Avocats. Nos avocats en droit des nouvelles technologies sont à votre disposition pour vous assister sur l’anticipation de ce texte par exemple en :
> Analysant la qualification juridique de votre structure et de vos systèmes d’IA au regard de l’AI ACT
> Vous aidant à adopter un plan d’action de conformité adapté et tenant compte du calendrier de déploiement du texte
> Réalisant des audits de conformité à l’AI ACT
> Rédigeant ou relisant vos contrats liés à l’IA pour vérifier les engagements de vos partenaires ou pour vous sécuriser.