Espace client

L'AI Act a été voté ! Découvrez-en les principales mesures

Longtemps décrié, mais voté dans le silence, l'AI Act a été (presque) voté le 19 décembre 2023.

Qu'est-ce qu'on y retrouve ?

Des mesures visant principalement à s'assurer de la souveraineté des données et la protection des consommateurs, notamment dans des domaines considérés comme dangereux pour la population ou la sécurité nationale, et à contraindre les éditeurs d'IA génératives à un meilleur contrôle des usages et résultats de leur IA.

Le Parlement et le Conseil se sont mis d'accord pour établir une grille de "risque" pour apprécier l'introduction, ou non, des systèmes d'IA dans notre quotidien.

Quelles seront les IA autorisées ou interdites sur le sol européen ?

Les acteurs proposant des systèmes d'IA considérés comme à risque inacceptable seront interdits sur le sol européen

Qu'est-ce qu'un risque inacceptable ?

Lorsque leurs systèmes sont considérés comme une menace pour les personnes.

Plus précisément ?

Lorsque les systèmes amènent à :
  • la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques : par exemple, des jouets activés par la voix qui encouragent les comportements dangereux chez les enfants
  • classer les personnes en fonction de leur comportement, de leur statut socio-économique, de leurs caractéristiques personnelles (on parle de score social)
  • une catégorisation et une identification biométriques des personnes
  • des systèmes d'identification biométrique en temps réel et à distance, tels que la reconnaissance faciale

Le Parlement et le Conseil se sont déjà mis d'accord pour que des exceptionnels puissent être acceptables, comme par exemple, les systèmes d'identification biométrique à distance « en temps réel » seront autorisés dans un nombre limité de cas graves (comme par exemple poursuivre des crimes graves, à condition bien sûr de recueillir l'approbation d'un tribunal spécifiquement habilité pour).

Les systèmes d'IA considérés comme à risque élevé ne pourront être acceptés sur le sol européen qu'après une validation préalable

Qu'est-ce qu'un risque élevé ?

On considère comme à haut risque, ou à risque élevé, les systèmes d'IA qui peuvent avoir un impact négatif sur la sécurité ou les droits fondamentaux.

Pour simplifier leurs identifications, le Parlement et le Conseil ont décidé de créer deux catégories. 
 
1. Les systèmes d'IA qui sont utilisés dans les produits relevant de la législation de l'UE sur la sécurité des produits. Cela comprend les jouets, l'aviation, les voitures, les dispositifs médicaux et les ascenseurs.

2. Les systèmes d'IA relevant de domaines spécifiques qui devront être enregistrés dans une base de données de l'UE :
  • la gestion et l'exploitation des infrastructures critiques
  • l'éducation et la formation professionnelle
  • l'emploi, la gestion des travailleurs et l'accès au travail indépendant
  • l'accès et la jouissance des services privés essentiels et des services et avantages publics
  • les forces de l'ordre
  • la gestion de la migration, de l'asile et du contrôle des frontières
  • l'aide à l'interprétation juridique et à l'application de la loi.

Concrètement, qu'est-ce que cela signifie ? Cela signifie que tous les systèmes d'IA à haut risque devront être évalués avant leur mise sur le marché et tout au long de leur cycle de vie.

Quelle réglementation pour les IA à risque limité ?

Afin d'éviter les éventuelles dérives que l'on peut anticiper et les contraindre à une certaine éthique, le Parlement et le Conseil se sont mis d'accord pour que les systèmes d'IA, considérés comme à risque limité, devront toutefois respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées.

L'objectif des parlementaires est simple : permettre à l'utilisateur, après avoir interagi avec les applications, de décider s'il souhaite continuer à les utiliser. 

Pour plus de transparence, notamment avec l'arrivée de nouvelles solutions particulièrement surprenantes dans le secteur (comme Lumière de Google), le Parlement et le Conseil souhaitent que les utilisateurs soient toujours informés lorsqu'ils interagissent avec l'IA. 

Et ce, quel que soit le contenu produit (image, audio ou vidéo). On comprend aisément ici le souhait de nos parlementaires d'éviter de voir se proliférer les deepfakes (contenus faux qui sont rendus crédibles par l'IA), comme la fausse photo d'Emmanuel Macron sortant les poubelles dans la rue.

Une réglementation accrue pour les IA génératives

Les IA génératives devront se conformer à certaines règles de transparence :
  • indiquer que le contenu a été généré par l'IA
  • concevoir le modèle pour l'empêcher de générer du contenu illégal
  • publier des résumés des données protégées par le droit d'auteur utilisées pour la formation 

En exigeant une rigueur de la part des plateformes, nos parlementaires européens veulent s'assurer que les IA génératives généralistes, comme Chat-GPT par exemple, et qui pourraient être susceptibles de présenter un risque systémique, signalent automatiquement les incidents qu'ils pourraient découvrir dans leurs usages (à la Commission). Le parlement réfléchit par ailleurs à ce que ces solutions fassent l’objet d’évaluations plus approfondies.


Prochaines étapes : que le texte soit validé officiellement par le Conseil et le Parlement


Pour en savoir plus :

Illustration générée grâce à l'IA