Actualités

Le Règlement sur l'Intelligence Artificielle a été publié


Publié au Journal Officiel de l’Union européenne le 12 juillet 2024, le Règlement sur l’Intelligence Artificielle (RIA) entre en vigueur le 1er août 2024. Ses dispositions deviendront applicables par étapes à 6, 12, 24 et 36 mois après son entrée en vigueur.

Le Règlement définit l’IA (art. 3.1) comme « tout système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ». Il s’applique dès lors que :

  • un système d’IA est mis sur le marché ou en service dans l’UE ;
  • l’utilisateur est situé dans l’UE ;
  • le résultat est utilisé dans l’UE.

Le RIA établit les rôles et obligations des différents acteurs de la chaîne d’approvisionnement, notamment :

  • des fournisseurs, qui développent des systèmes d’IA ;
  • des déployeurs, qui utilisent l’IA à but professionnel ;
  • des distributeurs qui mettent des systèmes d’IA à disposition sur le marché de l’Union.

En fonction des risques liés à l’utilisation de l’IA, le Règlement distingue quatre catégories soumises à des obligations différentes:

  • Systèmes d’IA à risque minimal (ex. filtres de spam, outils de traduction etc.) > pas d’obligation spécifique.
  • Systèmes d’IA à risque limité de manipulation / tromperie (ex. génération d’images, chatbots etc.) > obligation d’information et de transparence.
  • Systèmes d’IA à haut risque pouvant porter atteinte à la sécurité des personnes ou à leurs droits fondamentaux. C’est le cas de l’IA intégrée dans le fonctionnement de produits (voitures, dispositifs médicaux etc.) ainsi que des systèmes d’IA utilisés dans huit domaines précis (énumérés dans l’annexe III du texte), comme par exemple l’éducation et la formation professionnelle, la sélection des candidats à un recrutement etc. > obligation d’évaluation de conformité et surveillance après mise sur le marché.
  • Systèmes d’IA à risque inacceptable qui servent à des fins contraires aux valeurs de l’UE et aux droits fondamentaux, ex. notation sociale, évaluation ou prédiction de probabilité pour une personne de commettre une infraction pénale etc. > interdiction.

Le chapitre V du règlement est consacré aux « modèles d’IA à usage général » qui se caractérisent par leur capacité d’exécuter un large éventail de tâches distinctes, notamment dans le domaine de l’IA générative (ex. grands modèles de langage comme ceux proposés par Mistral AI ou OpenAI). Pour ces modèles d’IA, le Règlement prévoit plusieurs niveaux d’exigences : transparence, documentation, évaluation et atténuation des risques systémiques entraînés.  

En matière de gouvernance, c'est le Bureau de l’IA, créé en février 2024 au sein de la Commission européenne, qui veille à l’application et à la mise en œuvre du Règlement, avec les États membres qui doivent chacun désigner une autorité réglementaire indépendante. Les autorités nationales et la Commission européenne auront également un pouvoir de sanctions sous forme d’amendes en cas de non-respect des dispositions du RIA.

Le texte du Règlement est consultable ICI

Site europa, FAQ à propos du RIA

Si vous avez des questions, contactez-nous!

.1
.2