L’Intelligence Artificielle est un sujet particulièrement sensible : face à la forte augmentation de ces technologies qui posent de nombreuses questions, un encadrement à l’échelle européenne est devenu nécessaire. C’est pourquoi la Commission européenne a présenté le 21 avril dernier ses propositions de règles et actions visant à faire de l’Europe un pôle mondial pour l’Intelligence Artificielle de confiance.

La Commission européenne a principalement axé ses travaux sur trois axes :

  1. Droits et libertés fondamentales : centrer la réflexion sur l’humain

Si les risques d’atteintes aux droits et libertés fondamentaux et à la sécurité des européens sont relativement faibles pour la plupart des systèmes d’Intelligence Artificielle, il en va différemment pour d’autres. Par exemple, l’opacité de certains algorithmes peut créer du doute et entraver l’application effective de la législation sur la protection des droits fondamentaux et la sécurité. De même, l’entrainement d’un algorithme sur des données biaisées volontairement ou par négligence peut entrainer des situations discriminatoires lourdes de conséquences.

L’utilisation de ces systèmes peut devenir encore plus risquée lorsqu’il s’agit de les utiliser dans des domaines sensibles comme le maintien de l’ordre public : on pense aux systèmes de reconnaissance biométrique (reconnaissance faciale) dans les lieux publics ou au crédit social chinois.

Pour aller plus loin :  lire notre article sur les aspects juridiques de la reconnaissance faciale.

  1. Préserver la compétitivité de l’Europe

Trois ans après l’entrée en application du Règlement Général sur la Protection des Données (RGPD), l’Union Européenne souhaite à nouveau porter une voix différente sur la scène internationale concernant l’utilisation de l’Intelligence Artificielle. Mais cette volonté de protéger ses citoyens européens ne se fait pas sans garder à l’esprit la nécessité pour l’Europe de faire rayonner son expertise technique et de se démarquer face aux concurrents de taille qui l’entourent. Thierry Breton, commissaire chargé du marché intérieur, le rappelle dans un communiqué de la Commission européenne : « Les propositions présentées aujourd’hui visent à conforter la position de l’Europe en tant que pôle mondial d’excellence dans le domaine de l’IA, du laboratoire au marché, à faire en sorte que, en Europe, l’IA respecte nos valeurs et nos règles et à exploiter son potentiel à des fins industrielles » .

  1. Rendre l’IA digne de confiance

Cette proposition d’un cadre juridique sur l’IA présenté par la Commission européenne fin avril suit une volonté affirmée depuis plusieurs années par les instances européennes de protéger les citoyens européens en centrant le développement des systèmes d’IA sur l’humain et de la rendre digne de confiance.

Il y a 3 ans, la Commission présentait déjà sa stratégie européenne en matière d’intelligence artificielle. Le mois suivant entrait en application le Règlement Général sur la Protection des Données (RGPD), intrinsèquement lié à la mise en place d’une réglementation sur l’IA.

En juin 2018, le groupe d’experts de haut niveau sur l’Intelligence Artificielle est réuni par la Commission européenne pour poser les bases d’une réglementation sur l’IA de confiance. Il en ressortira :

  • 7 exigences:
    • Le contrôle humain sur les systèmes d’IA ;
    • La robustesse technique et la sécurité ;
    • Le respect de la vie privée et la gouvernance des données ;
    • La transparence ;
    • La diversité, la non-discrimination et l’équité ;
    • Le bien-être social et environnemental ;
    • La responsabilisation.
  • Une grille d’évaluation pour une IA de confiance.

 

Frise des dates clefs de la Commission européenne en matière d'intelligence artificielle

En février 2020, la Commission européenne a publié son livre blanc sur l’IA accompagné d’un Rapport sur les conséquences de l’Intelligence Artificielle, de l’Internet des objets et de la robotique sur la sécurité et la responsabilité qui met en exergue les vides juridiques existants dans ce domaine.

En octobre 2020, le Parlement européen a adopté, à une grande majorité, les résolutions en matière d’intelligence artificielle, de robotique et de technologies connexes en matière d’éthique, de responsabilité civile et de propriété intellectuelle.

C’est dans ce contexte que la Commission européenne a publié le 21 avril 2021 son projet de réglementation et d’actions « en faveur de l’excellence et de la confiance dans l’intelligence artificielle » prévoyant notamment une échelle de risques des systèmes d’IA et le respect d’obligations strictes pour les fournisseurs de systèmes d’IA à haut risque.

La Commission propose également un nouveau règlement sur les machines et les équipements pour garantir une intégration sûre des systèmes d’IA dans les machines, ainsi qu’une mise à jour du plan de coordination sur l’IA.

Découvrons à présent le détail de ces différents textes.

 

Une échelle de risque : le meilleur moyen de distinguer les systèmes d’Intelligence Artificielle ?

 

Issue des travaux du groupe d’experts de la Commission, une grille permettra de distinguer le niveau de risque que constitue la production d’un système d’IA. Plutôt que d’appliquer une réglementation à une technologie en constante et rapide évolution, c’est le domaine dans lequel elle opère et son impact humain qui déterminent principalement les règles qui en découleront.

Ainsi cette échelle comporte 4 niveaux de risques (Art. 5) :

  • Risque inacceptable :Les systèmes d’IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits. C’est le cas par exemple des systèmes permettant la notation sociale par les États.
  • Risque élevé :La liste des domaines dans lesquels sont utilisés les systèmes d’IA comprend notamment les systèmes utilisés dans les infrastructures critiques (transports, hôpitaux…), l’emploi (tri automatique des CVs pour les procédures de recrutement…), les services privés et publics essentiels (scoring automatique pour l’obtention d’un prêt…), le maintien de l’ordre (les systèmes d’identification biométrique (faciale ou autre) à distance…) ou encore l’administration de la justice et des processus démocratiques.
  • Risque limité : Certains systèmes d’IA se voient appliquer des obligations spécifiques en matière de transparence. Par exemple, l’utilisateur d’un chatbot doit savoir s’il interagit avec une personne ou un robot.
  • Risque minime : Les systèmes d’IA les plus nombreux, comme ceux utilisés pour détecter des mails frauduleux ou pour les jeux vidéo, seront utilisés librement.  Aucune restriction particulière n’est prévue.

 

Utilisation des systèmes d'IA et niveaux de risques

Cette approche par le risque laisse Jean-Gabriel Ganascia, président du comité d’éthique du CNRS, perplexe. Dans une interview à France 24, il explique qu’il serait « difficile de quantifier a priori le risque que représente quelque chose d’aussi nouveau et en perpétuelle évolution que l’IA ». Présenter l’IA sous le prisme du risque présenterait également un caractère anxiogène pour les citoyens et « freine l’adoption de cette technologie », ce que voudrait pourtant éviter la Commission européenne qui souhaite favoriser son développement.

 

Des obligations strictes pour les fournisseurs de systèmes d’Intelligence Artificielle à haut risque

 

Des obligations strictes :

Les systèmes d’IA rentrant dans les catégories dites à « haut risque » se verront appliquer certaines obligations pour être mis sur le marché :

  • Des systèmes adéquats d’évaluation et d’atténuation des risques ;
  • Une qualité élevée des ensembles de données alimentant le système afin de réduire autant que possible les risques et éviter certains biais pouvant créer des situations discriminatoires ;
  • L’enregistrement des activités afin de garantir la traçabilité des résultats ;
  • Une documentation détaillée concernant le fonctionnement et la finalité du système pour permettre aux autorités d’évaluer sa conformité ;
  • Des informations claires et adéquates à l’intention de l’utilisateur ;
  • Un contrôle humain approprié pour réduire au minimum les risques ;
  • Un niveau élevé de robustesse, de sécurité et d’exactitude.

 

Procédure et instances de régulation :

Pour ces systèmes d’IA à haut risque, les autorités nationales compétentes de surveillance du marché seraient chargées de vérifier leur conformité avant mise sur le marché mais aussi de leur surveillance a posteriori. Après leur commercialisation, les utilisateurs et les fournisseurs pourront également signaler des évolutions ou dysfonctionnements graves.

 

 

Instances de régulation des systèmes d'IA à haut risque

Source : ec.europa.eu

 

La Commission propose également la création d’un comité européen de l’intelligence artificielle pour faciliter la mise en œuvre de ces mesures et favoriser l’application d’un code d’éthique qui devrait être suivi par tous les systèmes d’IA même à faible risque. Autre proposition intéressante qui permettra de la transparence et de la visibilité : la tenue d’un registre répertoriant ces systèmes existant au niveau UE.

Les entreprises et institutions contrevenant à ces obligations pourraient encourir une amende pouvant aller jusqu’à 20 millions d’euros ou 4% du chiffre d’affaires annuel mondial.

 

Un nouveau règlement sur les machines et équipements

Par suite des lacunes constatées sur la Directive « Machines » de 2006, la Commission propose un nouveau règlement sur les machines et les équipements. Cette mise à jour est un complément indispensable à la règlementation sur les systèmes d’IA pour garantir une intégration sûre des systèmes d’IA dans les machines.

Le champ d’application de ce règlement est large : il couvre aussi bien les engins de chantiers que les robots ou les imprimantes 3D, et s’adresse aux professionnels ainsi qu’aux particuliers.

Il comble certains vides juridiques ou imprécisions de la Directive « Machines » et simplifie la charge administrative et financière des entreprises pour les évaluations de conformité.

Pour prendre connaissance du texte complet : Proposal for a Regulation of the European Parliament and of the Council on machinery products (europa.eu).

 

Une mise à jour du plan de coordination : la compétitivité malgré tout

 

Depuis 2018, un plan coordonné européen unifie la stratégie d’investissement des Etats membres pour le développement et l’utilisation de l’IA. Ce plan a également pour objectif de mutualiser les efforts dans le domaine entre l’industrie et la recherche.

Pour accompagner les nouvelles mesures qui devront être mises en œuvre pour une IA de confiance, la Commission redéfinit les objectifs de ce plan et les investissements nécessaires tout en l’accordant avec les objectifs du pacte vert pour l’Europe et en prenant en compte l’impact de la pandémie.

L’accent est mis sur la communication et la mutualisation des informations, des compétences et capacités technologies entre les Etats membres mais également sur :

  • le renforcement du lien public-privé, entre la recherche et les entreprises ;
  • le renforcement des actions pour mettre l’IA au service du citoyen;
  • « promouvoir la vision européenne d’une IA durable et digne de confiance à l’échelle mondiale ».

L’objectif est de mettre en place les conditions qui permettront de faire de l’Europe un terreau fertile pour l’innovation et un leader dans les secteurs et technologies à fort impact comme l’environnement ou la santé.

Pour aller plus loin : Coordinated Plan on Artificial Intelligence 2021 Review | Shaping Europe’s digital future (europa.eu)

 

Quelle suite pour ces propositions ?

 

Ces propositions de la Commission européenne seront examinées par le Parlement européen et le Conseil de l’UE selon la procédure législative ordinaire. En cas d’adoption par les deux institutions, ces dispositions seront directement applicables dans l’ensemble de l’Union Européenne. Les Etats membres devront également mettre en place les actions prévues dans le plan coordonné en collaboration avec la Commission européenne.

Ce travail aura le mérite de poser les premières briques d’un cadre juridique de l’utilisation de l’IA et d’unifier la législation des Etats membres afin d’éviter des divergences trop marquées au sein de l’UE. Comme elle l’a fait pour la protection des données avec le RGPD, on peut espérer que la volonté de l’UE de créer cette vision structurée et unique sur l’utilisation de l’IA la rendra audible et même enviable sur la scène internationale.

 

Libre blanc - 7 clés pour réussir ses projets data