En Intelligence Artificielle, l’Union Européenne est la 1ère… à réglementer.

Qu’y a-t-il dans l’accord intervenu le 8 décembre entre le Conseil et le Parlement sur le contenu du Règlement sur l’Intelligence Artificielle ? Tout n’est pas encore connu et il faudra attendre une version consolidée du texte. Voici ce que nous savons déjà.

Les systèmes d’IA sont régulés selon leur niveau de risque :

●Risque limité ➡️ Simples obligations de transparence et d’information à la charge du fournisseur

●Risque élevé : IA utilisée dans les 8️⃣ domaines suivants : Systèmes biométriques et fondés sur la biométrie / Management et opération d’infrastructures critiques / Education et formation professionnelle / Recrutement et gestion des ressources humaines / Accès aux services publics ou services essentiels / Police / Immigration, gestion du droit d’asile, contrôle des frontières / Justice ➡️ Obligations techniques particulières à respecter pour le fournisseur.

●Risque inacceptable : IA destinée à manipuler les comportements humains / exploiter les vulnérabilités des personnes / permettre la notation sociale par les autorités publiques ➡️ Interdiction totale sauf exceptions.

L’accord intervenu entre le Conseil et le Parlement doit permettre de clarifier :

– les responsabilités respectives des fournisseurs et utilisateurs des systèmes d’IA ;
– les règles applicables aux système d’IA à usage général. Un organe ad hoc auprès de la Commission européenne sera chargé de les surveiller ;
– les règles applicables aux modèles de fondation.

Des inquiétudes demeurent en matières de libertés publiques s’agissant de l’utilisation de l’IA par les autorités de police, notamment pour la reconnaissance faciale en directe dans l’espace public.

Des sanctions pouvant aller jusqu’à 35 millions d’euros ou 7% du CA mondial pourront être prononcées en cas de non respect du règlement.

Après sa publication au JOUE, le règlement devrait entrer en vigueur fin 2025.

Le communiqué de presse