4 views 7 mins 0 comments

l’UE interdit les IA à risque inacceptable

- Tunisie
février 05, 2025

 

Surveillance de masse, reconnaissance des émotions, notation sociale… La Commission européenne a précisé, mardi 4 février 2025, quels systèmes d’intelligence artificielle (IA), jugés trop dangereux, étaient désormais interdits au sein de l’UE dans le cadre de sa législation pionnière adoptée l’an dernier.

Le volet « interdictions » du règlement européen sur l’IA, inédit au niveau mondial, est le premier à être entré en vigueur dimanche. Mais ces interdictions ne seront pas appliquées avant le 2 août, date limite pour la désignation par les Etats membres de leur autorité de régulation nationale, chargée de surveiller ces systèmes de haute technologie.

Le règlement entend limiter les dérives tout en favorisant l’innovation en Europe. L’objectif des lignes directrices publiées mardi est de donner de la « sécurité juridique aux fournisseurs » d’applications et aux régulateurs, souligne un haut fonctionnaire de l’exécutif européen.

La législation de l’UE classifie les systèmes selon leur niveau de risque.

Les applications jugées sûres ne se voient pas imposer de règles particulières. Celles à haut risque, utilisées par exemple dans les infrastructures critiques, l’éducation, les ressources humaines ou le maintien de l’ordre, seront soumises, d’ici à 2027, à des exigences renforcées avant d’être autorisées en Europe.

Les précisions publiées mardi ne concernent que les outils jugés suffisamment dangereux pour justifier leur interdiction. Ces lignes directrices « ne sont pas juridiquement contraignantes », a précisé le fonctionnaire européen. Seule la Cour de justice de l’Union européenne (CJUE) aura autorité pour imposer une interprétation contraignante du texte.

En cas d’infraction, ceux qui fournissent ou mettent en place des IA interdites pourront se voir imposer jusqu’à 35 millions d’euros d’amendes, ou dans le cas d’entreprises, jusqu’à 7% de leur chiffre d’affaires mondial, en prenant le montant le plus élevé.

Huit cas d’interdictions ont été identifiés par la Commission.

1. Identification en temps réel de personnes à l’aide de caméras dans des lieux publics

L’UE interdit l’utilisation de caméras équipées de technologies de reconnaissance faciale en temps réel dans une rue commerçante pour identifier des individus recherchés. La notion de « temps réel » est ici cruciale. L’UE veut éviter une intervention immédiate contre un individu, sans vérification préalable avec d’autres informations issues du monde réel. Des exemptions sont toutefois prévues pour certaines missions des forces de l’ordre comme la lutte contre le terrorisme.

2. Notation sociale à partir de données personnelles sans lien avec le risque évalué

Un organisme ne peut pas avoir recours à une application d’IA pour classer les personnes en fonction de leur probabilité de commettre une fraude aux aides sociales, en utilisant des données personnelles n’ayant rien à voir avec le contexte comme l’origine, la couleur de peau ou bien le comportement sur les réseaux sociaux. Ainsi, pour évaluer le risque de défaut sur un crédit, seules des données financières pourraient être prises en compte.

3. Evaluation du risque criminel d’un individu sur la base de données biométriques

La police ne peut utiliser une IA pour prédire le risque de comportement criminel d’un individu, comme la probabilité de participer à des émeutes ou de commettre un attentat, en se basant uniquement sur des caractéristiques personnelles, comme des traits du visage, sans prise en compte de faits objectifs et vérifiables directement liés à ses actes.

4. Créer des bases de données de visages pour des systèmes de reconnaissance faciale en récupérant des images sur internet

Sont interdits les outils pour ratisser l’internet et extraire des photos de visages de façon indifférenciée afin de constituer des bases de données à grande échelle de plusieurs milliards d’images. Cela s’apparenterait à de la surveillance d’Etat.

5. Reconnaissance des émotions sur le lieu de travail ou dans les institutions éducatives

Une organisation ne peut utiliser des webcams ou des systèmes de reconnaissance vocale pour détecter les émotions de ses employés.

6. Manipuler le comportement des individus à l’aide de l’IA

Il est interdit d’intégrer dans le design d’une interface des systèmes d’IA trompeurs ou subliminaux pour pousser les utilisateurs à réaliser un achat.

7. Exploiter les vulnérabilités liées à l’âge ou au handicap

Un jouet, intégrant de l’IA et conçu pour interagir avec des enfants, est interdit s’il est conçu pour conserver leur attention et les encourager à des défis risqués qui pourraient les blesser.

8. Déduire les opinions politiques ou l’orientation sexuelle en fonction de données biométriques

Un système qui prétendrait deviner les opinions politiques ou l’orientation sexuelle de personnes à partir de l’analyse de leur visage ne serait pas autorisé dans l’UE.

 

© Agence France-Presse