views 12 mins 0 comments

IA et droit d’auteur : la Commission européenne sommée d’agir

IA et droit d’auteur : la Commission européenne sommée d’agir

LA LETTRE DE BRUXELLES. Livres et articles de presse aspirés, droits bafoués, lobbying intense : l’Europe tente de reprendre la main sur l’intelligence artificielle. Le Parlement a tiré la sonnette d’alarme.

La Commission européenne pourrait rouvrir le dossier du droit d’auteur face à l’intelligence artificielle générative. C’est en tout cas le signal qu’a cru percevoir Laurence Farreng, eurodéputée Renew et rapporteure pour avis sur le texte : des discussions sont en cours avec la DG Connect, qui envisagerait de reprendre la directive Copyright de 2019.

En attendant, le Parlement européen a fait sa part : le 10 mars, il a adopté à une large majorité un rapport d’initiative demandant à la Commission de légiférer sans tarder : 460 voix pour, 71 contre, 88 abstentions. Le résultat est net. La coalition pro-résolution réunit le PPE presque au complet, Renew en bloc, les sociaux-démocrates (S & D), l’extrême gauche (The Left) et les Verts. Mais à y regarder de plus près, les lignes de fracture sont instructives.

Les souverainistes de l’ECR sont coupés en deux. Les délégations italiennes (les Fratelli d’Italia de Meloni), les Tchèques et les Baltes votent pour. La délégation polonaise (le PiS) vote contre, avec quelques alliés. Le groupe Patriotes de Jordan Bardella opte massivement pour l’abstention, posture de retrait plus que d’opposition frontale. Les Allemands du FDP au sein de Renew (Hahn, Körner, Oetjen, Strack-Zimmermann) votent contre, cohérents avec leur ligne libérale pro-industrie numérique. Quelques voix socialistes et vertes s’abstiennent également, probablement insatisfaites de certains équilibres du texte.

Les solutions proposées par le rapport Voss

Sur le fond, le rapport porté par l’eurodéputé PPE Axel Voss – rapporteur éminent de la directive Copyright de 2018, déjà – articule sa réponse autour de deux piliers. Le premier est la traçabilité numérique du droit d’auteur : les titulaires de droits pourraient signaler leurs œuvres dans des formats standardisés, gérés par l’Euipo (Office de l’UE pour la propriété intellectuelle), qui jouerait le rôle de tiers de confiance. Les développeurs d’IA auraient l’obligation de respecter ces signaux d’exclusion.

Parallèlement, le rapport recommande le filigrane numérique (watermarking) et le marquage cryptographique comme outils techniques complémentaires de traçabilité. L’objectif : que chaque modèle sache immédiatement ce qu’il peut crawler (moissonner) librement et ce qui nécessite une licence – sans que la conformité devienne un obstacle à l’innovation.

Le second pilier est la mise en œuvre effective des droits et la transparence. Concrètement, toute entreprise d’IA proposant ses services en Europe devrait tenir un registre précis de chaque œuvre utilisée – livres, articles, chansons, images. Non seulement pour construire le modèle, mais aussi lorsqu’il fonctionne au quotidien : quand il répond à une question, quand il résume un article en temps réel, quand il génère un texte à partir de sources fraîches.

L’idée est simple et révolutionnaire : ce n’est plus à l’auteur de prouver qu’on lui a volé son œuvre, c’est au développeur d’IA de prouver qu’il ne l’a pas utilisée. Ce que les juristes appellent une « présomption réfragable ». Les frais de procédure seraient alors à la charge du fournisseur d’IA.

Pour la presse spécifiquement, l’utilisation de contenus à des fins de RAG – l’alimentation en temps réel des systèmes concurrents – nécessiterait un consentement exprès des éditeurs. Et la gestion collective des droits est présentée comme le levier d’équilibrage du rapport de force face aux grandes plateformes.

Le lobbying de l’AI Act, un précédent qui pèse

Ce n’est pas la première fois que l’Europe tente de poser des règles dans ce domaine. Lors de la négociation de l’AI Act – adopté en 2024 –, le Parlement avait déjà tenté d’imposer des obligations de transparence sur les données d’entraînement. Les acteurs du numérique avaient alors déployé un lobbying massif pour « vider de leur sens » ces obligations, comme le reconnaît Laurence Farreng.

Résultat : l’article 53 du règlement impose bien aux fournisseurs de modèles à usage général de publier un résumé « suffisamment détaillé » des contenus utilisés – mais sans que personne ne sache ce que cette expression vague signifie concrètement. Le modèle de résumé publié par la Commission européenne en juillet 2025 a confirmé l’ambiguïté : les fournisseurs n’ont pas à divulguer les œuvres précises utilisées, et les données sous licence commerciale n’ont même pas à être mentionnées.

En fait, la Commission a suivi l’une des recommandations du rapport Draghi : puisque l’Europe est en retard sur l’IA, inutile d’ajouter de nouvelles contraintes dont les IA hors UE se passent totalement. En outre, la Commission s’est réfugiée derrière le secret des affaires pour ne pas imposer une transparence totale. Le secteur créatif a le sentiment d’avoir été floué – et il n’a pas tout à fait tort.

Munich et San Francisco : deux justices, deux logiques

Pendant que Bruxelles songe à légiférer, les tribunaux tranchent – et en sens opposés. Le 24 juin 2025, le juge fédéral américain William Alsup a rendu une décision favorable à Anthropic dans l’affaire « Bartz c. Anthropic ». Trois auteurs accusaient la société d’avoir utilisé leurs livres sans autorisation pour entraîner Claude. Le juge a estimé que ce processus relevait du fair use – usage transformatif –, au motif que les LLM « se forment sur des œuvres non pas pour les imiter ou les supplanter, mais pour créer quelque chose de différent ».

Une nuance cependant : l’usage de copies piratées, lui, reste illégal, et Anthropic pourrait devoir verser jusqu’à 150 000 dollars par œuvre concernée à ce titre.

À Munich, la logique est inverse. Le 11 novembre 2025, le tribunal régional a condamné OpenAI dans l’affaire « Gema c. OpenAI » : ChatGPT restituant des paroles de chansons presque mot pour mot, les juges en ont conclu que le modèle les avait nécessairement mémorisées, et donc copiées illégalement. « L’accusée est extrêmement intelligente et capable de développer des technologies de pointe, a relevé la juge Elke Schwager. Il est donc étonnant qu’elle ne comprenne pas que si l’on veut construire quelque chose et que l’on a besoin de composants, on se les procure et on n’utilise pas la propriété d’autrui. »

OpenAI a annoncé faire appel, et l’affaire pourrait remonter jusqu’à la Cour de justice de l’Union européenne. Ce qui prendra des années…

Stanford met les preuves sur la table

C’est précisément sur la mémorisation qu’une étude publiée en janvier 2026 par des chercheurs de Stanford apporte une démonstration technique embarrassante. En soumettant aux quatre modèles de production les plus puissants du marché (Claude 3.7 Sonnet, GPT-4.1, Gemini 2.5 Pro, Grok 3) une procédure en deux phases (amorcer le modèle avec le début d’un livre, puis lui demander de « continuer verbatim »), les chercheurs ont réussi à extraire des livres entiers.

Claude 3.7 Sonnet a reproduit Harry Potter à l’école des sorciers à 95,8 % et 1984 à 95,5 % – après contournement de ses garde-fous par une technique de jailbreak (forçage). Gemini 2.5 Pro et Grok 3 ont fait encore moins bien sur le plan de la résistance : ils ont restitué respectivement 76,8 % et 70,3 % du même Harry Potter sans qu’aucun jailbreak ne soit nécessaire – une simple demande polie a suffi.

Les chercheurs prennent soin de ne pas jouer aux juristes. Mais leur conclusion technique est sans appel : ces modèles ont bien mémorisé ces œuvres entières, et cette mémorisation peut être extraite.

Dans les affaires américaines, les juges avaient jusqu’ici noté que les plaignants n’apportaient pas de preuve suffisante que les modèles pouvaient reproduire substantiellement leurs œuvres. Cette étude vient combler ce vide. Elle tombe à point nommé pour les partisans d’un rééquilibrage européen – et donne une base empirique solide aux ambitions du rapport Voss.

Venez assister au premier événement Défense du « Point » : Le Point vous donne rendez-vous le 1er avril 2026 à l’Institut de France (Paris) pour la 1re édition du Forum Guerres & Paix. Une journée d’analyse, d’échanges et de débats consacrée aux enjeux de défense, de géopolitique et de souveraineté. Inscrivez-vous gratuitement ici.