Actualités

Le Monde I Intelligence artificielle : le règlement européen menacé par le blocage des négociations

Au nom de ses start-up nationales, la France, soutenue par l’Allemagne et l’Italie, s’oppose à la réglementation des grands modèles d’IA si leur usage n’est pas « risqué ». Elle est accusée de faire le jeu du lobbying de la tech. 

Un vent de panique souffle sur l’AI Act. Les négociations autour du projet de règlement européen sur l’intelligence artificielle (IA) sont très tendues depuis que les députés européens ont claqué la porte d’une réunion de négociation avec les représentants des Etats-membres, vendredi 10 novembre, a rapporté l’agence Euractiv. 

La raison de leur courroux ? Les élus venaient d’apprendre que la France et l’Allemagne, soutenues par l’Italie, s’opposaient à une piste de compromis sur les « modèles de fondation » : les trois pays ne souhaitaient désormais plus réguler ces systèmes d’intelligence artificielle qui permettent de créer du texte ou des images, et qui peuvent être utilisés par les entreprises dans des applications comme les robots conversationnels ChatGPT ou Bard. 

Les désaccords sont fréquents dans les « trilogues » – la négociation d’un texte final entre le Parlement européen et le Conseil des Etats membres, sous la houlette de la Commission. Mais ce blocage pourrait remettre en question l’accord sur le texte, soumis à une urgence de calendrier. Et l’attitude de la France suscite des critiques. 

Selon nos informations, pour tenter de trouver une sortie de crise, Paris va, par le biais du ministre délégué chargé du numérique, Jean-Noël Barrot, proposer d’appliquer aux modèles de fondation un socle d’obligations minimales de transparence, comme la publication d’un résumé des caractéristiques du logiciel ainsi que de son fonctionnement et de la façon dont il a été entraîné. Ces règles pourraient être rassemblées dans un code de conduite adopté par les entreprises. Cette piste devait être soumise aux autres Etats membres lors des prochaines réunions du Conseil, vendredi 17 et mardi 21 novembre. 

« L’UE risque de gâcher une chance historique » 

Avec cette offensive, la France, l’Allemagne et l’Italie s’opposent aux obligations prévues au printemps par le Parlement. Ce dernier plaidait pour des évaluations régulières et des mesures d’atténuation des risques posés par ces modèles pour la sécurité et les droits fondamentaux de l’Union européenne (UE), ce qui inclurait la lutte contre les erreurs, les contenus illégaux, les biais discriminatoires… Ces pays jugent ces procédures trop lourdes et trop coûteuses pour les start-up européennes. Ils rejettent aussi le compromis avancé début novembre, et qui prévoyait de n’appliquer ces obligations qu’aux modèles les plus puissants. 

Pour parer aux critiques, Paris clame ne pas être opposé à la régulation de l’IA et estime que l’AI Act serait déjà le texte le plus contraignant du monde. La France argue que les modèles de fondation seront soumis à des obligations fortes s’ils sont utilisés par des entreprises pour des usages « à haut risque », qui constituent le socle initial de l’AI Act : conduite autonome, notation d’examens, tri de CV, diagnostic de santé, obtention de crédit, usage dans la justice… 

Ces arguments pourraient ne pas suffire à apaiser les tensions. « En ne régulant pas ces modèles, l’UE risque de gâcher une chance historique », a mis en garde le chercheur en IA Yoshua Bengio, dans une tribune au média allemand Tagesspiegel, mercredi 15 novembre. « Cette tentative de dernière minute d’exempter les modèles qui constituent le futur de l’IA ferait du règlement européen la risée du monde », a tweeté Max Tegmark, fondateur du Future of Life Institute, l’ONG à l’initiative de la pétition lancée en mars pour une « pause » des recherches en IA. La France et l’Allemagne vont dans le sens du « lobbying des géants du numérique américains et des start-up européennes, comme le français Mistral ou l’allemand Aleph, au détriment des entreprises et PME européennes qui utiliseront leurs modèles », accuse Mark Brakel, responsable des affaires publiques du Future of Life Institute. 

En effet, le président de la République, Emmanuel Macron, a, dès juin, dit « partager les inquiétudes » de voir l’AI Act menacer l’innovation, formulées par le PDG de Mistral, Arthur Mensch, et son conseiller Cédric O (ancien conseiller et secrétaire d’Etat du président sur le numérique). Le chef de l’Etat a érigé en priorité de souveraineté la création de « champions » français de l’IA, comme Mistral, LightOn ou HuggingFace. Des obligations seraient coûteuses et menaceraient l’écosystème open source de publication gratuite et ouverte de modèles, ce qui laisserait le marché aux géants américains comme OpenAI, Google ou Amazon, martèle M. Mensch. Ce discours est relayé par le spécialiste français de l’IA Yann Le Cun, désormais directeur de recherche chez l’américain Meta (Instagram, Facebook). 

Un compromis pourra-t-il être trouvé ? Si elle « comprend » les deux camps, l’eurodéputée Stéphanie Yon-Courtin (Renew) se demande si faire appel à un code de conduite et à la responsabilité des entreprises « sera suffisant ». De plus, d’autres enjeux compliquent l’équation : ainsi, vendredi 17, 70 organisations des industries créatives écrivent que « la position de la France [les] oblige à réagir » : elles souhaitent que ne soient pas supprimées les obligations qui prévoyaient d’obliger les fabricants de modèles à assurer la « transparence sur les contenus [livres, films, photos, musique…] utilisés pour leur entraînement » et soumis au droit d’auteur. 

 Autre pomme de discorde des négociations sur l’AI Act : les exemptions à accorder aux forces de l’ordre pour l’usage de la biométrie en temps réel… Or, le temps presse : un accord était espéré pour le 6 décembre. Au-delà, il ne restera que deux ou trois mois avant la campagne des européennes de juin.

 L'article original ici.