Actualités

Le Nouvel Obs I Élections européennes : Pourquoi vous ne subirez pas une notation sociale à la chinoise - 16.05.2024

L'Union européenne vient d'adopter un texte, qui doit entrer en vigueur en 2026, régulant notamment l'utilisation de l'intelligence artificielle dans la surveillance des citoyens, afin de prévenir toute tentation de système à la chinoise dans lequel chaque citoyen dépend de sa « note de crédit social ». Une première dans le monde. 

Le sujet était parmi les premiers sur la table lors de la visite du président chinois Xi Jinping à Paris, le 6 mai : la France et la Chine, écrivait l'Elysée, « reconnaissent pleinement l'impact profond du développement rapide de la technologie de l'IA, ainsi que les risques potentiels et réels liés à cette technologie, et s'engagent à prendre des mesures efficaces pour y faire face. » « Intelligence artificielle » est devenue au fil des ans, comme « transition écologique », un concept passe-partout bien pratique pour les responsables politiques qui veulent donner l'impression qu'ils anticipent les grands défisdu siècle. Mais en réalité, au-delà des déclarations d'intention convenues, l'Europe tente ces dernières années de prendre une direction inverse de celle de la Chine. 

Le régime de Pékin a fait de l'intelligence artificielle et de l'exploitation des données personnelles les instruments d'un contrôle social et de surveillance de masse sans comparaison historique. Depuis la fin des années 2010, les citoyens chinois contrevenant à certaines règles subissent une dégradation de leur « note de crédit social » qui se matérialise par des sanctions aussi diverses et handicapantes que l'interdiction d'acheter un bien immobilier, des billets d'avion ou de train, d'accéder à certains lieux publics ou de scolariser leurs enfants dans des écoles privées. 

Face à ce contre-exemple dystopique, l'Union européenne est en passe de devenir la première zone du monde à se protéger de ces dérives. Le 13 mars, les députés européens ont adopté un règlement destiné à réguler l'intelligence artificielle, l'« AI Act » validant ainsi l'accord trouvé en décembre 2023 avec les Etats membres. Les 27, soucieux de protéger leurs fleurons (Mistral AI en France, Aleph Alpha en Allemagne) dans la compétition mondiale, ont tenté de tordre le texte vers moins de régulation, mais la Commission est restée ferme. L'Europe a finalement privilégié une approche « par les risques », pour tracer des lignes rouges sans pour autant brider l'innovation. 

Perplexity, la start-up d'IA qui fait peur à Google [Le texte, qui devrait entrer en vigueur en 2026, « interdit purement et simplement les systèmes d'Intelligence artificielle basés sur la surveillance généralisée, sur la notation sociale des citoyens, qui sont contraires à nos libertés fondamentales, résume Stéphanie Yon-Courtin, eurodéputée française (Renew) spécialiste des questions numériques. A ce stade, la majorité des systèmes d'IA présentent des risques minimaux voire nuls. C'est pour cette raison que le texte est évolutif et est fait pour s'adapter à l'avancée technologique de l'IA qui n'en est qu'à ses balbutiements. » 

Des « risques inacceptables » 

Quelles sont les lignes rouges ? Celles listées dans la catégorie dite « des risques inacceptables ». On y trouve par exemple les pratiques qui exploiteraient la vulnérabilité des enfants ou des personnes en situation de handicap, « comme un jouet qui inciterait un bébé à avoir un comportement susceptible de le blesser », illustre la Commission. Les pratiques de notation sociale de toutes sortes sont également ciblées. Est enfin citée l'utilisation de systèmes d'identification biométrique à distance en temps réel, tels que des caméras à reconnaissance faciale qui seraient directement connectées à des bases de données. A noter que cette dernière interdiction prévoit tout de même plusieurs exceptions, comme la recherche d'un enfant disparu ou la localisation d'un suspect dans des affaires de terrorisme, de trafic d'êtres humains ou de pédopornographie. 

Les « risques élevés », la catégorie inférieure, ne feront pas l'objet d'une interdiction automatique mais de contraintes fortes. Cela concerne notamment « les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (opinions politiques, religieuses, philosophiques, orientation sexuelle, race...) ». Egalement considérés comme sensibles, les systèmes d'IA appliqués à la gestion des infrastructures critiques (eau, électricité...), des établissements d'enseignement, des ressources humaines ou à l'accès aux services essentiels (crédits bancaires, services publics, prestations sociales, justice...). L'Union européenne sera enfin vigilante quant à l'utilisation de l'intelligence artificielle pour les missions de police, la gestion des migrations et des contrôles aux frontières. 

Une transparence totale sera exigée à l'égard des IA génératives telles que ChatGPT ou Dall-E : le citoyen devra être clairement informé qu'il communique avec une machine, et les contenus générés par intelligence artificielle devront être étiquetés comme tels. Le texte prévoit par ailleurs la création d'une entité chargée de vérifier la bonne application de l'AI Act et des sanctions financières s'élevant jusqu'à 7 % du chiffre d'affaires annuel mondial des entreprises. 

Dix choses à savoir sur Victoria Shi, première diplomate ukrainienne virtuelle 

Objectif de la Commission : que la régulation européenne « fasse jurisprudence » - en d'autres termes, que les autres régions du monde s'en inspirent. Car les pratiques controversées de l'intelligence artificielle se multiplient, souvent sans frontières : reconnaissance faciale ou biométrique des citoyens, développement des contenus « deepfake » à visée de désinformation, traitement à grande échelle des données personnelles dans un but commercial ou politique. « Il est temps d'agir : après l'heure, c'est plus l'heure », insiste Stéphanie Yon-Courtin. 

Union européenne contre Gafam, la guerre des données Une des priorités des autorités européennes est de créer un marché unique des données - le nerf de la guerre. C'est en effet en se nourrissant de données - images, sons, comportements... - qu'un programme informatique peut apprendre à discerner des schémas récurrents et dresser des modèles statistiques prédictifs. Une ressource cruciale qui explique pourquoi les données personnelles, et notamment l'activité en ligne des internautes, sont devenues la marchandise la plus précieuse du monde. 

Temps d'écrans, réseaux sociaux, IA... Sommes-nous devenus plus bêtes ? La construction de ce marché unique avait déjà commencé par le Règlement général sur la Protection des Données (RGPD) de 2016, qui encadre l'utilisation des données personnelles, en conférant notamment aux utilisateurs un droit à l'information, à la portabilité ou à l'oubli de leurs données. A ce dossier se sont ajoutés d'autres points de friction entre l'Union européenne et les Gafam, les géants américains du numérique qui, en plus de leurs multiples condamnations pour impôts impayés, voient d'un très mauvais oeil deux nouveaux textes visant à réguler le numérique au niveau européen, le DSA (Digital Services Act) et le DMA (Digital Markets Act). En réaction à la nouvelle ligne en vigueur à Bruxelles, les géants de la tech ont fait exploser leurs dépenses de lobbying pour atteindre 97 millions d'euros, selon un rapport de Corporate Europe Observatory et LobbyControl en août 2021. Un investissement partiellement stérile puisque l'exécutif européen a montré ces dernières années qu'il n'hésitait plus à multiplier les amendes records. 

La scientifique Aurélie Jean, spécialiste des algorithmes, considère l'AI Act comme une « bonne nouvelle ». Ce règlement, « bien qu'imparfait » (il est notamment flou sur le domaine de la recherche), doit être vu comme « un cadre général », à l'instar du « bannissement des systèmes de notation des individus qui est clairement un message envoyé à la Chine », déclarait-elle dans sa chronique sur France-Culture en décembre. Reste que l'AI Act n'est pas encore promulgué et que d'aucuns, des exécutifs locaux aux entreprises privées, sont lancés dans une course contre la montre pour expérimenter et imposer des pratiques de surveillance algorithmique. A deux mois et demi des Jeux olympiques, la préfecture de police de Paris a ainsi publié le 6 mai un arrêté autorisant la RATP à tester un dispositif de vidéosurveillance dopé à l'IA lors des concerts de Taylor Swift à La Défense Arena du 9 au 12 mai. Arguant des « risques terroristes », la préfecture a autorisé pendant une semaine le traitement des images filmées dans deux stations du RER A au moyen du logiciel « Cityvision », développé par la société Wintics, afin de repérer automatiquement les comportements anormaux. Le Nouvel Observateur

L'article original ici.