Actualités

Le Figaro - «Nous ne resterons pas les bras croisés» - 14/10/2025

«Nous ne resterons pas les bras croisés» : après des suicides d’adolescents, la Californie serre la vis aux chatbots IA

DÉCRYPTAGE - L’État américain a promulgué une loi imposant des garde-fous aux éditeurs de ces services, parfois confondus avec des confidents par les plus jeunes. Une initiative qui pourrait faire tache d’huile en Europe. Une fois de plus, la Californie joue les pionnières en matière de régulation du numérique . L’État le plus peuplé des États-Unis, qui héberge 32 des 50 principales entreprises tech au monde, a voté ce lundi une loi régulant les assistants conversationnels tels que ChatGPT en imposant des garde-fous à leurs éditeurs. Alors qu’une série noire de suicides d’adolescents a choqué le pays, ce texte vise à protéger les utilisateurs les plus vulnérables alors que ces chatbots sont de plus en plus perçus comme des confidents, des psys ou des amoureux. « Nous avons vu des exemples horribles et tragiques de jeunes qui ont été victimes de technologies peu régulées, et nous ne resterons pas les bras croisés pendant que des entreprises exercent sans rendre de comptes », a déclaré Gavin Newsom, gouverneur de Californie, après la signature de cette loi qui entrera en vigueur le 1er janvier 2026. C’est la première fois qu’un État américain légifère ainsi sur l’utilisation des chatbots. Un pied de nez à l’Administration Trump, opposée à la régulation de l’IA et décidée à empêcher les 50 États américains de voter leurs propres règles. Il s’agit aussi d’une première mondiale, dans un contexte où la montée en puissance des assistants IA a transformé les usages des internautes, et des jeunes notamment . Des éditeurs rendus juridiquement responsables En clair, cette loi baptisée « SB 243 » impose d’abord aux éditeurs de chatbots (OpenAI, Character AI, Meta, Google, Replika …) de vérifier l’âge de leurs utilisateurs . Ils devront afficher régulièrement (toutes les 3 heures pour les mineurs) des messages rappelant à l’internaute que son interlocuteur est une machine. Autre obligation, détecter les pensées suicidaires et empêcher les mineurs de voir des images à caractère sexuel générées par le chatbot. Enfin, des protocoles de prévention du suicide et de l’automutilation devront être mis en place. Le texte rend ces entreprises juridiquement responsables si leurs chatbots déraillent. Avec à la clé des amendes peu dissuasives (seulement 1000 dollars par infraction…), mais qui, en cas de multiplication des violations, pourraient finir par coûter cher aux entreprises. Présenté en janvier dernier, le texte avait provoqué une levée de boucliers de certains lobbys de la tech. Mais il a bénéficié d’un nouvel écho après le suicide d’Adam Raine , un adolescent de 16 ans dont ChatGPT « validait ses pensées les plus autodestructrices », selon ses parents, qui ont porté plainte contre OpenAI. En août, des fuites dans la presse avaient révélé que les chatbots de Meta étaient autorisés à avoir des conversations « romantiques » avec des mineurs. Plus récemment, une famille du Colorado a attaqué la start-up Character AI après le suicide de leur fille de 13 ans, qui entretenait des échanges à caractère sexuel avec les chatbots de l’entreprise. Un dangereux malentendu « De telles mesures permettent de répondre à l’utilisation massive des assistants IA chez les jeunes, estime Justine Atlan, présidente de l’association e-Enfance. Ils y vont au départ dans une logique informative. Mais, très vite, ils se prêtent au jeu, les échanges sur ces plateformes étant conçus pour mimer une interaction humaine. C’est ludique pour ceux qui n’ont pas de carences affectives ou sociales. Pour les autres, l’IA vient prendre le rôle de confident ou du psy, laissant croire qu’elle peut assumer ce rôle. Ce qui est dangereux, c’est ce malentendu. » Face à la pression des familles et des régulateurs, OpenAI a récemment déployé un contrôle parental ainsi que des notifications « permettant d’alerter les parents en cas de problème sérieux ». Character AI a aussi introduit ces contrôles parentaux ainsi que le signalement automatique des contenus liés au suicide. En parallèle, l’entreprise a développé une IA distincte pour les utilisateurs mineurs, avec des filtres plus stricts et des réponses plus prudentes. La Californie, qui avait déjà adopté le mois dernier un texte encadrant les usages de l’IA, est aux avant-postes. « Nous pouvons continuer à être à la pointe de l’IA et de la technologie, mais nous devons le faire de manière responsable, en protégeant nos enfants à chaque étape », estime Gavin Newsom. Vers un encadrement en Europe ? L’Europe commence aussi à s’interroger sur un meilleur encadrement des chatbots. « Nous avons déjà des briques de régulation, mais nous devons aller plus loin au niveau éthique pour nous adapter à l’évolution de la technologie », estime la députée européenne Stéphanie Yon-Courtin (Renew). La régulation des assistants IA pourrait notamment s’intégrer dans un nouveau texte, le Digital Fairness Act, débattu l’an prochain. La députée milite dans un rapport voté ce jeudi pour un renforcement de la protection des mineurs, et notamment l’interdiction d’accès des moins de 13 ans à ces compagnons virtuels. Autre piste : préciser le cadre d’application de la loi européenne sur l’intelligence artificielle (AI Act), qui contraint les entreprises à plus de transparence sur leurs modèles. « C’est un texte encore jeune, déclare Justine Atlan. Son entrée en vigueur progressive pourrait permettre de prendre des mesures concrètes pour encadrer les chatbots. Il y a une vraie prise de conscience des politiques qu’il ne faut pas attendre vingt ans d’appropriation et de mésusages, comme ce fut le cas sur les réseaux sociaux, pour réagir. On ne peut compter sur une autorégulation des plateformes sur ces sujets-là. » « En l’absence de jurisprudence et de lignes directrices, les interprétations de l’AI Act par les géants de l’IA risquent d’être à géométrie variable », renchérit Yaël Cohen-Hadria, associée chez EY Société d’avocats. Le débat promet d’être animé.