Actualités
challenge.fr-TikTok, Meta, Snapchat... Les réseaux sociaux dérapent et la régulation cale-12/06/2025

Discours de haine, cyberharcèlement, pornographie, incitation à l’addiction... Malgré l’arsenal juridique, les contenus en tous genres prolifèrent sur les plateformes, qui renvoient dos à dos régulateurs français et européen.
Tous affichent une mine déconfite. Ce lundi 3 juin, les représentants en France d’Amazon, Snapchat, TikTok, YouTube, Meta et X sont convoqués au ministère de l’Egalité entre les femmes et les hommes par les ministres Aurore Bergé et Clara Chappaz, respectivement chargées de la Lutte contre les discriminations et du Numérique. Le climat est glacial, les regards fuyants. Objectif : les rappeler à l’ordre sur la modération et la haine en ligne. « Le temps de l’irresponsabilité est révolu », tonne d’emblée Aurore Bergé. Les plateformes ont jusqu’au 14 juillet pour formuler des réponses écrites claires aux questions du gouvernement.
« Ils ont dressé un mur devant nous » : après le suicide de Clément, le combat d’une famille face aux réseaux sociaux
Sont notamment visés les cyberharcèlements à répétition, les incitations à la haine ou à la violence, et les contenus masculinistes comme ceux de l’influenceur Ad Laurent, dont le compte TikTok a finalement été suspendu le 16 mai à l’appel d’Aurore Bergé. Egalement sur la sellette, les hashtags pouvant nuire à la santé mentale des enfants tels que le #Skinnytok, glorification de la maigreur extrême, retiré début juin par la ministre Clara Chappaz.
23% des mineurs confrontés au cyberharcèlement
En mai dernier, le gouvernement avait déjà tapé du poing sur la table en imposant la vérification de l’âge au moment de la création du compte. Pourtant, plusieurs textes tels que celui sur la « majorité numérique » obligent déjà les plateformes à mettre en place des outils de vérification de l’âge des utilisateurs. Sans grand résultat.
Malgré un arsenal législatif musclé en France et en Europe, les régulateurs peinent à contraindre les plateformes en ligne à respecter la loi. Le rouleau compresseur des réseaux sociaux étouffe les dispositifs législatifs et se joue des réglementations en les montant les unes contre les autres à grand renfort de lobbying. « Il y a une structuration progressive très puissante d’acteurs dédiés au déploiement de la haine en ligne et l’impunité reste extrêmement forte », déplore Dominique Sopo, président de SOS Racisme.
Le combat pour contraindre les réseaux sociaux à modérer leurs contenus est-il perdu d’avance ? « Cela révèle l’impuissance du politique face aux plateformes », admet Arthur Delaporte, député et président de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Lancées à Paris ou Bruxelles, ces initiatives ont pour but d’endiguer les ravages des réseaux sociaux, entre cyberharcèlement, contenus masculinistes, racistes... Selon une étude réalisée pour l’association e-Enfance, 93 % des collégiens sont inscrits sur les réseaux sociaux et 23 % des mineurs ont été confrontés au moins une fois à du cyberharcèlement.
40% des enfants accèdent à des sites pornographiques chaque mois
En 2023, Lindsay, 13 ans, est retrouvée pendue dans sa chambre. Elle se disait depuis plusieurs mois victime de harcèlement. La famille a notamment porté plainte contre Meta et TikTok pour « complicité de cyberharcèlement et non-assistance à personne en péril ». Pierre Debuisson, l’avocat de la famille, dénonce « l’impunité des réseaux sociaux et la prolifération de contenus haineux ».
A ce jour, l’instruction est toujours en cours. « Si on ne lance pas des actions avec 100 000 familles, rien ne va bouger, déplore l’avocat. De manière générale, je constate que les décisions condamnant des auteurs de harcèlement en ligne ne sont pas à la hauteur. »
L’exemple des sites pornographiques Pornhub, Youporn et Redtube qui ont fermé leur accès en France début juin illustre ces difficultés à faire respecter la loi. Au titre de la loi SREN visant à sécuriser et réguler l’espace numérique, l’Arcom, le gendarme de l’audiovisuel et du numérique, avait rappelé à l’ordre six sites pornographiques. Depuis mars, l’obligation de vérifier l’âge des utilisateurs s’applique aux sites pornographiques établis dans l’Union européenne et accessibles depuis la France. Et, depuis le 6 juin, l’Arcom peut mettre en demeure ceux qui ignorent la loi. Il les menaçait de fermer leurs sites en France s’ils n’avaient pas mis en place de solution de vérification d’âge. Une étude de l’Arcom, menée en 2024, montre que près de 40 % des enfants accèdent à des sites pornographiques chaque mois.
La loi SREN contraire au marché unique?
Plutôt que de respecter la législation, Aylo, la maison mère luxembourgeoise de Pornhub, Youporn et Redtube, a donc elle-même fermé ses sites en France pour protester contre une loi jugée « irresponsable, disproportionnée et inefficace ». Pour le géant du porno appartenant au fonds Ethical Capital Partner, la vérification de l’âge par une entreprise tierce est « dangereuse » en matière de confidentialité et nuit à la vie privée.
« Depuis deux ans, nous travaillons avec le gouvernement, nous avons participé aux consultations et fait des propositions, en vain... Nous avons l’impression qu’il n’a rien écouté », se défend Solomon Friedman, membre du fonds Ethical Capital Partners. Et renvoie dos à dos les réglementations française et européenne.
Selon ces sites, la loi SREN est contraire au marché unique ainsi qu’au Digital Services Act (DSA), la réglementation européenne entrée en vigueur en 2023. La Commission a d’ailleurs ouvert une enquête contre Pornhub et trois autres sites pornographiques (Stripchat, XNXX et Xvidéos), les accusant de ne pas empêcher les mineurs d’avoir accès à leurs contenus. La députée européenne Stéphanie Yon-Courtin critique la position française : « La loi SREN est attaquée, les plateformes estiment qu’elle entrave le DSA. Les initiatives nationales des Etats membres sont les meilleures alliées des plateformes. »
La France fait cavalier seul
Cette mesure de vérification de l’âge, Clara Chappaz voudrait également la mettre en place sur les réseaux sociaux. Mais ceux-ci, tout comme les sites pour adultes, plaident plutôt pour un contrôle effectué depuis les magasins d’applis. Une application permettant de vérifier l’âge doit être testée à partir de juillet prochain.
La ministre souhaite aller encore plus loin et interdire les réseaux sociaux aux moins de 15 ans. Bien que l’intention soit louable, la France s’est fait rappeler à l’ordre par la Commission européenne au mois d’avril à ce sujet. « Les Etats membres doivent faire preuve de retenue et éviter les régimes nationaux parallèles » au règlement sur les services numériques (DSA), a écrit Roberto Viola, à la tête de la DG Connect (direction générale de la communication, des réseaux, du contenu et des technologies) à Bruxelles.
« La Commission dénonce le fait que la France fasse cavalier seul, regrette Alexandre Archambault, avocat spécialiste du numérique. La France veut montrer les muscles face aux Gafam, mais oublie que ça doit se faire au niveau européen. » Aucune loi nationale ne peut aller à l’encontre de la réglementation européenne.
La modération des contenus
Exemple de ces conflits entre règlements, l’article 28 du DSA, qui régit la protection des mineurs, demande aux plateformes de mettre en place des mesures appropriées, mais la réglementation européenne n’impose pas explicitement une obligation généralisée et systématique de vérification de l’âge à ce stade. En cela, la loi SREN française n’est pas véritablement appliquée sur ce volet précis.
Un millefeuille juridique qui joue en faveur des plateformes. « Les mesures d’âge vont dans le bon sens mais elles masquent le vrai problème que sont les algorithmes et le modèle économique des réseaux sociaux », souligne Arthur Delaporte.
Sur la question de la modération des contenus, le DSA impose aux plateformes que lorsqu’un contenu illicite est signalé, celles-ci doivent le retirer ou en bloquer l’accès rapidement. Les réseaux sociaux doivent également collaborer avec les autorités judiciaires en cas de demande d’information ou d’injonction de retrait de contenu manifestement illicite : discours de haine, pédopornographie, contenus à caractère terroriste.
Aurore Bergé se souvient encore de sa rencontre avec les plateformes le 3 juin : « Edifiant ! Elles étaient incapables de dire à partir de combien de signalements elles suppriment tout. » Mais un contenu qui n’est pas manifestement illicite ne peut être retiré que sur décision de justice.
« C’est David contre Goliath »
« Nous sommes actuellement dans un moment de bascule », estime Justine Atlan, présidente de l’association e-Enfance. La réglementation est là, il faut maintenant la mettre en œuvre. » Malheureusement, peu d’enquêtes menées au titre du DSA aboutissent à des sanctions. Des investigations contre X en 2023 pour manque de modération et contre TikTok en 2024 pour défaut de protection des mineurs et risques d’addiction n’ont donné lieu à aucune mesure pour l’instant.
Seule l’enquête contre TikTok Lite, son système de récompenses soupçonné d’encourager l’addiction, a débouché sur une suspension du service par l’Union européenne en avril. « Il faut aller beaucoup plus vite », s’alarme Stéphanie Yon-Courtin. L’eurodéputée oppose l’immédiateté des écrans au temps politique et administratif. Le problème selon elle ? La frilosité politique de la commissaire européenne Henna Virkkunen, qui a succédé à Thierry Breton. « Elle veut y aller tranquillement, elle est beaucoup trop prudente », dénonce Stéphanie Yon-Courtin.
« Confier TikTok à un jeune, c’est comme lui mettre une cigarette dans la bouche » : que fait-on en Europe pour protéger les enfants?
Tina Théallet, responsable du service juridique à la Ligue internationale contre le racisme et l’antisémitisme, dénonce, elle aussi, l’opacité des enquêtes de la Commission. « Nous avons réclamé une plus grande transparence de l’Union européenne sur les enquêtes concernant la modération mais attendons toujours », souligne-t-elle.
Autre obstacle, les moyens techniques. Les équipes de la Commission européenne destinées à l’application des textes sont moins nombreuses que celles des plateformes. Bruxelles peut mobiliser 80 personnes pour traiter l’ensemble des dossiers des gatekeepers (diffuseurs) soumis au DSA (Google, Amazon, Apple, Meta, Microsoft, Samsung et ByteDance, etc.) contre 15 groupes de travail de 7 personnes, en plus de batteries d’avocats et de lobbyistes, au service du seul Google, assure Stéphanie Yon-Courtin : « C’est David contre Goliath. » Et le temps continue de jouer en faveur des géants du numérique.