Cette semaine, la question de l’interdiction des réseaux sociaux aux moins de 15 ans a occupé le Sénat avec des oppositions somme toute assez frontales. Le gouvernement et la rapporteure à l’Assemblée nationale avaient proposé une interdiction générale d’accès aux réseaux sociaux pour les moins de 15 ans. (Retrouvez ici l’accès au dossier législatif.)
La rapporteure au Sénat, Catherine Morin-Desailly a proposé une interdiction des seuls réseaux sociaux qui embarqueraient des contenus et systèmes de recommandation nocifs pour les mineurs et qui seraient listés par les autorités. Une option que le Sénat a adoptée à la quasi-unanimité. Ci-dessous, figurent les résultats du scrutin public sur l’amendement du gouvernement visant à rétablir l’interdiction générale.

Derrière cette opposition du Sénat, il y a des arguments d’opportunité et de droit, plus précisément de droit européen. Abordons ces derniers avant d’aborder les premiers.
Les conditions de la conformité au droit européen
Tout d’abord, il faut souligner que la ministre déléguée chargée du numérique a affirmé avoir obtenu de la Commission européenne une confirmation orale de la conformité, au droit de l’Union, de l’interdiction générale. Le Sénat s’oppose à cette lecture. Et, en l’état, je lui donnerais raison, avant d’être détrompé par qui le souhaite. Je suis sincèrement très preneur des arguments contraires tant j’ai l’impression de manquer quelque chose d’évident quand j’écoute la ministre.
Pour comprendre pourquoi une interdiction générale pourrait être juridiquement fragile, il faut remonter à 2001. La directive eCommerce, sur le commerce électronique donc, a posé un principe fondateur : seul le pays d’établissement d’une entreprise fournissant des services tels que des réseaux sociaux peut lui imposer des règles plus contraignantes que celles prévues au niveau européen. C’est la clause de marché intérieur, inscrite à l’article 3 de la directive 2000/31. Elle est toujours en vigueur depuis l’adoption du DSA, qui n’a pas abrogé ce mécanisme.
La clause connaît des exceptions, listées au paragraphe 4, notamment en vue de la protection des personnes. Mais en novembre 2023, la Cour de justice de l’Union européenne est venue en préciser la portée dans un arrêt Google Ireland : ces exceptions ne peuvent relever que de mesures individuelles, c’est-à-dire visant un service nommément désigné et prononçant des limites à son activité de manière proportionnée et après validation par la Commission européenne. En somme, une règle générale applicable à l’ensemble des réseaux sociaux ne peut pas y trouver de base légale. Les États qui veulent agir doivent désigner explicitement les plateformes concernées. Toute une catégorie de services ne peut pas être interdite.
Certains arguent que le DSA, entré en vigueur à la suite de cet arrêt, aurait changé la donne. Personnellement, je ne vois pas comment. Il y a certes davantage d’harmonisation, et la Commission européenne dispose de pouvoirs d’action accrus dans le cadre de sa mise en œuvre, mais le principe du pays d’origine demeure opérant. Personne ne m’a encore expliqué de façon convaincante pourquoi l’arrêt de 2023 serait devenu caduc.
En Allemagne, le Parlement aboutit d’ailleurs à la même conclusion que le Sénat français.

Pour comprendre en quoi l’interdiction d’accès des moins de 15 ans pourrait être compatible avec le droit européen, il nous faut considérer l’avis du Conseil d’État sur la proposition de loi initiale.

Les mineurs peuvent être interdits d’accès, mais les réseaux sociaux ne peuvent pas se voir imposer des obligations supplémentaires. Étant précisé que différentes dispositions, dont en particulier l’article 28 du DSA, exigent de protéger spécifiquement les mineurs. Mais, pour protéger les mineurs, le contrôle de l’âge n’est qu’un moyen subsidiaire, si les principes énoncés dans les lignes directrices adoptées par la Commission européenne en juillet 2025 et visant à la protection des mineurs sur les réseaux sociaux ne sont pas respectés.
Et si un contrôle de l’âge peut être légitime dans certains cas, ce n’est pas, dit la Commission dans ses lignes directrices pour interdire l’accès à tous les réseaux sociaux, mais seulement à certaines catégories (point repris au point 14 de l’avis du Conseil d’Etat).
Lorsque les réseaux ne respectent pas les principes des lignes directrices, alors la Commission peut exiger des réseaux sociaux qu’elle contrôle qu’ils mettent en place un tel système. C’est le cas dans la récente procédure ouverte contre Snapchat entre autres.
Ainsi, comme l’énoncent les lignes directrices, mais aussi le Conseil d’État, un État peut tout à fait imposer que les mineurs ne doivent pas avoir accès aux réseaux sociaux. Cela n’exigerait rien de plus que ce que le droit européen exige et pour cause puisqu’aucune obligation n’est imposée aux réseaux sociaux et que…cette interdiction n’est pas sanctionnée.
Selon cette interprétation, la version gouvernementale serait donc conforme, puisque l’obligation nationale n’imposerait rien de plus que ce que le droit européen exige déjà. Il faut néanmoins rappeler que tous les réseaux sociaux n’ont pas à être interdits aux mineurs notamment s’il respecte les principes énoncés dans les lignes directrices de la Commission en application de l’article 28 du DSA qui dispose que :
1. Les fournisseurs de plateformes en ligne accessibles aux mineurs mettent en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service. […]
Ce qui crée donc une extension du champ de l’interdiction et du contrôle de l’âge là où ils n’ont pas lieu d’être. Mais, comme me le faisait remarquer quelqu’un qui se reconnaîtra, comme tout cela n’est pas sanctionné en droit de toute façon…
La proposition d’une interdiction fonctionnelle
Plutôt qu’une interdiction générale, qu’ils jugent contraire au droit européen, le Sénat a adopté un dispositif plus ciblé : seuls les réseaux dont le contenu et les systèmes de recommandation sont jugés nocifs seraient concernés par une restriction de l’accès aux mineurs. Ces plateformes seraient listées par le gouvernement après avis de l’Arcom. Pour y accéder, les utilisateurs devraient alors se soumettre à un contrôle de l’âge.
La version du Sénat me semble, à tout le moins, plus conforme car elle distingue les fonctionnalités problématiques de celles qui ne le sont pas et n’interdit pas l’accès à tous les réseaux sociaux, y compris ceux qui respectent toutes les recommandations de la Commission. C’est une approche l’exigence de mesures individuelles formulée par la Cour de justice de l’Union européenne et qui me semble répondre à une recommandation de la Commission faite au paragraphe 36 de ses lignes directrices :
« Il est possible que seuls certains contenus ou seules certaines sections ou fonctions d’une plateforme présentent un risque pour les mineurs. Dans ces cas, au lieu de restreindre l’âge sur l’ensemble du service, les fournisseurs devraient évaluer quels contenus, quelles sections ou quelles fonctions présentent des risques et mettre en œuvre des restrictions d’accès fondées sur des méthodes de vérification de l’âge afin de réduire ces risques de manière proportionnée. »
Cette idée rejoint le modèle développé par des réseaux comme Bulle, un réseau social français rendu public récemment : il propose un accès libre à un service conçu pour être sûr et le contrôle de l’âge uniquement pour les fonctionnalités supplémentaires.
En comparaison avec la version gouvernementale, la version sénatoriale exige donc que le mécanisme de contrôle de l’âge ne soit pas appliqué à l’échelle du réseau social, mais à l’échelle des fonctionnalités nocives.
Est-ce que cela entraîne l’imposition d’obligations supplémentaires à celles déjà exigées par le droit européen ? Telle est la question. Je ne crois pas que ce soit le cas. Je ne vois pas en quoi une mesure nationale qui encourage précisément ce que la Commission considère comme plus proportionné pourrait être moins conforme. Heureux d’être contredit si jamais.
Et maintenant?
Deux extraits des débats au Sénat explicitent l’état du débat et les étapes à venir.
Mme Catherine Morin-Desailly, sénatrice : « Madame la ministre, vous dites avoir eu des contacts avec le SGAE. Nous avons organisé une rencontre également, mais n’avons pas eu de note confirmant l’inconventionnalité d’une telle liste. Nos contacts au sein de la Commission européenne nous ont même indiqué que leur analyse était contraire à la vôtre. Et le Conseil d’État, qui travaille avec d’éminents juristes, a pu se forger un avis solide.
« Nous ne pouvons, pas plus que le Gouvernement, garantir la conventionnalité de ce texte à ce stade, puisque c’est la Commission européenne qui décidera de la portée de la dérogation qu’elle a elle-même apportée au DSA. Nous sommes toutefois déjà certains que ce dispositif est conforme à nos principes juridiques nationaux, en plus d’être opportun et efficace. »
« Mme Anne Le Hénanff, ministre déléguée chargée de l’intelligence artificielle et du numérique : « Merci pour la qualité des débats ; le sujet en vaut la peine. Mon équipe et moi-même avons passé de longues heures à l’Assemblée nationale pour obtenir une majorité numérique. Ici, les débats étaient de nature différente.
« Je suis combative, mais aussi fair-play : je respecte entièrement la position du Sénat. Bravo à la rapporteure et au président, vous avez fait une belle équipe !
« Nous notifierons le texte à la Commission européenne. Ensuite, celui-ci m’échappera : aux parlementaires d’agir. Plus vite nous aurons une majorité numérique, plus vite nos mineurs seront protégés. Je compte sur vous ! »
La Commission européenne devra se prononcer sur le texte qui lui sera notifié, en principe avant la commission mixte paritaire, c’est-à-dire la réunion, derrière des portes closes, d’une délégation de chacune des deux chambres.
Heureusement, nous pouvons espérer compter sur un avis public de la Commission pour contraindre la CMP à se prononcer conformément au droit. Maintenant nous devons attendre de voir de quel côté l’analyse de la Commission penchera et combien de temps elle prendra pour trancher.
Ce que les débats de cette semaine ont au moins permis, c’est d’obtenir le gage d’une réponse explicite, écrite et publique à cette question.
Si je devais prendre un pari, je dirais que la balance pourrait pencher pour une version de l’article en question qui, au lieu de se référer aux « contenus diffusés ou [aux] systèmes de recommandation utilisés » susceptibles « de nuire à son épanouissement physique, mental ou moral », renvoie aux paramètres énoncés par les lignes directrices comme étant ceux à même de respecter les obligations imposées aux plateformes.
À l’inverse, la version du gouvernement imposerait des obligations générales supplémentaires à celles énoncées par le droit européen. Ce qui serait, selon moi, non conforme à l’arrêt Google Ireland. Celle du Sénat ouvrirait la porte à une insécurité, car les notions ne correspondent pas exactement à ce que la Commission a énoncé. Certes, l’Arcom et le gouvernement auraient pour charge de s’inscrire dans leur sillage. Mais cela va mieux en le prévoyant directement dans la loi.
C’est là que réside l’intérêt de la proposition du Sénat : dans le fait de pointer du doigt les réseaux sociaux qui intègrent des fonctionnalités jugées nocives et de leur imposer le contrôle de l’âge. Ainsi, les réseaux sociaux vertueux sont exempts de contrôle de l’âge, ce qui crée une incitation de marché à leur déploiement.
Un débat de second rang
Poser la question de savoir s’il faut interdire les réseaux sociaux aux mineurs, c’est déjà reconnaître qu’on a raté quelque chose. Tout le monde en convient, y compris les partisans de cette interdiction.
Ce débat n’aurait pas eu lieu s’il y avait eu, bien en amont, une vraie volonté d’agir sur ce qui pose réellement problème : le modèle économique, l’architecture des plateformes, les mécanismes de recommandation conçus pour capter l’attention au détriment de tout le reste.
Ces leviers existent. Ils sont documentés. Beaucoup s’en défaussent en agitant l’argument du droit européen, comme si toute tentative nationale se heurtait inexorablement à Bruxelles. Ce n’est pas si simple, et c’est précisément là que le débat deviendrait ou deviendra intéressant. On y reviendra dans un autre billet.
Mais, au moins, la proposition sénatoriale nous force à penser à ce qui cloche exactement dans les réseaux sociaux et à ne pas jeter le principe du réseau social avec le bain des réseaux sociaux dominants.
Réseaux sociaux ≠ tabac
Tout d’abord, il faut revenir sur ce qui est ici considéré comme un réseau social. La définition de référence est celle inscrite dans le règlement européen relatif aux marchés numériques. A ce titre, est un réseau social numérique :
« une plateforme permettant aux utilisateurs finaux de se connecter ainsi que de communiquer entre eux, de partager des contenus et de découvrir d’autres utilisateurs et d’autres contenus, sur plusieurs appareils et, en particulier, au moyen de conversations en ligne (chats), de publications (posts), de vidéos et de recommandations »
Ainsi, un réseau social, défini comme tel, peut très bien ne pas être nocif. Un réseau social, tel que défini en droit, n’est pas, par essence, toxique. Contrairement à toute l’argumentation développée en faveur de l’interdiction généralisée, on ne peut pas les traiter comme le tabac ou l’alcool, dont la nocivité est intrinsèque au produit lui-même.
Oui, les réseaux sociaux dominants, fondés sur l’économie de l’attention, la « merdification », l’enfermement des utilisateurs, leur exploitation à des fins commerciales et politiques, le sont. Oui, ce sont les réseaux très largement utilisés par la population partout dans le monde. Oui, ils sont nécessairement, à tout le moins, un facteur grave d’atteinte à notre intégrité.
Mais dire que la fonction de communication entre personnes intermédiée par un service est nécessairement nocive revient à dire autre chose, d’éminemment problématique. Car cela nous empêche de penser aux réseaux sociaux qui, eux, seraient potentiellement intéressants pour notre construction individuelle et sociale. D’ailleurs, il faut se souvenir que depuis longtemps les réseaux sociaux auxquels nous cherchons à remédier ne sont plus des réseaux sociaux. Comme nous l’avons observé à de nombreuses reprises, en Europe ou aux États-Unis, ce sont des médias sociaux centralisés qui transforment l’économie de la télévision en quelque chose d’encore plus pernicieux.
À l’inverse, un réseau social qui n’est pas conçu pour être addictif, qui ne repose pas sur des algorithmes de recommandation agressifs, qui modère activement les contenus dangereux, ce réseau-là n’est pas nocif en soi. Il est, potentiellement, un espace d’expression, d’information, de lien social. On pense, de manière non exhaustive, à des projets comme Needle, Republike ou Bulle, tous portés en France, qui montrent qu’une autre politique éditoriale est possible. Les interdire par défaut aux mineurs, sous prétexte qu’ils relèvent de la catégorie « réseaux sociaux », n’a aucun sens.
Dans le même sens que les verdicts rendus par les jurés américains la semaine passée, c’est avant tout le design qui crée le risque : les mécanismes d’enfermement, de validation sociale, la perte de repères temporels, les écrans d’accueil, les flux sans fin, l’absence d’outils de recherche performants, etc. Ce sont ces paramètres-là qui méritent d’être encadrés, et non la catégorie de service dans son ensemble.
Dire cela reviendrait, sinon, à priver les concepteurs des réseaux sociaux dominants actuels de toute forme de responsabilité. Comme si c’était l’activité de fourniture du réseau social qui était problématique et non leurs choix, leurs décisions, leur volonté de nous asservir.
En réalité, interdire les réseaux sociaux aux moins de 15 ans revient à les déresponsabiliser et protéger leur modèle nocif de réseau social.
C’est ce que les récentes décisions judiciaires américaines ont commencé à pointer : ce qui est en cause, ce n’est pas l’idée même du réseau social, mais l’architecture de certains d’entre eux, les dominants.
Utiliser le contrôle de l’âge non pas comme une solution mais comme un repoussoir
Tout d’abord, il faut revenir sur le contrôle de l’âge : comment vérifier l’âge d’un utilisateur sans recourir à un dispositif de surveillance massif ?
Précisons que ces solutions de contrôle de l’âge, si elles sont privées aujourd’hui, n’ont pas nécessairement à l’être. L’Union européenne travaille sur ce sujet. Tout d’abord, les lignes directrices de la Commission sur la protection des mineurs, déjà mentionnées ci-dessus, décrivent les critères que doivent respecter les solutions de vérification d’âge pour être à la fois fiables et respectueuses de la vie privée. Ensuite, l’Union européenne s’engage à déployer ses propres solutions. La Commission s’engage ainsi à ce que le portefeuille européen d’identité numérique, dont le déploiement est attendu d’ici fin 2026, fournisse une réponse cohérente.
Mais toutes les solutions impliqueront, peu ou prou, la collecte de données biométriques, bancaires ou d’identité. On crée ainsi un contrôle obligé, un nœud de traitement de données sensibles, à la frontière entre le secteur privé et la puissance publique, avec des acteurs intermédiaires de nature très variée. Les professionnels de la sécurité informatique ne sont pas rassurés par ce scénario, et ils ont probablement de bonnes raisons de ne pas l’être : aucun système numérique n’est infaillible par essence. A-t-on envie de prendre un risque supplémentaire avec les données de l’ensemble de la population lorsqu’il s’agit de la communication entre individus ? D’autant que les expériences actuelles de par le monde ne montrent aucun effet bénéfique sur les pratiques. C’est le constat encore fait récemment en Australie.
C’est là que réside l’avantage de la solution sénatoriale : elle relègue le contrôle de l’âge par les plateformes ou d’autres acteurs aux seules fonctionnalités problématiques des réseaux sociaux, telles que celles identifiées par la Commission européenne. Ainsi, nous pouvons commencer à imaginer des réseaux sociaux sur lesquels le contrôle de l’âge n’existe pas et où les conditions énoncées pour des réseaux sociaux protecteurs des enfants, mais de tout le monde en réalité, sont respectées.
Renverser la perspective : le par défaut comme levier de régulation
La version sénatoriale du texte nous met sur la voie de la définition de ce qu’est un réseau social acceptable par défaut, c’est-à-dire sans contrôle de l’âge, et de réserver les fonctionnalités « à risque » aux utilisateurs ayant consenti à une vérification.
Ce changement de paradigme est fondamental. Au lieu de conditionner l’accès à l’information et à la vie sociale numérique au contrôle de l’âge – alors que l’essentiel de la population s’informe désormais sur les réseaux sociaux, qu’on le déplore ou non – on renverse le fardeau. Le marché par défaut devient le marché non nocif sans contrôle de l’âge. Les fonctionnalités à risque, elles, sont réservées aux adultes vérifiés.
Définir le nocif : un enjeu politique, pas seulement technique
Reste la question la plus difficile : qui décide de ce qu’est une fonctionnalité nocive ? Dans la proposition du Sénat, c’est l’Arcom.
Sur ce qui est nocif ou non, on peut imaginer bien des choses concrètes. Désactiver par défaut certaines formes de recommandation algorithmique. Limiter le temps d’usage par défaut à 15 ou 30 minutes par jour. Bloquer les flux d’actualité automatiques à l’arrivée sur l’application. Désactiver les likes et les commentaires lorsque les flux deviennent toxiques. Intégrer des systèmes de recommandation communautaires comme ceux développés par le projet Tournesol.
Ce qui est imposé ou non aux plateformes ne peut de toute façon pas relever d’un simple inventaire fait sur un coin de table, comme ici, ni du travail d’une seule autorité. Ce doit être un véritable travail de régulation multilatéral et démocratique.
Car non seulement ces choix ne relèvent pas de l’utopie, mais, en outre, ce sont des choix sociétaux majeurs. Et si nous ne souhaitons pas confier à une autorité nationale le soin d’en décider, nous pouvons mener cet exercice au niveau européen et de manière ouverte.
D’autant plus que les lignes directrices de la Commission fournissent déjà le cadre d’un premier réseau social sûr pour tous, et non pas seulement pour les mineurs. Elle y dédie les points 54 à 74 de ses lignes directrices. Ces lignes directrices doivent être révisées en juillet 2026, un groupe d’experts ayant été constitué à cet effet. C’est une fenêtre d’opportunité pour enrichir ce cadre en y intégrant les exigences les plus ambitieuses.
Nous devons pouvoir décider, démocratiquement, de ce qui est acceptable ou non. La Commission le fait déjà procédure par procédure dans le cadre du DSA. Voyons si nous pouvons protéger la population dans le respect de ces procédures. Mais en ajoutant notre couche d’exigence, petit à petit ou frontalement si le cœur nous en dit, attaquons le cœur du problème. Car, en l’état, une interdiction totale, c’est la triple peine : on maintient le modèle existant, on confie aux plateformes l’exécution de fonctions de contrôle de toute la population, et on ne protège pas davantage les mineurs.