Interdire les réseaux sociaux aux mineurs ? Point d’étape et pistes pour l’avenir

La semaine passée, le Sénat a adopté une version modifiée de la proposition de loi visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux.

À cette occasion, nous avons pu assister à une passe d’armes entre la ministre et la rapporteure de la loi au Sénat autour de la disposition principale du projet de texte : l’interdiction faite aux mineurs de moins de 15 ans d’accéder aux réseaux sociaux. Rappelons les deux versions du texte en opposition.

Les versions du texte en opposition

Au vu des débats en commission sénatoriale, le gouvernement a voulu introduire une interdiction générale d’accès identique à celle qu’il avait proposée dans son projet de loi initial. La version de son texte était la suivante :

« Art. 6-9. – I. – L’accès à un service de réseaux sociaux en ligne fourni par une plateforme en ligne, au sens de l’article 6 de la présente loi, est interdit aux mineurs de quinze ans. »

Cette version a été rejetée par le Sénat à la quasi-unanimité pour privilégier une approche imposant une interdiction d’accès aux seuls réseaux qui embarqueraient des contenus et des recommandations jugés nocifs par le gouvernement après avis de l’Arcom. Ainsi, la version adoptée par le Sénat dispose que :

« Art. 6-9. – I. – Il est interdit au mineur de quinze ans d’accéder à un service, fourni par une plateforme en ligne et intégrant les fonctionnalités d’un service de réseaux sociaux en ligne lorsque, en raison des contenus diffusés ou des systèmes de recommandation utilisés, il est susceptible de nuire à son épanouissement physique, mental ou moral et figure sur une liste établie par un arrêté du ministre chargé du numérique pris après avis de l’Autorité de régulation de la communication audiovisuelle et numérique. »

Il y a actuellement un débat sur la conformité à la Constitution et au droit de l’Union européenne tant des mesures proposées par le gouvernement que de celles adoptées par le Sénat.

Rapporteure et ministre se renvoient l’invalidité de leur texte. La conformité du texte adopté par le Sénat au droit européen sera tranchée par un avis de la Commission européenne à venir dans trois mois, avant le passage en commission mixte paritaire.

Pour comprendre ce qui se joue, il faut tout d’abord observer que, dans les deux versions du texte, il n’y a pas d’obligations directement imposées aux plateformes, mais seulement aux mineurs et à leurs parents. Il incombe aux détenteurs de l’autorité parentale de veiller à l’accès de leurs enfants. Même s’il n’y a pas de sanction prévue à leur encontre.

Dans son avis du 8 janvier 2026, le Conseil d’État présente ce fait de la manière suivante :

«15. Le Conseil d’Etat constate que les auteurs du règlement ont entendu procéder à une harmonisation exhaustive des règles visant les plateformes en ligne, la conformité et l’application du droit régissant celles-ci relevant exclusivement des règles du DSA et des autorités de l’Union. Toutefois, ainsi que l’explicitent les lignes directrices, le législateur européen n’a pas pour autant exclu que le droit des Etats membres fixe une règle qui, sans jamais imposer d’obligation directe aux plateformes en ligne, interdirait aux mineurs d’accéder à certains contenus ou à certaines catégories de réseaux sociaux proposés ou présentés sur celles-ci. Le Conseil d’Etat observe que cette interprétation est au demeurant celle que la Commission européenne a donnée à plusieurs reprises du règlement, en précisant que le DSA est un règlement d’harmonisation maximale et que les Etats membres peuvent définir des mesures de politique sociale, notamment fixer un âge minimal d’accès, mais ne peuvent pas imposer d’obligations supplémentaires aux plateformes en ligne (cf. notamment : minutes du Conseil européen des services numériques, Groupe de travail 6 – Protection des mineurs- Neuvième réunion, 9 septembre 2025). »

Dans la version de l’interdiction adoptée par le Sénat, il est précisé que les mineurs de plus de 15 ans devraient justifier d’un accord parental précisant les conditions et les limites de l’accès du mineur au service, notamment la nature des contenus accessibles, la durée maximale quotidienne et les heures d’utilisation. Cet accord serait révocable à tout moment.

L’Arcom devrait veiller au dispositif d’ensemble. On comprend qu’elle devrait notamment veiller aux dispositifs de contrôle de l’âge déployés par les plateformes puisqu’elle devrait recueillir un avis de la CNIL à ce sujet.

Car, en effet, indirectement, la version gouvernementale induisait bien l’imposition de dispositifs de contrôle de l’âge. C’est écrit tel quel dans l’exposé des motifs de l’amendement gouvernemental mais cela vaut aussi pour les réseaux sociaux qui, dans la version sénatoriale, seraient interdits d’accès aux mineurs :

« Afin d’assurer l’effectivité de l’interdiction prévue par le présent amendement, le présent amendement s’inscrit dans le cadre européen posé par les lignes directrices de l’article 28 du DSA. La Commission considère que le recours à des restrictions d’accès fondées sur des méthodes de vérification de l’âge constitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, pour divers services qui présentent un risque élevé pour les mineurs, et notamment lorsque le droit de l’Union ou le droit national fixe un âge minimal pour accéder à certains produits ou services, dont les services de réseaux sociaux en ligne. En établissant cet âge minimal à 15 ans, cet amendement s’inscrit dans ce cadre : les plateformes devront mettre en œuvre des dispositifs de vérification d’âge pour assurer l’effectivité de cette mesure. »

Où réside le risque de non-conformité ? Rappelons d’abord quelques éléments de droit européen.

Quelques rappels de droit européen

À l’article 2(7) du règlement sur les services numériques (le DSA), la catégorie de services visée est celle des réseaux sociaux définis en droit européen comme :

« une plateforme permettant aux utilisateurs finaux de se connecter ainsi que de communiquer entre eux, de partager des contenus et de découvrir d’autres utilisateurs et d’autres contenus, sur plusieurs appareils et, en particulier, au moyen de conversations en ligne (chats), de publications (posts), de vidéos et de recommandations »

L’article 28 du DSA, quant à lui, impose aux plateformes de mettre

« en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service. »

Nous y reviendrons, mais notons déjà que le DSA ne dit pas que, par définition, tous les réseaux sociaux seraient nocifs pour les mineurs, et encore moins que le contrôle de l’âge serait le meilleur des remèdes pour assurer leur protection.

À ce titre, l’article 28(4) confie à la Commission européenne le soin d’adopter des lignes directrices fournissant les clefs de la bonne application de cet article et qui serviront de grille d’appréciation dans le cadre de son contrôle des très grandes plateformes en ligne. Elle a adopté ses lignes directrices en juillet 2025.

Dans ses lignes directrices, la Commission énonce, aux points 54 et suivants, de nombreux remèdes que les réseaux sociaux peuvent mettre en œuvre, en complément ou à la place du contrôle de l’âge, afin d’assurer le « niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs » requis par le DSA.

Mais elle précise aussi que la situation doit être appréciée plateforme par plateforme et que ce qui convient à l’une ne convient pas à l’autre. C’est la base du principe de proportionnalité et même du principe de non-discrimination : à une situation différente, une obligation différente. Il n’y a pas de proportion dans la taille unique.

L’interdiction des interdictions générales

En droit européen, il est interdit aux États membres de dépasser, par des obligations générales nationales, les obligations imposées par le droit européen ou celles imposées par l’État membre d’installation du prestataire du service concerné. C’est ce que l’on appelle la clause de marché intérieur énoncée à l’article 3 de la directive eCommerce 2000/31 de 2001.

Bien sûr, ce principe, aussi dit « principe du pays d’origine », connaît des exceptions prévues à l’article 3(4) de la même directive. Les mesures adoptées par un État membre pour protéger sa population doivent être proportionnées et notifiées à la Commission. Mais la Cour de justice de l’Union européenne a également précisé, dans son arrêt Google Ireland du 9 novembre 2023, que seules les interdictions nationales nominatives seraient permises, si tant est qu’elles soient proportionnées et notifiées à la Commission européenne.

Et c’est là que le risque, non seulement d’inconventionnalité, mais aussi d’inconstitutionnalité, se pose pour le texte gouvernemental. Pour la version proposée par le Gouvernement, à l’exception des « encyclopédies collaboratives en ligne, [des] répertoires éducatifs ou scientifiques, et [des] plateformes de développement et de partage de logiciels libres », tous les réseaux sociaux sont non seulement considérés comme nocifs, mais requièrent également le même traitement : l’imposition indirecte d’un contrôle de l’âge pour identifier qui a plus ou moins de 15 ans.

La question éventuellement à trancher serait de savoir si cette obligation indirecte d’imposer l’installation d’un contrôle de l’âge à tous les réseaux sociaux est interdite au même titre que les obligations directement imposées. En effet, dans le passage précité de l’avis du Conseil d’État, celui-ci mentionne explicitement les obligations directement imposées. Pour moi, la question ne se pose pas à vrai dire ou sinon on pourrait trop facilement contourner l’interprétation donnée par la Cour de justice de la clause de marché intérieur. Une obligation indirecte ne peut aller qu’à l’encontre du droit européen dès lors qu’elle revient à imposer de manière générale des mesures supplémentaires à tous les prestataires d’une catégorie de services générale, les réseaux sociaux ; ici l’adoption d’un outil de vérification de l’âge.

En imposant un remède général, identique pour tous les réseaux sociaux, à des prestataires non établis en France, la proposition gouvernementale rompt nécessairement avec le principe de proportionnalité : elle préjuge que pour tous les réseaux sociaux, le contrôle de l’âge est le remède le plus approprié pour protéger les mineurs et considère en amont que tous les réseaux sociaux sont nocifs par définition. Ce qui ne peut pas être le cas, nous y revenons plus bas.

En Allemagne, le Parlement aboutit d’ailleurs à la même conclusion que le Sénat français.

Ce qui rejoint également l’analyse faite en droit constitutionnel par le Conseil d’État dans son avis rendu en début d’année. Il ne peut pas y avoir de proportionnalité dans l’interdiction générale faite aux mineurs d’accéder aux réseaux sociaux.

« En conséquence, et au regard des principes rappelés, le Conseil d’Etat estime que la conciliation entre l’intérêt supérieur de l’enfant, d’une part, et ses droits fondamentaux, comme ceux des titulaires de l’autorité parentale, d’autre part, n’est en l’état de la proposition de loi pas réalisée de manière équilibrée, dès lors que l’interdiction générale et absolue, aux mineurs de moins de quinze ans, et l’interdiction de 22 heures à 8 heures, aux mineurs de quinze à dix-huit ans, de tout accès à un réseau social, quels que soient son contenu et son mode de fonctionnement, ne font pas l’objet d’une justification suffisante de leur nécessité ou de leur proportionnalité à la protection de l’enfance pour un nombre très important de réseaux sociaux. »

Sans compter que la Commission européenne dit clairement au point 31 de ses lignes directrices que le contrôle de l’âge ne saurait se suffire à lui-même :

« la Commission estime que les fournisseurs devraient envisager des restrictions d’accès fondées sur l’âge et étayées par des mesures de vérification de l’âge en tant qu’outil complémentaire aux mesures énoncées dans d’autres sections des présentes lignes directrices. En d’autres termes, les restrictions d’accès et la vérification de l’âge ne peuvent, à elles seules, se substituer aux mesures recommandées ailleurs dans les présentes lignes directrices. »

L’avantage d’une liste est dès lors de pouvoir distinguer les réseaux sociaux qui respectent ou ne respectent pas les principes de protection des mineurs et de n’exiger le contrôle de l’âge que là où il est le plus adapté. Certainement, cette liste manquera quelques réseaux, de manière marginale, et devrait être évolutive. Mais cela se corrige par des appels à contribution. Et cette dimension évolutive permet aussi de faire sortir des réseaux sociaux du champ de l’interdiction, si jamais ceux-ci ont évolué de manière vertueuse, et d’en faire rentrer d’autres. Une évolution de l’arrêté tous les six mois permettrait, qui plus est, de suivre le calendrier européen de mise en œuvre du DSA.

Surtout, une désignation nominative des réseaux permet de répondre au principe de proportionnalité et à l’exigence imposée par le droit européen de n’adopter des mesures nationales outrepassant les mesures européennes que sur des services nommément désignés.

Le mieux étant encore de n’imposer des mesures de contrôle à l’entrée uniquement sur les pans de service qui porteraient atteinte aux principes énoncés dans les lignes directrices. Car la Commission précise bien au point 36 des lignes directrices que :

« Il est possible que seuls certains contenus ou seules certaines sections ou fonctions d’une plateforme présentent un risque pour les mineurs. Dans ces cas, au lieu de restreindre l’âge sur l’ensemble du service, les fournisseurs devraient évaluer quels contenus, quelles sections ou quelles fonctions présentent des risques et mettre en œuvre des restrictions d’accès fondées sur des méthodes de vérification de l’âge afin de réduire ces risques de manière proportionnée. »

Si le texte sénatorial s’aligne un peu plus sur ce qui est plus adapté au contrôle de proportionnalité, il gagnerait à préciser le dispositif prévu et à ne pas se limiter aux contenus et recommandations nocifs, car il adopte là une grille de lecture qui n’épouse pas tous les problèmes et remèdes possibles listés dans les lignes directrices. Le texte pourrait par contre inviter à une approche cas par cas des problèmes posés par chaque plateforme au vu des lignes directrices pour identifier, si le législateur tient tant à affirmer le contrôle de l’âge, ce qui n’est accessible qu’après contrôle de l’âge.

Réseaux sociaux ≠ tabac ou alcool

Au-delà de ce problème de droit, la position visant à mettre tous les réseaux sociaux dans le même panier est immensément problématique. Dire que tous les réseaux sociaux doivent appliquer le contrôle de l’âge revient à considérer que tous sont problématiques. Ce qui ne peut être le cas.

Un réseau social, tel que défini en droit, n’est pas, par essence, toxique. Contrairement à toute l’argumentation développée en faveur de l’interdiction généralisée, on ne peut pas les traiter comme le tabac ou l’alcool, dont la nocivité est intrinsèque au produit lui-même. L’éthanol et le tabac sont par essence toxiques pour l’enfant ; un moyen de communiquer à plusieurs et de découvrir des personnes ou des choses ne l’est pas nécessairement. C’est le cœur même de la définition en droit des réseaux sociaux qui nous impose de ne pas restreindre la définition des réseaux sociaux à ceux qui sont toxiques.

Le Conseil d’État ne dit pas autre chose au point 25 de son avis lorsqu’il écrit que certains réseaux sociaux n’ont pas à être traités de la même façon que les réseaux sociaux commerciaux toxiques (un problème de formulation semble s’être glissé dans la formulation du Conseil d’État, mais on comprend l’idée) :

« à raison de leur contenu ou de leur mode de fonctionnement, il n’est justifié d’aucun risque sur la santé et la sécurité des mineurs, tels par exemple que des services collaboratifs de partage de contenus de loisir, d’information et d’entraide, des services de co-construction de projets numériques en source ouverte, des applications de communication en ligne, lorsque celles-ci autorisent toute personne à accéder à des contenus, à en publier et à échanger sur des fils d’échanges accessibles sans modération préalable, des jeux en ligne proposant des espaces ou des fonctionnalités collaboratives et sociales marquées ou encore des réseaux sociaux qui, sans revêtir par eux même une dimension éducative, seraient créés en lien avec des activités éducatives ou sociales (réseaux sociaux propres à des établissements d’enseignements, à des associations, à des activités ou lieux en lien avec un culte etc.). »

Oui, les réseaux sociaux dominants, fondés sur l’économie de l’attention, la « merdification », l’enfermement des utilisateurs, leur exploitation à des fins commerciales et politiques, le sont. Oui, ce sont les réseaux très largement utilisés par la population partout dans le monde. Oui, ils sont nécessairement, à tout le moins, un facteur grave d’atteinte à notre intégrité.

Mais dire que la fonction de communication entre personnes intermédiée par un service est nécessairement nocive revient à dire autre chose, d’éminemment problématique. Car cela nous empêche de penser aux réseaux sociaux qui, eux, seraient potentiellement intéressants pour notre construction individuelle et sociale. D’ailleurs, il faut se souvenir que depuis longtemps les réseaux sociaux auxquels nous cherchons à remédier ne sont plus des réseaux sociaux. Comme nous l’avons observé à de nombreuses reprises, en Europe ou aux États-Unis, ce sont des médias sociaux centralisés qui transforment l’économie de la télévision en quelque chose d’encore plus pernicieux.

À l’inverse, un réseau social qui n’est pas conçu pour être addictif, qui ne repose pas sur des algorithmes de recommandation agressifs, qui modère activement les contenus dangereux, ce réseau-là n’est pas nocif en soi. Il est, potentiellement, un espace d’expression, d’information, de lien social. On pense, de manière non exhaustive, à des projets comme Needle, Republike ou Bulle, tous portés en France, qui montrent qu’une autre politique éditoriale, qu’une autre architecture, qu’un autre modèle économique sont possibles, surtout si on interdit ce qui est nocif. Les interdire par défaut aux mineurs, sous prétexte qu’ils relèvent de la catégorie « réseaux sociaux », n’a aucun sens. Adopter cette position voudrait aussi dire que si demain je voulais créer une instance Mastodon, qui constitue en elle-même un réseau social, parfaitement conforme aux lignes directrices, alors celle-ci devrait être interdite aux mineurs.

Or, dans le même sens que les verdicts rendus par les jurés américains la semaine passée, c’est avant tout le design qui crée le risque : les mécanismes d’enfermement, de validation sociale, la perte de repères temporels, les écrans d’accueil, les flux sans fin, l’absence d’outils de recherche performants, etc. Ce sont ces paramètres-là qui méritent d’être encadrés, et non la catégorie de service dans son ensemble.

Dire que c’est le concept de réseau social qui est par essence toxique reviendrait, sinon, à priver les concepteurs des réseaux sociaux dominants actuels de toute responsabilité. Comme si c’était l’activité de fourniture du réseau social en elle-même qui était problématique et non leurs choix, leurs décisions, leur volonté de nous asservir.

En réalité, interdire les réseaux sociaux aux moins de 15 ans revient à déresponsabiliser les dirigeants des réseaux sociaux commerciaux et à protéger leur modèle nocif de réseau social.

C’est ce que les récentes décisions judiciaires américaines ont commencé à pointer : ce qui est en cause, ce n’est pas l’idée même du réseau social, mais l’architecture de certains d’entre eux, les dominants. Ce qui est problématique, c’est le modèle des réseaux dominants, et non l’essence ou le concept du réseau social, tels que définis en droit européen.

En raisonnant par l’absurde, cela voudrait dire qu’il ne sert à rien de chercher à construire des réseaux sociaux vertueux et que tout réseau social sera toujours condamnable. Dire cela est problématique non seulement en droit, mais aussi en soi. Le rôle de la puissance publique devrait être de conduire l’offre vers des réseaux sociaux vertueux.

En guise de solution au rabais dans une situation profondément regrettable, nous avons une petite possibilité de conduire l’offre vers des réseaux vertueux pour tout le monde, jeunes comme moins jeunes, où le contrôle de l’âge n’est pas requis. Ce qui exige non pas de considérer le contrôle de l’âge comme une solution, mais, au contraire, d’en faire un repoussoir.

Utiliser le contrôle de l’âge comme un repoussoir

C’est là que réside l’avantage de la solution sénatoriale : elle relègue le contrôle de l’âge par les plateformes ou d’autres acteurs aux seules fonctionnalités problématiques des réseaux sociaux, telles que celles identifiées par la Commission européenne. Elle nous met sur la voie de la définition de ce qu’est un réseau social acceptable par défaut, c’est-à-dire sans contrôle de l’âge, pour réserver les fonctionnalités « à risque » aux utilisateurs ayant consenti à une vérification. Ainsi, nous pouvons commencer à imaginer des réseaux sociaux sur lesquels le contrôle de l’âge n’existe pas et où les conditions énoncées pour des réseaux sociaux protecteurs des enfants, mais de tout le monde en réalité, sont respectées.

Ce changement de paradigme est fondamental. Au lieu de conditionner l’accès à l’information et à la vie sociale numérique au contrôle de l’âge – alors que l’essentiel de la population s’informe désormais sur les réseaux sociaux, qu’on le déplore ou non – on renverse le fardeau. Le marché par défaut devient le marché non nocif sans contrôle de l’âge. Les fonctionnalités à risque, elles, sont réservées aux adultes vérifiés.

Évidemment, ce débat n’aurait pas eu lieu s’il y avait eu, bien en amont, une vraie volonté d’agir sur ce qui pose réellement problème : le modèle économique, l’architecture des plateformes, les mécanismes de recommandation conçus pour capter l’attention au détriment de tout le reste. Tous les comportements les plus problématiques sont listés dans les lignes directrices. Elles disent ce qu’est un réseau social viable. On ne peut pas dire qu’on ignore les problèmes. On les connait ils sont écrits de toute part et notamment par la Commission européenne dans ses lignes directrices.

Si des dispositions nationales doivent être adoptées, c’est d’abord pour assurer la prévalence de ces principes et orienter le marché vers des réseaux sociaux vertueux, pas pour tirer un trait sur la possibilité d’un réseau social vertueux. Sans quoi, sous couvert de protection des plus jeunes, on allège une fois de plus le fardeau des vrais responsables.

Enfin, l’exercice consistant à dire ce qui est nocif ou non ne doit pas être mené dans une institution unique et close. Définir le nocif est un enjeu politique, pas seulement technique. La Commission a mis en place un groupe d’experts pour donner un avis sur la question avant l’évolution des lignes directrices prévue en juillet 2026. Ces moments doivent servir de porte d’entrée pour que tous les acteurs concernés puissent s’exprimer. Nous devons pouvoir décider, démocratiquement, de ce qui est acceptable ou non.

Ce billet a été modifié le 7 avril pour clarifier l’analyse en droit européen et tenter de le raccourcir un peu. Il sera mis à jour au fil des débats.