Imbert (Corinne), question écrite nº 20093 au secrétaire d’État chargé de l’Enfance et des Familles sur l’exposition des mineurs aux contenus pornographiques [Journal officiel de la République française, édition « Débats parlementaires – Sénat », nº 3 S (Q), 21 janvier 2021, p. 341].
Mme Corinne Imbert attire l’attention de M. le secrétaire d’État auprès du ministre des solidarités et de la santé, chargé de l’enfance et des familles, concernant l’exposition croissante des mineurs à des contenus pornographiques sur les différents réseaux sociaux. En effet, sur l’application TikTok, il a été constaté que des mineurs avaient accès à des vidéos pornographiques, zoophiles, urophiles et scatophiles en raison de l’algorithme qui favorise l’exposition de certains comptes. Malgré des signalements répétés, cette plateforme n’a pas pris les mesures nécessaires et ce type de vidéos continue d’être visible par le grand public. Aussi lui demande-t-elle si le Gouvernement entend imposer aux différents réseaux sociaux une modération intransigeante et un contrôle parental accru afin de protéger les personnes mineures.
Réponse du ministère de la Culture publiée dans le Journal officiel de la République française, édition « Débats parlementaires – Sénat », nº 32 S (Q), 12 août 2021, pp. 4952-4953.
La lutte contre l’exposition des mineurs à la pornographie a été érigée en priorité par le Président de la République fin 2019, à l’occasion du 30ème anniversaire de la convention internationale des droits de l’enfant. Il s’agit en effet d’un enjeu fondamental, tant l’exposition des mineurs à la pornographie peut avoir des conséquences néfastes sur leur développement psychologique. Si des obligations de signalétique des contenus audiovisuels existent de longue date pour lutter contre l’accès des mineurs à la pornographie sur la télévision linéaire, et plus récemment sur les services de médias audiovisuels à la demande, la problématique s’est toutefois aujourd’hui déplacée sur les réseaux sociaux et les plateformes de partage de vidéos, qui sont devenus le lieu principal de l’exposition des mineurs à ce type de contenus. Conscient de l’enjeu, le Gouvernement se mobilise pour adapter les dispositifs législatifs et réglementaires afin de pouvoir imposer des obligations comparables à ces nouveaux acteurs. En l’état actuel du droit, en application de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, les réseaux sociaux peuvent déjà voir leur responsabilité engagée s’ils ne retirent pas des contenus illicites qui leur seraient signalés. Ceci s’applique notamment aux contenus pornographiques accessibles aux mineurs, en violation de l’article 227-24 du code pénal. Pour autant, il est nécessaire d’aller plus loin et d’imposer aux plateformes des mesures de prévention efficaces. Plusieurs dispositifs complémentaires vont permettre de répondre à cet enjeu crucial. D’une part, la directive sur les Services de médias audiovisuels a été transposée en France par une ordonnance adoptée fin décembre 2020, qui impose aux plateformes de partage de vidéos établies en France de mettre en place les mesures appropriées pour protéger les mineurs et leur empêcher l’accès aux contenus pornographiques : classification des contenus avec une signalétique des vidéos, dispositif de vérification d’âge (au-delà de la simple demande faite à l’utilisateur de déclarer qu’il a plus de 18 ans), mise en place d’outils de contrôle parental, ou encore développement de l’éducation aux médias. Il reviendra au Conseil supérieur de l’audiovisuel (CSA) de veiller à la mise en place de ces mesures par les plateformes de partage de vidéos, en les guidant par ses recommandations. D’autre part, le Gouvernement a proposé d’insérer dans le projet de loi confortant les principes de la République, qui fait l’objet d’une procédure d’adoption accélérée et a récemment été discuté au Sénat, un article 19bis relatif à la lutte contre les contenus illicites, applicable aux plateformes de partage de vidéos et aux réseaux sociaux établis en France comme à l’étranger. Il inclut dans son champ les infractions à l’article 227-24 du code pénal (contenus pornographiques accessibles aux mineurs). Les plateformes concernées seront tenues à des obligations de moyens pour assurer une modération efficace. Le non-respect de ces obligations pourra être sanctionné par le CSA, qui sera chargé de leur supervision. Ce texte anticipe le futur règlement sur les services numériques (Digital Services Act) actuellement en cours de négociations au niveau européen. En complément de ces initiatives, le Gouvernement promeut des dispositifs de régulation « souple ». Les pouvoirs publics ont accompagné la signature d’un protocole d’engagements sur le contrôle parental qui s’inscrit dans le cadre du Plan de lutte contre les violences faites aux enfants y compris dans l’univers numérique, dévoilé le 20 novembre 2019 par le Président de la République à l’occasion du 30ème anniversaire de la convention internationale des droits de l’enfant. Ce protocole rassemble à ce jour plus de vingt signataires, outre le Gouvernement, le CSA et l’Autorité de régulation des communications électroniques et des postes (ARCEP), dont les opérateurs mobiles français, des fabricants de terminaux et plusieurs grandes plateformes (Google search, Apple, Facebook, Microsoft, Snapchat, Qwant), ainsi que des associations de protection de l’enfance. Il décline 18 engagements adaptés à l’activité de chaque signataire. Un comité composé des signataires, sous l’égide du CSA et de l’ARCEP, assure le suivi de ces engagements et évalue les progrès réalisés dans la généralisation des outils de contrôle parental. Les travaux de ce comité ont également conduit au lancement, le 9 février 2021 à l’occasion du « Safer Internet Day », du site www.jeprotegemonenfant.gouv.fr, qui vise à sensibiliser les parents sur les dispositifs de contrôle parental et présente des solutions pratiques pour les accompagner dans leur mise en œuvre.
Question archivée au format PDF (136 Ko, 3 p.).