Google tente de renforcer la sécurité des mineurs sur internet avec des mesures sur les données personnelles et les contenus potentiellement inappropriés, a indiqué mardi le géant de l’internet, dont la plateforme YouTube est régulièrement dans le collimateur des autorités chargées de la protection de l’enfance.
« Puisque les jeunes passent de plus en plus de temps en ligne, les parents, les enseignants, les experts en matière de confidentialité et de sécurité ainsi que les responsables politiques cherchent, à juste titre, des moyens de sécuriser la navigation internet des enfants et adolescents », a indiqué dans un communiqué Mindy Brooks, directrice générale de la division « Enfants et Familles » chez Google.
« Nous sommes en contact régulier avec eux pour adapter en permanence nos produits et nos outils de contrôle aux jeunes publics », précise-t-on. Sur l’ultra populaire YouTube, les vidéos mises en ligne par les adolescents de 13 à 17 ans seront par défaut en mode « privé ». Si l’option n’est pas désactivée, les vidéos ne peuvent être regardées que par les utilisateurs choisis par l’auteur.
Ces mineurs ou leurs parents pourront aussi désormais demander le retrait de leurs images des résultats de recherche sur Google images. Des filtres protecteurs La question du retrait des contenus problématiques en général, des fausses informations aux images compromettantes, sur demande des autorités ou de particuliers, est un sujet de contentieux récurrent pour la plateforme.
Toujours du côté des données personnelles, l’historique des positions restera désormais désactivé, sans possibilité de le réactiver, pour tous les jeunes de moins de 18 ans, et ce, dans le monde entier. Et pour les protéger des contenus « explicites et inappropriés », Google va activer un filtre, «SafeSearch», sur le moteur de recherche pour tous les mineurs. Les parents auront aussi bientôt à disposition « de nouvelles protections pour empêcher l’apparition de contenu explicite quand un enfant utilise Google Assistant sur des appareils partagés ».
Les annonceurs, eux, n’auront plus le droit de cibler les mineurs avec des publicités en fonction de l’âge, du genre ou des centres d’intérêt. Malgré des règles strictes contre tous les contenus qui sexualisent ou exploitent les enfants, les réseaux plébiscités par les jeunes, comme Snapchat, TikTok, YouTube ou Instagram, se voient régulièrement reprocher de ne pas suffisamment protéger les enfants des prédateurs en ligne et des scandales susceptibles d’entacher leur réputation et de les priver des recettes des annonceurs.
« Puisque les jeunes passent de plus en plus de temps en ligne, les parents, les enseignants, les experts en matière de confidentialité et de sécurité ainsi que les responsables politiques cherchent, à juste titre, des moyens de sécuriser la navigation internet des enfants et adolescents », a indiqué dans un communiqué Mindy Brooks, directrice générale de la division « Enfants et Familles » chez Google.
« Nous sommes en contact régulier avec eux pour adapter en permanence nos produits et nos outils de contrôle aux jeunes publics », précise-t-on. Sur l’ultra populaire YouTube, les vidéos mises en ligne par les adolescents de 13 à 17 ans seront par défaut en mode « privé ». Si l’option n’est pas désactivée, les vidéos ne peuvent être regardées que par les utilisateurs choisis par l’auteur.
Ces mineurs ou leurs parents pourront aussi désormais demander le retrait de leurs images des résultats de recherche sur Google images. Des filtres protecteurs La question du retrait des contenus problématiques en général, des fausses informations aux images compromettantes, sur demande des autorités ou de particuliers, est un sujet de contentieux récurrent pour la plateforme.
Toujours du côté des données personnelles, l’historique des positions restera désormais désactivé, sans possibilité de le réactiver, pour tous les jeunes de moins de 18 ans, et ce, dans le monde entier. Et pour les protéger des contenus « explicites et inappropriés », Google va activer un filtre, «SafeSearch», sur le moteur de recherche pour tous les mineurs. Les parents auront aussi bientôt à disposition « de nouvelles protections pour empêcher l’apparition de contenu explicite quand un enfant utilise Google Assistant sur des appareils partagés ».
Les annonceurs, eux, n’auront plus le droit de cibler les mineurs avec des publicités en fonction de l’âge, du genre ou des centres d’intérêt. Malgré des règles strictes contre tous les contenus qui sexualisent ou exploitent les enfants, les réseaux plébiscités par les jeunes, comme Snapchat, TikTok, YouTube ou Instagram, se voient régulièrement reprocher de ne pas suffisamment protéger les enfants des prédateurs en ligne et des scandales susceptibles d’entacher leur réputation et de les priver des recettes des annonceurs.