Facebook, Instagram, Roblox, Snapchat, TikTok y YouTube deben informar al regulador sobre las acciones que tomarán para “proteger mejor” a los niños en línea.
Ofcom ha pedido hoy (12 de marzo) a las principales plataformas de redes sociales que hagan cumplir las reglas de edad mínima, alegando que “no están” dando prioridad a la seguridad de los niños.
El regulador ha dado a Facebook, Instagram, Roblox, Snapchat, TikTok y YouTube como fecha límite el 30 de abril para informar sobre las acciones que tomarán para proteger mejor a los niños en línea.
Dame Melanie Dawes, directora ejecutiva de Ofcom, dice que existe una “brecha” entre lo que las empresas de tecnología “prometen en privado” y lo que hacen públicamente para mantener a los niños seguros en sus plataformas.
“Estos servicios en línea son nombres muy conocidos, pero no logran que la seguridad de los niños sea el centro de sus productos”, afirma.
Ofcom ha establecido cuatro demandas para tomar medidas adicionales, incluidas políticas efectivas de edad mínima, protecciones de aseo a prueba de fallas, alimentos más seguros para los niños y el fin de las pruebas de productos en niños.
La investigación del regulador muestra que las empresas de tecnología aún no aplican adecuadamente las políticas generalizadas de edad mínima de 13 años, y el 72% de los niños de entre 8 y 12 años acceden a sus sitios y aplicaciones.
Ofcom también está emitiendo solicitudes de información legalmente vinculantes a grandes plataformas para conocer cómo funcionan sus algoritmos y “no dudará” en tomar medidas coercitivas si identifican fallas en la forma en que las empresas promocionan contenido para los niños.
En mayo, Ofcom informará sobre cómo han respondido las empresas y anunciará los próximos pasos para la acción regulatoria.
Chris Sherwood, director ejecutivo de la organización benéfica para niños NSPCC, dice que los gigantes de las redes sociales han “mirado para otro lado mientras el contenido dañino inunda los feeds de los niños” durante demasiado tiempo.
“Es por eso que la demanda de Ofcom de una transparencia mucho mayor sobre los riesgos que enfrentan los niños en línea y cómo las compañías tecnológicas planean protegerlos es absolutamente esencial”, dice. “Las plataformas deben saber por fin quién utiliza sus servicios para poder impedir que los niños accedan a espacios que nunca fueron diseñados para ellos”.
La medida se produce cuando los parlamentarios rechazaron una prohibición de las redes sociales para menores de 16 años a principios de esta semana, y los parlamentarios votaron 307 a 173, una mayoría de 134, en contra del cambio propuesto al proyecto de ley sobre escuelas y bienestar de los niños.
Esto sigue a una consulta lanzada por el gobierno el 2 de marzo para recabar opiniones sobre las medidas para proteger a los niños en las redes sociales, las plataformas de juegos y los chatbots de inteligencia artificial.
Además del debate sobre la edad mínima, la consulta buscará comprender si se debería exigir a las plataformas que desactiven funciones adictivas como el desplazamiento infinito y la reproducción automática, si los toques de queda obligatorios durante la noche ayudarían a los niños a dormir mejor, si los niños deberían poder usar chatbots de IA sin restricciones y cómo debería reforzarse la aplicación de la verificación de la edad.

