Una demanda que acusa a las compañías de redes sociales de dañar intencionalmente a los niños a través de diseños de plataformas adictivas puede avanzar, un tribunal federal dictaminó hoy.
Traído en nombre de cientos de menores en los EE. UU., La demanda consolidada alega que las empresas como Meta, Snap, Tiktok y YouTube diseñaron específicamente sus plataformas para “enganchar” a los usuarios jóvenes, lo que lleva a problemas de salud mental como la ansiedad y la depresión.
El caso consolida más de 100 demandas individuales presentadas a partir de principios de 2022, poco después de que el denunciante de Facebook, Frances Haugen, filtró la investigación interna sobre los efectos adversos de Instagram en la salud mental para adolescentes.
El juez permite que la mayor parte de la demanda continúe
“Se alega que los acusados apuntan a los niños como un mercado central y diseñaron sus plataformas para apelar y adictos”, escribió la jueza Yvonne González Rogers en la orden emitida en California.
Las compañías buscaron desestimar la demanda, argumentando que están protegidas de la responsabilidad bajo la Sección 230 de la Ley de Decencia de Comunicaciones. Conocido simplemente como la Sección 230, esta ley de 1996 protege las plataformas en línea de las demandas sobre el contenido generado por el usuario.
Pero después de un análisis detallado, Rogers escribió: “El enfoque de las partes” todo o nada “para las mociones para descartar no aborda lo suficiente la complejidad de los problemas que enfrentan este litigio”.
En el centro de la demanda hay acusaciones en torno a los alimentos interminables de las plataformas, notificaciones push, recomendaciones algorítmicas y otras características de diseño que las hacen adictivas. Los demandantes dicen que estas opciones de diseño intencionales tienen la culpa de los daños de salud mental, no el contenido en sí.
Rogers estuvo de acuerdo. La Sección 230 no prohíbe los reclamos de responsabilidad del producto centrado en defectos de diseño como controles parentales ineficaces, verificación de edad, límites de tiempo y barreras para la eliminación de cuentas. Sin embargo, las reclamaciones sobre el uso de algoritmos para recomendar cuentas y algunas características de notificación fueron desestimadas.
“Lo mismo se aplica aquí. El tribunal debe considerar la conducta específica a través de la cual los acusados supuestamente violaron sus deberes a los demandantes ”, escribió Rogers. “Son estas acusaciones detalladas y específicas de conducta las que requieren análisis”.
Descubrimiento potencialmente dañino por delante
Con el caso que se mudó al descubrimiento, los documentos internos y los datos de las empresas tecnológicas relacionadas con su conocimiento de posibles daños podrían salir a la luz. Los demandantes argumentan que las compañías estaban al tanto de los efectos de la salud mental en los niños, pero hicieron poco para abordar las preocupaciones de seguridad.
“El enfoque de todo o nada de las partes no representa de manera justa o precisa la aplicación del Noveno Circuito de la inmunidad de la Sección 230”, escribió Rogers. “Más bien, el tribunal ha realizado un análisis de los defectos de funcionalidad reales alegados en la queja”.
La demanda busca cambios de diseño, daños
La demanda busca aplicar la ley de responsabilidad del producto a las redes sociales, tratando las plataformas como productos defectuosos que requieren diseños y advertencias mejorados.
Las empresas tecnológicas han mantenido durante mucho tiempo la inmunidad legal solo para el contenido de los usuarios. Aún así, este caso y otros indican una nueva amenaza centrada en algoritmos, sistemas de recomendación y otras opciones operativas integradas en plataformas.
Los abogados de las empresas no han indicado si apelan la decisión, lo que permite avanzar en partes significativas de la demanda. Con miles de millones de dólares y el diseño futuro de las redes sociales en juego, el caso se está observando de cerca en círculos tecnológicos y legales.
Si la acción de clase está certificada, los demandantes buscarán daños y cambios en la plataforma de fuerza como límites de tiempo predeterminados, verificación de edad, transparencia algorítmica, etc. Sin embargo, el caso aún enfrenta obstáculos como probar que las plataformas causaron daños a la salud mental sufridas por menores individuales.
En última instancia, la demanda apunta al modelo de negocio de publicidad principal de las compañías de redes sociales que depende de maximizar el tiempo de participación del usuario a través de opciones de diseño como fines de desplazamiento sin fin. Cualquier cambio forzado a las empresas podría afectar sus ganancias.
Mirando hacia el futuro
Mientras aún está en una etapa temprana, el fallo mixto mantiene viva la demanda y allana el camino para que los documentos internos expongan potencialmente hasta qué punto Facebook, Snapchat, Tiktok y YouTube pueden haber sido enganchados a jóvenes usuarios a expensas de su bienestar.
Imagen destacada: Davideangelini/Shutterstock
(Tagstotranslate) Noticias