Esto puede parecer un caso menor, y otro ejemplo de extralimitación de la UE en la vigilancia de las plataformas de redes sociales. Pero un hallazgo a fines de la semana pasada por un tribunal holandés de que Meta tiene que proporcionar opciones de alimentación no algorítmicas más fácilmente accesibles podría tener grandes implicaciones, y se convertirá en un punto de enfoque más grande para los reguladores que avanzan.
El jueves pasado, un tribunal holandés dictaminó que Meta tiene que proporcionar a los usuarios de Facebook e Instagram Opciones más fácilmente accesibles para plazos no definidos por Algoritmos, en línea con las regulaciones descritas en la Ley de Servicios Digitales de la UE (DSA).
El caso, que fue presentado por el grupo de derechos digitales “Bit of Freedom”, afirma que Meta actualmente está actuando en violación del Artículo 27 de la DSA, que establece que:
“Providers of online platforms that use recommender systems shall set out in their terms and conditions, in plain and intelligible language, the main parameters used in their recommender systems, as well as any options for the recipients of the service to modify or influence those main parameters (…) Where several options are available for recommender systems that determine the relative order of information presented to recipients of the service, providers of online platforms shall also make available a functionality that allows the recipient of the service to select and to Modifique en cualquier momento su opción preferida “.
Entonces, bajo el DSA, Meta y todas las grandes plataformas sociales, deben compartir información sobre cómo funciona su amplificación algorítmica y también permite a los usuarios actualizar sus preferencias para modificar su experiencia en la aplicación.
Pero más específico para este caso, la DSA también señala que:
“Esa funcionalidad (selección y modificación) será de fácil acceso desde la sección específica de la interfaz en línea de la plataforma en línea donde se prioriza la información”.
En otras palabras, la opción de modificar lo que se muestra en cada aplicación debe ser “directa y fácilmente accesible” desde el alimento que está siendo definido por cualquier algoritmo de este tipo.
Para ser claros, Meta ofrece opciones para seleccionar una línea de tiempo cronológica en ambas aplicaciones, que agregó en 2022 en respuesta a las preocupaciones regulatorias sobre la elección del usuario (en varias regiones)
Por lo tanto, puede hacer esto, pero no puede establecer su preferencia como predeterminada, y Meta sabe que la mayoría de las personas no se molestan en cambiarlo.
Qué bits de libertad dice que funciona en beneficio de Meta:
“Meta tiene interés en dirigir a los usuarios hacia un feed donde pueda mostrar tantos anuncios basados en el interés y el comportamiento como sea posible. Ese es el núcleo del modelo de ingresos de Meta. Las técnicas de diseño sutiles empujan a los usuarios hacia esa alimentación, mientras que la alimentación no perfilada está oculta detrás de un logotipo, lo que hace que sea difícil de encontrar. Los usuarios que eligen la línea de tiempo alternativa también pierden acceso directo a características como mensajes directos. Además, cuando abres la aplicación, siempre comienza con Meta’s Feed, incluso si el usuario seleccionó uno diferente antes. Debido a la decisión del juez, Meta debe cambiar su comportamiento.“
Entonces, si se confirma esta decisión (Meta ha dicho que atraerá), Meta puede verse obligado a permitir que las personas opten por su línea de tiempo algorítmica por completo, lo que revertiría a los usuarios a una alimentación puramente cronológica en cada aplicación, y establecer eso como el valor predeterminado.
Qué meta en sí no quiere suceder, y no cree que conducirá a una mejor experiencia de usuario.
A fines del año pasado, el jefe de Instagram, Adam Mosseri, explicó que los alimentos que no son algoritmos ya no funcionan, a pesar de que las personas piensan que quieren esto, con los datos de uso que han encontrado al experimentar con tales que realmente muestran lo contrario.
Según Mosseri:
“Hemos probado (alimentos sin algoritmo) y lo probamos varias veces. Cada vez que lo hemos hecho, hay un subgrupo de personas que están felices, hay un montón de personas que olvidan que están en él, y luego, en general, todos los que están en él usan Instagram menos y menos con el tiempo. Y cuando les preguntamos como” ¿Qué tan satisfechos están con Instagram? “, En realidad, informan que están menos felices con Instagram con más y tiempo. Efectos de segundo orden en los que sus amigos comienzan a usar Instagram menos (y) porque lo usan menos, envían menos me gusta y comentarios, mensajes, y luego están todas estas otras cosas, y empeora cada vez más, y rápidamente “.
Entonces, Meta, por supuesto, quiere maximizar el compromiso y mantener a las personas en sus aplicaciones por más tiempo, al tiempo que recopila valiosas señales de respuesta de tal. Los alimentos definidos por el algoritmo facilitan mejor esto, por lo que desde un negocio, y de acuerdo con Mosseri, una perspectiva de satisfacción del usuario, los feeds de algoritmo son simplemente mejores, y Meta no quiere dar a las personas una opción fácil.
Pero los algoritmos también se han identificado como una causa clave de angustia y división, con el incentivo de algoritmos, principalmente, el compromiso por encima de todo.
¿Y qué impulsa el compromiso? La respuesta emocional, y con los impulsores más fuertes de la respuesta emocional que son el miedo, la ira y la alegría, se puede ver cómo la amplificación algorítmica puede alimentar los incendios que conducen a una mayor disputa y oposición, basándose únicamente en estos desencadenantes de compromiso como puntos de datos.
Ese fue el caso presentado por Frances Haugen, un ex empleado de Facebook, convertido en denunciante, quien provocó varias investigaciones regulatorias en la compañía como resultado de su visión de su enfoque operativo y la falta de preocupación dentro de los impactos del usuario.
La principal disputa de Haugen fue que La eliminación de la clasificación basada en el compromiso ayudaría a reducir la división causada por aplicaciones de redes sociales, al limitar la cantidad de publicaciones de cebo de ira que se presentan a los millones de personas que los usan todos los días. Eso también reduciría el incentivo para que los editores produzcan dicho contenido como un medio para llamar la atención y, por lo tanto, impactaran el ecosistema de noticias más amplio hacia informes más medidos y equilibrados.
Y hay algo de lógica en eso. No eliminaría la motivación detrás de tal manera (ya que los usuarios aún podrían compartir publicaciones, amplificándolas de cualquier manera). Pero al reducir los conductores que incentivan la angustia y la división, parece una evolución lógica que tiene como objetivo abordar tales preocupaciones.
Pero afectaría las oportunidades de ingresos de las aplicaciones sociales, ya que el uso sería una disminución inevitable, como lo señaló Mosseri. Pero tal vez valga la pena, y tal vez, si esta decisión holandesa se mantiene, podríamos obtener nuestra primera visión real de los impactos de tales a escala, si Meta se ve obligado a implementar alimentos no algorítmicos como un incumplimiento en ciertos mercados.
Es probable que valga la pena un experimento a mayor escala, pero Meta ciertamente no va a ser voluntario para tal.
El tribunal holandés ha dictaminado que Meta tiene dos semanas para ofrecer a los usuarios una forma “directa y simple” de optar por no participar en una línea de tiempo con contenido recomendado (nuevamente, Meta está apelando el veredicto).