Meta toma medidas legales contra aplicaciones de IA que generan imágenes desnudas falsas

- Advertisement -spot_img

A medida que Meta continúa fomentando la creación de contenido a través de sus propias herramientas de generación de IA, también está viendo imágenes, videos y herramientas generadas por IA más dañinas que se filtran a través de sus aplicaciones, que ahora está tomando medidas legales para eliminar.

Hoy, Meta ha anunciado que está buscando la aplicación legal contra una compañía llamada “Joy Timeline HK Limited “, que promueve una aplicación llamada” Crushai “, que permite a los usuarios crear imágenes desnudas o sexualmente explícitas generadas por IA sin su consentimiento.

Como lo explicó Meta:

En Internet, estamos viendo un crecimiento preocupante de las llamadas aplicaciones de ‘Nudify’, que usan IA para crear imágenes desnudas no consensuadas falsas o sexualmente explícitas. Meta tiene reglas de larga data contra imágenes íntimas no consensuadas, y hace más de un año actualizó estas políticas Para aclarar aún más que no permitamos la promoción de aplicaciones Nudify o servicios similares. Eliminamos anuncios, Páginas de Facebook y cuentas de Instagram que promueven estos servicios cuando nos damos cuenta de ellos, bloqueamos los enlaces a los sitios web que los alojan para que no se pueda acceder desde las meta plataformas y restringir los términos de búsqueda como ‘Nudify’, ‘desorden’ y ‘eliminar la ropa’ en Facebook e Instagram, para que no muestren resultados.

Pero algunas de estas herramientas todavía están atravesando los sistemas de Meta, ya sea a través de publicaciones de usuario o promociones.

Entonces, ahora, Meta está apuntando a los propios desarrolladores, con esta primera acción contra una aplicación de “Nudify”.

Hemos presentado una demanda en Hong Kong, donde Joy Timeline HK Limited se basa, para evitar que anuncie aplicaciones de Crushai en meta plataformas. Esto sigue a múltiples intentos de Joy Timeline HK Limited para eludir el proceso de revisión de anuncios de Meta y continuar colocando estos anuncios, después de que fueron eliminados repetidamente para romper nuestras reglas “.

Es un área difícil para Meta, porque, como se señaló, por un lado, está empujando a las personas a usar sus propias aplicaciones de creación visual de IA en cualquier oportunidad, sin embargo, tampoco quiere que las personas usen tales herramientas para un propósito menos sabroso.

Leer  Dirigirse a spam, no a los canales de reacción

Que va a suceder. Si la expansión de Internet nos ha enseñado algo, es que los peores elementos se amplificarán por cada innovación, a pesar de que ese nunca es el propósito previsto, y la IA generativa no está demostrando ser diferente.

De hecho, el mes pasado, los investigadores de la Universidad de Florida informaron un aumento significativo en Imágenes sexualmente explícitas generadas por IA creadas sin el consentimiento del sujeto.

Peor aún, según el análisis de UF de 20 sitios web de “desnificación” de AI, la tecnología también se está utilizando para crear imágenes de menores, mientras que las mujeres se dirigen desproporcionadamente en estas aplicaciones.

Es por eso que ahora hay un gran impulso para apoyar el El Centro Nacional para la Ley de Take Dawd Take Down de los niños desaparecidos y explotados (NCME)cuyo objetivo es introducir una legislación oficial para prohibir las imágenes no consensuadas, entre otras medidas para combatir el mal uso de la IA.

Meta ha puesto su apoyo detrás de este impulso, con este último esfuerzo legal siendo otro paso para desalentar e eliminar idealmente el uso de tales herramientas.

Pero nunca serán sacrificados por completo. Una vez más, la historia de Internet nos dice que las personas siempre encontrarán una manera de usar la última tecnología para un propósito cuestionable, y la capacidad de generar imágenes para adultos con IA seguirá siendo problemática.

Pero idealmente, esto al menos ayudará a reducir la prevalencia de dicho contenido y la disponibilidad de aplicaciones de Nudify.

spot_img
spot_img

Artículos relacionados

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Artículos populares