X tomará medidas contra los deepfakes de IA del conflicto de Irán

- Advertisement -spot_img

Tras un informe de Wired de que X ha sido inundado de desinformación Desde el comienzo del conflicto con Irán, X anunció que está revisando sus políticas de participación en los ingresos de los creadores para evitar la manipulación.

Nikita Bier, jefa de producto de X, anunciado en una publicación del 3 de marzo en X que la plataforma busca específicamente abordar los deepfakes generados por inteligencia artificial relacionados con el conflicto para proteger la integridad de la plataforma.

Según Bier: “En tiempos de guerra, es fundamental que la gente tenga acceso a información auténtica sobre el terreno. Con las tecnologías de inteligencia artificial actuales, es trivial crear contenido que pueda engañar a las personas. A partir de ahora, los usuarios que publiquen videos de un conflicto armado generados por IA, sin agregar una revelación de que fue realizado con IA, serán suspendido del reparto de ingresos del creador durante 90 días”.

Bier dijo que nuevas violaciones resultarán en una suspensión permanente del programa.

“Esto nos será avisado por cualquier publicación con una Nota de la comunidad o si el contenido contiene metadatos (u otras señales) de herramientas de inteligencia artificial generativa”, dijo Bier.

Wired informó el 28 de febrero que cientos de publicaciones en X, algunas con millones de visitas, promocionaban afirmaciones engañosas sobre el conflicto.

Como explicó Wired: “En algunos casos, las supuestas imágenes de video del ataque compartidas en publicaciones en X tienen en realidad meses o años. En varias publicaciones, las imágenes de video de aparentes ataques se han atribuido a ubicaciones incorrectas. Varias imágenes compartidas en X parecen estar alteradas o generadas con IA. Otras publicaciones intentan hacer pasar imágenes de videojuegos como escenas del conflicto”.

Leer  Cómo ganar dinero en línea con Twitter

y con Programa de reparto de ingresos para creadores de X Al incentivar a los usuarios a publicar contenido que genere más vistas y participación, existe una clara motivación para que los creadores compartan publicaciones incendiarias, lo que podría ser parte de la razón por la que X está viendo una gran afluencia de información errónea.

Claramente, X está de acuerdo en que esto es un problema, razón por la cual está cambiando las reglas de la iniciativa, aunque el enfoque clave aquí es el contenido generado por IA, no la desinformación en general.

¿Ayudará eso a abordar la difusión de afirmaciones falsas y de imágenes falsas del campo de batalla? Es difícil decirlo, ya que existen otras motivaciones para hacer afirmaciones falsas, porque los actores estatales también utilizan X y otras plataformas sociales para influir en las perspectivas.

Pero el anuncio muestra que X ha reconocido que esto es un problema y está trabajando para abordar la difusión de informes falsos sobre un evento noticioso importante.

Aunque, por el contrario, es interesante observar que X no ha promulgado el mismo nivel de aplicación de la ley para falsificaciones de otros tipos generadas por IA. Como, digamos, imágenes de personas que han estado Desnudada por su propia aplicación Grok..

Pero aun así, es una señal positiva que X esté tomando medidas para combatir al menos una forma de información errónea generada por IA.

spot_img
spot_img

Artículos relacionados

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Artículos populares