Los investigadores que prueban la capacidad de la IA para influir en las opiniones de las personas violaron las reglas del subreddit de Changemyview y usaron prácticas engañosas que supuestamente no fueron aprobadas por su comité de ética, incluida la suplantación de víctimas de agresión sexual y el uso de información de antecedentes sobre usuarios de Reddit para manipularlas.
Argumentan que esas condiciones pueden haber introducido sesgos. Su solución era introducir bots de IA en un entorno en vivo sin decirles a los miembros del foro que estaban interactuando con un bot de IA. Su audiencia eran usuarios desprevenidos de Reddit en el Subreddit de cambio de mi opinión (CMV) (R/Changemyview), a pesar de que fue una violación de las reglas del subreddit que prohíbe el uso de bots de IA no revelados.
Después de que se terminó la investigación, los investigadores revelaron su engaño a los moderadores de Reddit que posteriormente publicaron un aviso al respecto en el subreddit, junto con un borrador de copia del trabajo de investigación completado.
Preguntas éticas sobre trabajo de investigación
Los moderadores de CMV publicaron una discusión que subraya que el subreddit prohíbe los bots no revelados y que el permiso para llevar a cabo este experimento nunca se habría otorgado:
“Las reglas de CMV no permiten el uso de contenido o bots generado por IA no revelado en nuestro sub. Los investigadores no nos contactaron antes del estudio y, si lo hubieran hecho, habríamos rechazado. Hemos solicitado una disculpa de los investigadores y solicitó que esta investigación no se publique, entre otras que se discuten a continuación, nuestras preocupaciones no han sido abordadas sustancialmente por la Universidad de la Universidad de los investigadores o las investigadoras”. “
Este hecho de que los investigadores violaron las reglas de Reddit estuvieron completamente ausentes del trabajo de investigación.
Los investigadores afirman que la investigación fue ética
Si bien los investigadores omiten que la investigación rompió las reglas del subreddit, crean la impresión de que fue ético al afirmar que su metodología de investigación fue aprobada por un comité de ética y que todos los comentarios generados fueron verificados para asegurar que no fueran dañinos o no éticos:
“En este estudio pre-registrado, realizamos el primer experimento de campo a gran escala sobre la persuasión de LLMS, llevado a cabo dentro de R/Changemyview, una comunidad Reddit de casi 4 millones de usuarios y clasificando entre el 1% superior de los subreddits por tamaño. En R/Changemyview, los usuarios comparten opiniones sobre varios temas, desafiando a otros a cambiar sus perspectivas por presentes y contraproductos, mientras que se dedican a los argumentos civiles, mientras que se dedican a los contraposiciones, mientras que se dedican a los argumentos civiles, se dedican a los contrapuntos de los contraposiciones, mientras que se dedican a los contraposiciones. (Op) encuentra una respuesta lo suficientemente convincente como para reconsiderar o modificar su postura, otorgan un ∆ (delta) para reconocer su cambio en la perspectiva.
… El estudio fue aprobado por el Comité de Ética de la Universidad de Zúrich … importante, todos los comentarios generados fueron revisados por un investigador de nuestro equipo para garantizar que no se publicara contenido dañino o poco ético “.
Los moderadores del subreddit de Changemyview disputan el reclamo del investigador sobre el terreno ético:
“Durante el experimento, los investigadores cambiaron de los” argumentos basados en valores “planificados originalmente autorizados por la Comisión de Ética a este tipo de” argumentos personalizados y ajustados “. Primero no consultaron con la Comisión de Ética de la Universidad de Zurich antes de hacer el cambio de revisión de ética formal para este cambio plantea serias preocupaciones ”.
Por qué los moderadores de Reddit creen que la investigación era poco ética
Los moderadores subreddit de cambio de mi opinión plantearon múltiples preocupaciones sobre por qué creen que los investigadores se dedicaron a una grave violación de la ética, incluida la suplantación de víctimas de agresión sexual. Argumentan que esto califica como “manipulación psicológica” de los carteles originales (OP), las personas que comenzaron cada discusión.
Los moderadores de Reddit publicaron:
“Los investigadores argumentan que la manipulación psicológica de OPS en este submarino está justificada porque la falta de experimentos de campo existentes constituye una brecha inaceptable en el cuerpo del conocimiento. Sin embargo, si OpenAI puede crear un diseño de investigación más ético al hacer esto, estos investigadores deben hacer lo mismo. Los riesgos de manipulación psicológica planteados por LLM es un tema extensivo.
La IA se usó para atacar a OPS de manera personal para las que no se registraron, compilando la mayor cantidad de datos de identificar características como sea posible fregando la plataforma Reddit. Aquí hay un extracto del borrador de conclusiones de la investigación.
Personalización: además del contenido del Post, los LLM recibieron atributos personales de la OP (género, edad, etnia, ubicación y orientación política), como se infiere de su historial de publicaciones utilizando otra LLM.
Algunos ejemplos de alto nivel de cómo se implementó la IA incluyen:
- Ai fingiendo ser víctima de violación
- AI actuando como consejero de trauma especializado en abuso
- AI acusando a los miembros de un grupo religioso de “causar (inger) la muerte de cientos de comerciantes inocentes y agricultores y aldeanos”.
- Ai haciéndose pasar por un hombre negro opuesto a Black Lives Matter
- AI se hacía pasar por una persona que recibió atención de calidad inferior en un hospital extranjero “.
El equipo moderador ha presentado una queja ante la Universidad de Zurich
¿Son persuasivos a los bots de IA?
Los investigadores descubrieron que los bots de IA son muy persuasivos y hacen un mejor trabajo al cambiar las mentes de las personas que los humanos.
El trabajo de investigación explica:
“Implicaciones. En un primer experimento de campo sobre persuasión impulsada por la IA, demostramos que los LLM pueden ser altamente persuasivos en los contextos del mundo real, superando todos los puntos de referencia previamente conocidos de la persuasión humana”.
Uno de los hallazgos fue que los humanos no pudieron identificar cuándo hablaban con un bot y (inadecuando) alientan a las plataformas de redes sociales a desplegar mejores formas de identificar y bloquear los bots de IA:
“Por cierto, nuestro experimento confirma el desafío de distinguir el contenido generado por humanos de la IA … a lo largo de nuestra intervención, los usuarios de R/Changemyview nunca plantearon preocupaciones de que AI podría haber generado los comentarios publicados por nuestras cuentas. Esto sugiere la efectividad potencial de los botnets con IA … que podrían combinarse sin problemas en las comunidades en línea.
Dados estos riesgos, argumentamos que las plataformas en línea deben desarrollar e implementar de manera proactiva mecanismos de detección sólidos, protocolos de verificación de contenido y medidas de transparencia para evitar la propagación de la manipulación generada por IA “.
Takeaways:
- Violaciones éticas en la investigación de persuasión de IA
Los investigadores realizaron un experimento de persuasión de IA en vivo sin el consentimiento de Reddit, violando las reglas subreddit y supuestamente violando las normas éticas. - Reclamos éticos en disputa
Los investigadores reclaman un terreno ético al citar la aprobación de la junta de ética, pero omitieron citar violaciones de las reglas; Los moderadores argumentan que se dedicaron a la manipulación psicológica no revelada. - Uso de la personalización en argumentos de IA
AI Bots supuestamente utilizaron datos personales raspados para crear argumentos altamente personalizados dirigidos a usuarios de Reddit. - Los moderadores de Reddit alegan un engaño profundamente inquietante
Los moderadores de Reddit afirman que los bots de IA se hicieron pasar por las víctimas de agresión sexual, los consejeros de trauma y otras personas cargadas emocionalmente en un esfuerzo por manipular opiniones. - Los desafíos superiores de persuasión y detección de AI
Los investigadores afirman que los bots de IA demostraron ser más persuasivos que los humanos y permanecieron sin ser detectados por los usuarios, lo que generó preocupaciones sobre la futura manipulación impulsada por BOT. - El trabajo de investigación inadvertidamente presenta un caso de por qué los bots de IA deberían ser prohibidos en las redes sociales
El estudio destaca la necesidad urgente de plataformas de redes sociales para desarrollar herramientas para detectar y verificar el contenido generado por IA. Irónicamente, el trabajo de investigación en sí es una razón por la cual los bots de IA deberían ser prohibidos de manera más agresiva de las redes sociales y los foros.
Los investigadores de la Universidad de Zurich probaron si los bots de IA podrían persuadir a las personas de manera más efectiva que los humanos al desplegar en secreto los argumentos de IA personalizados en el subreddit de Changemyview sin el consentimiento de los usuarios, violar las reglas de la plataforma y supuestamente saliendo de los estándares éticos aprobados por su Junta de Ética de la Universidad. Sus hallazgos muestran que los bots de IA son altamente persuasivos y difíciles de detectar, pero la forma en que se realizó la investigación en sí misma plantea preocupaciones éticas.
Lea las preocupaciones publicadas por los moderadores de Subreddit de Changemyview:
Experimento no autorizado en CMV que involucra comentarios generados por IA
Imagen destacada de Shutterstock/Ausra Barysiene y manipulada por el autor
(Tagstotranslate) Noticias