Wikipedia publicó recientemente pautas que prohíben el uso de IA para generar o reescribir artículos, excepto dos excepciones relacionadas con la edición y las traducciones. Las pautas reconocen que la identificación del contenido generado por IA no puede basarse en señales de estilo y no ofrece más orientación sobre cómo identificarán el contenido basado en LLM.
Violación de las políticas de contenido principal de Wikipedia.
Las nuevas directrices que prohíben el uso de LLM establecen que el uso de IA viola varias de sus políticas de contenido principales, sin nombrarlas realmente. Pero una mirada a esas políticas deja razonablemente claro a qué políticas se alude: sus políticas sobre verificabilidad, su prohibición de no realizar investigaciones originales y posiblemente su exigencia de un punto de vista neutral son muy probablemente las dos políticas obvias a las que se hace referencia.
La política de verificabilidad requiere que el contenido que pueda ser cuestionado sea atribuible a una fuente publicada confiable que otros editores puedan verificar para verificar que la fuente sea confiable. Los LLM generan texto sin citar fuentes explícitamente y también tienden a alucinar hechos.
La política sobre investigaciones originales establece:
“Wikipedia no publica pensamientos originales: todo el material en Wikipedia debe ser atribuible a una fuente publicada confiable. Los artículos no pueden contener ningún análisis nuevo o síntesis del material publicado que sirva para promover una posición no claramente expuesta por las fuentes”.
Obviamente, los LLM generan una síntesis basada en fuentes publicadas y, en cuanto al punto de vista neutral, es posible que un LLM dé más peso a los puntos de vista dominantes a expensas de aquellos que son minoría. La mayoría de los SEO son conscientes de que preguntar a un LLM sobre SEO da como resultado respuestas que reflejan el punto de vista dominante, pero no necesariamente el más correcto.
La nueva guía hace dos excepciones:
- “Los editores pueden utilizar LLM para sugerir correcciones básicas de sus propios escritos e incorporar algunas de ellas después de una revisión humana, siempre que el LLM no introduzca contenido propio. Se requiere precaución, porque los LLM pueden ir más allá de lo que les pides y cambiar el significado del texto de manera que no esté respaldado por las fuentes citadas.
- Los editores pueden utilizar LLM para traducir artículos de Wikipedia en otro idioma a la Wikipedia en inglés, pero deben seguir las pautas establecidas en Wikipedia: traducción asistida por LLM.
En cuanto a identificar el contenido generado por IA, las nuevas pautas de IA de Wikipedia sugieren considerar qué tan bien el contenido cumple con sus pautas de contenido básicas y auditar publicaciones recientes del editor cuyas ediciones están bajo sospecha.
Imagen destacada de Shutterstock/JarTee

