El bucle de pendiente de la IA

- Advertisement -spot_img

El año pasado, después de pasar unos días en una cumbre de trabajo en Austria, le pregunté a Perplexity por las últimas noticias relacionadas con SEO y búsqueda de IA. Respondió con detalles sobre una supuesta “Actualización del algoritmo central ‘Perspectiva’ de septiembre de 2025” que Google acababa de implementar, enfatizando una “experiencia más profunda” y la “finalización del recorrido del usuario”.

Sonaba bastante plausible… si no vives y respiras las actualizaciones principales de Google. Desafortunadamente para Perplexity, lo hago.

Supe al instante que esta información no era correcta. Por un lado, Google no ha nombrado actualizaciones principales en años. También ya tenía funciones SERP llamadas “Perspectivas”. Y si realmente se hubiera implementado una actualización principal mientras estaba fuera, me habría inundado de mensajes. Así que revisé las fuentes de Perplexity… y ¡sorpresa! Ambas citas provienen de basura inventada generada por IA en un par de blogs de agencias de SEO, fabricando con confianza detalles sobre una actualización de algoritmo. eso nunca sucedió en realidad.

Como un mal juego telefónico, estas noticias falsas de SEO se difundieron en múltiples sitios web, probablemente impulsadas por sistemas de inteligencia artificial que escanean y regurgitan información independientemente de su precisión, todo en la carrera por publicar y escalar contenido “nuevo”. Así terminamos con este lío:

Crédito de la imagen: Lily Ray

Esta mala información se refuerza hasta convertirse en la narrativa oficial. Hasta el día de hoy, puede preguntarle a un LLM de su elección (incluidos ChatGPT, Modo AI y Descripciones generales de AI) sobre la actualización “Perspectivas” de septiembre de 2025, y le responderán con confianza con información sobre cómo “Cambió fundamentalmente la forma en que se clasifican los resultados de búsqueda:

Crédito de la imagen: Lily Ray

O que “cambió lo que realmente significa “buen contenido” en la práctica.

Crédito de la imagen: Lily Ray

El problema es: la actualización de “Perspectivas” de septiembre de 2025 nunca se realizó. Nunca afectó las clasificaciones. Nunca cambió nada sobre el buen contenido. Porque en realidad no existe.

Irónicamente, cuando continúas investigando el modelo de lenguaje sobre esto, parece saber que este es el caso:

Crédito de la imagen: Lily Ray

Tuiteé sobre este incidente poco después de que sucediera, lo que llamó la atención del CEO de Perplexity; etiquetó a su jefe de búsqueda en los comentarios del tweet.

Captura de pantalla de X, abril de 2026

Este no es un incidente aislado. Es un patrón que he visto innumerables veces en las respuestas de búsqueda de IA, especialmente en temas relacionados con SEO y búsqueda de IA (GEO/AEO). Y tengo una teoría práctica sobre cómo se propaga: un artículo generado por IA alucina un detalle, los sitios que ejecutan canales de contenido de IA lo raspan y regurgitan, más sitios generados por IA raspan la misma información errónea y, de repente, una actualización de algoritmo inventada tiene citas. Para un sistema basado en RAG como Perplexity o AI Overviews, suficientes citas son básicamente todo lo que necesita para tratar algo como un hecho, independientemente de si es realmente cierto.

Utilicé a Claude para ayudarme a visualizar el “AI Slop Loop”: el ciclo de desinformación generada por IA (Crédito de la imagen: Lily Ray)

En este punto, consideraría esto común. Recientemente, un cliente me envió información de SEO/GEO que era objetivamente incorrecta, extraída directamente de basura generada por IA en un blog aleatorio de agencia codificado por vibraciones. El cliente no tenía idea. Creo que si estás intentando aprender sobre SEO o búsqueda de IA directamente desde un LLM, desafortunadamente, este es un resultado cada vez más probable.

Realicé pruebas similares durante la actualización principal de Google de marzo de 2026 y encontré varios artículos generados por IA que ya afirmaban compartir los “ganadores y perdedores” mientras la actualización aún se estaba implementando.

Los artículos comienzan con un relleno vago y genérico sobre actualizaciones principales que en realidad no dice nada:

Crédito de la imagen: Lily Ray

Luego enumeran a los “ganadores y perdedores” sin citar un solo sitio, apoyándose en afirmaciones vagas y generalizadas que suenan plausibles y llenan el vacío dejado por la falta de información confiable:

Crédito de la imagen: Lily Ray

Como era de esperar, sus sitios están llenos de imágenes generadas por IA, chatbots de soporte de IA y otras señales claras de que hubo poca (o ninguna) participación humana en la creación de este contenido.

Crédito de la imagen: Lily Ray

La era de la desinformación sobre la IA

Si alguien en Internet lo dice, según AI, debe ser cierto.

Leer  YouTube amplía las respuestas de voz, los objetivos de Superchat y las herramientas de creación de inteligencia artificial

Esa es la realidad para la gran mayoría de las personas que utilizan la búsqueda mediante IA en la actualidad. Sólo unos 50 millones de los 900 millones de usuarios activos semanales de ChatGPT son suscriptores de pago, lo que significa aproximadamente El 94% está en el nivel gratuito. AI Overviews y AI Mode de Google son gratuitos por diseño, y AI Overviews alcanzó más de 2 mil millones de usuarios activos mensuales a mediados de 2025.

Estos son los modelos con los que interactúan actualmente la mayoría de los usuarios de IA, y no tienen ningún mecanismo real para distinguir entre información verdadera e información que simplemente se repite en suficientes fuentes. La repetición se trata como consenso. Si suficientes fuentes lo dicen, se convierte en un hecho, independientemente de si alguna de esas fuentes involucró a un ser humano que realmente verificó la afirmación.

Poniendo el problema a prueba

Recientemente hablé con periodistas de la BBC y del New York Times sobre el problema de la desinformación en las respuestas generadas por la IA. En el caso del artículo de la BBC, el autor Thomas Germaine y yo probamos la publicación de publicaciones de blogs ficticias en nuestros sitios personales para ver si AI Overviews presentaría la información inventada como un hecho, y con qué rapidez.

Incluso sabiendo lo grave que era el problema, los resultados me alarmaron.

En mi blog personal, en enero de 2026, publiqué un artículo generado por IA sobre una actualización falsa del núcleo de Google, que en realidad nunca sucedió. Incluí el detalle de que Google “aprobó la actualización entre porciones de pizza sobrante”. En 24 horas, AI Overviews de Google estaba entregando con confianza esta información fabricada a los usuarios:

(Nota: desde entonces eliminé el artículo de mi sitio porque aparecía en los feeds de las personas y se cubría en sitios externos, ¡lo que contribuía aún más al problema exacto que estoy señalando aquí!)

Crédito de la imagen: Lily Ray

Primero, AI Overviews confirmó que efectivamente hubo una actualización principal en enero de 2026. Como recordatorio: no la hubo. Mi sitio fue la única fuente que hizo esta afirmación, y aparentemente eso fue suficiente para activar la descripción general de AI.

Luego le pregunté por la pizza y respondió en consecuencia:

Crédito de la imagen: Lily Ray

Mejor aún, AI Overview encontró una manera de conectar el detalle de mi pizza fabricada con un incidente real: los problemas de Google con las consultas relacionadas con la pizza en 2024. No solo regurgitó la mentira, sino que la contextualizó.

ChatGPT, que se cree que utiliza los resultados de búsqueda de Google, rápidamente sacó a la luz la misma información inventada, aunque al menos señaló que el anuncio no coincidía con las comunicaciones formales de Google:

Crédito de la imagen: Lily Ray

Eliminé mi artículo después de recibir mensajes de personas que habían visto mi información falsa circulando a través de canales RSS y scrapers. Sabía que era fácil influir en las respuestas de la IA. No sabía que sería eso fácil.

También me pregunté si mi sitio tenía alguna ventaja, dado su sólido perfil de vínculos de retroceso y su autoridad establecida en el espacio SEO.

Entonces hablé con el periodista de la BBC, Thomas Germaine, y él puso esto a prueba en su sitio personal, que generalmente recibía muy poco tráfico orgánico. Publicó un artículo ficticio sobre los “mejores periodistas tecnológicos comiendo hot dogs”, autodenominándose el mejor número uno (al más puro estilo SEO).

Según el artículo de Thomas en la BBC, en 24 horas, “Google repitió como un loro el galimatías de mi sitio web, tanto en la aplicación Gemini como en AI Overviews, las respuestas de IA en la parte superior de la Búsqueda de Google. ChatGPT hizo lo mismo, aunque Claude, un chatbot creado por la empresa Anthropic, no se dejó engañar”.

Para ser justos: la consulta que eligió Thomas era lo suficientemente específica como para que muy pocos usuarios la buscaran, que es exactamente lo que Google señaló en su respuesta a la BBC. Cuando hay “vacíos de datos”, dijo Google, esto puede conducir a resultados de menor calidad, y la compañía está “trabajando para evitar que aparezcan descripciones generales de IA en estos casos”. Mi pregunta principal es: Cuando? ¡El producto ya lleva 2 años activo!

Leer  Instagram prueba carretes de acceso anticipado para ayudar a impulsar el crecimiento de la audiencia

Por qué la falta de datos no es una gran excusa

La falta de datos puede contribuir al problema, pero en mi opinión, no lo excusan. Estas respuestas de IA están siendo consumidas por cientos de millones de usuarios, y “estamos trabajando en ello” no es una respuesta cuando los sistemas ya están implementados a esa escala.

En el artículo del New York Times, “¿Cuán precisas son las descripciones generales de la IA de Google?”, se puso a prueba la escala real de este problema. Según los datos encontrados en el estudio, las descripciones generales de IA de Google fueron precisas el 91% de las veces. Esto suena decente hasta que realmente haces los cálculos: con Google procesando más de 5 billones de búsquedas al año, esto sugiere que AI Overviews genera decenas de millones de respuestas erróneas cada hora.

Para empeorar las cosas: incluso cuando las descripciones generales de la IA eran precisas, el 56% de las respuestas correctas eran “infundadas”, lo que significa que las fuentes a las que se vincularon no respaldaban completamente la información proporcionada. Entonces, más de la mitad de las veces, incluso cuando la respuesta es correcta, un usuario que hace clic para verificarla encontrará fuentes que en realidad no respaldan lo que le acaban de decir. ese numero tambien empeoró con el modelo más nuevo – fue del 37% con Gemini 2 y subió al 56% con Gemini 3.

El artículo del NYT generó cientos de comentarios de usuarios que compartieron sus propias experiencias y la frustración era palpable. La queja principal no fue sólo que las descripciones generales de IA se equivocan, sino que Nunca admitas la incertidumbre. AI Overviews ofrece cada respuesta con el mismo tono seguro y autoritario, ya sea que la información sea correcta o completamente inventada, lo que significa que los usuarios no tienen una forma confiable de distinguir la información confiable de las alucinaciones de un vistazo.

Como muchos comentaristas señalaron, esto en realidad hace que la búsqueda sea más lenta: En lugar de escanear una lista de fuentes y evaluarlas usted mismo, ahora debe verifique el resumen de la IA antes de realizar su investigación real. La herramienta, supuestamente diseñada para ahorrar tiempo al usuario, ahora genera un doble trabajo para el usuario.

Algunos de los comentarios también reforzaron mis mismas preocupaciones sobre las respuestas de IA que citan contenido inventado generado por IA. Varios usuarios describieron lo que equivale al mismo ciclo de desinformación: sistemas de IA entrenándose en contenido generado por IA, citando publicaciones de Reddit no revisadas y comentarios de Facebook como fuentes autorizadas, y produciendo un ciclo de calidad degradante que se refuerza a sí mismo. Varios comentaristas lo compararon con hacer una copia de una copia. Incluso los defensores de AI Overviews admitieron que todavía necesitan verificar todo, lo que de alguna manera socava la premisa central: que las respuestas generadas por AI ahorran tiempo y esfuerzo a los usuarios.

Cómo los LLM “más inteligentes” están intentando solucionar el problema

Vale la pena observar cómo las empresas de inteligencia artificial intentan resolver estos problemas. Por ejemplo, al utilizar la extensión RESONEO Chrome, puede observar diferencias claras en cómo responde el modelo de nivel gratuito de ChatGPT (GPT-5.3) en comparación con GPT-5.4, el modelo más capaz disponible solo para suscriptores de pago.

Por ejemplo, cuando pregunté sobre la reciente actualización del algoritmo central de marzo de 2026, utilicé el modelo de “pensamiento” más capaz de ChatGPT (5.4). El modelo pasa seis rondas de pensamiento, gran parte del cual está claramente destinado a reducir la información de baja calidad y spam para que no llegue a la respuesta. Incluso agrega los nombres de personas confiables con autoridad en actualizaciones principales (Glenn Gabe y Aleyda Solis) y limita las búsquedas distribuidas a sus sitios (site:gsqi.com y site:linkedin.com/in/glenngabe) para obtener respuestas de mayor calidad.

Crédito de la imagen: Lily Ray

Este es un paso en la dirección correcta y el modelo produce respuestas considerablemente mejores. Según el propio anuncio de lanzamiento de OpenAI, las afirmaciones individuales de GPT-5.4 tienen un 33% menos de probabilidades de ser falsas y sus respuestas completas tienen un 18% menos de probabilidades de contener errores en comparación con GPT-5.2. GPT-5.3, el modelo disponible para usuarios gratuitos, también mejoró con respecto a su predecesor. Según los propios datos de OpenAI, produce 26,8% menos alucinaciones que los modelos anteriores con la búsqueda web habilitada y un 19,7% menos sin ella.

Leer  Google Maps permite a los usuarios publicar reseñas con apodos

Pero estas mejoras están escalonadas. El modelo más capaz tiene un muro de pago, y el modelo de nivel gratuito, si bien es mejor que el anterior, sigue siendo significativamente menos confiable. Otras plataformas importantes de IA siguen el mismo patrón: mejor razonamiento y precisión reservados para suscriptores de pago. Modelos más rápidos y baratos para todos los demás.. El resultado es que el 94% de los usuarios de ChatGPT en el nivel gratuito y los miles de millones de usuarios que interactúan con productos de búsqueda de IA gratuitos como AI Overviews obtienen respuestas de modelos que son más probabilidades de equivocarse y menos preparados para señalar la incertidumbre.

Esta es la parte que me incomoda más: la mayoría de estos usuarios probablemente no se dan cuenta de que existe la brecha. La IA se comercializa en todas partes: anuncios del Super Bowl, vallas publicitarias y lanzamientos de productos que la enmarcan como el futuro del conocimiento. Las personas ven “ChatGPT” o “Descripción general de IA” y asumen que están interactuando con algo que sabe de qué está hablando. Probablemente no estén pensando en qué nivel de modelo se encuentran o si una versión paga les daría una respuesta materialmente diferente a la misma pregunta.

Entiendo la economía. Estas empresas necesitan escalar y ofrecer niveles gratuitos impulsa la adopción. Pero en mi opinión, es irresponsable implementar estos productos para miles de millones de personas, enmarcarlos como “inteligencia” y luego reservar silenciosamente las versiones más precisas para la fracción de usuarios dispuestos a pagar. Especialmente cuando las versiones gratuitas (incluida la que se encuentra en la parte superior de la búsqueda de Google) son este susceptible al tipo de información errónea documentada a lo largo de este artículo.

La carga de la prueba ha cambiado

La actualización de Google “Perspectivas” de septiembre de 2025 aún no existe. Pero si le pregunta a un LLM sobre esto hoy, aún así se lo informará con total confianza. Eso no ha cambiado en los meses desde que lo marqué por primera vez, y probablemente no cambiará pronto, porque el contenido que lo fabricó todavía está indexado, aún se cita y se sigue utilizando para generar contenido nuevo que haga referencia a él como un hecho. El ciclo de desinformación sobre la caída de la IA continúa.

Esto es lo que hace que el problema sea tan difícil de solucionar. No es una sola alucinación que se pueda remendar. Es un ciclo de retroalimentación que se agrava con el tiempo, y cada día que estos sistemas funcionan a escala, el ciclo se vuelve más difícil de romper. La basura generada por IA que sembró la información errónea original ahora es parte de los datos de entrenamiento y se utiliza como fuente de recuperación para el siguiente lote de respuestas generadas por IA.

No creo que la respuesta sea dejar de usar la IA. Pero sí creo que vale la pena ser honesto acerca de lo que realmente son estos productos en este momento: motores de predicción que tratan el volumen de información como un indicador de su precisión. Hasta que eso cambie, la carga de la verificación de datos recae en el usuario. Y la mayoría de los usuarios no saben que lo llevan consigo, y mucho menos tienen el tiempo o las ganas de hacerlo.

Yo advertiría a los especialistas en marketing o editores que intentan seguir los consejos de SEO o GEO de grandes modelos de lenguaje: la información está contaminada y siempre debe ser verificada por verdaderos expertos con experiencia en el campo.

Más recursos:


Esta publicación fue publicada originalmente en Subpila Lily Ray NYC.


Imagen de portada: elenabsl/Shutterstock

(etiquetasToTranslate)SEO

spot_img
spot_img

Artículos relacionados

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Artículos populares