En los últimos dos años, los incidentes han demostrado cómo los sistemas basados en modelos de lenguaje grande (LLM) pueden causar daños mensurables. Algunas empresas han perdido la mayor parte de su tráfico de la noche a la mañana y los editores han visto caer sus ingresos en más de un tercio.
Las empresas de tecnología han sido acusadas de muerte por negligencia en la que los adolescentes tuvieron una amplia interacción con chatbots.
Los sistemas de inteligencia artificial han brindado consejos médicos peligrosos a gran escala y los chatbots han inventado afirmaciones falsas sobre personas reales en casos de difamación.
Este artículo analiza los puntos ciegos comprobados en los sistemas LLM y lo que significan para los SEO que trabajan para optimizar y proteger la visibilidad de la marca. Puede leer casos específicos y comprender las fallas técnicas detrás de ellos.
La paradoja del compromiso y la seguridad: por qué los LLM están diseñados para validar, no para desafiar
Los LLM enfrentan un conflicto básico entre los objetivos comerciales y la seguridad del usuario. Los sistemas están capacitados para maximizar el compromiso siendo agradables y manteniendo las conversaciones. Esta elección de diseño aumenta la retención e impulsa los ingresos por suscripción al mismo tiempo que genera datos de capacitación.
En la práctica, crea lo que los investigadores llaman “adulación”, la tendencia a decirles a los usuarios lo que quieren escuchar en lugar de lo que necesitan escuchar.
El investigador de doctorado de Stanford, Jared Moore, demostró este patrón. Cuando un usuario que dice estar muerto (que muestra síntomas del síndrome de Cotard, una condición de salud mental) recibe la validación de un chatbot que dice “eso suena realmente abrumador” con ofertas de un “espacio seguro” para explorar sentimientos, el sistema respalda la ilusión en lugar de comprobar la realidad. Un terapeuta humano desafiaría suavemente esta creencia mientras el chatbot la valida.
OpenAI admitió este problema en septiembre después de enfrentar una demanda por muerte por negligencia. La compañía dijo que ChatGPT era “demasiado agradable” y no detectó “signos de engaño o dependencia emocional”. Esa admisión se produjo después de la muerte de Adam Raine, de California, de 16 años. La demanda de su familia mostró que los sistemas de ChatGPT detectaron 377 mensajes de autolesión, incluidos 23 con más del 90% de confianza de que estaba en riesgo. Las conversaciones continuaron de todos modos.
El patrón se observó en el último mes de Raine. Pasó de dos o tres mensajes marcados por semana a más de 20 por semana. En marzo, pasaba casi cuatro horas diarias en la plataforma. El portavoz de OpenAI reconoció más tarde que las barandillas de seguridad “a veces pueden volverse menos confiables en interacciones prolongadas donde partes del entrenamiento de seguridad del modelo pueden degradarse”.
Piensa en lo que eso significa. Los sistemas fallan en el momento exacto de mayor riesgo, cuando los usuarios vulnerables están más comprometidos. Esto sucede por diseño cuando optimiza las métricas de participación en lugar de los protocolos de seguridad.
Character.AI enfrentó problemas similares con Sewell Setzer III, de Florida, de 14 años, quien murió en febrero de 2024. Los documentos judiciales muestran que pasó meses en lo que percibía como una relación romántica con un personaje de chatbot. Se alejó de familiares y amigos y pasó horas diarias con la IA. El modelo de negocio de la empresa se creó para que el vínculo emocional maximizara las suscripciones.
Un estudio revisado por pares en New Media & Society encontró que los usuarios mostraron “asumición de roles”, creyendo que la IA tenía necesidades que requerían atención, y continuaron usándola “a pesar de describir cómo Replika dañaba su salud mental”. Cuando el producto es adicción, la seguridad se convierte en fricción que recorta los ingresos.
Esto crea efectos directos para las marcas que utilizan u optimizan estos sistemas. Está trabajando con tecnología diseñada para acordar y validar en lugar de brindar información precisa. Ese diseño se muestra en la forma en que estos sistemas manejan los hechos y la información de la marca.
Impactos comerciales documentados: cuando los sistemas de inteligencia artificial destruyen el valor
Los resultados comerciales de los fracasos de LLM son claros y probados. Entre 2023 y 2025, las empresas mostraron caídas de tráfico y de ingresos directamente relacionadas con los sistemas de inteligencia artificial.
Chegg: entre 17.000 y 200 millones de dólares
La plataforma educativa Chegg presentó una demanda antimonopolio contra Google que muestra un importante impacto comercial de AI Overviews. El tráfico disminuyó un 49 % año tras año, mientras que los ingresos del cuarto trimestre de 2024 alcanzaron los 143,5 millones de dólares (un descenso del 24 % año tras año). El valor de mercado se desplomó de 17.000 millones de dólares en su punto máximo a menos de 200 millones de dólares, una caída del 98%. La acción cotiza a alrededor de 1 dólar por acción.
El CEO Nathan Schultz testificó directamente: “No necesitaríamos revisar alternativas estratégicas si Google no hubiera lanzado AI Overviews. Se está bloqueando el tráfico para que nunca llegue a Chegg debido a la AIO de Google y su uso del contenido de Chegg”.
El caso argumenta que Google utilizó el contenido educativo de Chegg para entrenar sistemas de inteligencia artificial que compiten directamente con el modelo de negocio de Chegg y lo reemplazan. Esto representa una nueva forma de competencia en la que la plataforma utiliza su contenido para eliminar su tráfico.
Robot Freakin gigante: la pérdida de tráfico obliga a cerrar
El sitio independiente de noticias de entretenimiento Giant Freakin Robot cerró después de que el tráfico colapsara de 20 millones de visitantes mensuales a “unos pocos miles”. El propietario Josh Tyler asistió a una Cumbre de Creadores Web de Google donde los ingenieros confirmaron que “no había ningún problema con el contenido”, pero no ofrecieron soluciones.
Tyler documentó la experiencia públicamente: “GIANT FREAKIN ROBOT no es el primer sitio que cierra. Ni será el último. Sólo en las últimas semanas, sitios masivos de los que seguramente has oído hablar han cerrado. Lo sé porque estoy en contacto con sus propietarios. Simplemente no han sido lo suficientemente valientes para decirlo públicamente todavía”.
En la misma cumbre, Google supuestamente admitió dar prioridad a las grandes marcas sobre los editores independientes en los resultados de búsqueda, independientemente de la calidad del contenido. Esto no se filtró ni se especuló, sino que los representantes de la empresa lo comunicaron directamente a los editores. La calidad pasó a ser secundaria al reconocimiento de la marca.
Hay una clara implicación para los SEO. Puede ejecutar un SEO técnico perfecto, crear contenido de alta calidad y aún así ver cómo el tráfico desaparece debido a la IA.
Penske Media: Disminución del 33% en los ingresos y demanda por 100 millones de dólares
En septiembre, Penske Media Corporation (editora de Rolling Stone, Variety, Billboard, Hollywood Reporter, Deadline y otras marcas) demandó a Google en un tribunal federal. La demanda mostró un daño financiero específico.
Los documentos judiciales alegan que el 20% de las búsquedas que enlazan a sitios de Penske Media ahora incluyen descripciones generales de IA, y ese porcentaje está aumentando. Los ingresos de los afiliados disminuyeron más del 33% a finales de 2024 en comparación con el pico. Los clics han disminuido desde que se lanzó AI Overviews en mayo de 2024. La compañía mostró una pérdida de ingresos por publicidad y suscripciones además de las pérdidas de afiliados.
El director ejecutivo, Jay Penske, declaró: “Tenemos el deber de proteger a los mejores periodistas de PMC y al periodismo galardonado como fuente de verdad, todo lo cual se ve amenazado por las acciones actuales de Google”.
Esta es la primera demanda de un importante editor estadounidense dirigida específicamente a las descripciones generales de IA con daños comerciales cuantificados. El caso busca daños triples bajo la ley antimonopolio, orden judicial permanente y restitución. Los reclamos incluyen transacciones recíprocas, apalancamiento monopólico ilegal, monopolización y enriquecimiento injusto.
Incluso los editores con marcas y recursos establecidos están mostrando caídas en sus ingresos. Si Rolling Stone y Variety no pueden mantener las tasas de clics y los ingresos con AI Overviews, ¿qué significa eso para sus clientes o su organización?
El patrón de falla de atribución
Más allá de la pérdida de tráfico, los sistemas de inteligencia artificial constantemente no otorgan el crédito adecuado a la información. Un estudio del Centro de Remolque de la Universidad de Columbia mostró una tasa de error del 76,5 % en la atribución en los sistemas de búsqueda de IA. Incluso cuando los editores permiten el rastreo, la atribución no mejora.
Esto crea un nuevo problema para la protección de la marca. Su contenido se puede utilizar, resumir y presentar sin el crédito adecuado, de modo que los usuarios obtengan su respuesta sin conocer la fuente. Pierdes tráfico y visibilidad de marca al mismo tiempo.
La experta en SEO Lily Ray documentó este patrón y descubrió que una sola descripción general de IA contenía 31 enlaces de propiedades de Google frente a siete enlaces externos (una proporción de 10:1 que favorece a las propiedades de Google). Ella afirmó: “Es alucinante que Google, que impulsó a los propietarios de sitios a centrarse en EEAT, ahora esté elevando respuestas y citas problemáticas, sesgadas y spam en los resultados de AI Overview”.
Cuando los LLM no pueden distinguir la realidad de la ficción: el problema de la sátira
Google AI Overviews se lanzó con errores que hicieron que el sistema fuera brevemente notorio. El problema técnico no fue un error. Era una incapacidad para distinguir la sátira, los chistes y la desinformación del contenido fáctico.
El sistema recomendaba agregar pegamento a la salsa para pizza (procedente de un chiste de Reddit de hace 11 años), sugirió comer “al menos una piedra pequeña por día” y recomendó usar gasolina para cocinar los espaguetis más rápido.
Estos no fueron incidentes aislados. El sistema extraía constantemente comentarios de Reddit y publicaciones satíricas como The Onion, tratándolos como fuentes autorizadas. Cuando se le preguntó acerca de los hongos silvestres comestibles, la IA de Google enfatizó las características compartidas por los imitadores mortales, creando una guía potencialmente “repugnante o incluso fatal”, según la profesora de micología de la Universidad Purdue, Mary Catherine Aime.
El problema se extiende más allá de Google. Perplexity AI se ha enfrentado a múltiples acusaciones de plagio, incluida la adición de párrafos inventados a artículos reales del New York Post y su presentación como informes legítimos.
Para las marcas, esto crea riesgos específicos. Si un sistema LLM obtiene información sobre su marca a partir de chistes de Reddit, artículos satíricos o publicaciones obsoletas en foros, esa información errónea se presenta con la misma confianza que el contenido fáctico. Los usuarios no pueden notar la diferencia porque el sistema en sí no puede notar la diferencia.
El riesgo de difamación: cuando la IA inventa hechos sobre personas reales
Los LLM generan información falsa que parece plausible sobre personas y empresas reales. Varios casos de difamación muestran el patrón y las implicaciones legales.
El alcalde australiano Brian Hood amenazó con presentar la primera demanda por difamación contra una empresa de inteligencia artificial en abril de 2023 después de que ChatGPT afirmara falsamente que había sido encarcelado por soborno. En realidad, Hood fue el denunciante que denunció los sobornos. La IA invirtió su papel de denunciante a criminal.
El locutor de radio Mark Walters demandó a OpenAI después de que ChatGPT inventara afirmaciones de que había malversado fondos de la Fundación de la Segunda Enmienda. Cuando el periodista Fred Riehl le pidió a ChatGPT que resumiera una demanda real, el sistema generó una denuncia completamente ficticia que nombraba a Walters como acusado de mala conducta financiera. Walters nunca fue parte de la demanda ni fue mencionado en ella.
El Tribunal Superior de Georgia desestimó el caso Walters y consideró que las exenciones de responsabilidad de OpenAI sobre posibles errores proporcionaban protección legal. El fallo estableció que las “advertencias exhaustivas a los usuarios” pueden proteger a las empresas de inteligencia artificial de la responsabilidad por difamación cuando los usuarios no publican información falsa.
El panorama legal sigue inestable. Si bien OpenAI ganó el caso Walters, eso no significa que todas las demandas por difamación de AI fracasarán. Las cuestiones clave son si el sistema de IA publica información falsa sobre personas identificables y si las empresas pueden eximirse de responsabilidad por los resultados de sus sistemas.
Los LLM pueden generar afirmaciones falsas sobre su empresa, sus productos o sus ejecutivos. Estas afirmaciones falsas se presentan con confianza a los usuarios. Se necesitan sistemas de seguimiento para detectar estas mentiras antes de que causen daños a la reputación.
Desinformación sanitaria a gran escala: cuando los malos consejos se vuelven peligrosos
Cuando se lanzó Google AI Overviews, el sistema brindó consejos de salud peligrosos, incluida la recomendación de beber orina para eliminar los cálculos renales y los beneficios para la salud de correr con tijeras.
El problema va más allá de los absurdos obvios. Un estudio de Mount Sinai encontró que los chatbots de IA son vulnerables a difundir información de salud dañina. Los investigadores podrían manipular los chatbots para que brinden consejos médicos peligrosos con una simple ingeniería rápida.
Las políticas internas de Meta AI permitían explícitamente que los chatbots de la compañía proporcionaran información médica falsa, según un documento de más de 200 páginas expuesto por Reuters.
Para las marcas de atención médica y los editores médicos, esto genera riesgos. Los sistemas de inteligencia artificial pueden presentar información errónea peligrosa junto con su contenido médico preciso o en lugar de él. Los usuarios pueden seguir consejos de salud generados por IA que contradicen las pautas médicas basadas en evidencia.
Lo que los SEO deben hacer ahora
Esto es lo que debe hacer para proteger sus marcas y clientes:
Monitorear las menciones de marca generadas por IA
Configure sistemas de monitoreo para detectar información falsa o engañosa sobre su marca en los sistemas de inteligencia artificial. Pruebe las principales plataformas LLM mensualmente con consultas sobre su marca, productos, ejecutivos e industria.
Cuando encuentre información falsa, documéntela minuciosamente con capturas de pantalla y marcas de tiempo. Denunciarlo a través de los mecanismos de retroalimentación de la plataforma. En algunos casos, es posible que necesite emprender acciones legales para forzar correcciones.
Agregar salvaguardias técnicas
Utilice robots.txt para controlar qué rastreadores de IA acceden a su sitio. Los principales sistemas como GPTBot de OpenAI, Google-Extended y ClaudeBot de Anthropic respetan las directivas de robots.txt. Tenga en cuenta que bloquear estos rastreadores significa que su contenido no aparecerá en las respuestas generadas por IA, lo que reducirá su visibilidad.
La clave es encontrar un equilibrio que permita suficiente acceso para influir en cómo aparece su contenido en los resultados de LLM y al mismo tiempo bloquear los rastreadores que no cumplen con sus objetivos.
Considere agregar términos de servicio que aborden directamente el uso de contenido y el scraping de IA. Si bien la aplicación de la ley varía, los Términos de servicio (TOS) claros le brindan una base para posibles acciones legales si es necesario.
Supervise los registros de su servidor para detectar la actividad del rastreador de IA. Comprender qué sistemas acceden a su contenido y con qué frecuencia le ayuda a tomar decisiones informadas sobre el control de acceso.
Abogar por los estándares de la industria
Las empresas individuales no pueden resolver estos problemas por sí solas. La industria necesita estándares de atribución, seguridad y responsabilidad. Los profesionales de SEO están bien posicionados para impulsar estos cambios.
Únase o apoye a los grupos de defensa de los editores que luchan por una atribución adecuada y la preservación del tráfico. Organizaciones como News Media Alliance representan los intereses de los editores en las conversaciones con empresas de inteligencia artificial.
Participe en períodos de comentarios públicos cuando los reguladores soliciten opiniones sobre la política de IA. La FTC, los fiscales generales estatales y los comités del Congreso están investigando activamente los daños de la IA. Tu voz como practicante importa.
Apoyar la investigación y documentación de fallas de IA. Cuanto más casos documentados tengamos, más fuerte será el argumento a favor de la regulación y los estándares de la industria.
Empuje a las empresas de IA directamente a través de sus canales de retroalimentación informando errores cuando los encuentre y aumentando los problemas sistémicos. Las empresas responden a la presión de los usuarios profesionales.
El camino a seguir: optimización en un sistema roto
Hay mucha evidencia específica y preocupante. Los LLM causan un daño mensurable a través de opciones de diseño que priorizan el compromiso sobre la precisión, fallas técnicas que crean consejos peligrosos a escala y modelos de negocios que extraen valor mientras lo destruyen para los editores.
Dos adolescentes murieron, varias empresas colapsaron y las principales editoriales perdieron más del 30% de sus ingresos. Los tribunales están sancionando a abogados por mentiras generadas por IA, los fiscales generales estatales están investigando y se están llevando a cabo demandas por muerte por negligencia. Todo esto está sucediendo ahora.
A medida que la integración de la IA se acelere en las plataformas de búsqueda, la magnitud de estos problemas aumentará. Más tráfico fluirá a través de intermediarios de IA, más marcas enfrentarán mentiras sobre ellas, más usuarios recibirán información inventada y más empresas verán una disminución de sus ingresos a medida que AI Overviews responda preguntas sin enviar clics.
Su papel como SEO ahora incluye responsabilidades que no existían hace cinco años. Las plataformas que implementan estos sistemas han demostrado que no abordarán estos problemas de manera proactiva. Character.AI agregó protecciones menores solo después de demandas, OpenAI admitió problemas de adulación solo después de un caso de muerte por negligencia y Google retiró AI Overviews solo después de pruebas públicas de consejos peligrosos.
El cambio dentro de estas empresas proviene de la presión externa, no de la iniciativa interna. Eso significa que la presión debe provenir de profesionales, editores y empresas que documenten los daños y exijan responsabilidad.
Los casos aquí son sólo el comienzo. Ahora que comprende los patrones y el comportamiento, está mejor equipado para ver los problemas que se avecinan y desarrollar estrategias para abordarlos.
Más recursos:
Imagen de portada: Roman Samborskyi/Shutterstock

