Los motores de búsqueda fueron diseñados para hacer varias cosas a la vez: clasificar un campo de opciones, dirigir al usuario a una de ellas y mantener al ser humano dentro de la decisión para que el motor nunca sea dueño de la elección. Esa última parte no fue un accidente. Era la arquitectura de responsabilidad. Se construyeron grandes modelos de lenguaje sin nada de eso. Fueron creados para responder la pregunta directamente, lo cual es un trabajo completamente diferente, y las opciones de diseño que se derivan de él cambian la apariencia de la visibilidad, el riesgo y la palabra. retorno de la inversión honestamente puede significar cuando lo que le envía tráfico nunca fue creado para enviar tráfico en primer lugar.
Dos sistemas, dos trabajos
La descripción del trabajo de un motor de búsqueda es larga. Rastrea la web, la indexa, clasifica un grupo de resultados candidatos según una consulta, los presenta como una lista clasificada y luego espera a que el humano tome una decisión al hacer clic. El SERP en sí ha estado avanzando hacia la retención desde hace años, con galerías, fragmentos enriquecidos, cuadros de respuestas, mapas locales, carruseles de video y descripciones generales de IA, todas capas de características que mantienen al usuario en la página por más tiempo y dirigen menos a sitios de terceros. Pero el contrato subyacente era siempre el mismo. El motor ofrece opciones. El usuario selecciona uno. El usuario es dueño de la elección.
Un LLM no ofrece opciones. Produce una respuesta. La citación, cuando aparece, no funciona como instrumento de encaminamiento. Está más cerca de un artefacto de conexión a tierra producido por una tubería de recuperación o, en algunos marcos, una cobertura de confianza o ambas cosas al mismo tiempo. Cualquiera que sea la lectura que prefiera, ninguna describe un sistema diseñado para enviar tráfico a otra parte. El sistema fue diseñado para resolver la cuestión existente.
Esa distinción se encuentra detrás de cada conversación métrica en este espacio. Cuando los profesionales preguntan cuál es la tasa de referencia de LLM, cómo es el número de tráfico atribuido, cuál es el clic de una respuesta de IA, están haciendo preguntas que suponen un mecanismo de enrutamiento que en realidad no forma parte de la arquitectura. Cualquier tráfico que llegue es un subproducto, no un objetivo de diseño, y confundir ambos es el primer error en casi todas las conversaciones sobre el ROI de la visibilidad de la IA.
La superficie de responsabilidad se movió
El humano en la decisión de hacer clic fue el escudo de SERP. Si el enlace que el usuario seleccionó conducía a algún lugar dañino, engañoso o difamatorio, el motor podría señalar la lista de opciones y la propia agencia del usuario al elegir una. El motor no había publicado el reclamo. Habían aparecido 10 fuentes candidatas, el usuario había elegido una y lo que sucedió a continuación no fue el resultado editorial del motor. Esa no es una característica pequeña. Ésa es la razón por la que las protecciones de la Sección 230 se estructuraron como estaban, y por la que la clasificación algorítmica se ha tratado tradicionalmente como algo más que el discurso directo.
Los LLM no tienen un escudo equivalente detrás del cual respaldarse. El sistema produce la respuesta directamente, con su propia voz, sin un campo de opciones ni una fuente seleccionada por el usuario. La superficie de responsabilidad que el SERP fue diseñado para descargar se encuentra con el modelo que produce el resultado, y los casos que ya han pasado por los tribunales están comenzando a esbozar los bordes de esa superficie.
Walters contra OpenAI fue desestimado mediante sentencia sumaria en mayo de 2025, y la decisión se basó en gran medida en las exenciones de responsabilidad de OpenAI y en un lector sofisticado que sabía razonablemente que el chatbot podía alucinar. Esa lectura protege a los chatbots de consumo de uso general en un tipo de caso muy específico. No protege todos los productos que utilizan un modelo de lenguaje. En un asunto separado, Air Canada fue considerada responsable por las declaraciones falsas de su chatbot de servicio al cliente sobre su propia política de tarifas por duelo, porque un cliente podía confiar razonablemente en el agente de soporte de marca de una aerolínea para obtener información precisa sobre las políticas de esa aerolínea. Confianza razonable es el término legal clave, y cuanto más especializado y autorizado parezca el chatbot, más difícil será defender la exención de responsabilidad.
El litigio activo todavía está trazando la frontera. OpenAI se enfrenta actualmente a múltiples demandas relacionadas con acusaciones de que ChatGPT llevó a los usuarios al suicidio o a delirios dañinos, varias de las cuales involucran a menores. Un juez federal permitió que procediera el caso de derechos de autor del New York Times contra OpenAI en marzo de 2025, y Anthropic llegó a un acuerdo con los autores de libros en agosto de 2025 por una suma reportada de miles de millones. Las quejas europeas sobre el RGPD siguen circulando por Noyb. Battle v. Microsoft todavía está activo. Ninguno de estos resultados se resuelve y algunos serán desestimados por los mismos motivos de exención de responsabilidad que resolvió Walters. La cuestión no es que los operadores de LLM vayan a perder todos los casos. El punto es que la superficie de responsabilidad ahora reside en el sistema que produce el resultado, ya sea que el demandante individual gane o pierda, y cada marca que se construye contra un LLM hereda alguna versión de esa superficie cuando utiliza el resultado del sistema en su propio trabajo de cara al cliente.
El problema del denominador
El argumento más común en contra de invertir en trabajos de visibilidad de la IA parece decisivo hasta que se analiza de cerca lo que está midiendo. El argumento es aproximado: ChatGPT y los demás envían una pequeña porción de tráfico de referencia, en algún lugar de un solo dígito del total entrante, entonces, ¿por qué reasignar el presupuesto hacia un canal que apenas mueve la aguja? La investigación de Conductor fija la proporción combinada de referencias de IA en aproximadamente el 1% del tráfico de los editores. Ese número es real. A primera vista, parece cerrar limpiamente la cuestión del retorno de la inversión.
No cierra nada. El problema es el denominador.
Si bien la participación de la IA en el tráfico se mantiene más o menos estable, el volumen absoluto de tráfico impulsado por búsquedas se ha desplomado en la mayoría de las categorías de editores. Datos de Similarweb muestran que el tráfico orgánico a los editores de noticias cayó de aproximadamente 2.300 millones de visitas mensuales a mediados de 2024 a menos de 1.700 millones en mayo de 2025, una pérdida de más de 600 millones de visitas en menos de un año. El tráfico de búsqueda de Business Insider cayó un 55% entre abril de 2022 y abril de 2025, el HuffPost perdió aproximadamente la mitad de sus referencias de búsqueda y The New York Times vio cómo la participación de las búsquedas en su tráfico de escritorio y móvil cayó del 44% al 37%. Las búsquedas sin clic aumentaron del 56 % al 69 % entre mayo de 2024 y mayo de 2025 a medida que las descripciones generales de IA se expandieron en todo el SERP. Una encuesta del Instituto Reuters a 280 líderes de medios a finales de 2025 encontró que esperan otra caída del 43% en promedio durante los próximos tres años.
En ese contexto, un porcentaje estable de un pastel cada vez más reducido no es estable. Es una pérdida. Los escépticos que señalan la cifra del 1% están midiendo la participación relativa de una base de tráfico que se está contrayendo por debajo de ellos, y están tratando una caída absoluta como si fuera un estado estable. La verdadera pregunta no es si los LLM están enviando tráfico significativo todavía. La verdadera pregunta es si el canal que solía enviar tráfico significativo sigue haciendo lo que solía hacer, y la respuesta es visiblemente no. El denominador se está moviendo y cualquier cálculo del ROI anclado al antiguo denominador es un cálculo del entorno anterior, no del actual.
Lo que dicen los miles de millones
Si los argumentos de diseño-intención, responsabilidad y denominador aún dejan lugar a dudas, el último lugar donde mirar es la preferencia revelada. ¿Qué hacen realmente con su capital las empresas con los datos internos más completos sobre el comportamiento de los usuarios?
La respuesta es inequívoca. Los cinco mayores proveedores de infraestructura de inteligencia artificial y nube de EE. UU. han comprometido entre 660 y 690 mil millones de dólares en gastos de capital para 2026, casi duplicando los niveles de 2025. Solo Alphabet apunta a entre 175 y 185 mil millones para 2026, más del doble de su gasto de 91 mil millones para 2025. Microsoft, Amazon, Meta y Oracle están siguiendo curvas igualmente agresivas. La cifra que más importa, y que desactiva el contraargumento habitual, proviene de los estrategas de crédito del Bank of America que estiman que el gasto de capital en IA alcanzará el 94% de los flujos de efectivo operativos en 2025 y 2026, frente al 76% en 2024.
Ésa no es la forma de una cobertura defensiva. Una cobertura es una fracción del flujo de caja, desplegada para evitar ser sorprendido si la apuesta de un competidor da resultado. Las empresas no colocan el 94% del flujo de caja operativo en una categoría durante dos años consecutivos a menos que el liderazgo realmente crea que la categoría es el negocio. Y esos equipos de liderazgo tienen acceso a datos que el resto de nosotros no tenemos. Pueden ver el interior de sus propios productos, sus propios cambios en el comportamiento de los usuarios, sus propios análisis de cohortes, sus propias conversaciones empresariales. Están legalmente obligados a desplegar el capital de los accionistas de una manera que refleje lo que realmente ven, y lo están desplegando hacia una arquitectura que produzca respuestas directas en lugar de listas clasificadas de opciones. Para creer que la búsqueda como la conocíamos sigue siendo el estándar de oro, hay que creer que docenas de directores ejecutivos, juntas directivas y equipos de liderazgo senior con décadas de datos internos están leyendo mal sus propios números, mientras que una industria externa sin ninguno de esos datos está leyendo el mercado correctamente. Eso no es lápiz.
El lado de la ecuación relacionado con el comportamiento humano plantea el mismo punto en un registro diferente. Todas las tecnologías que ahorran mano de obra que se han introducido alguna vez han remodelado el status quo más rápido de lo que predijeron sus escépticos, porque la eficiencia cognitiva no es una preferencia. Es un comportamiento de supervivencia, inherente a largos períodos en los que las calorías eran escasas y los atajos importaban. Cuando aparece una nueva herramienta que facilita significativamente alguna tarea, la adopción no es una cuestión de si. Es una cuestión de qué tan rápido y en qué curva. ChatGPT tiene ahora aproximadamente 900 millones de usuarios activos semanales, frente a los 200 millones de 18 meses antes, y la categoría completa supera los mil millones de usuarios activos en todas las plataformas. El comportamiento ya ha cambiado. El dinero ya se ha movido. Lo único que no ha cambiado por completo es el marco de medición que la mayoría de los profesionales todavía utilizan para evaluar el canal.
Lo que devuelve la pregunta a la que realmente vale la pena plantear. ¿Qué haces si no hay retorno de la inversión según la definición anterior y aún así no puedes ignorar el canal? La respuesta honesta es que las marcas necesitarán invertir en trabajo de visibilidad cuyo retorno no se exprese en clics o tráfico de referencias, porque los clics y el tráfico de referencias son artefactos del diseño anterior. Ser la fuente citada, la fuente fundamentada, la fuente confiable dentro de la respuesta es un tipo diferente de visibilidad y necesitará un tipo diferente de medición. Los equipos que se den cuenta de eso primero no lo harán porque encontraron un caso de retorno de la inversión que convenció a su director financiero. Lo harán porque observaron las curvas de gasto de capital, las curvas de comportamiento y las curvas de pasivo, y concluyeron que el canal es el futuro, independientemente de si la hoja de cálculo sabe todavía cómo calificarlo.
Si esto llega a algún lugar real de tu trabajo, o si se lee mal desde donde estás sentado, me gustaría saberlo. El cambio que está ocurriendo ahora es demasiado grande para el punto de vista de cualquier practicante, y la mejor señal que recibo proviene de las conversaciones que comienzan después de que finaliza el artículo.
Más recursos:
Esta publicación se publicó originalmente en Duane Forrester Decodes.
Imagen destacada: Krot_Studio/Shutterstock; Paulo Bobita/Buscador Diario

