Cómo la IA elige qué marcas recomendar

- Advertisement -spot_img

Pídale a ChatGPT o Claude que le recomienden un producto en su mercado. Si su marca no aparece, tiene un problema que ninguna optimización de palabras clave solucionará.

La mayoría de los profesionales de SEO, ante esto, piensan inmediatamente en el contenido. Más páginas, más palabras clave, mejores señales en la página. Pero la razón por la que su marca no aparece en una recomendación de IA puede no tener nada que ver con las páginas o las palabras clave. Tiene que ver con algo llamado conocimiento relacional y un artículo de investigación de 2019 del que la mayoría de los especialistas en marketing nunca han oído hablar.

El artículo que la mayoría de los especialistas en marketing se perdieron

En septiembre de 2019, Fabio Petroni y sus colegas de Facebook AI Research y University College London publicaron “¿Modelos lingüísticos como bases de conocimiento?” en EMNLP, una de las principales conferencias sobre procesamiento del lenguaje natural.

Su pregunta era sencilla: ¿un modelo de lenguaje previamente entrenado como BERT realmente almacena conocimiento fáctico en sus pesos? No patrones lingüísticos ni reglas gramaticales, sino hechos sobre el mundo. Cosas como “Dante nació en Florencia” o “el iPod Touch es producido por Apple”.

Para probar esto, construyeron una sonda llamada LAMA (Análisis de modelo de lenguaje). Tomaron hechos conocidos, miles de ellos extraídos de Wikidata, ConceptNet y SQuAD, y convirtieron cada uno en una declaración para completar. “Dante nació en ___”. Luego le pidieron a BERT que predijera la palabra que faltaba.

BERT, sin ningún ajuste, recordó el conocimiento fáctico a un nivel competitivo con una base de conocimiento diseñada específicamente. Esa base de conocimientos se construyó utilizando un sistema de extracción de relaciones supervisadas con un vinculador de entidades basado en Oracle, lo que significa que tenía acceso directo a las oraciones que contienen las respuestas. Un modelo de lenguaje que simplemente había leído una gran cantidad de texto funcionó casi igual de bien.

La modelo no buscaba respuestas. Había absorbido asociaciones entre entidades y conceptos durante el entrenamiento, y esas asociaciones eran recuperables. BERT había construido un mapa interno de cómo se relacionan las cosas en el mundo entre sí.

Después de esto, la comunidad de investigación comenzó a tomar en serio la idea de que los modelos lingüísticos funcionan como almacenes de conocimiento, no simplemente como motores de comparación de patrones.

Qué significa “conocimiento relacional”

Petroni puso a prueba lo que él y otros llamaron conocimiento relacional: hechos expresados ​​como una tripleta de sujeto, relación y objeto. Por ejemplo: (Dante, (nacido en), Florencia). (Kenia, (relaciones-diplomaticas-con), Uganda). (iPod Touch, (producido por), Apple).

Lo que hace que esto sea interesante para la visibilidad de la marca (y AIO) es que el equipo de Petroni descubrió que la capacidad del modelo para recordar un hecho depende en gran medida del tipo estructural de la relación. Identificaron tres tipos y las diferencias de precisión entre ellos eran grandes.

Relaciones 1 a 1: un sujeto, un objeto

Estos son hechos inequívocos. “La capital de Japón es ___”. Hay una respuesta: Tokio. Cada vez que el modelo encontraba Japón y el capital en los datos de entrenamiento, aparecía el mismo objeto. La asociación se desarrolló limpiamente tras la exposición repetida.

BERT acertó el 74,5% de las veces, lo cual es alto para un modelo que nunca fue capacitado explícitamente para responder preguntas fácticas.

Relaciones N a 1: muchos sujetos, un objeto

Aquí, muchos sujetos diferentes comparten el mismo objeto. “El idioma oficial de Mauricio es ___”. La respuesta es el inglés, pero el inglés también es la respuesta para decenas de otros países. El modelo ha visto el patrón (país → idioma oficial → inglés) muchas veces, por lo que conoce bien la forma de la respuesta. Pero a veces elige por defecto el objeto estadísticamente más común en lugar del correcto para ese tema específico.

Leer  Un desglose de la guía de Microsoft sobre AEO y GEO

La precisión cayó a alrededor del 34%. El modelo conoce la categoría pero se confunde dentro de ella.

Relaciones N-a-M: muchos sujetos, muchos objetos

Aquí es donde las cosas se complican. “Patrick Oboya juega en la posición ___”. Un solo futbolista puede jugar de mediocampista, delantero o extremo según el contexto. Y muchos futbolistas diferentes comparten cada una de esas posiciones. El mapeo es flojo en ambas direcciones.

La precisión de BERT aquí fue solo del 24%. El modelo normalmente predice algo del tipo correcto (dirá una posición, no una ciudad), pero no puede comprometerse con una respuesta específica porque los datos de entrenamiento contienen demasiadas señales en competencia.

Esto me parece muy útil porque se relaciona directamente con lo que sucede cuando una IA intenta recomendar una marca. Las marcas (sin monopolios) operan en una relación de “muchos a muchos”. Por lo tanto, “Recomendar una (marca) con una (característica)” es una de las cosas más difíciles de “predecir” para la IA con coherencia. Volveré sobre eso…

Qué ha pasado desde 2019

El artículo de Petroni estableció que los modelos lingüísticos almacenan conocimiento relacional. La siguiente pregunta obvia era: ¿dónde exactamente?

En 2022, Damai Dai y sus colegas de Microsoft Research publicaron “Knowledge Neurons in Pretrained Transformers” en ACL. Introdujeron un método para localizar neuronas específicas en las capas de retroalimentación de BERT que son responsables de expresar hechos específicos. Cuando activaron estas “neuronas del conocimiento”, la probabilidad del modelo de producir el hecho correcto aumentó en un promedio del 31%. Cuando los suprimieron, bajó un 29%.

¡DIOS MÍO! Esto no es una metáfora. Las asociaciones fácticas están codificadas en neuronas identificables dentro del modelo. Puedes encontrarlos y puedes cambiarlos.

Más tarde ese año, Kevin Meng y sus colegas del MIT publicaron “Locating and Editing Factual Associations in GPT” en NeurIPS. Esto tomó las mismas ideas y las aplicó a modelos estilo GPT, que es la arquitectura detrás de ChatGPT, Claude y los asistentes de inteligencia artificial que los compradores realmente usan cuando piden recomendaciones. El equipo de Meng descubrió que podían identificar los componentes específicos dentro de GPT que se activan cuando el modelo recuerda un hecho sobre un tema.

Más importante aún, podrían cambiar esos hechos. Podrían editar lo que el modelo “cree” acerca de una entidad sin volver a entrenar todo el sistema.

Ese hallazgo es importante para los SEO. Si las asociaciones dentro de estos modelos fueran fijas y permanentes, no habría nada que optimizar. Pero no están arreglados. Están moldeados por lo que el modelo absorbió durante el entrenamiento y cambian cuando el modelo se vuelve a entrenar con nuevos datos. El contenido web, la documentación técnica, las discusiones de la comunidad, los informes de analistas que existan cuando se realice la próxima capacitación determinarán qué marcas asocia el modelo con qué temas.

Entonces, el progreso de 2019 a 2022 se ve así. Petroni demostró que los modelos almacenan conocimiento relacional. Dai mostró dónde se almacena. Meng demostró que se puede cambiar. Ese último punto es el que más debería importarle a cualquiera que intente influir en la forma en que la IA recomienda marcas.

Qué significa esto para las marcas en la búsqueda por IA

Permítanme traducir los tres tipos de relaciones de Petroni en escenarios de posicionamiento de marca.

La marca 1 a 1: Tight Association

Piense en Stripe y los pagos en línea. La asociación es específica y se refuerza constantemente en toda la web. Documentación para desarrolladores, debates sobre fintech, columnas de consejos para startups, guías de integración: todos conectan a Stripe con el mismo concepto. Cuando alguien le pregunta a una IA: “¿Cuál es la mejor plataforma de procesamiento de pagos para desarrolladores?” el modelo recupera Stripe con alta confianza, porque el vínculo relacional no es ambiguo.

Leer  Automattic termina el 16% de la fuerza laboral

Esta es la dinámica 1 a 1 de Petroni. Señal fuerte, sin ruido competitivo.

La marca N-To-1: perdida en la categoría

Ahora considere ser uno de los 15 proveedores de ciberseguridad asociados con la “protección de terminales”. El modelo conoce bien la categoría. Ha sido testigo de miles de debates sobre la protección de terminales. Pero cuando se le pide que recomiende un proveedor específico, por defecto elige la marca que tenga la señal de asociación más fuerte. Por lo general, ese es el que más se discute en contextos autorizados: informes de analistas, foros técnicos, documentación de estándares.

Si tu marca está presente en la conversación pero no diferenciada, estás en una situación N a 1. El modelo puede mencionarte ocasionalmente, pero tenderá a recuperar la marca con la asociación más fuerte.

La marca N-To-M: en todas partes y en ninguna

Esta es la posición más difícil. Una gran empresa de software empresarial que opera en infraestructura de nube, consultoría, bases de datos y hardware tiene asociaciones con muchos temas, pero cada uno de esos temas también está asociado con muchos competidores. Las asociaciones son vagas en ambas direcciones.

El resultado es lo que Petroni observó con las relaciones N a M: el modelo produce algo del tipo correcto pero no puede comprometerse con una respuesta específica. La marca aparece ocasionalmente en las recomendaciones de IA, pero nunca de manera confiable para una consulta específica.

Veo este patrón con frecuencia cuando trabajo con marcas empresariales. Han invertido mucho en contenido sobre muchos temas, pero no han construido el tipo de asociaciones concentradas y reforzadas que el modelo necesita para recuperarlas con confianza para uno solo.

Midiendo la brecha

Si acepta la premisa, y la investigación la respalda, de que las recomendaciones de IA están impulsadas por asociaciones relacionales almacenadas en los pesos del modelo, entonces la pregunta práctica es: ¿puede medir dónde se ubica su marca en ese panorama?

AI Share of Voice es la métrica con la que comienzan la mayoría de los equipos. Le indica con qué frecuencia aparece su marca en las respuestas generadas por IA. Eso es útil, pero es una puntuación sin diagnóstico. Saber que su Share of Voice es del 8 % no le dice por qué es del 8 % ni qué temas específicos lo mantienen fuera de las recomendaciones en las que debería aparecer.

Dos marcas pueden tener puntuaciones idénticas de Share of Voice por razones estructurales completamente diferentes. Uno podría estar ampliamente asociado con muchos temas pero débilmente en cada uno de ellos. Otro podría estar profundamente asociado con dos temas pero invisible en todos los demás. Estos son problemas diferentes que requieren estrategias diferentes.

Esta es la brecha que una métrica llamada AI Topical Presence, desarrollada por Waikay, está diseñada para abordar. En lugar de medir si apareces, mide con qué te asocia la IA y con qué no. (Divulgación: soy el director ejecutivo de Waikay)

La presencia temática es tan importante como la participación de voz (Imagen del autor, marzo de 2026)

La métrica captura tres dimensiones. La profundidad mide la fuerza con la que la IA conecta su marca con temas relevantes, ponderados por importancia. La amplitud mide cuántos de los temas comerciales centrales de su mercado asocia la IA con su marca. La concentración mide cuán uniformemente se distribuyen esas asociaciones, utilizando un índice Herfindahl-Hirschman tomado de la economía de la competencia.

Leer  Cuando el límite de datos de entrenamiento se convierte en un factor de clasificación

Una marca con gran profundidad pero poca amplitud es bien conocida por algunas cosas pero invisible para muchas otras. Una marca con amplia cobertura pero alta concentración es frágil: una actualización de modelo podría cambiar significativamente su visibilidad. El desglose de los componentes le indica qué problema tiene y qué palanca tirar.

En el gráfico anterior, comenzamos a ver cómo las diferentes marcas realmente compiten entre sí de una manera que no habíamos podido ver antes. Por ejemplo, Inlinks compite mucho más estrechamente con un producto llamado Neuronwriter de lo que se pensaba anteriormente. Neuronwriter tiene menos participación (probablemente los ayudé escribiendo este artículo… ¡ups!), pero tienen una mejor presencia temática en torno al mensaje: “¿Cuáles son las mejores herramientas de SEO semántico?” Entonces, en igualdad de condiciones, un poco de marketing es todo lo que necesitan para adoptar Inlinks. Esto, por supuesto, supone que Inlinks se detenga. No lo hará. Por el contrario, la amenaza de Ahrefs está siempre presente, pero al ser una oferta de servicio completo, tienen que distribuir su “participación” en toda su oferta de productos. Entonces, si bien su presencia actual es alta, la marca no es la opción natural que debe elegir un LLM para este tema.

Esto se conecta con el marco de Petroni. Si su marca está en una posición 1 a 1 para algunos temas pero ausente en otros, la presencia temática le muestra dónde están las brechas. Si se encuentra en una situación N a 1 o N a M, le ayudará a identificar qué asociaciones necesitan fortalecerse y en qué temas los competidores ya han construido posiciones dominantes.

Desde páginas de clasificación hasta creación de asociaciones

Durante 25 años, el SEO se ha centrado en clasificar páginas. El PageRank en sí era un algoritmo a nivel de página; la pista siempre estuvo en el nombre (IYKYK… No hace falta que me corrijas…). Incluso cuando Google avanzó hacia las entidades y los gráficos de conocimiento, el trabajo práctico del SEO siguió arraigado en las palabras clave, los enlaces y la optimización de la página.

La visibilidad de la IA requiere algo diferente. Los modelos que generan recomendaciones de marca recuperan asociaciones construidas durante la capacitación, formadas a partir de patrones de coexistencia en muchos contextos. Una marca que publica 500 publicaciones de blog sobre “confianza cero” no generará la misma fuerza de asociación que una marca que aparece en la documentación del NIST, discusiones entre pares, informes de analistas e integraciones técnicas.

Esta es una noticia fantástica para las marcas que hacen un buen trabajo en sus mercados. El volumen de contenido por sí solo no crea asociaciones relacionales fuertes. El proceso de entrenamiento del modelo funciona como un filtro de calidad: aprende de patrones en todo el corpus, no de una sola página. Una marca con experiencia real, discutida en muchos contextos por muchas voces, creará asociaciones más fuertes que una marca que simplemente publica más.

La pregunta que hay que hacerse no es “¿Tenemos una página sobre este tema?” Es: “Si alguien leyera todo lo que la IA ha absorbido sobre este tema, ¿nuestra marca parecería un participante creíble en la conversación?”

Ésa es una pregunta más difícil. Pero la investigación que comenzó con las pruebas de completar espacios en blanco de Petroni en 2019 nos ha brindado una comprensión suficiente del mecanismo para medirlo. Y lo que puedes medir, lo puedes mejorar.

Más recursos:


Imagen de portada: SvetaZi/Shutterstock

(etiquetasToTranslate)SEO

spot_img
spot_img

Artículos relacionados

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Artículos populares