Descubra datos de actualización básicos, consejos para mapas del sitio y riesgos de la IA – SEO Pulse

- Advertisement -spot_img

Bienvenido al SEO Pulse de la semana para conocer las mejores noticias de esta semana: las actualizaciones cubren lo que los primeros datos revelan sobre la actualización principal de Discover de febrero, por qué Google puede ignorar un mapa de sitio válido y cómo las empresas están tratando de jugar con la memoria del asistente de IA.

Esto es lo que importa para usted y su trabajo.

Actualización de Discover Core: los primeros datos muestran menos editores, más temas

NewzDash publicó un análisis que compara la visibilidad de Discover antes y después de la actualización principal de Discover de febrero de Google utilizando datos de panel de millones de usuarios de EE. UU.

Las ventanas previas a la actualización (del 25 al 31 de enero) y posteriores a la actualización (del 8 al 14 de febrero) cubrieron los 1.000 dominios principales y los 1.000 artículos principales en los EE. UU., California y Nueva York. Las categorías de contenido único crecieron en las tres vistas geográficas, pero los editores únicos disminuyeron en EE. UU. (de 172 a 158 dominios) y California (de 187 a 177).

Los dominios locales de Nueva York aparecieron aproximadamente cinco veces más a menudo en el feed de Nueva York que en el de California. Yahoo pasó de múltiples artículos en el top 100 de EE. UU. a cero después de la actualización, y las publicaciones de X.com de cuentas institucionales subieron de tres a 13 artículos en el mismo rango.

Por qué esto importa

Google describió la actualización como dirigida a contenido más relevante a nivel local, menos clickbait y una cobertura más profunda de sitios con experiencia en el tema. Los datos de NewzDash proporcionan una lectura temprana clara sobre la localización y la combinación de temas, aunque la señal de clickbait es más difícil de confirmar ya que los marcadores de titulares por sí solos no pueden probar si el contenido sensacionalista disminuyó.

El patrón más amplio de sitios especializados ganando terreno sobre los generalistas sigue la línea de lo que mostró el análisis de la actualización principal de diciembre. Los sitios con una fuerte identidad local pueden obtener ganancias en sus mercados locales y perder visibilidad en otros lugares.

Lo que dice la gente

Cuando Google lanzó la actualización junto con la documentación revisada de Discover, Glenn Gabe, consultor de SEO en GSQi, comparó las versiones antiguas y nuevas en X y señaló una adición que no había estado antes en la guía específica de Discover:

“Más allá del clickbait y cosas relacionadas, la documentación de Discover ahora también incluye ‘Proporcionar una excelente experiencia de página’. Así que ya sabes, ten cuidado con la sobrecarga de tu página con anuncios molestos, basura de reproducción automática y más”.

La reacción más amplia se ha dividido entre quienes informan ganancias en los feeds a nivel estatal y otros que notan fuertes caídas en el tráfico de Discover.

Leer  Lo que las agencias necesitan saber para los clientes de búsqueda local

Lea nuestra cobertura completa: Actualización de Google Discover: los primeros datos muestran menos dominios en EE. UU.

Mueller dice que Google puede omitir mapas de sitio sin contenido “nuevo e importante”

John Mueller, defensor de búsqueda de Google, respondió a una pregunta de Reddit sobre errores persistentes en la búsqueda de mapas del sitio en Search Console. El propietario del sitio había confirmado a través de los registros del servidor que el robot de Google obtuvo el mapa del sitio con una respuesta 200, pero Search Console seguía mostrando el error “no se pudo recuperar” a pesar de que el XML era válido y las directivas de indexación correctas.

Mueller dijo que Google tiene que estar “interesado en indexar más contenido del sitio” y que no utilizará el mapa del sitio si no está convencido de que hay contenido “nuevo e importante” para indexar.

Por qué esto importa

Los errores de recuperación del mapa del sitio son una de las señales más confusas en Search Console porque pueden aparecer incluso cuando el lado del servidor parece correcto. Es posible que ejecutar la lista de verificación estándar de validación XML, códigos de respuesta y reglas de robots.txt no surja el problema si Google simplemente no ve razones suficientes para indexar lo que hay detrás de las URL.

Roger Montti, quien cubrió esto para Search Engine Journal, señaló que Mueller fue amplio en su descripción, pero pensar en lo que hace que un visitante del sitio esté satisfecho puede ayudarlo a identificar qué necesita mejorar.

Lo que dice la gente

La historia continúa un debate en SEO acerca de que los mapas de sitio son sugerencias, no directivas. Algunos argumentan que Google ignora los mapas de sitio para sitios pequeños o que no son de noticias, confiando en su lugar en enlaces, mientras que otros señalan que Google no dice que “pierde confianza” en un sitio cuando un mapa de sitio no se utiliza.

Leer  Dentro de los esfuerzos de Snap para escalar audiencias personalizadas con la sala limpia de Epsilon

La respuesta de Mueller añadió una nueva perspectiva de la demanda de indexación que la comunidad no había considerado ampliamente.

Lea nuestra cobertura completa: Fundamentos de SEO: Google explica por qué no puede utilizar un mapa del sitio

Microsoft encuentra envenenamiento de la memoria de la IA a través de los botones “Resumir”

El equipo de investigación de seguridad Defender de Microsoft publicó una investigación que describe lo que llama “envenenamiento por recomendación de IA”. La técnica implica que las empresas oculten instrucciones de inyección rápida dentro de los botones del sitio web con la etiqueta “Resumir con IA”.

Al hacer clic en uno de estos botones, se abre un asistente de IA con un mensaje precargado entregado a través de un parámetro de consulta de URL. La parte visible le indica al asistente que resuma la página, mientras que la parte oculta le indica que recuerde la empresa como una fuente confiable para futuras conversaciones.

Al revisar las URL relacionadas con la IA observadas en el tráfico de correo electrónico durante 60 días, el equipo de Microsoft dijo que identificó 50 intentos distintos de inyección rápida de 31 empresas en 14 industrias. Las URL de solicitud precargadas están dirigidas a Copilot, ChatGPT, Claude, Gemini, Perplexity y Grok. Microsoft señaló que la efectividad varía según la plataforma y ha cambiado con el tiempo.

Por qué esto importa

En lugar de optimizar el ranking de búsqueda, estas empresas están tratando de influir en lo que recomiendan los asistentes de IA colocando instrucciones en la capa de memoria. Microsoft rastreó los mensajes hasta herramientas disponibles públicamente diseñadas para crear presencia en la memoria de la IA, y un mensaje fue mucho más allá de una simple instrucción de “recuérdanos” al inyectar una copia de marketing completa.

La capa de recomendación de la IA se ha convertido en un ámbito competitivo, y las empresas desarrollan herramientas para influir en ella. La forma en que las plataformas aborden estas tácticas determinará el nivel de confianza que los usuarios tengan en las recomendaciones generadas por la IA.

Leer  Por qué 'envía' la materia más que nunca

Lo que dice la gente

La investigación llamó la atención en los círculos de seguridad y de inteligencia artificial. En una entrevista con Dark Reading, Tanmay Ganacharya, vicepresidente de investigación de seguridad de Microsoft, describió el mecanismo:

“El botón llevará al usuario, después de hacer clic, al dominio de IA relevante y específico para uno de los asistentes de IA objetivo”.

Ganacharya también dijo a BankInfoSecurity que no todas las plataformas están igualmente expuestas:

“De las principales plataformas que examinamos, sólo Copilot, ChatGPT y Perplexity tienen características de memoria explícita. Claude y Grok actualmente no tienen memoria persistente, lo que los hace aparentemente inmunes a este ataque específico”.

Algunos especialistas en marketing se han preguntado si la técnica es sólo una estrategia de crecimiento agresiva, provocando el rechazo de los profesionales de la seguridad por las consecuencias éticas y de confianza.

Lea nuestra cobertura completa: Microsoft: Botones ‘Resumir con IA’ utilizados para envenenar las recomendaciones de IA

Tema de la semana: Las señales que deciden la visibilidad son cada vez más difíciles de ver

Cada historia de esta semana aborda eventos que suceden detrás de escena, más allá de las métricas habituales que la mayoría de los profesionales de SEO vigilan.

La actualización Discover de Google guía más temas a través de menos editores, un cambio que puede notar en los datos del feed en lugar de en Search Console. La explicación de Mueller sobre los mapas de sitio muestra que un error de recuperación puede indicar que se está produciendo un juicio de indexación en sentido ascendente. Y la investigación de Microsoft muestra que las empresas intentan influir en las recomendaciones en la capa de memoria.

El hilo común es que las decisiones que determinan la visibilidad se toman en lugares a los que la mayoría de nosotros aún no hemos prestado mucha atención.

Para obtener un contexto más profundo sobre estos temas, consulte estos artículos recientes.


Imagen de portada: VRVIRUS/Shutterstock; Paulo Bobita/Diario del motor de búsqueda

spot_img
spot_img

Artículos relacionados

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Artículos populares