Bienvenido al Pulse de la semana: las actualizaciones afectan la forma en que Google clasifica el contenido, cómo sus rastreadores manejan el tamaño de la página y hacia dónde se dirige el tráfico de referencias de IA. Esto es lo que importa para usted y su trabajo.
Google lanza la actualización principal de marzo de 2026
Google comenzó a implementar la actualización principal de marzo esta semana. Esta es la primera actualización básica amplia del año.
Hechos clave: La implementación puede tardar hasta dos semanas. Google lo describió como una actualización periódica diseñada para mostrar contenido más relevante y satisfactorio de todo tipo de sitios. Llega dos días después de que la actualización de spam de marzo se completara en menos de 20 horas.
Por qué esto importa
La actualización principal de diciembre fue la actualización principal amplia más reciente y finalizó el 29 de diciembre. Esa es una brecha de tres meses. La actualización de febrero de 2026 solo afectó a Discover, por lo que las clasificaciones de búsqueda no se han recalibrado desde finales de diciembre.
Los cambios en la clasificación podrían aparecer a principios de abril. Google recomienda esperar al menos una semana completa después de que finalice el lanzamiento antes de analizar el rendimiento de Search Console. Compare con un período de referencia anterior al 27 de marzo.
Lo que dicen los profesionales de SEO
John Mueller, miembro del equipo de Relaciones de Búsqueda de Google, escribió en Bluesky cuando se le preguntó si las dos actualizaciones se superponen:
Uno se trata de spam, el otro no se trata de spam. Si con algo de experiencia no está seguro de si su sitio es spam o no, lamentablemente probablemente sea spam.
Mueller explicó más tarde que las actualizaciones principales no siguen un único mecanismo de implementación. Diferentes equipos y sistemas contribuyen con cambios, y esos componentes pueden requerir implementaciones paso a paso en lugar de una sola versión. Es por eso que los lanzamientos toman semanas y por qué la volatilidad en las clasificaciones a menudo aparece en oleadas y no todas a la vez.
Roger Montti, que escribe para Search Engine Journal, señaló que la proximidad a la actualización de spam puede no ser una coincidencia. La lucha contra el spam es lógicamente parte de una reevaluación de calidad más amplia en una actualización principal.
Lea nuestra cobertura completa: Google comienza a implementar la actualización principal de marzo de 2026
Lea la cobertura de Roger Montti: Google responde por qué las actualizaciones principales pueden implementarse por etapas
Illyes explica la arquitectura de rastreo y los límites de bytes del robot de Google
Gary Illyes de Google, analista del equipo de búsqueda de Google, publicó una entrada de blog explicando cómo funciona Googlebot dentro de los sistemas de rastreo más amplios de Google. La publicación agrega nuevos detalles técnicos al límite de rastreo de 2 MB que Google publicó a principios de este año.
Hechos clave: Illyes describió a Googlebot como un cliente de una plataforma de rastreo centralizada. Google Shopping, AdSense y otros productos enrutan solicitudes a través del mismo sistema con diferentes nombres de rastreadores. Los encabezados de solicitud HTTP cuentan para el límite de 2 MB. Los recursos externos como CSS y JavaScript obtienen sus propios contadores de bytes separados.
Por qué esto importa
Cuando el robot de Google alcanza los 2 MB, no rechaza la página. Deja de buscar y pasa el contenido truncado a indexación como si fuera el archivo completo. Todo lo que supere los 2 MB nunca se indexa. Esto es importante para páginas con grandes imágenes base64 en línea, CSS o JavaScript en línea pesados o menús de navegación de gran tamaño.
El detalle de la plataforma centralizada también explica por qué los diferentes rastreadores de Google se comportan de manera diferente en los registros del servidor. Cada cliente establece su propia configuración, incluidos los límites de bytes. Los 2 MB del robot de Google son una anulación específica de la búsqueda de los 15 MB predeterminados de la plataforma.
Google ahora ha cubierto estos límites en actualizaciones de documentación, un episodio de podcast y esta publicación de blog dentro de dos meses. Illyes señaló que el límite de 2 MB no es permanente y puede cambiar a medida que evoluciona la web.
Lo que dicen los profesionales de SEO
Cyrus Shepard, fundador de Zyppy SEO, escribió en LinkedIn:
Dicho esto, como SEO a menudo nos enfrentamos a situaciones extremas. Si nota que cierto contenido no se indexa en PÁGINAS MUY GRANDES, probablemente desee verificar su tamaño.
Lea nuestra cobertura completa: Google explica los límites de bytes del robot de Google y la arquitectura de rastreo
Illyes y Splitt de Google: las páginas son cada vez más grandes y todavía importa
Gary Illyes y Martin Splitt, defensor de desarrolladores de Google, hablaron sobre el crecimiento del peso de la página y el rastreo en un episodio reciente del podcast Search Off the Record.
Hechos clave: Las páginas web se han multiplicado casi por tres en la última década. El valor predeterminado de 15 MB se aplica en todos los sistemas de rastreo más amplios de Google, y clientes individuales como Googlebot for Search lo anulan hasta 2 MB. Illyes planteó si los datos estructurados que Google solicita a los sitios web que agreguen están contribuyendo a la hinchazón de las páginas.
Por qué esto importa
El Web Almanac de 2025 informa un tamaño medio de página de inicio móvil de 2362 KB. Esto indica que las páginas se están haciendo más grandes, aunque no se debe considerar de manera segura por debajo del límite de recuperación de 2 MB del robot de Google. Sin embargo, vale la pena monitorear la pregunta de Illyes sobre los datos estructurados que contribuyen a la inflación. Google alienta a los sitios a agregar marcas de esquema para obtener resultados enriquecidos, y esas marcas aumentan el peso de cada página.
Splitt dijo que planea abordar técnicas específicas para reducir el tamaño de la página en un episodio futuro. Las páginas con mucho contenido en línea deben verificar que sus elementos críticos se carguen dentro de los primeros 2 MB de la respuesta.
Lea nuestra cobertura completa: Google: las páginas son cada vez más grandes y todavía importa
El tráfico de referencias de Géminis se duplica con creces y supera la perplejidad
Google Gemini duplicó con creces su tráfico de referencia a sitios web entre noviembre de 2025 y enero de 2026. Los datos provienen del análisis de SE Ranking de más de 101.000 sitios con Google Analytics instalado.
Hechos clave: SE Ranking midió un aumento combinado del 115% en dos meses, y el salto comenzó cuando Google lanzó Gemini 3. En enero, Gemini envió un 29% más de tráfico de referencias que Perplexity a nivel mundial y un 41% más en los EE. UU. ChatGPT todavía genera alrededor del 80% de todo el tráfico de referencias de IA. Para mayor transparencia, SE Ranking vende herramientas de seguimiento de visibilidad de IA.
Por qué esto importa
En agosto de 2025, Perplexity enviaba alrededor de 2,9 veces más tráfico de referencia que Gemini. El aumento de Gemini entre diciembre y enero revirtió eso en enero de 2026. La ventaja de ChatGPT sobre Gemini también se redujo, de aproximadamente 22 veces en octubre a aproximadamente 8 veces en enero.
Todas las plataformas de IA combinadas todavía representan alrededor del 0,24% del tráfico global de Internet, frente al 0,15% en 2025. Se trata de un crecimiento mensurable, pero sigue siendo una pequeña proporción en comparación con la búsqueda orgánica. Dos meses de crecimiento de Gemini se correlacionan con el lanzamiento de un producto conocido, pero es demasiado pronto para llamarlo un patrón sostenido.
Ahora vale la pena ver Gemini junto con ChatGPT y Perplexity en sus informes de referencias.
Lea nuestra cobertura completa: Google Gemini envía más tráfico a los sitios que la perplejidad: informe
Tema de la semana: Google explica sus propios sistemas
Tres de las cuatro historias de esta semana son sobre Google contándole cómo funcionan sus sistemas. Illyes publicó una entrada de blog que detalla la arquitectura del robot de Google. La misma semana, el podcast Search Off the Record cubrió el peso de la página y los umbrales de rastreo. Mueller explicó por qué las actualizaciones principales se implementan en oleadas y no todas a la vez. Cada uno llena un vacío que la documentación por sí sola dejaba abierta.
Los datos de tráfico de Gemini proporcionan una nueva perspectiva. Google es abierto sobre cómo funcionan sus rastreadores y sistemas de clasificación. El tráfico que pasa a través de sus servicios de IA está aumentando lo suficientemente rápido como para reflejarse en datos de terceros, y Google no explica esa parte.
Historias principales de la semana:
Más recursos:

