Liz Reid de Google dice que los LLM desbloquean la indexación de audio y video

- Advertisement -spot_img

En una entrevista en podcast, la vicepresidenta de búsqueda de Google, Liz Reid, describió dos formas en que los LLM están cambiando lo que Google puede indexar y cómo clasifica los resultados para usuarios individuales.

Reid dijo al Access Podcast que los modelos de IA multimodal ahora permiten a Google comprender el contenido de audio y video a un nivel más profundo de lo que antes era posible. También señaló un futuro en el que los resultados de búsqueda se adaptarán en función de las suscripciones pagas del usuario.

Qué hay de nuevo

La comprensión multimodal está ampliando lo que Google puede indexar

Reid dijo que el hecho de que los LLM sean multimodales ha abierto formatos de contenido que Google anteriormente tenía dificultades para procesar.

Reid les dijo a los anfitriones:

“Lo mejor de los LLM es que son multimodales. Por lo tanto, podemos comprender el contenido de audio y video a un nivel que no podíamos hace años”.

Fue más allá y describió cómo Google ahora puede ir más allá de la transcripción básica al analizar videos.

“Ahora puedes entender el audio mucho mejor. Ahora puedes entender el vídeo mucho mejor. Ahora puedes entender no sólo la transcripción del vídeo, sino también de qué trata el vídeo, cuál es el estilo y otras cosas por el estilo”.

Reid relacionó esto con una brecha de larga data en cómo funciona la búsqueda para personas que no hablan inglés. Para los usuarios de la India que hablan hindi u otros idiomas, la web a menudo carece de la información que necesitan en su idioma. Anteriormente, traducir todo el contenido web a todos los idiomas no era escalable. Los LLM cambiaron eso.

“Ahora, con un LLM, puedes tomar información en un idioma, entenderla y luego generarla en otro idioma. Así se abre información”.

Google lleva algún tiempo avanzando en esta dirección. En octubre de 2025, Reid le dijo al Wall Street Journal que Google había ajustado la clasificación para mostrar más videos cortos, foros y contenido generado por los usuarios.

Leer  Las ediciones obtienen información actualizada de carretes, mapeo de zona segura y más

Los comentarios también añaden contexto al experimento Audio Overviews de Google lanzado en Search Labs en junio pasado, que genera resúmenes hablados de IA de los resultados de búsqueda.

Eso no era posible hace unos años. En 2021, Google y KQED probaron si se podía buscar contenido de audio y descubrieron que la precisión de la conversión de voz a texto no era lo suficientemente alta, particularmente para nombres propios y referencias regionales. Los comentarios de Reid sugieren que la barrera ha caído.

La búsqueda basada en suscripciones podría cambiar la forma en que se personalizan los resultados

Reid también describió una dirección de personalización que va más allá de la función Fuentes preferidas existente de Google.

Ella les dijo a los anfitriones que Google quiere mostrar contenido de medios por los que un usuario paga, no resultados de fuentes a las que no pueden acceder.

“Si te encanta esta fuente y tienes una relación con ella, entonces ese contenido debería aparecer más fácilmente en Google”.

Reid dio un ejemplo práctico. Digamos que 20 entrevistas sobre un tema tienen un muro de pago, pero un usuario se suscribe a un medio. Google debería facilitar la búsqueda del que puedan leer.

“Deberíamos sacar a la luz aquel por el que están pagando y no los seis a los que no pueden acceder más”.

Sugirió que la empresa ha “dado pequeños pasos hasta ahora, pero quiere hacer más” para fortalecer la forma en que las audiencias y las fuentes confiables se conectan a través de la búsqueda. También mencionó la posibilidad de micropagos para artículos individuales, aunque reconoció que ese modelo no ha despegado históricamente.

Leer  El marketing está en el cuarto lugar más expuesto a Genai, de hecho, el estudio encuentra

Google amplió Fuentes preferidas a nivel mundial para usuarios de habla inglesa en diciembre y anunció una función que destaca enlaces de las suscripciones pagas de noticias de los usuarios. Google dijo que priorizaría esos enlaces en un carrusel dedicado, comenzando en la aplicación Gemini, seguido de las descripciones generales de AI y el modo AI. En ese momento, Google dijo que los usuarios que eligen una fuente preferida hacen clic en ese sitio con el doble de frecuencia en promedio. Los comentarios de Reid sugieren que la compañía ve la búsqueda basada en suscripción como una evolución más amplia en la misma dirección.

Por qué esto importa

Las capacidades multimodales que Reid señaló para ampliar los formatos de contenido que se descubren a través de la búsqueda. Históricamente, los podcasts, las series de videos y el contenido de audio han sido más difíciles de evaluar para Google más allá de los metadatos y las transcripciones. La creciente capacidad de Google para evaluar la relevancia y la profundidad del audio y el vídeo cambia directamente a quién se puede encontrar a través de la búsqueda y cómo.

Para las marcas y los creadores que invierten en formatos no textuales, la capacidad de Google para sacar a la luz ese trabajo está llegando a donde ya se encuentra la audiencia.

La dirección de personalización basada en la suscripción es importante para cualquier editor con un modelo de muro de pago o membresía. Los resultados de búsqueda que se adaptan a lo que pagan los usuarios individuales estrecharían la conexión entre la retención de suscriptores y la visibilidad de la búsqueda. El contenido de pago podría funcionar mejor para la audiencia que más le importa al editor, en lugar de perder prioridad porque la mayoría de los usuarios no pueden acceder a él.

Leer  Threads designa a Jefe dedicado como Meta Eyes la siguiente etapa de crecimiento

Mirando hacia el futuro

Reid no especificó cronogramas para ninguno de los desarrollos. Las capacidades de indexación multimodal de las que habló parecen estar actuales, mientras que la personalización basada en suscripción es una dirección declarada con algunas características existentes ya implementadas.

Google I/O está programado para el 19 y 20 de mayo. Reid dijo en el podcast que la compañía está “construyendo activamente”, pero que el ritmo del desarrollo de la IA significa que algunas características podrían unirse en abril y aun así llegar al escenario.


Imagen destacada: Mawaddah F/Shutterstock

spot_img
spot_img

Artículos relacionados

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Artículos populares