Este audio se genera automáticamente. Por favor, háganos saber si tiene algún comentario.
La última ola de herramientas de inteligencia artificial puede ayudar significativamente a aumentar la productividad, lo que, lamentablemente, también afecta a los estafadores y spammers, que ahora utilizan la IA para crear sistemas más convincentes, más convincentes y más dañinos para sus ataques.
Google ha compartido algunas de estas tácticas en evolución en su último informe Threat Intelligence Group, describiendo algunos de los métodos en evolución que está viendo que los estafadores adoptan para engañar a víctimas involuntarias.
Como lo explica Google: “En los últimos meses, Google Threat Intelligence Group (GTIG) ha observado que los actores de amenazas utilizan la IA para recopilar información, crear estafas de phishing súper realistas y desarrollar malware. Si bien no hemos observado ataques directos a modelos fronterizos o productos de IA generativa por parte de actores de amenazas persistentes avanzadas (APT), sí tener Se han observado y mitigado frecuentes ataques de extracción de modelos (un tipo de espionaje corporativo) por parte de entidades del sector privado en todo el mundo, una amenaza que probablemente enfrentarán otras empresas con modelos de IA en un futuro próximo.“
Google dice que estos estafadores están usando IA para “acelerar el ciclo de vida del ataque”, con herramientas de inteligencia artificial que les ayudan a perfeccionar y adaptar sus enfoques en respuesta a la detección de amenazas, lo que hace que los estafadores sean aún más efectivos.
Lo cual tiene sentido. Las herramientas de inteligencia artificial pueden mejorar la productividad, lo que también se relaciona con su uso con fines negativos, y si los estafadores pueden encontrar una manera de mejorar sus enfoques a través de una evolución sistemática, lo harán.
Y tampoco se trata sólo de estafadores de bajo nivel.
“Para los actores de amenazas respaldados por el gobierno, los grandes modelos de lenguaje se han convertido en herramientas esenciales para la investigación técnica, la selección de objetivos y la generación rápida de señuelos de phishing matizados. Nuestro informe trimestral destaca cómo los actores de amenazas de la República Popular Democrática de Corea (RPDC), Irán, la República Popular China (RPC) y Rusia pusieron en funcionamiento la IA a finales de 2025 y mejora nuestra comprensión de cómo el uso indebido de la IA generativa por parte de adversarios se manifiesta en las campañas que interrumpimos en la naturaleza”.
Aunque Google sí señala que el uso actual de herramientas de inteligencia artificial por parte de los actores de amenazas no “altera fundamentalmente el panorama de amenazas.“
Al menos no todavía.
Google dice que estos proyectos utilizan herramientas de inteligencia artificial de diversas formas:
- Ataques de extracción de modelos: Los “ataques de destilación” han ido en aumento durante el último año como método de robo de propiedad intelectual.
- Operaciones aumentadas por IA: Los estudios de casos del mundo real demuestran cómo los grupos están optimizando el phishing de reconocimiento y establecimiento de relaciones.
- IA agente: Los actores de amenazas están comenzando a mostrar interés en desarrollar capacidades de IA agente para respaldar el desarrollo de herramientas y malware.
- Malware integrado en IA: Hay nuevas familias de malware, como HONESTCUE, que experimentan con el uso de la interfaz de programación de aplicaciones (API) de Gemini para generar código que permite la descarga y ejecución de malware de segunda etapa.
- Ecosistema subterráneo “Jailbreak”: Servicios maliciosos como Xanthorox están surgiendo en la clandestinidad, afirmando ser modelos independientes cuando en realidad dependen de API comerciales con jailbreak y servidores Model Context Protocol (MCP) de código abierto.
No sorprende que se estén utilizando herramientas de inteligencia artificial para este tipo de ataques, pero vale la pena señalar que los estafadores también se están volviendo más sofisticados y efectivos al perfeccionar sus enfoques con los últimos modelos de inteligencia artificial generativa.
Básicamente, esta es una advertencia de que debe tener cuidado con los enlaces en los que hace clic y el material con el que interactúa, porque los estafadores están mejorando mucho en el robo de información.
Puede leer el informe completo de amenazas de Google para el cuarto trimestre, que incluye más detalles sobre los ataques asistidos por IA, aquí.

