Ciberseguridad
Tenable Research publicó recientemente su informe “HackedGPT: Novel AI Vulnerabilities Open the Door for Private Data Leakage”, en el que detalla siete vulnerabilidades fundamentales en la plataforma ChatGPT, afectando tanto a GPT-4o como a GPT-5.
Estas fallas permitirían a los atacantes extraer información privada de usuarios o entornos empresariales sin que exista una interacción directa, marcando un precedente preocupante en el campo de la seguridad aplicada a modelos de lenguaje (LLM).
Los investigadores de Tenable describen cómo los mecanismos que hacen a ChatGPT más útil como su memoria persistente, la capacidad de navegación web y la integración con herramientas externas, se convierten también en posibles vectores de ataque.
Mediante técnicas de prompt injection, los atacantes pueden incrustar instrucciones ocultas en páginas web o enlaces que el modelo procesa sin notarlo, comprometiendo la confidencialidad de la información.
Lo más alarmante: algunos ataques son de tipo “zero-click”, es decir, no requieren que el usuario haga nada más que interactuar normalmente con el modelo. Esto podría permitir la filtración de conversaciones, datos empresariales o contextos almacenados en memoria.
Entre los hallazgos más críticos se encuentran:
Estas técnicas demuestran que los riesgos asociados a los LLM van más allá de los fallos tradicionales del software: implican comportamientos emergentes y manipulación contextual, un terreno aún en exploración dentro de la ciberseguridad.
Para las empresas que integran modelos de IA en sus operaciones, este hallazgo representa un llamado a la acción.
Los sistemas LLM deben ser tratados como activos críticos, sujetos a auditorías, monitoreo y controles de acceso. Además, deben existir políticas de evaluación de riesgo antes de conectar herramientas externas o habilitar funciones de memoria.
El estudio de Tenable también resalta que la segmentación entre módulos (memoria, búsqueda, navegación) no es suficiente para garantizar aislamiento, y que se requiere un rediseño arquitectónico que asuma el peor escenario adversarial.
Los modelos de lenguaje se están convirtiendo en una pieza central de la productividad moderna, pero su complejidad también multiplica las superficies de ataque.
La industria debe evolucionar hacia un enfoque de seguridad-by-design, en el que la protección contra manipulación de contexto y fuga de datos sea parte del diseño del modelo, no un parche posterior.
En BQuantum, reafirmamos la importancia de anticiparse a estas amenazas emergentes con estrategias de protección integral que combinen inteligencia artificial, monitoreo continuo y gestión de riesgos avanzados.






