Ciberseguridad

Tenable revela vulnerabilidades críticas en ChatGPT: una nueva frontera en la ciberseguridad de la IA

BQuantum
2 min.

Tenable revela vulnerabilidades críticas en ChatGPT: una nueva frontera en la ciberseguridad de la IA

Tenable Research publicó recientemente su informe “HackedGPT: Novel AI Vulnerabilities Open the Door for Private Data Leakage”, en el que detalla siete vulnerabilidades fundamentales en la plataforma ChatGPT, afectando tanto a GPT-4o como a GPT-5.
Estas fallas permitirían a los atacantes extraer información privada de usuarios o entornos empresariales sin que exista una interacción directa, marcando un precedente preocupante en el campo de la seguridad aplicada a modelos de lenguaje (LLM).

El riesgo detrás de la inteligencia artificial

Los investigadores de Tenable describen cómo los mecanismos que hacen a ChatGPT más útil como su memoria persistente, la capacidad de navegación web y la integración con herramientas externas, se convierten también en posibles vectores de ataque.
Mediante técnicas de prompt injection, los atacantes pueden incrustar instrucciones ocultas en páginas web o enlaces que el modelo procesa sin notarlo, comprometiendo la confidencialidad de la información.

Lo más alarmante: algunos ataques son de tipo “zero-click”, es decir, no requieren que el usuario haga nada más que interactuar normalmente con el modelo. Esto podría permitir la filtración de conversaciones, datos empresariales o contextos almacenados en memoria.

Principales vulnerabilidades detectadas

Entre los hallazgos más críticos se encuentran:

  • Inyección indirecta de prompts en contenido web o resultados de búsqueda.

  • Exfiltración de datos mediante parámetros en URL.

  • Manipulación del contexto de conversación tras una sesión de búsqueda.

  • Inyección persistente en memoria, capaz de mantener instrucciones ocultas entre sesiones.

Estas técnicas demuestran que los riesgos asociados a los LLM van más allá de los fallos tradicionales del software: implican comportamientos emergentes y manipulación contextual, un terreno aún en exploración dentro de la ciberseguridad.

Implicaciones para las organizaciones

Para las empresas que integran modelos de IA en sus operaciones, este hallazgo representa un llamado a la acción.
Los sistemas LLM deben ser tratados como activos críticos, sujetos a auditorías, monitoreo y controles de acceso. Además, deben existir políticas de evaluación de riesgo antes de conectar herramientas externas o habilitar funciones de memoria.

El estudio de Tenable también resalta que la segmentación entre módulos (memoria, búsqueda, navegación) no es suficiente para garantizar aislamiento, y que se requiere un rediseño arquitectónico que asuma el peor escenario adversarial.

El futuro de la seguridad en IA

Los modelos de lenguaje se están convirtiendo en una pieza central de la productividad moderna, pero su complejidad también multiplica las superficies de ataque.
La industria debe evolucionar hacia un enfoque de seguridad-by-design, en el que la protección contra manipulación de contexto y fuga de datos sea parte del diseño del modelo, no un parche posterior.

En BQuantum, reafirmamos la importancia de anticiparse a estas amenazas emergentes con estrategias de protección integral que combinen inteligencia artificial, monitoreo continuo y gestión de riesgos avanzados.

Socios de Negocio