La inteligencia artificial se ha convertido en una infraestructura digital básica para millones de personas. Ya sea para programar, redactar correos electrónicos o resumir documentos complejos, su uso se ha extendido de manera acelerada. ChatGPT, por ejemplo, alcanzó a inicios de este año los 900 millones de usuarios activos semanales, según datos de OpenAI.

Sin embargo, esta expansión plantea una pregunta clave en materia de seguridad digital: ¿qué ocurre con la información que los usuarios escriben en estas plataformas?

ESET, compañía especializada en detección proactiva de amenazas, advierte que las interacciones con modelos de lenguaje no son efímeras.

“Muchas personas creen que las conversaciones funcionan como un chat privado que desaparece al cerrar la ventana. En realidad, implican una compleja red de almacenamiento y procesamiento de datos que puede exponer información sensible”, explicó Mario Micucci, investigador de seguridad informática de ESET Latinoamérica.

Según la empresa, cuando un usuario escribe en ChatGPT, la información no se limita al navegador, sino que atraviesa varias capas de tratamiento de datos. En primer lugar, los mensajes se almacenan en servidores para mantener el historial y el contexto de la conversación. En segundo lugar, en algunos casos pueden utilizarse para entrenar modelos, lo que constituye uno de los principales debates sobre privacidad. Finalmente, una parte de las interacciones puede ser revisada por personal humano con fines de control de calidad y seguridad.

Micucci advirtió que el riesgo aumenta cuando se introducen datos sensibles.

“Ingresar código propietario, planes estratégicos o información confidencial puede exponer a la pérdida de control de esos datos, ya que los modelos pueden memorizar fragmentos y, bajo ciertas condiciones, reproducirlos”, señaló.

Además, ESET alertó sobre una amenaza creciente: el interés de los ciberdelincuentes en las cuentas de usuarios. En 2024, más de 225.000 credenciales de acceso a ChatGPT se ofrecieron en foros de la dark web, lo que evidencia el valor de la información almacenada en estas plataformas.

El análisis también incluye a otros sistemas de inteligencia artificial generativa. Google Gemini, por ejemplo, utiliza las conversaciones para mejorar sus servicios, aunque en entornos corporativos establece restricciones para evitar el uso de datos en el entrenamiento global. Por su parte, Claude, desarrollado por Anthropic, prioriza la minimización de la retención de datos y ofrece opciones de exclusión para clientes empresariales.

Pese a sus diferencias, los especialistas coinciden en que ninguna de estas herramientas funciona como una “bóveda” completamente privada por defecto. “La verdadera diferencia radica en las condiciones de uso: mientras que en versiones gratuitas los datos pueden contribuir a mejorar los modelos, en entornos empresariales la privacidad se gestiona como un servicio”, precisó Micucci.

Ante este escenario, ESET recomienda no ingresar información sensible, utilizar contraseñas robustas, activar la autenticación de dos factores y revisar las configuraciones de privacidad de cada plataforma. Estas medidas permiten reducir riesgos y garantizar un uso más seguro de la inteligencia artificial.

Regístrate

Con tu red social preferida

O con tu correo

Inicia sesión

Con tu red social preferida

O con tu correo