El Leño Pinto Digital
Por Elena Crespo
ESET analiza cómo se almacena tus conversaciones en ChatGPT, quién puede acceder a tus datos y qué configuraciones usar para proteger información sensible. Además explora Claude y Gemini.
Centroamérica, 30 de abril de 2026— Ya sea para programar, escribir correos electrónicos o resumir documentos complejos, la inteligencia artificial se ha convertido en una infraestructura digital básica para muchas personas y su uso paso a ser muy extensivo; ChatGPT, por ejemplo, alcanzó a principios de este año, según datos que publica OpenAI, los 900 millones de usuarios activos semanales. Sin embargo, ESET, compañía líder en detección proactiva de amenazas, advierte que esta escala masiva trae consigo una cuestión crítica para la seguridad digital: ¿dónde va a parar cada palabra que se escribe en ese campo de texto?
“Muchas personas pueden creer que las conversaciones son volátiles y funcionan como un chat privado que desaparece al cerrar la ventana. En realidad, interactuar con grandes modelos de lenguaje implica una compleja red de almacenamiento y procesamiento de datos que puede exponer secretos comerciales o información personal sensible si no se tiene cuidado”, comenta Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica.
ESET afirma que cuando se escribe información en ChatGPT, no se guarda únicamente en el navegador. El texto recorre un camino que involucra tres capas fundamentales de tratamiento de datos:
1. Almacenamiento e historial: En cuanto se envía un mensaje, se almacena en los servidores de OpenAI para que puedas acceder al historial en diferentes dispositivos y para que el chatbot mantenga el contexto de la conversación actual. Puede conservarse por períodos limitados, como hasta 30 días en ciertos casos, por motivos de seguridad y monitoreo de abusos.
2. Entrenamiento de modelos (el punto crítico): Este es el centro del debate sobre la privacidad. Por defecto, OpenAI puede utilizar las conversaciones de las versiones gratuitas y Plus para perfeccionar sus modelos. Sin embargo, el usuario puede desactivar esta opción en la configuración. En ChatGPT Business, Enterprise, Edu, Healthcare y en la API, la herramienta no utiliza los datos para entrenamiento de forma predeterminada.
“Si un empleado introduce un fragmento de código propietario o un plan estratégico de marketing, es lógico pensar que, al entrenar el modelo con información propia, esta podría de alguna forma ser “utilizada” para otros usuarios. Estudios académicos han demostrado que los modelos de lenguaje de gran escala (LLM) pueden memorizar partes de sus datos de entrenamiento y que, bajo ciertas condiciones, esta información puede ser extraída mediante técnicas especializadas”, agrega Micucci de ESET.
3. Revisión humana: Para garantizar que la IA no genere contenido ofensivo o peligroso, una muestra de conversaciones anonimizadas pasa por revisores humanos. Son especialistas capacitados que leen fragmentos de los diálogos para evaluar la calidad y la seguridad de la respuesta. Es decir, no es solo una máquina la que "lee" lo que se escribe; personas reales pueden tener acceso a partes de las interacciones.
“El mayor riesgo es que la IA "aprenda" patrones de los textos que se le comparten y los reproduzca de forma general en sus respuestas. Dependiendo de la herramienta, el tipo de cuenta y la configuración de privacidad, el contenido puede utilizarse para mejorar modelos futuros. Ingresar información confidencial puede exponer a la pérdida de control sobre información sensible y a riesgos de memorización o extracción de datos ya documentados en investigaciones sobre modelos de lenguaje. Por ello, los planes estratégicos, el código propietario, las credenciales, los datos de clientes o los documentos internos deben utilizarse únicamente en herramientas de IA aprobadas por la empresa y con controles de privacidad adecuados”, destaca el investigador de ESET.
Además de los riesgos inherentes al procesamiento de datos por parte de la plataforma, ESET advierte que existe una amenaza externa creciente que es el interés de los ciberdelincuentes en las credenciales de acceso a ChatGPT. Dado que las conversaciones suelen contener información sensible, código fuente y estrategias de negocio, una cuenta comprometida se convierte en una oportunidad para el espionaje industrial y el robo de identidad.
Datos de 2024 muestran que más de 225.000 registros de inicio de sesión de ChatGPT fueron encontrados a la venta en foros de la Dark Web. Este volumen masivo de credenciales robadas, a menudo mediante malware del tipo infostealer, demuestra que el peligro no está solo en lo que se escribe, sino en quién puede acceder al historial si una cuenta no está correctamente protegida.
Aunque ChatGPT domina la conversación, el ecosistema de la Inteligencia Artificial Generativa incluye otros grandes actores con enfoques diferentes en la protección de datos. Para los usuarios que se mueven entre distintas plataformas, entender que el riesgo no es universal sino adaptable a cada empresa es el primer paso hacia una postura de seguridad digital consciente.
¿Cómo almacena Gemini su información?
Google Gemini opera dentro de la amplia infraestructura de Google. Según el Centro de Privacidad de Gemini, la empresa utiliza las conversaciones para mejorar sus servicios, lo que incluye revisión por parte de entrenadores humanos.
La diferencia radica en la integración, si se utiliza Gemini dentro del entorno corporativo de Google Workspace, las políticas de privacidad empresarial establecen que los datos no se utilizan para entrenar modelos globales de lenguaje. El proceso de "anonimización" de Google elimina la información de la cuenta, pero el contenido de lo que se escribe puede seguir siendo analizado para mejorar la precisión de las respuestas, a menos que la configuración de actividad de IA se desactive manualmente.
¿Cómo utiliza Claude la información?
Anthropic, con su modelo Claude, presenta una filosofía de "IA Constitucional". En su Política de Privacidad y Términos de Uso, la empresa destaca que la retención de datos se mantiene al mínimo. Claude se distingue por poner mayor énfasis en mecanismos automatizados de alineación del comportamiento de la IA mediante principios automatizados de seguridad.
Para los usuarios de la versión gratuita, los datos pueden usarse para mejorar el modelo, pero Anthropic ofrece un proceso de exclusión (opt-out) más directo para sus clientes comerciales, asegurando que el código fuente o los secretos empresariales enviados a través de la API permanezcan privados.
“La gran similitud entre todos estos modelos es que ninguno funciona como una "bóveda" completamente aislada por defecto. Ya sea en OpenAI, Google o Anthropic, el proceso de aprendizaje automático depende de datos. La verdadera diferencia para tu seguridad radica en el contrato: mientras que en las versiones gratuitas los datos pueden contribuir indirectamente a la mejora del sistema, en las versiones empresariales la privacidad se trata como un servicio premium, donde los datos se procesan, pero no se utilizan para entrenar modelos”, remarca Micucci.
Para garantizar que la experiencia con herramientas de IA sea productiva y segura, ESET recopiló las principales recomendaciones de protección:
· Protección del comportamiento y anonimización: La herramienta más poderosa de seguridad digital es el propio criterio. La regla de oro es nunca introducir información que no harías pública. Antes de enviar un prompt, realizar una "limpieza" manual: reemplazar nombres de clientes por alias, eliminar valores financieros específicos y ocultar fragmentos de código que contengan claves de acceso o vulnerabilidades de infraestructura. Recordar que una vez que los datos son procesados por el modelo, el "desaprendizaje" de la IA es un proceso técnicamente complejo y no siempre garantizado.
· Gestión de cuentas y protección contra accesos no autorizados: Para evitar que los ciberdelincuentes accedan al historial de conversaciones, es fundamental utilizar contraseñas fuertes y únicas. Activar siempre la autenticación de dos factores (2FA) disponible en la configuración de OpenAI, Google o Anthropic. Además, mantener el sistema operativo y antivirus actualizados para evitar malware del tipo infostealer, principal responsable de la recolección de credenciales de herramientas de IA.
· Configurar la privacidad (Opt-out): No aceptar la configuración predeterminada. Explorar el menú de "Controles de datos" de ChatGPT para desactivar el historial de chat y el entrenamiento de modelos. En el caso de Gemini, gestionar la actividad en "Actividad en apps de Gemini" para decidir qué debe o no almacenar Google. Estas acciones reducen drásticamente la huella digital y ayudan a que las interacciones sean tratadas con mayor confidencialidad.

No hay comentarios.:
Publicar un comentario