Cuidado con lo que le dices a ChatGPT: así almacena tus datos y estas son las consecuencias

Datos ChatGPT

El uso de herramientas de inteligencia artificial como ChatGPT se ha vuelto cada vez más común, pero pocos usuarios son conscientes de los datos que estas plataformas almacenan y los posibles riesgos de seguridad asociados. OpenAI, la compañía detrás de esta tecnología, ha dejado claro que el chatbot almacena cierta información de sus usuarios con el objetivo de mejorar la experiencia y optimizar sus respuestas. No obstante, los expertos en ciberseguridad de ESET, advierten que el almacenamiento de datos conlleva ciertos riesgos que vale la pena considerar.

 

Cada vez que un usuario inicia sesión en ChatGPT, la plataforma guarda información relacionada con su cuenta, como el correo electrónico, nombre de usuario y detalles de pago en caso de suscripciones. Pero eso no es todo. También registra la dirección IP desde la que se accede, el tipo de dispositivo utilizado y los patrones de uso, lo que le permite comprender mejor cómo los usuarios interactúan con la IA. Aunque OpenAI asegura que estos datos se emplean únicamente con fines de seguridad y personalización, el problema radica en el tipo de información que los propios usuarios comparten voluntariamente.

 

El historial de conversaciones es una de las principales fuentes de datos almacenados. Si bien OpenAI permite desactivar esta función, muchas personas desconocen que su actividad en el chatbot queda registrada por defecto. Esto significa que cualquier dato ingresado, desde consultas laborales hasta información financiera o detalles personales, podría quedar almacenado en los servidores de la empresa. Aunque ChatGPT no está diseñado para recordar conversaciones a largo plazo, en varias ocasiones se han filtrado registros de usuarios que comprometen su privacidad.

Te puede interesar: Así puedes convertir ChatGPT en tu buscador principal en Chrome ¡Olvídate de Google!

El riesgo no es meramente hipotético. En 2023, la firma de ciberseguridad Group-IB reveló que más de 100,000 cuentas de ChatGPT fueron robadas y vendidas en la dark web. El acceso no autorizado a estos perfiles podría exponer información valiosa que los usuarios compartieron inadvertidamente con la IA. Además, existe la posibilidad de que ciberdelincuentes empleen estos datos para ataques de ingeniería social, suplantación de identidad o incluso extorsión.

 

Desde ESET aconsejan a los usuarios tomar medidas para minimizar estos riesgos. Usar contraseñas seguras y habilitar la autenticación en dos pasos puede reducir significativamente las posibilidades de que una cuenta sea vulnerada. También se recomienda evitar compartir información personal o datos sensibles en las conversaciones con ChatGPT, ya que, una vez almacenada, su control escapa por completo al usuario. Revisar periódicamente las configuraciones de privacidad y cerrar sesión en dispositivos compartidos son prácticas fundamentales para garantizar mayor seguridad.

 

Si bien la inteligencia artificial representa un avance impresionante en múltiples áreas, es fundamental recordar que sigue siendo una herramienta gestionada por empresas que almacenan datos para distintos propósitos. La seguridad en el mundo digital no depende solo de los desarrolladores, sino también de la precaución con la que los usuarios manejan su información. Antes de confiarle detalles privados a un chatbot, la mejor estrategia es preguntarse si estaríamos cómodos con que esos datos quedaran en manos equivocadas.

 

Imagen:  Jonathan Kemper

Alejandra Betancourt

Alejandra Betancourt

Dicen que una buena manera de viajar es a través de la lectura, a mí me gusta navegar entre las letras y construir también mis propios trayectos. Me interesa que todos sepamos lo que sucede en el mundo, así que estudié Comunicación Social. Actualmente y con el propósito de escribir mis cuentos y próximas novelas, estudio Creación Literaria.

View all posts

Archivos