Chatbots espías, ¿cómo Google, Microsoft y OpenAI rastrean y comparten tu información con terceros?

robot inteligencia artificial

La inteligencia artificial se ha convertido en una herramienta cotidiana para millones de personas, desde resolver dudas hasta redactar textos, los chatbots de IA han demostrado ser aliados eficientes; sin embargo, muchos usuarios desconocen el alcance de la recopilación de datos personales. Un análisis reciente de Surfshark revela que el 30 % de los chatbots más populares comparten información con terceros, lo que plantea preocupaciones sobre la privacidad y el control de la información.

Cada vez que interactuamos con un chatbot, proporcionamos información de manera directa o indirecta, esto incluye el historial de conversaciones, ubicación, contactos y patrones de uso.

Las empresas detrás de estas plataformas recopilan estos datos para mejorar sus modelos, personalizar la experiencia del usuario y, en algunos casos, compartirlos con terceros para publicidad o análisis.

Un estudio basado en la Apple Store indica que los chatbots analizados recopilan en promedio 11 de 35 tipos de datos posibles. Algunos, como Google Gemini, almacenan hasta 22 categorías, incluyendo nombre, correo electrónico, número de teléfono, historial de búsqueda y ubicación precisa. Otros, como ChatGPT, recopilan menos datos, pero igualmente almacenan información sobre el contenido de las conversaciones y el uso de la aplicación.

Las empresas detrás de los chatbots

Las grandes tecnológicas dominan el desarrollo de la inteligencia artificial conversacional. Google, Microsoft y OpenAI han invertido miles de millones en estos modelos, pero cada una maneja los datos de manera diferente.

Google Gemini, desarrollado por Alphabet, es uno de los chatbots más agresivos en la recopilación de información. Su política de privacidad detalla el uso de datos personales para personalizar anuncios y mejorar sus modelos. ChatGPT, de OpenAI, permite cierto control sobre la información, como la opción de desactivar el historial de chat.

Microsoft Copilot, integrado en su ecosistema, recopila datos para optimizar sus productos y ofrecer experiencias personalizadas. Poe y Jasper rastrean a los usuarios y comparten información con terceros. DeepSeek, con sede en China, almacena datos en servidores locales y ha sido objeto de filtraciones de seguridad.

El problema no se limita a la recopilación de datos, sino a su uso y a quién puede acceder a ellos. La información obtenida puede servir para construir perfiles detallados de los usuarios, afectando su privacidad. Muchas empresas venden datos a anunciantes para personalizar anuncios, lo que implica un seguimiento constante en la web. La seguridad de la información tampoco está garantizada.

DeepSeek, por ejemplo, sufrió una filtración masiva que expuso registros de usuarios. Además, los datos recopilados pueden utilizarse para mejorar los modelos de IA, lo que significa que las conversaciones pueden ser revisadas y analizadas.

¿Cómo protegerse?

Evitar por completo la recopilación de datos es difícil, pero hay medidas para reducir la exposición. Leer las políticas de privacidad antes de usar un chatbot ayuda a comprender cómo se manejan los datos. Utilizar modos temporales o anónimos, evitar compartir información personal, desactivar permisos innecesarios como la ubicación y optar por servicios que prioricen la privacidad son estrategias recomendadas.

El avance de la IA es imparable, pero la privacidad no debería ser el precio a pagar. Como usuarios, es fundamental exigir mayor transparencia y control sobre nuestros datos. Mientras las grandes tecnológicas sigan monetizando la información, la mejor defensa será la educación y la precaución digital.

Imagen: Archivo ENTER.CO

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos