Un estudio recopiló interacciones de usuarios reales de ChatGPT y sus temas más preguntados. Muchos piden consejos sobre intimidades o juegos de rol sexuales; otros resuelven tareas de programación. ¿En qué se están convirtiendo los chatbots para las personas?
Los chatbots responden nuestras preguntas sobre problemas muy íntimos y nos ofrecen consejos personales. En aras de estudiar los intereses de usuarios reales, The Washington Post analizó casi 200 mil conversaciones en inglés del conjunto de datos de investigación WildChat, que incluye mensajes de dos chatbots de IA creados con la misma tecnología subyacente que ChatGPT.
Estas conversaciones conforman una de las bases de datos públicas más grandes de interacción entre humanos y robots en el mundo real. Los investigadores dicen que estas conversaciones son, en gran medida, representativas de cómo las personas usan los chatbots, como ChatGPT.
Te puede interesar: Llama 3.1: el nuevo modelo de IA de Meta que será una joya para los desarrolladores ¿Por qué?
“La principal motivación detrás de este trabajo fue que podemos recopilar interacciones de usuarios reales en lugar de las que se realizan en laboratorios”, explica Yuntian Deng, un posdoctorado en el Instituto Allen de Inteligencia Artificial, donde se desarrolló el proyecto. Los chatbots son gratuitos y los usuarios pueden tener intercambios ilimitados con ellos.
El análisis final incluye casi 40 mil conversaciones con WildChat, centrándose en el primer mensaje enviado cada día por cada usuario. El medio descubrió cómo miles de personas utilizan los chatbots.
Una quinta parte de todas las solicitudes implican pedir ayuda para escribir fan fiction, guiones de películas, chistes, poemas, o participación en juegos de rol.
Los investigadores afirman que los chatbots de IA están diseñados para generar ideas, lo que hace uso de las habilidades de asociación de palabras de la tecnología; y no requiere una estricta adherencia a los hechos. El Post descubrió que las personas usaban chatbots para ayudar a poner nombres a empresas, crear personajes de libros y escribir diálogos.
“No creo haber visto nunca una pieza de tecnología que tenga tantos usos”, afirma Simon Willison, programador e investigador independiente.
Te puede interesar: OpenAI sorprende con GPT-4o mini, el nuevo modelo barato para desarrolladores
Existen algunas pocas personas que lo utilizan para ayudar a desarrollar personajes y tramas de Dungeons & Dragons. Muchos bots tienen contenido sexualmente explícito limitado, pero eso no impide que la gente intente burlar las reglas. Más del 7% de las conversaciones son sobre sexo, incluidas las personas que piden juegos de rol picantes o imágenes picantes.
Según los expertos, es arriesgado encariñarse emocionalmente con el software: las empresas pueden hacer ajustes que cambien la “personalidad” del bot. Y algunos usuarios han informado que los bots pueden volverse agresivos.
El artículo del Instituto Allen de Inteligencia Artificial descubrió que varios de los llamados jailbreaks, lograron evadir las barreras de seguridad aproximadamente la mitad de las veces.
Entre tanto, más de 1 de cada 6 conversaciones parecían ser de estudiantes que buscaban ayuda con sus tareas. Algunos se acercaban a los bots como si fueran tutores, con la esperanza de comprender mejor un área temática.
Otros simplemente se lanzaron a copiar y pegar preguntas de opción múltiple de software de cursos en línea y exigieron las respuestas correctas.
Los educadores han tenido dificultades para hacer frente a la repentina afluencia de aprendizaje basado en inteligencia artificial. Algunas universidades utilizan detectores de texto de inteligencia artificial para intentar captar parte de la información generada en el trabajo de los estudiantes, pero los sistemas son imperfectos y, a veces, detectan a estudiantes inocentes.
Te puede interesar: Meta AI llega a Colombia, Argentina, Chile, Ecuador, México y Perú en español ¿Qué puedes hacer con ella?
Alrededor del 5% de las conversaciones eran sobre preguntas personales, como consejos sobre cómo coquetear o qué hacer cuando la pareja de un amigo te engaña.
De 5 mil conversaciones en WildChat, se encontraron nombres completos de usuarios, nombres de empleadores y otra información personal. Los humanos se dejan engañar fácilmente y confían en los chatbots, afirma el estudio.
Una gran parte de las conversaciones de WildChat tienen que ver con la codificación informática. Alrededor del 7% de las conversaciones solicitaban ayuda para escribir, depurar o comprender códigos informáticos. Otro 1% se clasificaba como ayuda con tareas escolares, pero incluía preguntas sobre tareas de codificación.
Imagen: Archivo ENTER.CO