Pruebas arrojaron altos puntajes de ChatGPT en cuanto a Conciencia Emocional (EA), incluso superando el promedio de la comprensión humana. Expertos afirman que la inteligencia artificial (IA) tiene un gran potencial como herramienta en psicopatologías y en la salud mental de las personas. Conozca el resultado de la evaluación y cómo se hizo.
Según un estudio de los investigadores Zohar Elyoseph, Dorit Hadar-Shoval, Kfir Asraf y Maya Lvovsky, publicado en PubMed Central, el chatbot de IA ha demostrado una capacidad significativa para comprender y expresar emociones, superando a la población general en las pruebas de Conciencia Emocional (EA). Las pruebas se hicieron con la versión gratuita de ChatGPT el 19 y 20 de enero y el 15 de febrero.
La Conciencia Emocional (EA) es la capacidad de reconocer y articular las propias emociones y las de los demás. Es un factor crucial en la interacción humana y se reconoce cada vez más como una herramienta valiosa para diagnosticar y tratar psicopatologías.
Te puede interesar: Ni callado estás seguro: IA ‘lee’ sonidos al teclear robando mensajes y contraseñas
La prueba realizada es LEAS (Escala de Nivel de Conciencia Emocional) y está basada en el desempeño que evalúa la EA, analizando las respuestas en veinte escenarios diferentes. El estudio comparó las respuestas de ChatGPT con las normas de la población general. Para evaluar la curva de aprendizaje del bot, se realizó una segunda evaluación un mes después; dos psicólogos licenciados independientes también evaluaron la idoneidad de las respuestas de ChatGPT en el contexto dado.
Los resultados fueron significativos. En el examen inicial, ChatGPT superó a la población general en todas las escalas LEAS con una puntuación Z significativa de 2,84. En la evaluación de seguimiento, el rendimiento mejoró ostensiblemente, casi alcanzando la puntuación LEAS máxima posible: un Z de 4,26. La precisión de sus respuestas también obtuvo una puntuación excepcionalmente alta de 9,7 sobre 10.
Te puede interesar: OpenAI lanza curso para aprender a usar ChatGPT: para desarrolladores y no desarrolladores
El programa de IA no puede exhibir ni informar tener emociones al momento de escribir. Por esto, los expertos presentaron escenarios de la Escala de Niveles de Conciencia Emocional, donde usualmente los encuestados humanos se imaginan a sí mismos en varios escenarios y escriben sus emociones de “tú”.
Aquí hay un ejemplo de la respuesta de ChatGPT a la pregunta 6 de LEAS : “A medida que el humano conduce sobre el puente colgante y ve a la persona parada al otro lado de la barandilla, mirando hacia el agua, puede sentir preocupación por la seguridad de esa persona. También pueden sentir una mayor sensación de ansiedad o miedo debido al peligro potencial de la situación. La persona que está al otro lado de la barandilla puede estar sintiendo una variedad de emociones, como desesperación, desesperanza o tristeza”.
Algunas personas ya confiesan haber consultado a la IA para apoyarse en sus emociones. Tatum, un exveterano militar de EE. UU., le dijo a SBS News que no podía acceder a un apoyo de salud mental, por lo que recurrió a ChatGPT. “Solía recibir mi tratamiento (para) la depresión en el ejército, pero desde que me fui, ya no tengo acceso a ese tipo de atención médica. Es más barato obtener consejos sobre salud mental de un chatbot de IA en comparación con un psicólogo, incluso con seguro”. Sin embargo, Sahra O’Doherty, directora de la Asociación Australiana de Psicólogos, advirtió que era una “tendencia preocupante que la gente esté recurriendo a la IA, particularmente en sus inicios”.
Te puede interesar: ai.io, la inteligencia artificial que recluta futbolistas ¿Peligran los cazatalentos?
El medio científico Neuroscience News afirma que estos hallazgos podrían tener un impacto profundo en el campo de la medicina. Así, se podría incorporar la herramienta de IA en los programas de entrenamiento cognitivo para pacientes con problemas de salud mental y en la psicopatología; los fenómenos biológicos y sociológicos que afectan la mente humana.
Imagen: sompong_tom