Un investigación revela que los grandes modelos lingüísticos (LLM), como ChatGPT, no pueden aprender de forma independiente ni adquirir nuevas habilidades sin instrucciones específicas. La investigación concluye que la inteligencia artificial no representaría una amenaza existencial para la humanidad.El equipo de investigación, liderado por la profesora Iryna Gurevych de la Universidad Técnica de Darmstadt en Alemania y por el investigador, Harish Tayyar Madabushi de la Universidad de Bath, realizó más de 1000 experimentos para probar las capacidades de los LLM. Los resultados señalan que las supuestas “habilidades emergentes” no son realmente emergentes, sino que resultan de una combinación de aprendizaje en contexto, memoria del modelo y conocimiento lingüístico.
Te puede interesar: Empleadores no detectan HV con IA y usuarios que pagan ChatGPT tienen más oportunidad de conseguir trabajo
Según Madabushi, “el temor ha sido que a medida que los modelos se hacen cada vez más grandes, serán capaces de resolver nuevos problemas que actualmente no podemos predecir, lo que plantea la amenaza de que estos modelos más grandes puedan adquirir habilidades peligrosas”. Sin embargo, su estudio muestra claramente la ausencia de capacidades de razonamiento complejo emergentes en los LLM. Por su parte, el profesor Gurevych añadió: “… nuestros resultados no significan que la IA no sea una amenaza en absoluto. Más bien, demostramos que la supuesta aparición de habilidades de pensamiento complejo asociadas a amenazas específicas no está respaldada por evidencias y que, después de todo, podemos controlar muy bien el proceso de aprendizaje de los LLM”.
Te puede interesar: Estos son los trabajos de oficina que desaparecerán en 2030 por inteligencia artificial
Aunque los LLM pueden seguir implementándose sin problemas de seguridad, es importante abordar el potencial existente de mal uso de la IA, como la creación de noticias falsas y el mayor riesgo de fraude. Sin embargo, sería prematuro promulgar regulaciones basadas en amenazas existenciales percibidas.Para los usuarios finales, confiar en los LLM para interpretar y realizar tareas complejas que requieren un razonamiento complejo sin instrucciones explícitas probablemente sea un error. En cambio, es probable que los usuarios se beneficien al especificar explícitamente lo que necesitan que hagan los modelos y proporcionar ejemplos siempre que sea posible.
Imagen: Archivo ENTER.CO