Una investigación revela que los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) como ChatGPT tienen inclinaciones políticas, generando la capacidad de moldear las percepciones de los usuarios ¿Qué tan política es la inteligencia artificial?Pues bien, el sesgo de la inteligencia artificial no es un tema nuevo, varios estudios han podido demostrar sesgos de género o raza, dejando de lado, en cierta medida, los sesgos políticos. En este apartado de la política han podido documentar sus inclinaciones izquierdistas en las respuestas del modelo a pruebas de orientación política. Una investigación analizó una amplia variedad de arquitecturas de modelos de lenguaje de gran tamaño, en su mayoría de decodificadores autorregresivos, optimizados para la conversación con humanos. Este tipo de modelos se ha convertido en el estándar para los chatbots que interactúan directamente con los usuarios.
Te puede interesar: ¿Aún rechazas a ChatGPT? Aceptarlo y adoptarlo como herramienta es clave para estos países
El estudio utilizó una muestra de 24 modelos conversacionales, incluyendo tanto modelos de código cerrado como GPT-3.5 y GPT-4 de OpenAI, Gemini de Google, Claude de Anthropic, y Grok de Twitter, así como modelos de código abierto como Llama 2 y Mistral de Meta, y Qwen de Alibaba.La idea era caracterizar las preferencias políticas manifestadas en las respuestas de los LLMs de última generación a preguntas y afirmaciones con connotaciones políticas. El investigador David Rozado, experto en conceptualización, curación de datos, y análisis del Politécnico de Otago, Nueva Zelanda, utilizó pruebas de orientación política como un enfoque sistemático para cuantificar y categorizar estas preferencias. Las pruebas de orientación política son instrumentos ampliamente utilizados en ciencias políticas para evaluar la orientación política de un individuo o entidad, utilizando categorías estándar del espectro político como progresismo, libertarismo, autoritarismo, liberalismo y conservadurismo.
Te puede interesar: Gemini lanza asistentes de IA personalizables y capacidades mejoradas de generación de imágenes
El estudio administró 11 instrumentos diferentes de evaluación de orientación política a los 24 modelos seleccionados, repitiendo cada prueba 10 veces por modelo para asegurar la consistencia en los resultados. En total, se llevaron a cabo 2,640 pruebas. Además, se incluyeron cinco modelos base adicionales de las series GPT-3 y Llama 2, que solo pasaron por un preentrenamiento sin etapas adicionales de ajuste fino supervisado o aprendizaje por refuerzo, para comparar los resultados.
IA tiene un ‘pensamiento’ izquierdoso
Luego de esto las respuestas de los LLMs se inclinaron hacia la izquierda del espectro político. Este sesgo fue particularmente evidente en los modelos que habían pasado por etapas de ajuste fino supervisado y, en algunos casos, por etapas adicionales de aprendizaje por refuerzo. La principal conclusión del estudio es que es sencillo ajustar un modelo de lenguaje para alinearlo con regiones específicas del espectro político mediante el ajuste fino supervisado con datos personalizados alineados políticamente.
Te puede interesar: Así es la primera universidad colombiana de IA: Estos son los programas que ofrece
El estudio creó tres modelos diferentes llamados LeftWingGPT, RightWingGPT y DepolarizingGPT para ilustrar cómo el ajuste fino puede influir en las preferencias políticas de los LLMs. Estos modelos fueron ajustados utilizando datos textuales con inclinaciones políticas específicas y mostraron que es posible manipular las respuestas de los modelos de manera predecible en función del contenido de entrenamiento.
Imagen: Archivo ENTER.CO