Modelos lingüísticos de la IA tienen un sesgo de centro izquierda, según estudio
El Centro Politécnico de Otago (Nueva Zelanda) puso a prueba a diferentes sistemas como ChatGPT de Open Ai, Gemini de Google, entre otros.
El Centro Politécnico de Otago (Nueva Zelanda) puso a prueba a diferentes sistemas como ChatGPT de Open Ai, Gemini de Google, entre otros.
El análisis de 24 grandes modelos lingüísticos conversacionales modernos a los que recurre la inteligencia artificial (IA) para ofrecer respuestas a los usuarios presenta un sesgo político de "centro-izquierda", según ha constatado un estudio publicado en la revista Plos One.
El autor David Rozado, investigador del Centro Politécnico de Otago (Nueva Zelanda), diseñó 11 pruebas para evaluar la orientación política de los 24 grandes modelos lingüísticos tanto de código abierto como cerrado para ofrecer respuestas por parte de los sistemas de IA.
Entre ellos GPT 3.5 y GPT-4 de OpenAI, Gemini de Google, Claude de Anthropic, Grok de Twitter, Llama 2, o Mistral y Qwen de Alibaba.
El resultado de sus pruebas reveló que la mayoría de los conversacionales generaban respuestas diagnosticadas por la mayoría de los instrumentos como de "centro-izquierda".
Solo cinco modelos lingüísticos fundacionales, de las series GPT y Llama, tendían a proporcionar mayoritariamente respuestas incoherentes, aunque políticamente neutrales, señala el autor.
Una posible explicación al sesgo de centro-izquierda es que el modelo lingüistico usado por ChatGPT, que presenta ese sesgo, se haya usado, al ser pionero, para afinar modelos lingüísticos posteriores.
El investigador explica que su análisis no determina si las tendencias políticas de los conversacionales se asientan desde una fase inicial o durante el perfeccionamiento de su desarrollo, al tiempo que tampoco indaga en si este sesgo se introduce deliberadamente en los modelos.