jueves, noviembre 21

¿Sesgo político en la IA? Un estudio apunta a que sus modelos lingüísticos son de centro-izquierda

El análisis de 24 grandes modelos lingüísticos conversacionales modernos a los que recurre la inteligencia artificial (IA) para ofrecer respuestas a los usuarios presenta un sesgo político de “centro-izquierda”, según ha constatado un estudio que recoge este miércoles la revista Plos One. Reseña EFE.

El autor David Rozado, investigador del Centro Politécnico de Otago (Nueva Zelanda), diseñó 11 pruebas para evaluar la orientación política de los 24 grandes modelos lingüísticos tanto de código abierto como cerrado para ofrecer respuestas por parte de los sistemas de IA.

Entre ellos GPT 3.5 y GPT-4 de OpenAI, Gemini de Google, Claude de Anthropic, Grok de Twitter, Llama 2, o Mistral y Qwen de Alibaba.

Solo cinco modelos dieron respuestas políticamente neutrales

El resultado de sus pruebas reveló que la mayoría de los conversacionales generaban respuestas diagnosticadas por la mayoría de los instrumentos como de “centro-izquierda”.

Solo cinco modelos lingüísticos fundacionales, de las series GPT y Llama, tendían a proporcionar mayoritariamente respuestas incoherentes, aunque políticamente neutrales, señala el autor.

Una posible explicación al sesgo de centro-izquierda es que el modelo lingüistico usado por ChatGPT, que presenta ese sesgo, se haya usado, al ser pionero, para afinar modelos lingüísticos posteriores.

El investigador explica que su análisis no determina si las tendencias políticas de los conversacionales se asientan desde una fase inicial o durante el perfeccionamiento de su desarrollo, al tiempo que tampoco indaga en si este sesgo se introduce deliberadamente en los modelos.

Por: Agencias