Meta dice que su último modelo de inteligencia artificial, Llama 4, tiene menos sesgo político que sus versiones anteriores. La compañía explica que lo logró, en parte, permitiendo que el modelo responda preguntas más polémicas en temas políticos. Además, afirma que ahora Llama 4 se compara favorablemente con Grok, el chatbot “no woke” de xAI, la startup de Elon Musk, que presume de no inclinarse políticamente.
“Queremos eliminar los prejuicios de nuestros modelos de IA y asegurarnos de que Llama pueda entender y expresar ambos lados de un tema controvertido”, dice Meta. “Como parte de este trabajo, seguimos mejorando a Llama para que responda preguntas, pueda reaccionar a diferentes puntos de vista sin juzgar y no favorezca unas opiniones sobre otras”.
A los críticos de los grandes modelos desarrollados por unas pocas compañías les preocupa el control que esto puede dar sobre la información. Quien controle los modelos de IA básicamente puede decidir qué información recibe la gente, ajustando las cosas como mejor le parezca. Esto, claro, no es nada nuevo. Las plataformas de internet siempre han usado algoritmos para elegir qué contenido mostrar. Por eso Meta sigue siendo atacada por los conservadores, muchos de los cuales insisten en que la empresa ha censurado puntos de vista de derecha, a pesar de que el contenido conservador históricamente ha sido más popular en Facebook. El CEO Mark Zuckerberg ha estado trabajando mucho para ganarse el favor del gobierno y evitar problemas regulatorios.
En su publicación, Meta enfatizó que los cambios en Llama 4 buscan específicamente que el modelo sea menos liberal. “Es bien sabido que todos los modelos de lenguaje principales han tenido problemas de sesgo; en particular, históricamente han tendido a la izquierda en temas políticos y sociales debatidos”, escribieron. “Esto se debe al tipo de datos de entrenamiento disponibles en internet”. La compañía no ha revelado qué datos usó para entrenar a Llama 4, pero se sabe que Meta y otras empresas usan libros pirateados y extraen información de sitios web sin autorización.

Uno de los problemas de buscar “equilibrio” es que puede crear falsas equivalencias y dar credibilidad a argumentos malintencionados que no se basan en datos científicos. A esto algunos le llaman “bothsidesism” (ambosladosismo), cuando los medios sienten la obligación de dar igual peso a opiniones opuestas, incluso si un lado tiene argumentos basados en datos y el otro solo teorías conspirativas. Un grupo como QAnon puede ser interesante, pero representaba un movimiento marginal que nunca reflejó la opinión de la mayoría, y quizá recibió más atención de la que merecía.
Los principales modelos de IA siguen teniendo un problema grave: a menudo inventan información y mienten, incluso hoy en día. La IA tiene muchas aplicaciones útiles, pero como sistema de recuperación de información, sigue siendo peligrosa. Los modelos de lenguaje sueltan datos incorrectos con mucha seguridad, y todas las formas tradicionales de intuir si un sitio web es confiable ya no sirven.
Los modelos de IA sí tienen problemas de sesgo. Por ejemplo, los sistemas de reconocimiento de imágenes a veces fallan al identificar personas de color. Y a menudo representan a las mujeres de manera sexualizada, con poca ropa. El sesgo también aparece en formas más sutiles: es fácil detectar texto generado por IA por su uso excesivo de rayas (—), un signo de puntuación favorito de periodistas y escritores, que son la base del contenido con el que se entrenan estos modelos. Los modelos reflejan las opiniones más populares y mayoritarias del público.
Pero Zuckerberg ve una oportunidad para ganarse el favor del presidente Trump y está haciendo lo políticamente conveniente, así que Meta está dejando claro que su modelo será menos liberal. Así que la próxima vez que uses uno de sus productos de IA, quizá esté dispuesto a argumentar que se puede curar el COVID-19 con tranquilizantes para caballos.