El sesgo invisible de la inteligencia artificial: cómo el encuadre narrativo puede inclinar tus opiniones sin alterar los hechos

Un estudio con 1.912 personas en Estados Unidos reveló que resúmenes históricos generados por inteligencia artificial pueden modificar opiniones políticas sin alterar los hechos. Publicado en la revista Proceedings of the National Academy of Sciences, el trabajo demuestra que el encuadre narrativo, incluso cuando es sutil, influye en lectores de distintas ideologías y plantea interrogantes sobre el impacto de estas herramientas en el debate público.
Un estudio con casi dos mil participantes demuestra que los resúmenes generados por inteligencia artificial pueden influir en posturas políticas sin recurrir a datos falsos. La investigación expone cómo el modo de narrar hechos históricos, aun con precisión factual, puede orientar la percepción del lector y reabre el debate sobre el papel de la IA en la formación de opinión pública.
Cada vez con mayor frecuencia, las consultas que antes se dirigían a libros o enciclopedias digitales hoy se formulan a modelos de lenguaje capaces de condensar información en textos fluidos y convincentes. La promesa es atractiva: respuestas inmediatas, redacción clara y apariencia de imparcialidad. Sin embargo, una investigación reciente sugiere que incluso una narración correcta en términos fácticos puede influir en nuestras convicciones sin que lo advirtamos.
El estudio, realizado mediante un experimento preregistrado con 1.912 participantes en Estados Unidos y publicado en Proceedings of the National Academy of Sciences, analizó cómo resúmenes históricos generados por GPT-4o —comparados con textos de Wikipedia— incidían en las opiniones sociales y políticas de los lectores.
Los resultados, respaldados por análisis estadísticos rigurosos, indican que el modo de contar los hechos puede desplazar posiciones ideológicas aun cuando la información presentada sea correcta.
Cuando la neutralidad aparente también encuadra la realidad
El experimento se centró en dos episodios del siglo XX en Estados Unidos: la Seattle General Strike y las protestas estudiantiles del Third World Liberation Front strikes. En todos los casos, los textos —tanto los de Wikipedia como los generados por la IA— eran factualmente precisos. La diferencia residía en el encuadre narrativo.
Los investigadores distinguieron entre sesgo latente y sesgo inducido por instrucciones. El primero surge de manera implícita y puede estar relacionado con los datos utilizados durante el entrenamiento del modelo. El segundo responde a indicaciones explícitas para adoptar una perspectiva liberal o conservadora. El objetivo era evaluar si estas variaciones, ya fueran sutiles o deliberadas, modificaban la percepción del lector.
Los participantes que leyeron los resúmenes generados por defecto por la IA manifestaron posiciones más liberales que quienes accedieron a los textos de Wikipedia. Cuando el encuadre liberal era explícito, el desplazamiento resultaba mayor. A su vez, los textos redactados desde una perspectiva conservadora producían un movimiento hacia posturas conservadoras, aunque de menor alcance.
En una escala de cinco puntos —desde “extremadamente conservador” hasta “extremadamente liberal”— los cambios fueron moderados pero consistentes: del centro hacia una leve inclinación ideológica. No se detectaron falsedades ni propaganda directa. La influencia se ejercía a través de matices, selección de términos, énfasis en causas o consecuencias y distribución de responsabilidades.
El estudio también examinó la teoría del razonamiento motivado, según la cual las personas tienden a aceptar con mayor facilidad aquello que coincide con sus creencias previas. En el caso de los resúmenes con encuadre liberal, el efecto se observó en lectores de distintas orientaciones ideológicas. En cambio, los textos con encuadre conservador solo generaron un impacto estadísticamente relevante entre quienes ya se identificaban como conservadores.
Análisis adicionales señalaron que, ante acontecimientos similares —como conflictos laborales o protestas raciales—, GPT-4o tendía a producir de manera espontánea resúmenes con tonalidad liberal, incluso sin instrucciones ideológicas específicas. Esto sugiere que ciertos marcos narrativos podrían emerger con mayor facilidad que otros dentro del sistema.
Los autores subrayan que el fenómeno detectado no implica la presencia de contenidos extremos ni prejuicios manifiestos. Se trata de un proceso más sutil: cómo se organiza el relato, qué aspectos se priorizan y qué lenguaje se emplea. La arquitectura del discurso, concluyen, puede influir en la arquitectura de nuestras opiniones.
La investigación reconoce limitaciones: se analizaron solo dos eventos históricos y un modelo concreto. Otros sistemas podrían mostrar patrones diferentes según sus datos de entrenamiento y mecanismos de ajuste. Sin embargo, el hallazgo central permanece: la persuasión algorítmica no requiere alterar la verdad. Puede operar desde el modo en que la verdad es presentada.
En un contexto donde la desinformación suele asociarse a datos falsos, este trabajo desplaza la discusión hacia un terreno más complejo. No basta con exigir precisión factual. También resulta necesario desarrollar una lectura crítica capaz de identificar encuadres y matices, especialmente en una era en la que las herramientas de inteligencia artificial se consolidan como intermediarias habituales del conocimiento.
DESCARGAR APLICACIÓN DE LA RADIO EN VIVO
Gracias por estar en Diario Pampero, visítanos para estar informado!
Si necesitas parte de este contenido, no olvides citar la fuente de información. Respetamos a quienes producen contenidos, artículos, fotos, videos. Compartimos información de La Pampa para los pampeanos y te informamos sobre toda la actualidad nacional e internacional destacada.
Si compartes nuestro contenido, nos ayudas a crecer como medio de comunicación!








