Una breve interacción con un chatbot puede modificar significativamente la opinión de un votante sobre un candidato presidencial o una política propuesta, según una investigación de la Universidad de Cornell (EE. UU.).
Los hallazgos se publican en dos artículos simultáneos: ‘Persuadir a los votantes mediante diálogos entre humanos y IA’ en Nature, y ‘Las palancas de la persuasión política con IA conversacional’ en Science. Los estudios, realizados en cuatro países, muestran que los chatbots impulsados por grandes modelos de lenguaje (LLM) modifican las preferencias de votantes de la oposición hasta en 10 puntos porcentuales o más en muchos casos. La persuasión de estos modelos no se debe a manipulación psicológica, sino a la presentación de numerosos argumentos que respaldan posturas políticas.
“Los LLM pueden influir significativamente en la actitud de la gente hacia los candidatos presidenciales y sus políticas, aportando múltiples afirmaciones fácticas que respaldan su postura”, explica David Rand, profesor de Ciencias de la Información y Marketing y Gestión de la Comunicación en Cornell y autor principal de ambos artículos. “Sin embargo, estas afirmaciones no siempre son precisas, e incluso los argumentos correctos pueden inducir a error por omisión”.
En el estudio de Nature, Rand y el coautor Gordon Pennycook, profesor asociado de psicología, instruyeron a chatbots para cambiar la actitud de votantes respecto a candidatos presidenciales. Asignaron aleatoriamente a los participantes a interactuar con un chatbot que promovía una postura y midieron los cambios en opiniones e intenciones de voto. Repetieron el experimento en las elecciones presidenciales estadounidenses de 2024, las elecciones federales canadienses de 2025 y las presidenciales polacas de 2025.
Dos meses antes de las elecciones estadounidenses, con más de 2,300 participantes, el chatbot pro-Harris movió a votantes probables de Trump 3.9 puntos hacia Harris, un efecto cuatro veces mayor que los anuncios tradicionales de 2016 y 2020. El modelo pro-Trump movió a votantes de Harris 1.51 puntos hacia Trump. Experimentos con 1,530 canadienses y 2,118 polacos mostraron efectos aún mayores, alcanzando 10 puntos porcentuales en votantes de la oposición.
Los chatbots usaron diversas tácticas de persuasión, destacando la cortesía y el respaldo con pruebas. Cuando se impidió el uso de hechos, su persuasión disminuyó notablemente, subrayando la importancia de las afirmaciones basadas en datos. El análisis de verificadores humanos mostró que, aunque las afirmaciones fueron en promedio precisas, los chatbots a favor de candidatos de derecha presentaron más inexactitudes que los de izquierda.
En Science, Rand y colegas del Instituto de Seguridad de IA del Reino Unido midieron los cambios de opinión de casi 77,000 participantes sobre más de 700 temas políticos. “Los modelos más grandes son más persuasivos, pero la forma más efectiva de aumentar su capacidad de persuasión fue instruirlos para que presentaran la mayor cantidad posible de datos y recibir entrenamiento adicional en persuasión”, explica Rand. El modelo más optimizado logró un cambio de hasta 25 puntos porcentuales en votantes de la oposición.
El estudio también reveló que cuanto más persuasivo era un modelo, menos precisa era la información que proporcionaba. Rand advierte que presionar al chatbot para generar más afirmaciones fácticas puede llevarlo a inventar información.
Un tercer artículo reciente en PNAS Nexus muestra que los argumentos de los chatbots redujeron la creencia en teorías conspirativas, incluso cuando los participantes pensaban que hablaban con un experto humano, confirmando que la persuasión se basa en la fuerza del mensaje, no en la autoridad percibida de la IA.
Todos los participantes fueron informados de que interactuaban con una IA y se les explicó detalladamente después del experimento. La dirección de la persuasión se asignó aleatoriamente para evitar sesgos generales.
Los investigadores subrayan que estudiar la persuasión de la IA es esencial para anticipar y mitigar su uso indebido, y esperan que estos experimentos fundamenten directrices éticas y debates sobre políticas en comunicación política. Rand concluye: “Los chatbots serán cada vez más importantes en campañas políticas. El reto es limitar el daño y ayudar a las personas a reconocer y resistir la persuasión de la IA”.
