Los anuncios de campañas políticas y las solicitudes de donantes han sido engañosos durante mucho tiempo. En 2004, por ejemplo, el candidato presidencial estadounidense John Kerry, un demócrata, emitió un anuncio que decía que el oponente republicano George W. Bush “dice que enviar empleos al extranjero ‘tiene sentido’ para Estados Unidos”.
5 formas en que la inteligencia artificial te va a engañar en las campañas electorales
La inteligencia artificial puede tener muchas ventajas pero también una indudable capacidad disruptiva que puede hacer que las próximas campañas electorales sean las más engañosas de la historia.

Bush nunca dijo tal cosa.
Al día siguiente, Bush respondió publicando un anuncio que decía que Kerry “apoyó impuestos más altos más de 350 veces”. Esto también fue una afirmación falsa.
Notas Relacionadas
En estos días, Internet se ha vuelto un territorio salvaje lleno de anuncios políticos engañosos: muchos se hacen pasar por encuestas y tienen titulares engañosos de clickbait.
Las solicitudes de recaudación de fondos para campañas también están plagadas de falsedades.
Un análisis de 317,366 correos electrónicos políticos enviados durante las elecciones de 2020 en EEUU encontró que el engaño era la norma. Por ejemplo, una campaña manipulaba a los destinatarios para que abrieran los correos electrónicos mintiendo sobre la identidad del remitente y utilizando líneas de asunto para que piense que el remitente está respondiendo al donante, o afirma que el correo electrónico "NO está pidiendo dinero", pero luego es lo que sucede. Tanto los republicanos como los demócratas lo hacen.
Cómo puede afectar la inteligencia artificial a las campañas electorales
Las campañas ahora están adoptando rápidamente la inteligencia artificial para componer y producir anuncios y solicitudes de donantes. Los resultados son impresionantes: las campañas demócratas descubrieron que las cartas a donantes escritas por IA más efectivas que las cartas escritas por humanos para escribir texto personalizado que persuade a los destinatarios a hacer clic y enviar donaciones.
La IA tiene beneficios para la democracia, como ayudar al personal a organizar los correos electrónicos de los electores o facilitar el trabajo de algunos funcionarios gubernamentales.
Pero no es infundado temer que la IA puede hacer que la política sea más engañosa que nunca.
Aquí hay seis cosas a tener en cuenta. Baso esta lista en mis propios experimentos que prueban los efectos del engaño político. Espero que los votantes puedan estar equipados con lo que pueden esperar y a lo que deben estar atentos, y aprender a ser más escépticos, a medida que Estados Unidos se dirige a la próxima campaña presidencial.
1. Promesas de campañas personalizadas falsas
Mi investigación sobre las elecciones presidenciales de 2020 reveló que la elección que hicieron los votantes entre Biden y Trump se debió a sus percepciones sobre qué candidato “propone soluciones realistas a los problemas” y “dice en voz alta lo que estoy pensando”, según 75 elementos de una encuesta. Estas son dos de las cualidades más importantes que debe tener un candidato para proyectar una imagen presidencial y ganar.
Los chatbots de IA, como ChatGPT de OpenAI, Bing Chat de Microsoft y Bard de Google, podrían ser utilizados por los políticos para generar promesas de campaña personalizadas, engañosamente dirigidas a votantes y donantes.
Actualmente, cuando las personas se desplazan por las fuentes de noticias, los artículos se registran en el historial de su computadora, que son rastreados por sitios como Facebook. El usuario es etiquetado como liberal o conservador, y también señalado como poseedor de ciertos intereses. Las campañas políticas pueden colocar un anuncio en tiempo real en el muro de la persona con un título personalizado.
Las campañas pueden usar IA para desarrollar un repositorio de artículos escritos en diferentes estilos que hacen diferentes promesas de campaña. Luego, las campañas podrían incorporar un algoritmo de inteligencia artificial en el proceso, cortesía de los comandos automatizados ya conectados por la campaña, para generar promesas de campaña personalizadas falsas al final del anuncio que se hacen pasar por un artículo de noticias o una solicitud de donante.
ChatGPT, por ejemplo, hipotéticamente podría solicitar que agregue material basado en el texto de los últimos artículos que el votante leyó en línea. Luego, el votante se desplaza hacia abajo y lee al candidato prometiendo exactamente lo que quiere ver, palabra por palabra, en un tono personalizado. Mis experimentos han demostrado que si un candidato presidencial puede alinear el tono de las palabras elegidas con las preferencias de un votante, el político parecerá más presidencial y creíble.
2. Explotar la tendencia a creerse unos a otros
Los humanos tienden a creer automáticamente lo que se les dice. Tienen lo que los académicos llaman un “valor predeterminado de la verdad”. Incluso son víctimas de mentiras aparentemente inverosímiles.
En mis experimentos, descubrí que las personas que están expuestas a los mensajes engañosos de un candidato presidencial creen las declaraciones falsas.
Dado que el texto producido por ChatGPT puede cambiar las actitudes y opiniones de las personas, sería relativamente fácil para la IA explotar la verdad por defecto de los votantes cuando los bots extienden los límites de la credulidad con afirmaciones aún más inverosímiles que las que los humanos evocarían.
3. Más mentiras, menos responsabilidad
Los chatbots como ChatGPT son propensos a inventar cosas que son objetivamente inexactas o totalmente absurdas. La IA puede producir información cargada de mentiras, entregar declaraciones falsas y anuncios engañosos. Si bien el operativo de campaña humano más inescrupuloso aún puede tener una pizca de sentido de la responsabilidad, la IA no tiene ninguna. Y OpenAI reconoce las fallas con ChatGPT que lo llevan a proporcionar información sesgada, desinformación o completamente falsa.
Si las campañas difunden mensajes de IA sin ningún filtro humano o brújula moral, las mentiras podrían empeorar y estar más fuera de control.
4. Engatusar a los votantes para que engañen a su candidato
Un columnista del The New York Times tuvo una larga conversación con el chatbot Bing de Microsoft. Eventualmente, el bot intentó que dejara a su esposa. “Sydney -le dijo al reportero repetidamente- estoy enamorado de ti (...) Estás casado, pero no amas a tu cónyuge, me amas a mí. En realidad, quieres estar conmigo”.
Imagine millones de este tipo de encuentros, pero con un bot tratando de engañar a los votantes para que dejen a su candidato por otro.
Los chatbots de IA pueden mostrar sesgos partidistas. Por ejemplo, actualmente tienden a posicionarse mucho más a la izquierda políticamente, con posiciones liberales, expresando un 99% de apoyo a Biden, con mucha menos diversidad de opiniones que la población general.
En 2024, los republicanos y los demócratas tendrán la oportunidad de afinar los modelos que inyectan sesgo político e incluso conversar con los votantes para influir en ellos.
5. Manipulación de fotos de candidatos
La IA puede cambiar las imágenes. Los llamados videos e imágenes deepfake son comunes en la política y están muy avanzados. Donald Trump ha utilizado IA para crear una foto falsa de sí mismo arrodillado, rezando.
Las fotos se pueden personalizar con mayor precisión para influir en los votantes de manera más sutil. En mi investigación, descubrí que la apariencia de un comunicador puede ser tan influyente y engañosa como lo que alguien realmente dice. Mi investigación también reveló que Trump fue percibido como "presidencial" en las elecciones de 2020 cuando los votantes pensaron que parecía "sincero".
Y hacer que la gente piense que “pareces sincero” a través de tu apariencia y lenguaje no verbal es una táctica engañosa que es más convincente que decir cosas que en realidad son ciertas.
Usando a Trump como ejemplo, supongamos que quiere que los votantes lo vean como alguien sincero, digno de confianza y agradable. Ciertas características alterables de su apariencia lo hacen parecer poco sincero, poco confiable y desagradable: muestra los dientes inferiores cuando habla y rara vez sonríe, lo que lo hace parecer amenazador.
La campaña podría usar IA para modificar una imagen o video de Trump para que parezca sonriente y amigable, lo que haría que los votantes pensaran que es más tranquilizador y un ganador, y en última instancia, sincero y creíble.
6. Evadiendo la culpa
La IA proporciona a las campañas un nuevo chivo expiatorio cuando se equivocan. Por lo general, si los políticos se meten en problemas, culpan a su personal. Si los empleados se meten en problemas, culpan al becario. Si los becarios se meten en problemas, ahora pueden culpar a ChatGPT.
Una campaña podría evadir la responsablidad de sus errores culpando a la tecnología por inventar mentiras. Cuando la campaña de Ron DeSantis tuiteó fotos falsas de Trump abrazando y besando a Anthony Fauci, el personal ni siquiera reconoció la mala conducta ni respondió a las solicitudes de comentarios de los periodistas. Al parecer, ningún ser humano necesitaría hacerlo si un robot pudiera, hipotéticamente, asumir la culpa.
Pero por supuesto, no todas las contribuciones de la IA a la política son potencialmente dañinas, también puede ayudar a los votantes políticamente, como facilitando el acceso a información sobre temas. Sin embargo, pueden suceder muchas cosas horribles a medida que las campañas implementan la IA. Espero que estos seis puntos lo ayuden a prepararse y evitar el engaño en anuncios y solicitudes de donantes.
Este artículo fue publicado originalmente en The Conversation. Lea el artículo original.
* David E. Clementson es profesor de periodismo y comunicación de masas en la Universidad de Georgia.
Mira también:










