2024 marcó un gran año para la democracia, con elecciones celebradas en más de 70 países que representan casi la mitad de la población mundial. También fue denominado el año de la “elección de IA” como expertos prevenido de los estragos que la desinformación generada por IA podría causar. En 2023, el experto en IA Oren Etzioni dijo Fortuna“Espero un tsunami de desinformación” y la periodista Maria Ressa dicho El mundo se enfrenta a un “Armageddon habilitado para la tecnología”.
Las principales empresas tecnológicas incluso crearon el Acuerdo técnico para combatir el uso engañoso de la IA en las elecciones de 2024, citando preocupaciones sobre cómo la “generación intencional y no revelada y la distribución del contenido de elecciones de IA engañosos pueden engañar al público de manera que pone en peligro la integridad de los procesos electorales”. Resto del mundo Los informes en el transcurso del año sugieren que esas preocupaciones pueden haber sido exageradas o fuera de lugar.
A principios de 2024, Resto del mundo Se propuso crear un rastreador de elecciones de IA con el objetivo de comprender las diferentes formas en que se estaban utilizando herramientas de IA, con un enfoque en países fuera de Occidente. A lo largo del año, los periodistas de todo el mundo reunieron casos únicos y notables de las formas en que la IA, principalmente IA generativa, se estaba utilizando en torno a las elecciones. A finales de año, el rastreador incluía 60 entradas de 15 países. Las entradas señalan el tipo de medios creados con IA, que incluyen texto, imagen, audio y video; la plataforma (s) el contenido fue publicado y extendido; y el país en cuestión.
En lugar de una base de datos integral, nuestro rastreador de elecciones de IA compiló un conjunto de datos seleccionados, que ofreció un vistazo a la miríada de formas en que los políticos y los ciudadanos usaron IA para crear contenido político que condujo y después de las elecciones. La mayoría de las publicaciones que recopilamos se concentran en la primera mitad del año porque fue cuando surgieron primero los casos de uso únicos y cuando se produjeron muchas elecciones importantes.
Hacia el final del año, los expertos notaron que los peores temores de las personas sobre los efectos negativos de la IA en las elecciones no se habían materializado. Investigadores de IA escribió en el Revisión de la tecnología del MIT Eso se refiere a que un ataque de Deepfakes y otras información errónea generada por la IA serían engañados a los votantes. Meta reportado En diciembre, no encontró mucha información errónea generada por IA en sus plataformas y pudo eliminarla o etiquetarla rápidamente.
Expertos que hablaron con Resto del mundo dijo que si bien la IA no tenía efectos catastróficos que influyan en las elecciones, todavía hay razones para preocuparse, ya que el contenido de IA falso llegó a un público amplio y los usuarios de las redes sociales no siempre son expertos en distintivo Contenido de IA del contenido auténtico.
“Cuando se trata de IA y elecciones (en 2024), literalmente había visto la frase,” es el perro el que no ladró “, pero en realidad creo que es una exageración significativa”, dijo Vivian Schiller, directora ejecutiva de Aspen Digital, un programa del Instituto Aspen que se centra en la tecnología.
Testigo, una organización sin fines de lucro con sede en Brooklyn que ayuda a las personas a usar la tecnología para documentar las violaciones de los derechos humanos, también rastreó el uso de defectos en torno a las elecciones el año pasado. “Lo que vimos fue que había fallas claras que surgieron en torno a la capacidad de los periodistas, los verificadores de hechos y la sociedad civil para tratar, detectar y comunicarse en torno a los casos de defake que tenían”, dijo Sam Gregory, director ejecutivo de la organización. Señaló que las herramientas de detección de IA no siempre funcionaban de manera efectiva para proporcionar resultados concluyentes, y no tenían la capacidad de lidiar con diferentes acentos o tonos de piel.
En India, hubo muchos ejemplos de personas que usaban IA generativa para crear memes en el período previo a las elecciones generales de junio del país. Nilesh Christopher, un ex Resto del mundo El periodista que rastreó incidentes en la India, ha estado cubriendo el contenido electoral generado por IA desde 2020. En 2024, notó que las primeras instancias de contenido generado por IA eran memes, como un video del primer ministro Narendra Modi transponidos al rapero Lil Yachty usando Viggle AI.
“El uso lúdico de la IA o el uso de IA orientado al compromiso fue mayor en comparación con los usos o daños políticos directos”, dijo Christopher a Resto del mundo. “Se convirtió en otra herramienta para generar contenido a bajo precio”.
Algunos de los casos de uso de IA más notables fueron para la comunicación por parte de los políticos. Unas semanas antes de la elección de Pakistán en febrero, por ejemplo, la Corte Suprema prohibió a los miembros del partido de Pakistán Tehreek-e-Insaf del ex primer ministro IMran Khan de usar su símbolo tradicional. Todos los candidatos de PTI tuvieron que usar nuevos símbolos individuales en las boletas, creando confusión entre los votantes. En respuesta, el PTI creó un chatbot para informar a los ciudadanos quién era su candidato local. Después de las elecciones, Khan pronunció un discurso de la prisión con la ayuda de AI también.
“Una de las formas más poderosas que pueden hacer y hacer imágenes particularmente generativas es convertir el discurso metafórico en imágenes”, dijo Gregory a Resto del mundo. “Y creo que eso es tan obviamente lo que está sucediendo con gran parte de la participación política en una serie de geografías”. En Sudáfrica, por ejemplo, los usuarios de las redes sociales usaron IA para crear imágenes de cómo se vería el país bajo el liderazgo de Julius Malema. En países como Indonesia, Sri Lanka e India, los usuarios y los políticos resucitaron figuras políticas con IA para comentarios o avales de campaña.
La mayoría de los incidentes Resto del mundo rastreado cayó en dos categorías: memes y comentarios de ciudadanos, o comunicación política de candidatos. Pero también documentamos usos dañinos de la IA generativa. En México, por ejemplo, alguien usó IA generativa para crear una foto desnuda falsa de la candidata Mariana Rodríguez Cantú. En Taiwán, un actor vinculado a Beijing había diseminado videos generados por IA con desinformación sobre el ex presidente Tsai Ing-Wen una semana antes de las elecciones.
Incluso el contenido que parece menos dañino al principio puede tener consecuencias negativas. Las publicaciones generadas por IA saltan de una plataforma a otra, o repostadas en la misma plataforma, pueden conducir al colapso del contexto, donde el contenido destinado a un grupo de personas se extiende más allá de esa burbuja y se malinterpreta. Por ejemplo, un usuario de las redes sociales usó AI para crear fotos de líderes de los partidos indios que apoyan las políticas de sus oponentes. La publicación original en Instagram se publicó con el título “Política en un universo paralelo” e incluyó un descargo de responsabilidad de que las imágenes fueron generadas por IA. Pero estas imágenes podrían ser engañosas si se compartieran sin este contexto.
Shukri Hassan, quien analizó el contenido sudafricano para Resto del mundoEl rastreador de AI, vio una situación similar en su propia vida. Si bien pudo reconocer de inmediato un video generado por la IA del ex presidente Joe Biden amenazando sanciones contra Sudáfrica, algunas personas en su órbita personal pensaron que era real.
“En su mayor parte, no creo que la tecnología haya avanzado lo suficiente como para engañar a las personas de manera convincente hasta el punto de cambiar sus votos”, dijo Hassan. “Pero especialmente con la generación anterior, es difícil para ellos comprender que alguien puede cargar un video antiguo en una plataforma y crear este tipo de visual (falso)”.
Un nuevo informe de Indonesia, basado en encuestas realizadas por la Fundación Luminada y la firma de investigación de mercado IPSOS, subrayó las preocupaciones sobre el público en general que no pudo identificar el contenido generado por la IA. (Luminate, que financia proyectos para apoyar los problemas de gobernanza y participación ciudadana a nivel mundial, suscribió, suscribió Resto del mundoLa cobertura de la intersección de la tecnología y la democracia en 2024.) De los 1,000 encuestados, el 63% dijo que el contenido generado por IA tenía el potencial de afectar sus propios puntos de vista políticos personales. Pero del 33% que dijo que el contenido generado por IA tuvo poco o ningún impacto en sus puntos de vista personales, “el 42% admite que no tienen mucha confianza en la identificación de contenido generado por IA”, dijo el informe.
En diciembre informe Sobre el contenido de las elecciones globales en sus plataformas, Meta señaló que el contenido de IA relacionado con las elecciones representaba menos del 1% de todas las información errónea de control. Un mes después, la compañía anunció que cerraba sus programas de verificación de hechos y se mudaba a las notas de la comunidad de estilo X.
Schiller, de Aspen Digital, señaló que Meta, que posee WhatsApp, Facebook e Instagram, es Internet en muchos lugares del mundo. Meta mismo anotado que sus “políticas y procesos existentes demostraron ser suficientes para reducir el riesgo en torno al contenido generativo de IA” en las elecciones de 2024. Por lo tanto, las plataformas de redes sociales que se alejan del contenido de verificación de hechos y etiquetado como generado por IA “es extremadamente preocupante”, dijo Schiller. “(X) se ha vuelto muy poco confiable. Meta ha detenido su moderación de contenido. Estas son muchas de las herramientas cruciales que las personas usan”.
Las elecciones de 2024 fueron un “ensayo de vestimenta”, dijo Schiller a Resto del mundo. “2024 fue un año único en términos del volumen de elecciones nacionales en todo el mundo, sin precedentes. Pero las elecciones continúan”, dijo. “Hay otra docena o más de elecciones nacionales que están sucediendo en 2025. Por lo tanto, la sofisticación (de la IA) será mejor”.







