Audios y videos falsos creados con inteligencia artificial amenazan con distorsionar campañas, erosionar la confianza pública y poner en jaque la legitimidad de los procesos electorales.
A pocas semanas de decisivas elecciones en varios países de la región -incluido Chile, que elegirá presidente próximamente-, los deepfakes dejaron de ser una curiosidad tecnológica para transformarse en un arma política capaz de condicionar el voto ciudadano.
En los últimos años, la inteligencia artificial pasó de los laboratorios a las campañas, convirtiéndose en una herramienta de doble filo: mientras algunos la usan para mejorar la interacción con los votantes, otros la emplean para fabricar realidades falsas que confunden y polarizan.
Lo dijo el World Economic Forum: la información manipulada o falsa es una de las mayores amenazas que enfrenta el mundo, de acuerdo con el Global Risks Report 2024, y será uno de los mayores desafíos para los procesos democráticos. Esto, de acuerdo al reporte, se ve amplificado por la adopción generalizada de la IA generativa para producir lo que se conoce como “contenido sintético” (deepfakes, clonación de voz y otros).
“Los deepfakes no son solo un problema tecnológico: son una sofisticada herramienta de persuasión que ataca la confianza pública. Defender la integridad electoral exige combinar regulación, educación ciudadana y controles de identidad robustos que permitan distinguir a quien habla de quien se dice que habla”, advierte Alberto Juárez, VP Digital ID & Trust de Sovos.
Casos que encendieron las alarmas en el mundo
La amenaza no es teórica. En los últimos años, los deepfakes han provocado crisis políticas, sanciones y reformas legislativas en varios países del mundo:
- Brasil: Entre 2023 y 2024, los deepfakes aumentaron un 840%, según firmas de ciberseguridad. Se detectaron videos de políticos “promocionando” productos o realizando declaraciones falsas, lo que impulsó al Congreso a debatir sanciones específicas por manipulación digital.
- Perú: En 2024 circularon videos manipulados que mostraban a congresistas y figuras políticas haciendo declaraciones falsas durante procesos electorales y precampañas. Recientemente se aprobó el reglamento de la Ley N° 31.814, que promueve el uso de la IA y establece un marco legal para su desarrollo e implementación ética y segura.
- Ecuador: Durante la campaña de 2025, videos falsos atribuidos a una conocida candidata, incluyendo promesas económicas y declaraciones ofensivas, se viralizaron en redes antes de ser desmentidos por verificadores. El Consejo Nacional Electoral (CNE) emitió una alerta pública sobre la desinformación generada con IA en procesos electorales.
- Argentina: un video generado con inteligencia artificial -difundido en plena veda electoral, durante las elecciones legislativas en Buenos Aires en mayo- mostraba al presidente Macri y a una diputada, llamando a votar por un candidato específico. El contenido era falso: tanto sus rostros como sus voces habían sido clonados digitalmente. El episodio motivó a que, en agosto de este año, un abogado constitucionalista presentara una acción de amparo electoral preventiva ante la justicia argentina, con el fin de evitar la difusión de contenido deepfake en las elecciones nacionales del 26 de octubre.
- Corea del Sur: Un video generado por IA mostraba al presidente apoyando a un candidato en particular. Tras probarse el fraude, el Parlamento aprobó una ley que prohíbe los deepfakes en campañas electorales.
Chile ante el desafío
Aunque en Chile aún no se han detectado deepfakes políticos de alto impacto, expertos advierten que el país reúne condiciones propicias para su aparición: una ciudadanía hiperconectada, campañas digitales intensas y un clima político cada vez más polarizado.
Recientemente, la Cámara de Diputados y Diputadas aprobó el segundo informe del proyecto que regula y promueve el desarrollo, implementación y uso de la inteligencia artificial, quedando en condiciones de pasar a su segundo trámite en el Senado. Esta normativa incorpora, entre otros puntos, la obligación de transparentar cuándo un contenido es sintético y sanciona abusos ex post de deepfakes, suplantaciones y estafas.
En el corto plazo, los riesgos de los deepfakes se concentran en tres frentes:
- Difusión masiva de videos o audios falsos que puedan influir en el voto o dañar reputaciones.
- Mensajes automatizados con voces sintéticas para confundir o desalentar la participación electoral.
- Desconfianza generalizada, cuando actores maliciosos descalifican pruebas reales acusándolas de ser deepfakes, debilitando la credibilidad institucional.
Verificar la identidad, una defensa clave
Frente a esta amenaza, “la verificación de identidad emerge como una herramienta fundamental”, afirma Juárez. La posibilidad de confirmar quién está realmente detrás de cada mensaje o contenido se vuelve esencial para proteger la integridad de la información pública.
Los sistemas de autenticación robustos -que combinan biometría facial, detección de vida (liveness detection) y validación documental- pueden ser aplicados en medios, instituciones y plataformas digitales para garantizar que las voces, firmas y materiales audiovisuales provengan de fuentes legítimas. Estas tecnologías no eliminan la manipulación, pero crean trazabilidad y confianza, dos valores críticos en tiempos de desinformación algorítmica.
Una responsabilidad compartida
Combatir la manipulación digital requiere más que herramientas tecnológicas o normas punitivas: demanda colaboración público–privada, educación mediática y protocolos de respuesta rápida que permitan identificar y retirar contenidos falsos antes de que se viralicen.
“Si logramos verificar que quien habla es quien dice ser, reducimos la capacidad de la inteligencia artificial para mentir en nuestro nombre. La identidad digital, entendida como prueba verificable de autenticidad, es hoy la primera línea de defensa contra la manipulación”, concluye Alberto Juárez.














































