Los deepfakes avanzan con rapidez en el mundo digital, desdibujando los límites entre verdad y manipulación. Desde fraudes millonarios hasta violencia de género digital, su impacto es real y creciente. Tecnología y regulación son claves para enfrentar esta amenaza.

A comienzos de 2024, un empleado de una firma británica de ingeniería recibió una videollamada aparentemente rutinaria. Al otro lado de la pantalla, el director financiero de la compañía y varios otros ejecutivos le pedían con urgencia realizar una serie de transferencias bancarias. Todo parecía legítimo, pero nada lo era. Eran deepfakes. Las voces, los rostros, incluso los gestos: todo había sido recreado con inteligencia artificial. El engaño fue tan convincente que el empleado terminó autorizando el envío de casi USD $26 millones a cuentas bancarias en Hong Kong.

Este caso marcó un antes y un después en la discusión sobre los riesgos reales de esta tecnología. Videos hiperrealistas, voces clonadas y rostros que dicen lo que nunca dijeron: los deepfakes -imágenes, videos y audios generados por herramientas de inteligencia artificial- están cambiando la forma en que percibimos la realidad y minando la confianza en los entornos digitales.

“El deepfake es una forma avanzada de spoofing, una técnica que busca engañar a los sistemas de verificación mediante la falsificación de rostros y voces”, explica Tomás Castañeda, director de Product Development en Sovos. “Hoy, la inteligencia artificial permite alterar una identidad en tiempo real, haciendo difícil detectar el fraude”, añade.

Para identificar estos engaños, Castañeda recomienda el uso de tecnologías especializadas, debido a que el ojo humano podría ser vulnerable a este tipo de ataques: “Existen elementos que podrían levantar sospechas a los que debemos estar atentos: la iluminación, proporciones del rostro, reflejos en los ojos, colores y sombras inconsistentes, fondos borrosos, desincronización entre voz y movimiento labial o parpadeos antinaturales. Sin embargo, cada vez se vuelve más difícil de detectar”, afirma.

Una frontera cada vez más borrosa

A medida que el contenido generado por IA se vuelve más abundante y sofisticado, aumenta el riesgo de que actores maliciosos lo utilicen para difundir desinformación, cometer fraudes o dañar reputaciones. Hoy, los deepfakes son cada vez más fáciles de crear: se puede generar un video convincente en menos de 25 minutos usando solo una imagen clara.

En una encuesta de Deloitte (2024), el 25,9% de los ejecutivos reveló que sus organizaciones habían sufrido al menos un incidente con deepfakes en áreas financieras o contables. El 50% de ellos esperaba que estos ataques aumentaran en 2025. Peor aún: incluso los expertos fallan al identificar este tipo de manipulaciones. Según Royal Society Publishing, solo el 21,6% de las personas en un estudio logró reconocer correctamente un deepfake.

¿Cómo se están usando los deepfakes de forma ilícita?

  • Fraudes financieros y estafas empresariales: se han documentado múltiples intentos de engañar a empleados para autorizar transferencias usando imágenes o voces falsas.
  • Manipulación política y electoral: videos adulterados de candidatos o autoridades pueden incidir directamente en la opinión pública.
  • Suplantación de identidad y extorsión: videos y audios falsos se utilizan para chantajear, estafar o robar identidades.
  • Difamación y daño a la reputación: desde celebridades hasta periodistas, nadie está a salvo de contenidos falsos que buscan destruir su imagen.
  • Pornografía no consentida: uno de los usos más dañinos y extendidos, especialmente hacia mujeres, quienes ven sus rostros montados en material explícito sin consentimiento.

Casos que encienden las alertas

El impacto de los deepfakes trasciende lo corporativo. En el primer trimestre de 2025, famosos fueron atacados 47 veces -un 81% más que en todo 2024- y los políticos, 56 veces, según datos de Surfshark. El público general también fue blanco con un aumento del 23% respecto al año anterior.

En Chile, en 2024, estudiantes difundieron imágenes falsas de compañeras generadas con IA, afectando gravemente su reputación y bienestar emocional. El caso generó un fuerte debate sobre educación digital, regulación y prevención de la violencia de género tecnológica.

Tecnología contra tecnología: la biometría como defensa

Frente a esta amenaza creciente, también hay soluciones tecnológicas. Una de las más efectivas es la verificación de identidad biométrica con prueba de vida (liveness detection). Esta tecnología permite confirmar que la persona está físicamente presente y activamente involucrada en el proceso de verificación, impidiendo el uso de imágenes o videos manipulados.

“La biometría combinada con liveness detection es fundamental para proteger a las organizaciones y personas en un entorno donde la manipulación digital es cada vez más sofisticada. Sin estas capas de seguridad, las empresas se vuelven vulnerables a pérdidas millonarias y a la erosión de la confianza digital”, enfatiza Castañeda.

¿Y ahora qué? Vigilancia, regulación y educación

Aunque los deepfakes pueden tener aplicaciones legítimas en el cine o el entretenimiento, su uso malicioso se expande rápidamente. Se estima que para 2026, hasta el 90% del contenido online podría ser sintético, lo que plantea desafíos sin precedentes para la veracidad de la información.

La respuesta debe ser integral: regulación clara, avances tecnológicos y una ciudadanía informada. 

“Es imprescindible que gobiernos, empresas y ciudadanos trabajemos juntos para implementar soluciones tecnológicas robustas y establecer marcos regulatorios claros que protejan la identidad y la integridad digital de todos”, concluye Castañeda.

 

Google News Portal Innova
Síguenos en Google Noticias

Equipo Prensa
Portal Innova

VIAS IMPORTACIONES 2024