Un estudio de iProov revela una profunda ceguera ante deepfakes, pues la mayoría de los consumidores encuestados no puede identificar falsificaciones generadas por IA. ¿Crees que puedes detectar un Deepfake? Haz el Test de Detección de Deepfakes para conocer tus habilidades de identificación.
Londres, Reino Unido – 13 de febrero de 2025 – Una nueva investigación de iProov, el principal proveedor mundial de soluciones científicas para la verificación biométrica de identidad, revela que la mayoría de las personas no pueden identificar los deepfakes, esos videos e imágenes increíblemente realistas generados por IA que suelen estar diseñados para hacerse pasar por personas. El estudio examinó a 2.000 consumidores del Reino Unido y los EE. UU., exponiéndolos a una serie de contenidos reales y deepfakes. Los resultados son alarmantes: solo el 0,1% de los participantes pudo distinguir con precisión el contenido real del falso en todos los estímulos, que incluían imágenes y videos.
Principales hallazgos del estudio:
- La detección de deepfakes falla:solo 0,1% de los encuestados logró identificar correctamente todos los estímulos deepfake y reales en un estudio en el que se preparó a los participantes para que buscaran deepfakes. En situaciones del mundo real, donde las personas son menos conscientes, la vulnerabilidad a los deepfakes probablemente sea aún mayor.
- Generaciones mayores, las más vulnerables:El estudio encontró que el 30% de las personas de 55-64 años y el 39% de los mayores de 65 años nunca habían oído hablar de los deepfakes, lo que destaca una importante brecha de conocimiento y una mayor susceptibilidad en este grupo.
- Videos, los más preocupantes:Los videos son particularmente desafiantes, ya que solo el 9% de las personas pueden identificar todos los deepfakes. Esta vulnerabilidad genera serias preocupaciones sobre la posibilidad de fraude basado en videos, como suplantación de identidad en videollamadas o en escenarios en los que se utiliza la verificación de video para validar la identidad.
- Los deepfakes están por todas partes, pero no se comprenden:si bien la preocupación por los deepfakes está aumentando, muchos desconocen esta tecnología. Uno de cada cinco consumidores (22%) nunca había oído hablar de los deepfakes antes del estudio.
- El exceso de confianza está muy extendido:a pesar de su bajo rendimiento, los encuestados mantuvieron una confianza excesiva en sus habilidades para detectar deepfakes (más del 60%), independientemente de si sus respuestas eran correctas o no. Esto fue especialmente así en el caso de los adultos jóvenes (de 18 a 34 años). Esta falsa sensación de seguridad es un motivo de gran preocupación.
- La confianza se ve afectada:las plataformas de redes sociales se consideran caldo de cultivo para deepfakes, y Meta (49%) y TikTok (47%) son los lugares donde más se encuentran deepfakes en línea. Esto, a su vez, ha reducido la confianza en la información y los medios en línea: el 49% confía menos en las redes sociales después de enterarse de la existencia de deepfakes. Solo uno de cada cinco denunciaría una sospecha de deepfake en las plataformas de redes sociales.
- Preocupaciones generalizadas:Tres de cada cuatro personas (74%) están preocupadas por el impacto social de los deepfakes, especialmente en la propagación de «fake news» (68%). Este miedo es más pronunciado en mayores de 55 años (82%).
- Se necesitan mejores mecanismos de concientización y denuncia: casi un tercio de las personas (29%) no toman ninguna medida cuando se encuentran con un presunto deepfake, lo que probablemente se debe a que el 48% dice no saber cómo denunciarlos, mientras que a una cuarta parte no le importa si ve uno.
- La mayoría de los consumidores no verifican activamente la autenticidad de la información en línea, lo que aumenta su vulnerabilidad a los deepfakes:a pesar de la creciente amenaza de la desinformación, solo uno de cada cuatro busca fuentes de información alternativas si sospecha que se trata de una imagen falsa. Solo el 11% de las personas analizan críticamente la fuente y el contexto de la información para determinar si se trata de una falsificación profunda, lo que significa que una gran mayoría es muy susceptible al engaño y a la difusión de narrativas falsas.
El profesor Edgar Whitley, experto en identidad digital de la London School of Economics and Political Science, añade: “Los expertos en seguridad llevan tiempo advirtiendo de las amenazas que suponen los deepfakes tanto para las personas como para las organizaciones. Este estudio demuestra que las organizaciones ya no pueden confiar en el criterio humano para detectar deepfakes y deben buscar medios alternativos para autenticar a los usuarios de sus sistemas y servicios”.
“Solo el 0,1% de las personas pudieron identificar con precisión los deepfakes, lo que subraya lo vulnerables que son ambas organizaciones a la amenaza del fraude de identidad en la era de los deepfakes”, afirma Andrew Bud, fundador y director ejecutivo de iProov.
«Incluso cuando la gente sospecha que se trata de un deepfake, nuestra investigación nos indica que la gran mayoría de la gente no hace nada. Los delincuentes se aprovechan de la incapacidad de los consumidores para distinguir las imágenes reales de las falsas, poniendo en riesgo nuestra información personal y nuestra seguridad financiera. Las empresas tecnológicas tienen que proteger a sus clientes implementando medidas de seguridad sólidas. El uso de la biometría facial con la vitalidad proporciona un factor de autenticación fiable y prioriza tanto la seguridad como el control individual, lo que garantiza que las organizaciones y los usuarios puedan seguir el ritmo y permanecer protegidos de estas amenazas en constante evolución», agregó el ejecutivo.
La creciente amenaza de los deepfakes
Los deepfakes suponen una amenaza abrumadora en el panorama digital actual y han evolucionado a un ritmo alarmante en los últimos 12 meses. El Informe de inteligencia sobre amenazas de 2024 de iProov destacó un aumento del 704% en los intercambios de rostros (un tipo de deepfake).
Su capacidad para hacerse pasar por personas de manera convincente los convierte en una poderosa herramienta para que los ciberdelincuentes obtengan acceso no autorizado a cuentas y datos confidenciales. Los deepfakes también se pueden utilizar para crear identidades sintéticas con fines fraudulentos, como abrir cuentas falsas o solicitar préstamos. Esto plantea un desafío significativo a la capacidad de los humanos para discernir la verdad de la falsedad y tiene amplias implicaciones para la seguridad, la confianza y la difusión de información errónea.
¿Qué se puede hacer?
Dado que los deepfakes se están volviendo cada vez más sofisticados, los humanos por sí solos ya no pueden distinguir de manera confiable lo real de lo falso y, en cambio, necesitan confiar en la tecnología para detectarlos. Para combatir la creciente amenaza de las deepfakes, las organizaciones deberían buscar adoptar soluciones que utilicen tecnología biométrica avanzada con detección de vida, que verifique que una persona es la persona correcta, una persona real, y que se está autenticando en este momento. Estas soluciones deberían incluir la detección de amenazas constante y la mejora continua de las medidas de seguridad para mantenerse a la vanguardia de las técnicas de deepfakes en evolución. También debe haber una mayor colaboración entre los proveedores de tecnología, las plataformas y los responsables de las políticas para desarrollar soluciones que mitiguen los riesgos que plantean los deepfakes.
Haz la prueba de detección de deepfakes
¿Crees que eres inmune al engaño de los deepfakes? ¡Pon a prueba tus habilidades! iProov ha creado un test en línea que te desafía a distinguir lo real de lo falso. Haz el test y comprueba tu puntuación.