Aumento del 704% en los ataques de intercambio de rostros reportados a medida que el uso de deepfakes se dispara.
Principales conclusiones:
- Aumento del 704% en los ataques de intercambio de caras, una forma de deepfake, del primer semestre al segundo semestre de 2023
- Aumento del 672% del primer semestre de 2023 al segundo semestre de 2023 en el uso de medios deepfake que se implementan junto con la suplantación de metadatos
- Aumento del 353 % en el número de actores de amenazas que utilizan emuladores, una forma de ataque de inyección de vídeo, del primer semestre al segundo semestre de 2023
- Aumento del 255% en los ataques de inyección digital contra plataformas web móviles del primer semestre al segundo semestre de 2023
- Casi la mitad (47%) de los grupos de intercambio de información identificados por los analistas de iProov se crearon en 2023
Santiago – Febrero 2024.- iProov, el proveedor líder de soluciones de identidad biométrica basadas en la ciencia, ha lanzado hoy el Reporte de Inteligencia de Amenazas iProov 2024: El impacto de la IA generativa en la verificación remota de la identidad. El reporte de iProov examina el panorama de amenazas de verificación de identidad remota, proporcionando información de primera mano sobre la anatomía de un ataque de inyección digital y exponiendo las metodologías, las tendencias de las amenazas y los impactos de los malos actores. El informe se elabora utilizando datos y análisis de expertos del Centro de Operaciones de Seguridad de iProov (iSOC- iProov’s Security Operations Center).
Los ecosistemas digitales continúan creciendo y multiplicándose a niveles récord a medida que las organizaciones y los gobiernos buscan proporcionar acceso y servicios remotos para satisfacer la demanda de los consumidores y la fuerza laboral. Sin embargo, el efecto secundario no deseado de este crecimiento es una superficie de ataque en constante expansión que, junto con la disponibilidad de herramientas de inteligencia artificial (IA) generativa de fácil acceso y armas criminales, ha aumentado la necesidad de una verificación de identidad remota altamente segura. El nuevo informe de amenazas de iProov revela cómo los malos actores están utilizando herramientas avanzadas de IA, como intercambios de caras convincentes junto con emuladores y otras metodologías de manipulación de metadatos (herramientas tradicionales de ciberataque), para crear vectores de amenazas nuevos y ampliamente no mapeados.
Los intercambios faciales se crean utilizando herramientas de IA generativa y presentan un gran desafío para los sistemas de verificación de identidad debido a su capacidad para manipular rasgos clave de la imagen o los videos. Un intercambio de caras se puede generar fácilmente mediante un software de intercambio de caras de video estándar y se aprovecha alimentando la salida manipulada o sintética a una cámara virtual. A diferencia del ojo humano, los sistemas biométricos avanzados pueden ser resistentes a este tipo de ataques.
Sin embargo, en 2023, los actores maliciosos aprovecharon una laguna en algunos sistemas mediante el uso de herramientas cibernéticas, como emuladores, para ocultar la existencia de cámaras virtuales, lo que dificultó la detección de los proveedores de soluciones biométricas. Esto creó la tormenta perfecta con los atacantes haciendo de los intercambios de caras y los emuladores sus herramientas preferidas para perpetrar el fraude de identidad.
«La IA generativa ha proporcionado un gran impulso a los niveles de productividad de los actores de amenazas: estas herramientas tienen un costo relativamente bajo, son de fácil acceso y se pueden usar para crear medios sintetizados altamente convincentes, como intercambios faciales u otras formas de deepfakes que pueden engañar fácilmente al ojo humano, así como soluciones biométricas menos avanzadas. Esto solo sirve para aumentar la necesidad de una verificación de identidad remota altamente segura», dice Andrew Newell, director científico de iProov.
«Si bien los datos de nuestro informe destacan que los intercambios de rostros son actualmente el deepfake elegido por los actores de amenazas, no sabemos qué sigue. La única forma de estar un paso por delante es monitorear e identificar constantemente sus ataques, la frecuencia de los ataques, a quién se dirigen, los métodos que utilizan y formar un conjunto de hipótesis sobre lo que los motiva», agregó Andrew Newell.
La evolución de los ataques de inyección digital
El uso de emuladores y suplantación de metadatos por parte de los actores de amenazas para lanzar ataques de inyección digital en diferentes plataformas fue observado por primera vez por el iSOC en 2022, pero continuó dominando en 2023, creciendo un 353% del primer semestre al segundo semestre de 2023. Un emulador es una herramienta de software que se utiliza para imitar el dispositivo de un usuario, como un teléfono móvil. Estos ataques están evolucionando rápidamente y plantean nuevas amenazas significativas para las plataformas móviles: los ataques de inyección contra la web móvil aumentaron un 255% entre el primer semestre y el segundo semestre de 2023
Avances en colaboración y sofisticación
A lo largo de 2022 y 2023, los niveles de ataques indiscriminados oscilaron entre 50.000 y 100.000 veces al mes. También hubo un aumento considerable en el número de actores y una mejora en la sofisticación de las herramientas utilizadas.
También se observó un crecimiento significativo en el número de grupos que participan en el intercambio de información relacionada con ataques contra sistemas biométricos y de identificación humana remota o «identificación por video», lo que evidencia el enfoque colaborativo que ahora están adoptando los actores de amenazas. De los grupos identificados por los analistas de iProov, casi la mitad (47%) se crearon en 2023
Nuevas tendencias para 2023
Hay dos tipos principales de ataques observados por el iSOC: ataques de presentación y ataques de inyección digital. Entre las nuevas tendencias descubiertas para 2023 se encuentran:
- Se ha desplegado un aumento significativo de las herramientas de imágenes de IA empaquetadas que hacen que sea mucho más fácil y rápido lanzar un ataque, y se espera que esto avance.
- Hubo un aumento del 672% entre el primer semestre de 2023 y el segundo semestre de 2023 en el uso de medios deepfake, como los intercambios faciales, que se implementaron junto con las herramientas de suplantación de metadatos. Los ataques de presentación e inyección digital pueden tener diferentes niveles de impacto, pero pueden representar una amenaza significativa cuando se combinan con herramientas tradicionales de ciberataque, como la manipulación de metadatos.
El informe también incluye una nueva sección que describe estudios de casos sobre personajes prolíficos de actores de amenazas, cuyas identidades han sido anonimizadas. Estos estudios de caso evalúan la sofisticación de las metodologías, los esfuerzos y la frecuencia de sus ataques de cada actor. Este análisis proporciona una inteligencia inestimable y ayuda a iProov a mejorar continuamente la seguridad de su plataforma biométrica, lo que ayuda a minimizar el riesgo de explotación para las organizaciones de las transacciones de verificación de identidad remotas presentes y futuras.
El Reporte de Inteligencia de Amenazas iProov 2024 (iProov Biometric Threat Intelligence) se basa en datos del Centro de Operaciones de Seguridad de iProov (iSOC) y en el análisis de expertos.
Equipo Prensa
Portal Innova