Los ataques de phishing impulsados por IA generativa han crecido un 1.265% desde el lanzamiento de Chat GPT. Modelos maliciosos como Fraud GPT y PentestGPT facilitan este tipo de ciberataques, que ya han causado pérdidas millonarias a empresas en todo el mundo. Ante esta creciente amenaza, las organizaciones deben reforzar sus defensas y poner la ciberseguridad en el centro de la adopción de IA.
Noviembre de 2024. Al igual que muchas empresas y organizaciones gubernamentales, los ciberdelincuentes están ansiosos por aprovechar el potencial de la IA generativa, lo que ha llevado a un aumento en los ciberataques impulsados por esta tecnología. De acuerdo con cifras de Accenture, ha habido un crecimiento notable en los ataques de ransomware, que han aumentado un 76% desde el lanzamiento de ChatGPT a finales de 2022.
Estos ataques a menudo se inician a través de phishing impulsado por IA generativa, lo que ha generado un asombroso crecimiento de 1.265% en los ataques de phishing desde el lanzamiento de ChatGPT. Los modelos de lenguaje grandes (LLMs) maliciosos, como Fraud GPT y PentestGPT, facilitan estos ciberataques y se pueden adquirir en la dark web por tan solo $200 al mes.
Imagina que un ciberdelincuente puede hacerse pasar por tu jefe mediante una llamada telefónica, autorizando transferencias de dinero. Esta situación ya es una realidad gracias a los modelos maliciosos que circulan en la dark web. Además de crear textos engañosos, estos modelos facilitan la creación de deepfakes, imitaciones digitales tan convincentes que pueden engañar a cualquiera. Un caso impactante fue el del Hong Kong Bank, que perdió $25 millones tras una estafa de este tipo, en la que los delincuentes recrearon digitalmente a un director de tecnología y otros empleados, organizando una llamada telefónica en la que dieron instrucciones para realizar transferencias de dinero.
Estos ataques no solo muestran la creciente sofisticación de los cibercriminales, sino que también subrayan la necesidad urgente de que las empresas fortalezcan sus medidas de seguridad para enfrentar estas nuevas ciberamenazas. Según Accenture Cyber Intelligence, sectores como los servicios financieros, gobierno y energía son particularmente vulnerables, y ya están desarrollando defensas personalizadas contra ataques de IA generativa.
Carolina Pizarro, Directora Asociada de Ciberseguridad de Accenture Chile, explica: “A medida que las organizaciones pasen de pilotos y casos de uso específicos a implementaciones de IA generativa a mayor escala, los riesgos de ciberseguridad aumentarán. Esto se debe a que existirán más usuarios y más datos en los sistemas”. Sin embargo, la IA generativa no solo crea nuevas vulnerabilidades, también es una herramienta eficaz para impulsar la ciberseguridad. Pizarro detalla: “Para manejar estas vulnerabilidades se requieren nuevas capacidades, como el descubrimiento de IA en la sombra, el filtrado de indicaciones y pruebas de integración de IA para mitigar estos riesgos. La clave para ganar ventaja será poner la seguridad en el centro del diseño de la adopción de la IA generativa”.
Equipo Prensa
Portal Innova