Por Ariana Jaimes, Managed Security Service Manager, Ubiquo
Para hablar de inteligencia artificial y su impacto en la ciberseguridad es necesario hacer un recorrido de cómo ha venido cambiando la percepción de la humanidad sobre ella. A través del tiempo ha sido común asociar el término “inteligencia artificial” con obras notables de la ciencia ficción: tales como Blade Runner, película de culto inspirada en el libro: Sueñan las ovejas eléctricas con androides, y se nos plantea una sociedad futurista y distópica, donde robots conocidos como replicantes se rebelan para dejar de ser esclavos de los humanos y ser libres. Otro ejemplo es 2001: Odisea en el espacio, película que inspiró el título de este artículo, presentando una computadora llamada HAL 9000, con IA avanzada como villano, la cual tiene como misión controlar la nave y cumplir la misión de ir a Júpiter, pero termina atentando contra la vida de la tripulación cuando ésta pone en riesgo el objetivo de la misión.
El factor común en ambas obras de ciencia ficción es que la IA se vuelve en contra de la humanidad. Pero en la realidad, depende de la aplicación, concientización y ética con la que se encare la IA, si ésta puede causar un impacto positivo y/o negativo en el mundo. De hecho, en los últimos tiempos, la humanidad ha venido utilizando la IA en el procesamiento de datos, medicina, sistemas de recomendación, robótica, chatbots o asistentes virtuales y ciberseguridad.
Pero no fue hasta noviembre del 2022 que el mundo fue testigo de lo que personalmente considero un antes y un después en la historia de la IA y me estoy refiriendo al lanzamiento de ChatGPT, desarrollada por la organización OpenAI, la cual nos permite mantener conversaciones desde lo más simples, como pedir tips para mejorar tu marca al correr, hasta lo bastante complejas, como escribir comandos para configurar un firewall perimetral especificando la marca del equipo. En solo 5 días alcanzó más de 1 millón de usuarios, lo que se traduce a un modelo de IA al alcance de todos. Es tal el impacto, que se ha vuelto recurrente encontrar notas en los diarios y publicaciones en las diferentes redes sociales de cómo los usuarios resuelven situaciones de diferente índole, usando la herramienta. Es decir, pasamos de concebir la IA en obras de ciencia ficción y aplicaciones fuera del alcance de la persona promedio a convivir con ella.
¿Qué podemos esperar quienes trabajamos en ciberseguridad?
Ciertamente, este tipo de modelo de IA será integrada con el paso del tiempo en las diferentes soluciones de ciberseguridad, potenciando la detección de amenazas y de alguna forma subsanando parcialmente la falta de profesionales en el área, en vista de lo prometedor que resulta su evolución en términos de automatización. No obstante, este mismo comportamiento lo podemos esperar de los cibercriminales quienes conseguirán la forma de usar este tipo de herramientas para llevar adelante ciberataques más sofisticados. Un ataque de phishing será más complicado de detectar, entendiendo que a medida que este tipo de herramientas vayan mejorando su lenguaje, se irá mimetizando con mayor facilidad con la de los humanos. Un caso reciente es el engaño con noticias falsas, como la foto de Tom Cruise con sus dobles de acción, la cual terminó siendo una foto generada por IA. Esto en combinación de técnicas de ingeniería social podría potenciar ciberestafas.
Por esas razones es de gran importancia que los profesionales quienes trabajamos en el área, nos capacitemos para conocer el alcance y evolución de este tipo de modelo de IA y concientizarnos para estar preparados.
¿De qué manera GPT puede aportar valor a la industria de la ciberseguridad?
El abanico de posibilidades que abre este tipo de modelos es de amplio espectro. Hoy, su aporte está en:
- Optimización en el desarrollo de procesos en materia de ciberseguridad. Este tipo de herramientas pueden escribir procesos de acuerdo a un contexto y parámetros a considerar en su creación, lo cual optimizaría los tiempos.
- Uno de los problemas más comunes a nivel técnico es poder trasladar un hallazgo, una solución, un problema, una propuesta, a un lenguaje que todos puedan entender, ya sean clientes, supervisores, ejecutivos, entre otros. No obstante, con este tipo de soluciones se facilitará este tipo de tareas, ya que entre sus virtudes está servir como asistente con un backend bastante amplio en cuanto a conocimiento.
- Educación. Es una herramienta educativa que sirve de apoyo e inspiración para profesionales de cualquier seniority.
- Se puede utilizar como apoyo para realizar configuraciones y troubleshooting.
- Se le puede solicitar recomendaciones y buenas prácticas en materia de ciberseguridad.
A futuro, sin dida, el aporte de valor estará en:
- Automatización: esta IA podría mejorar significativamente procesos de automatización por la forma en que es capaz de procesar, analizar y arrojar resultados coherentes y eficientes de datos a gran escala.
- Detección avanzada de amenazas: al ser capaz de ser entrenados, procesar billones de parámetros y buscar información en tiempo real, estos modelos de IA podrían detectar amenazas de una forma nunca antes vista.
- Surgimiento de nuevas áreas de especialización: el nacimiento de nuevas tecnologías conlleva a la demanda del mercado de profesionales especialistas.
- Oferta académica basada en IA: es una posibilidad no tan descabellada que muchas capacitaciones comiencen a ser dictadas por IA.
- Respuesta a incidentes avanzadas: uno de los grandes puntos vulnerables de la ciberseguridad son los ataques del día cero, no obstante estos ciberataques son una combinación de varias técnicas no antes vista, teniendo una IA capaz de procesar billones de parámetros en tiempo real, esta podría de alguna forma predecir con cual ciberamenaza se está tratando y ofrecer una respuesta efectiva.
¿Qué desafíos plantea el uso de GPT en ciberseguridad y la ética en lo que se refiere a la protección de datos sensibles?
Sin embargo, como se planteó anteriormente los cibercriminales también harán uso de este tipo de tecnologías desafiando constantemente el avance de la Ciberseguridad. Por lo cual hay importantes desafíos que superar.
Cada vez que los usuarios interactúan con este tipo de tecnologías, existe una cantidad importante de datos personales proporcionada y estos son almacenados en la infraestructura de GPT con fines de investigación y mejora, OpenIA limita esta cantidad de datos y no por esto deja de ser una buena práctica limitar la cantidad de información sensible que compartimos con esta IA.
Esto se traduce a que la potencialidad de GPT se puede ver limitada por el marco normativo. No obstante, es de gran importancia desarrollar en una etapa temprana prácticas éticas sobre este tipo de modelos de IA, ya que de madurar sin ningún tipo de control podría tener consecuencias negativas no solo en la ciberseguridad sino en el mundo. Asimismo, es importante recordar que ninguna organización está exenta a espionaje corporativo o ser víctima de un cibercrimen, es por tal razón que el desarrollo de estas potenciales tecnologías debe ir de la mano con la ciberseguridad.
Equipo Prensa
Portal Innova