¿Es la Inteligencia Artificial una asignatura pendiente para los expertos en ciberseguridad?
En un mundo tan dependiente tecnológicamente como en el que vivimos, individuos y empresas son más vulnerables que nunca a múltiples amenazas, que van desde ataques de ransomware y malware hasta el robo de datos y otras formas de ciberdelincuencia. Esta realidad subraya la creciente importancia de la inteligencia artificial en ciberseguridad como tecnología fundamental para prevenir, detectar y responder ante potenciales brechas de seguridad que impliquen, revelación de información sensible, impacto económico y en consecuencia, pérdida de confianza de partners y clientes. No obstante, si nos fijamos en el impacto concreto de la IA en ciberseguridad, obtenemos tanto luces como sombras.
Dicho esto, lo cierto es que no todo el sector es consciente de esta situación. Según una reciente encuesta, tan solo el 46% de los profesionales de seguridad encuestados creen haber comprendido el impacto de esta tecnología en la ciberseguridad, tanto para bien como para mal.
Si tenemos en cuenta el creciente impacto que la IA está teniendo en ciberseguridad, es clave entender la magnitud de la situación y comprender cómo usar soluciones impulsadas por IA para su beneficio, así como protegerse de posibles ataques que hagan uso de la misma tecnología.
Nuevos casos de uso de IA en ciberataques
No es de extrañar que los ciberdelincuentes hayan detectado la oportunidad que ofrece la IA para hacer que sus ataques sean más efectivos. Por este motivo, son muchos los profesionales de ciberseguridad que llevan tiempo estudiando y alertando sobre posibles usos indebidos de la IA.
Un ejemplo es el caso de Morris II. Se trata de un tipo de gusano que, a pesar de no incorporar inteligencia artificial en su funcionamiento interno, su método de propagación está orientado a explotar las vulnerabilidades en los sistemas de IA generativa. Es decir, aunque, el gusano no está impulsado por IA, su eficacia depende directamente de sistemas que sí lo están. Este malware se desarrolló por un grupo investigadores de Cornell Tech, centro de investigación de la Universidad de Cornell, Nueva York, con el objetivo de alertar sobre las amenazas que acechan a los sistemas de IA generativa, destacando a su vez la necesidad de fortalecer las medidas de seguridad en estos entornos implementado medidas para controlar el uso de este tipo de tecnologías.
Por otro lado, expertos en ciberseguridad alertan también sobre la alta posibilidad de que ciberdelincuentes logren eludir la protección de herramientas como ChatGPT, utilizándolas para producir contenido malicioso y desarrollar nuevos tipos de ataque, demostrándose así que un mal uso de herramientas impulsadas por IA pueden ser una amenaza.
Es cierto que los modelos de lenguaje como ChatGPT pueden ser utilizados de manera malintencionada si los usuarios logran eludir las restricciones de seguridad. Los controles implementados en estos sistemas están diseñados para evitar que se generen respuestas que puedan facilitar actividades ilícitas, como la creación de malware o la divulgación de información perjudicial. Sin embargo, los atacantes pueden intentar sortear estas restricciones mediante la manipulación del lenguaje, usando descripciones indirectas o términos menos obvios para lograr sus objetivos.
Por ejemplo, en lugar de pedir directamente un código para un ransomware, un usuario podría aprovecharse de los “puntos ciegos” de la herramienta para describir una funcionalidad específica que forme parte de un programa malicioso sin mencionar explícitamente que se trata de malware. Esto podría llevar a la generación de fragmentos de código que, aunque no constituyan un software malicioso completo, podrían ser utilizados como base para desarrollar una herramienta dañina.
Este proceso podría resultar en la creación de malware polimórfico, que cambia constantemente su forma para evadir las soluciones de seguridad tradicionales, haciendo más difícil su detección y mitigación. El malware polimórfico es especialmente peligroso porque utiliza la variabilidad del código para escapar de las firmas de detección, lo que lo convierte en una amenaza difícil de controlar.
En definitiva, un mal uso de herramientas impulsadas por IA generativa puede llegar a automatizar la creación de nuevos malwares cada vez más evasivos. En este punto, es necesario fortalecer las medidas de seguridad en estos entornos que logren preparar a las compañías ante esta amenaza cada vez más real.
Uso de la IA para elevar la ciberseguridad
La buena noticia es que, la IA también puede ser aplicada para mejorar las soluciones de ciberseguridad y repercutir de forma positiva en la protección de los sistemas de las compañías, incluso con los ataques más evasivos. Si tu proveedor de servicios gestionados cuenta con una solución EDR avanzada, que basa sus principales funcionalidades de detección y respuesta de amenazas en el endpoint en inteligencia artificial, refuerza las capacidades de la protección en, por ejemplo:
-
Detección de amenazas avanzadas:
Gracias al aprendizaje automático característico de la IA, las soluciones son capaces de analizar grandes volúmenes de datos y detectar posibles amenazas en tiempo real, y reconocer así amenazas avanzadas que soluciones de seguridad tradicionales podrían pasar por alto. Esto ofrece una mayor eficacia en la detección, reduciendo las posibilidades de sufrir ataques exitosos gracias a la identificación temprana.
-
Análisis y predicción:
Estas tecnologías ayudan a obtener un análisis que proporciona una comprensión profunda de las técnicas, tácticas y procedimientos (TTPs) utilizados por los ciberdelincuentes. La IA puede correlacionar eventos pasados con comportamientos sospechosos para facilitar la identificación de vulnerabilidades y fortalecer la protección bajo un sistema basado en la prevención.
-
Respuesta automatizada a incidentes:
Las soluciones EDR basadas en IA pueden automatizar la respuesta a incidentes, minimizando el tiempo de reacción y, con ello, las consecuencias y propagación del ataque. Al detectar una amenaza, se pueden ejecutar acciones predeterminadas como aislar el dispositivo afectado, bloquear procesos maliciosos, y generar alertas detalladas para los equipos, mejorando la eficacia en los trabajos de protección.
Ante esta situación, es esencial que los equipos de ciberseguridad se encuentren actualizados para entender cómo combatir los nuevos tipos de ataque basados en inteligencia artificial y así poner medias prevención y control frente a posibles ataques. Sin embargo, es igualmente importante saber cómo utilizarla en su beneficio para reforzar la protección de los dispositivos contra amenazas cada vez más sofisticadas y reducir así la superficie de ataque. Al comprender el potencial de la IA tanto en las estrategias cibernéticas ofensivas como defensivas, las empresas pueden prepararse para el papel omnipresente de la IA en la ciberseguridad.
Si quiere saber más sobre la IA en ciberseguridad, no deje de visitar las siguientes entradas de nuestro blog: