Blog de WatchGuard

ChatGPT y la dark web: una alianza peligrosa

Hoy en día, la inteligencia artificial (IA) está presente en casi todos los aspectos de nuestra vida. Sin embargo, su influencia se vuelve especialmente relevante en el ámbito de la ciberseguridad, donde impacta tanto en la defensa como en el ataque. Si bien se ha convertido en una gran herramienta para la protección de los activos digitales de una organización, también es utilizada como arma por ciberdelincuentes para la propagación y materialización de ataques cibernéticos cada vez más sofisticados y difíciles de detectar.

Un reciente estudio revela que al 84% de los CEO les preocupan los ataques de ciberseguridad generalizados o catastróficos que podría provocar la adopción de la IA generativa. Por otra parte, un artículo publicado el pasado mes de enero revela que ha habido un repunte en las conversaciones sobre el uso ilegal de ChatGPT, así como de otros grandes modelos de lenguaje (LLM) en la Dark Web. Por lo general, las conversaciones se centran en una variedad de amenazas de ciberseguridad. Entre los temas más frecuentes se incluyen el desarrollo de malware y otros tipos de uso ilícito de modelos de lenguaje, como el procesamiento de datos de usuario robados, el análisis sintáctico de archivos de dispositivos infectados, entre otros.

Con estas herramientas mejorando las competencias de los cibercriminales menos avanzados y el auge en el intercambio de trucos y consejos en la Dark Web, es posible que amenazas como el phishing o el ransomware se conviertan en un peligro aún mayor para las empresas. 

¿Cuáles son las técnicas más comunes de ciberataques con IA?

A pesar de los esfuerzos de las herramientas comerciales de IA generativa como ChatGPT por implementar barreras para frenar el uso malicioso de esta tecnología, los atacantes han conseguido formas de “engañarlas” para que finalmente les ayuden en lo que desean. Del mismo modo, han surgido alternativas como WormGPT que, explotando las vulnerabilidades, se convierten en armas para los actores malintencionados. Entre las técnicas de ataques apoyadas por IA más comunes encontramos: 

  • Campañas de phishing generadas por IA: la inteligencia artificial generativa ha dado un giro a la forma en que los atacantes generan sus campañas de phishing al permitirles crear textos más creíbles y que, por tanto, no despiertan alarmas y son difíciles de detectar. Esto también puede ahorrarles tiempo, contribuyendo a campañas más eficaces. 
  • Investigación de objetivos asistida por IA: el análisis de las redes sociales y otros datos online mediante algoritmos de aprendizaje automático permite a los atacantes obtener información valiosa sobre sus objetivos, como sus intereses, hábitos y vulnerabilidades.
  • Detección inteligente de vulnerabilidades: las herramientas de reconocimiento con IA pueden realizar búsquedas automáticas en las redes de las empresas para detectar vulnerabilidades, seleccionando automáticamente el exploit más eficaz. 
  • Filtrado inteligente de datos: durante un ataque, la IA no copia todos los datos disponibles, sino que selecciona solo la información más valiosa para extraer, dificultando así su detección.
  • Ingeniería social potenciada por IA: la IA puede utilizarse para generar audios o vídeos "deepfake" que imitan a personas de confianza en ataques de vishing. Esto aumenta la credibilidad del ataque y persuade a los empleados para que revelen información sensible.

¿Cómo proteger a tu empresa con seguridad avanzada en el endpoint?

El uso de la IA generativa para cometer ciberataques eleva el nivel de complejidad de los ataques, lo que exige mecanismos de defensa más robustos para hacer frente a las nuevas amenazas. La seguridad en el endpoint juega un rol fundamental en esta defensa y es necesario que las empresas implementen soluciones avanzadas de seguridad capaces de integrar/incorporar capacidades de IA que ayuden en la prevención, detección y respuesta ante este tipo de amenazas. Una solución de seguridad endpoint avanzada que incorpore este tipo de tecnología puede: 

  • Detectar amenazas emergentes: 

    Una solución avanzada de seguridad en el endpoint aplica técnicas como el análisis de comportamiento y aprendizaje automático (machine learning) para identificar y bloquear malware nuevo y en evolución. Además, pueden contribuir en la aplicación de parches para eliminar las posibles vulnerabilidades y agujeros de seguridad dentro de tu red. 

  • Minimizar el riesgo de sufrir una brecha de datos: 

    Una campaña de phishing exitosa o el uso de malware puede comprometer datos confidenciales de tu empresa. La protección avanzada en el endpoint te ayuda a prevenir estas filtraciones de datos sensibles y a proteger tu información evitando así graves consecuencias como son pérdidas económicas y de confianza de tus clientes y daño en la reputación.

  • Contribuir en el cumplimiento normativo: 

    Diversas industrias están obligadas por ley a usar protección avanzada para protegerse del malware. El no hacerlo puede acarrear multas y conllevar otras repercusiones legales.

Si quieres saber más sobre cómo proteger tu empresa del malware impulsado por IA, no dejes de leer el siguiente artículo de nuestro blog: ChatGPT puede crear malware polimórfico, ¿y ahora qué?