Los peligros del spam impulsado por IA: cómo los hackers evaden los filtros de correo con un 70% de éxito

Ciberseguridad

En el último año, el uso de la Inteligencia Artificial Generativa, como ChatGPT, ha aumentado significativamente. Sin embargo, también ha dado lugar a un incremento en los ataques cibernéticos. Los ciberdelincuentes están aprovechando esta tecnología para llevar a cabo actividades perjudiciales, como suplantación de identidad y propagación de información falsa. Check Point Software Technologies Ltd. ha analizado varios casos en los que la IA generativa se ha utilizado para impulsar ataques cibernéticos, como la creación de redes sociales falsas y la generación de deepfakes. Además, los hackers utilizan la IA para generar spam personalizado y obtener acceso ilegal a sistemas de verificación de identidad.

La presencia de la Inteligencia Artificial Generativa, como ChatGPT, ha aumentado en el último año. Aunque muchas empresas continúan explorando las capacidades que la IA puede ofrecerles para proteger sus equipos, los ciberdelincuentes están aprovechando al máximo su potencial para aprovechar vulnerabilidades y generar nuevos vectores de ataque.

Un año después del lanzamiento de ChatGPT, se puede observar cómo muchos servicios de ciberdelincuencia utilizan regularmente la IA generativa, especialmente en áreas como la suplantación y la ingeniería social, y logran evadir las restricciones de ChatGPT para utilizarlo ilimitadamente y aumentar la efectividad de sus ataques.

Check Point® Software Technologies Ltd., una compañía líder en soluciones de seguridad cibernética a nivel global, ha analizado cuatro casos distintos de cómo se ha utilizado la IA generativa para impulsar los ataques cibernéticos:

Redes sociales falsas creadas con inteligencia artificial para engañar.

La presencia de usuarios falsos en plataformas de redes sociales supone una amenaza importante para la seguridad cibernética debido a su capacidad para llevar a cabo actividades perjudiciales, como la suplantación de marcas o la difusión de noticias falsas. Se ha detectado una nueva plataforma que utiliza la Inteligencia Artificial para generar contenido en redes sociales y automatizar el mantenimiento de las cuentas fraudulentas.

Esta plataforma tiene la capacidad de generar contenido simultáneamente para más de 200 cuentas al día. Además, promocionan los perfiles y les otorgan apariencia auténtica uniéndose a grupos relevantes, dando «me gusta» a cuentas similares, etc., con el objetivo de obtener más seguidores y utilizar este tráfico de cuentas para sus propósitos maliciosos.

Plataforma de generación de deepfakes potenciada por inteligencia artificial

Ha sido identificado un nuevo sistema de sustitución que se enfoca en brindar prestaciones de imitación profunda en tres variantes distintas:

  • Labios sincronizados.
  • Labios sincronizados y cambio de rostro.
  • Voz doblada.

Generalmente se recurre a la utilización de estos servicios para generar perfiles falsos en plataformas de redes sociales y así impulsar intereses políticos o productos, o incluso para usurpar identidades de figuras influyentes y causar perjuicios significativos a su imagen pública.

Tecnología y soluciones de spam impulsadas por inteligencia artificial

Se utiliza comúnmente la IA para generar spam con diferentes propósitos como el robo de información, conseguir credenciales, distribuir software malicioso, estafas, etc. Los hackers pueden crear mensajes personalizados para cada correo electrónico, lo que les permite evitar los filtros antispam y antiphishing de los servicios de correo con un 70% de éxito.

Verificación de identidad KYC

Cada vez más común en las compañías financieras, el empleo de KYC (Conoce a tu Cliente) es una práctica en la que se recopila información detallada de los clientes para asegurar las transacciones, reducir riesgos y cumplir con las regulaciones. Además, se utiliza para permitir a los clientes recuperar el acceso a sus cuentas al restablecer sus contraseñas. Para acceder ilegalmente a estos sistemas, se han desarrollado servicios secretos que, con la asistencia de la inteligencia artificial, generan documentación falsa y obtienen resultados exactos de manera rápida.

“El rápido desarrollo de las tecnologías de Inteligencia Artificial supone nuevas oportunidades para la ciberseguridad, pero también retos cada vez más complejos”, afirma Eusebio Nieva, director técnico de Check Point Software para España y Portugal.

El aumento en el uso de la Inteligencia Artificial Generativa, como ChatGPT, ha dado lugar a un incremento en los ataques cibernéticos. Los ciberdelincuentes están aprovechando esta tecnología para llevar a cabo actividades perjudiciales, como suplantación de identidad y propagación de información falsa.

Es importante que las empresas implementen medidas de seguridad y estén alerta ante estos nuevos vectores de ataque generados por la IA generativa. La investigación y desarrollo de soluciones de seguridad cibernética deben estar a la par para contrarrestar estas amenazas.

La situación de las empresas en relación a la ciberseguridad se ha vuelto cada vez más desafiante con el aumento en el uso de la Inteligencia Artificial Generativa. Si bien la IA ofrece nuevas oportunidades para proteger los equipos y sistemas, también ha dado lugar a un incremento en los ataques cibernéticos.

Los riesgos de la inteligencia generativa frente a  otros ataques cibernéticos

La emergencia de la Inteligencia Artificial Generativa (IAG) como ChatGPT ha transformado el panorama de la ciberseguridad, introduciendo nuevos riesgos que se suman a los tradicionales vectores de ataque cibernético. Mientras los ciberdelincuentes han encontrado en la IAG una herramienta poderosa para la suplantación de identidad, creación de contenido fraudulento, y obtención de acceso ilegal a sistemas, es fundamental comparar estos riesgos emergentes con otros tipos de ataques cibernéticos más tradicionales para entender el panorama completo de amenazas.

Ataques Tradicionales vs. Ataques con Inteligencia Artificial Generativa:

  1. Suplantación de Identidad y Phishing:
    • Tradicionales: Los ataques de phishing suelen utilizar correos electrónicos genéricos o ligeramente personalizados basados en técnicas de ingeniería social.
    • IAG: La IA permite generar mensajes de phishing altamente personalizados y creíbles, aumentando significativamente las tasas de éxito al evadir los filtros antispam y antiphishing.
  2. Distribución de Malware:
    • Tradicionales: La distribución de malware se realiza a menudo a través de enlaces o archivos adjuntos maliciosos en correos electrónicos o descargas de sitios web comprometidos.
    • IAG: La IA puede ser utilizada para crear malware que se adapta y cambia su comportamiento para evitar la detección por parte de programas antivirus.
  3. Ataques a Redes Sociales:
    • Tradicionales: Creación manual de perfiles falsos o bots simples para difundir desinformación o realizar estafas.
    • IAG: Uso de IA para generar automáticamente contenido y perfiles en redes sociales que son indistinguibles de los reales, potenciando la suplantación de marcas y la difusión de noticias falsas a una escala mucho mayor.
  4. Deepfakes y Manipulación de Medios:
    • Tradicionales: La manipulación de medios ha requerido hasta ahora habilidades técnicas específicas y software de edición.
    • IAG: La IA facilita la creación de deepfakes y manipulaciones de medios convincentes con poco esfuerzo, permitiendo la usurpación de identidades y la afectación de la imagen pública de individuos.
  5. Acceso a Sistemas y Verificación de Identidad:
    • Tradicionales: Ataques que dependen de técnicas como el forcejeo de contraseñas o el uso de credenciales robadas.
    • IAG: La IA puede generar documentación y datos falsos para engañar a sistemas de verificación de identidad KYC, permitiendo un acceso ilegal más sofisticado a sistemas financieros y de otro tipo.

La principal diferencia entre los ataques tradicionales y aquellos potenciados por la IAG radica en la capacidad de personalización, automatización y sofisticación. Mientras que los métodos tradicionales dependen en gran medida del esfuerzo humano y son relativamente estáticos, la IAG permite a los ciberdelincuentes escalar sus operaciones y adaptar sus tácticas en tiempo real, presentando desafíos únicos para la detección y prevención.

La efectividad de los ataques basados en IAG resalta la importancia de avanzar en la ciberseguridad, no solo para detectar y contrarrestar ataques conocidos, sino también para anticipar y neutralizar estrategias emergentes. Esto implica no solo la implementación de tecnologías de seguridad más avanzadas, sino también el fomento de una mayor conciencia sobre la naturaleza cambiante de las amenazas cibernéticas entre usuarios y organizaciones. La colaboración entre entidades de seguridad, la investigación continua y el desarrollo de herramientas de defensa adaptativas serán clave para mantenerse un paso adelante de los ciberdelincuentes en la era de la inteligencia artificial.

 

Loading