Los peligros del spam impulsado por IA: cómo los hackers evaden los filtros de correo con un 70% de éxito

Ciberseguridad

En el último año, el uso de la Inteligencia Artificial Generativa, como ChatGPT, ha aumentado significativamente. Sin embargo, también ha dado lugar a un incremento en los ataques cibernéticos. Los ciberdelincuentes están aprovechando esta tecnología para llevar a cabo actividades perjudiciales, como suplantación de identidad y propagación de información falsa. Check Point Software Technologies Ltd. ha analizado varios casos en los que la IA generativa se ha utilizado para impulsar ataques cibernéticos, como la creación de redes sociales falsas y la generación de deepfakes. Además, los hackers utilizan la IA para generar spam personalizado y obtener acceso ilegal a sistemas de verificación de identidad.

La presencia de la Inteligencia Artificial Generativa, como ChatGPT, ha aumentado en el último año. Aunque muchas empresas continúan explorando las capacidades que la IA puede ofrecerles para proteger sus equipos, los ciberdelincuentes están aprovechando al máximo su potencial para aprovechar vulnerabilidades y generar nuevos vectores de ataque.

Un año después del lanzamiento de ChatGPT, se puede observar cómo muchos servicios de ciberdelincuencia utilizan regularmente la IA generativa, especialmente en áreas como la suplantación y la ingeniería social, y logran evadir las restricciones de ChatGPT para utilizarlo ilimitadamente y aumentar la efectividad de sus ataques.

Check Point® Software Technologies Ltd., una compañía líder en soluciones de seguridad cibernética a nivel global, ha analizado cuatro casos distintos de cómo se ha utilizado la IA generativa para impulsar los ataques cibernéticos:

Redes sociales falsas creadas con inteligencia artificial para engañar.

La presencia de usuarios falsos en plataformas de redes sociales supone una amenaza importante para la seguridad cibernética debido a su capacidad para llevar a cabo actividades perjudiciales, como la suplantación de marcas o la difusión de noticias falsas. Se ha detectado una nueva plataforma que utiliza la Inteligencia Artificial para generar contenido en redes sociales y automatizar el mantenimiento de las cuentas fraudulentas.

Esta plataforma tiene la capacidad de generar contenido simultáneamente para más de 200 cuentas al día. Además, promocionan los perfiles y les otorgan apariencia auténtica uniéndose a grupos relevantes, dando «me gusta» a cuentas similares, etc., con el objetivo de obtener más seguidores y utilizar este tráfico de cuentas para sus propósitos maliciosos.

Plataforma de generación de deepfakes potenciada por inteligencia artificial

Ha sido identificado un nuevo sistema de sustitución que se enfoca en brindar prestaciones de imitación profunda en tres variantes distintas:

  • Labios sincronizados.
  • Labios sincronizados y cambio de rostro.
  • Voz doblada.

Generalmente se recurre a la utilización de estos servicios para generar perfiles falsos en plataformas de redes sociales y así impulsar intereses políticos o productos, o incluso para usurpar identidades de figuras influyentes y causar perjuicios significativos a su imagen pública.

Tecnología y soluciones de spam impulsadas por inteligencia artificial

Se utiliza comúnmente la IA para generar spam con diferentes propósitos como el robo de información, conseguir credenciales, distribuir software malicioso, estafas, etc. Los hackers pueden crear mensajes personalizados para cada correo electrónico, lo que les permite evitar los filtros antispam y antiphishing de los servicios de correo con un 70% de éxito.

Verificación de identidad KYC

Cada vez más común en las compañías financieras, el empleo de KYC (Conoce a tu Cliente) es una práctica en la que se recopila información detallada de los clientes para asegurar las transacciones, reducir riesgos y cumplir con las regulaciones. Además, se utiliza para permitir a los clientes recuperar el acceso a sus cuentas al restablecer sus contraseñas. Para acceder ilegalmente a estos sistemas, se han desarrollado servicios secretos que, con la asistencia de la inteligencia artificial, generan documentación falsa y obtienen resultados exactos de manera rápida.

“El rápido desarrollo de las tecnologías de Inteligencia Artificial supone nuevas oportunidades para la ciberseguridad, pero también retos cada vez más complejos”, afirma Eusebio Nieva, director técnico de Check Point Software para España y Portugal.

El aumento en el uso de la Inteligencia Artificial Generativa, como ChatGPT, ha dado lugar a un incremento en los ataques cibernéticos. Los ciberdelincuentes están aprovechando esta tecnología para llevar a cabo actividades perjudiciales, como suplantación de identidad y propagación de información falsa.

Es importante que las empresas implementen medidas de seguridad y estén alerta ante estos nuevos vectores de ataque generados por la IA generativa. La investigación y desarrollo de soluciones de seguridad cibernética deben estar a la par para contrarrestar estas amenazas.

La situación de las empresas en relación a la ciberseguridad se ha vuelto cada vez más desafiante con el aumento en el uso de la Inteligencia Artificial Generativa. Si bien la IA ofrece nuevas oportunidades para proteger los equipos y sistemas, también ha dado lugar a un incremento en los ataques cibernéticos.

Los riesgos de la inteligencia generativa frente a  otros ataques cibernéticos

La emergencia de la Inteligencia Artificial Generativa (IAG) como ChatGPT ha transformado el panorama de la ciberseguridad, introduciendo nuevos riesgos que se suman a los tradicionales vectores de ataque cibernético. Mientras los ciberdelincuentes han encontrado en la IAG una herramienta poderosa para la suplantación de identidad, creación de contenido fraudulento, y obtención de acceso ilegal a sistemas, es fundamental comparar estos riesgos emergentes con otros tipos de ataques cibernéticos más tradicionales para entender el panorama completo de amenazas.

Ataques Tradicionales vs. Ataques con Inteligencia Artificial Generativa:

  1. Suplantación de Identidad y Phishing:
    • Tradicionales: Los ataques de phishing suelen utilizar correos electrónicos genéricos o ligeramente personalizados basados en técnicas de ingeniería social.
    • IAG: La IA permite generar mensajes de phishing altamente personalizados y creíbles, aumentando significativamente las tasas de éxito al evadir los filtros antispam y antiphishing.
  2. Distribución de Malware:
    • Tradicionales: La distribución de malware se realiza a menudo a través de enlaces o archivos adjuntos maliciosos en correos electrónicos o descargas de sitios web comprometidos.
    • IAG: La IA puede ser utilizada para crear malware que se adapta y cambia su comportamiento para evitar la detección por parte de programas antivirus.
  3. Ataques a Redes Sociales:
    • Tradicionales: Creación manual de perfiles falsos o bots simples para difundir desinformación o realizar estafas.
    • IAG: Uso de IA para generar automáticamente contenido y perfiles en redes sociales que son indistinguibles de los reales, potenciando la suplantación de marcas y la difusión de noticias falsas a una escala mucho mayor.
  4. Deepfakes y Manipulación de Medios:
    • Tradicionales: La manipulación de medios ha requerido hasta ahora habilidades técnicas específicas y software de edición.
    • IAG: La IA facilita la creación de deepfakes y manipulaciones de medios convincentes con poco esfuerzo, permitiendo la usurpación de identidades y la afectación de la imagen pública de individuos.
  5. Acceso a Sistemas y Verificación de Identidad:
    • Tradicionales: Ataques que dependen de técnicas como el forcejeo de contraseñas o el uso de credenciales robadas.
    • IAG: La IA puede generar documentación y datos falsos para engañar a sistemas de verificación de identidad KYC, permitiendo un acceso ilegal más sofisticado a sistemas financieros y de otro tipo.

La principal diferencia entre los ataques tradicionales y aquellos potenciados por la IAG radica en la capacidad de personalización, automatización y sofisticación. Mientras que los métodos tradicionales dependen en gran medida del esfuerzo humano y son relativamente estáticos, la IAG permite a los ciberdelincuentes escalar sus operaciones y adaptar sus tácticas en tiempo real, presentando desafíos únicos para la detección y prevención.

La efectividad de los ataques basados en IAG resalta la importancia de avanzar en la ciberseguridad, no solo para detectar y contrarrestar ataques conocidos, sino también para anticipar y neutralizar estrategias emergentes. Esto implica no solo la implementación de tecnologías de seguridad más avanzadas, sino también el fomento de una mayor conciencia sobre la naturaleza cambiante de las amenazas cibernéticas entre usuarios y organizaciones. La colaboración entre entidades de seguridad, la investigación continua y el desarrollo de herramientas de defensa adaptativas serán clave para mantenerse un paso adelante de los ciberdelincuentes en la era de la inteligencia artificial.

 

Loading

Dynatrace: líder en IA y observabilidad para aplicaciones con inteligencia artificial creativa

Dynatrace iA

Dynatrace, una empresa líder en observación y seguridad, ha ampliado su plataforma para ofrecer una perspectiva integral y seguridad a modelos de lenguaje generativo y aplicaciones impulsadas por IA. Esta mejora permite a las organizaciones adoptar la IA generativa de manera asequible y confiable para aumentar la innovación y la productividad. Dynatrace AI Observability brinda una visión exhaustiva de las aplicaciones impulsadas por IA, detectando cuellos de botella y cumpliendo con regulaciones de privacidad y gobernanza. Es fundamental tener una monitorización total para garantizar el éxito de las inversiones en IA generativa y evitar comportamientos imprevisibles y malas experiencias de usuario.

Dynatrace (NYSE: DT), una empresa líder en unificación de observación y seguridad, ha comunicado que ha expandido su plataforma de automatización y análisis para ofrecer una perspectiva y una seguridad integrales para modelos de lenguaje generativo y aplicaciones impulsadas por IA de gran escala. La mejora realizada en la plataforma Dynatrace® da la posibilidad a organizaciones alrededor del mundo de adoptar la IA generativa de manera asequible y confiable, en su enfoque por incrementar la innovación, la productividad y los ingresos.

Dynatrace® AI Observability es una solución completa. Cubre todo el espectro de inteligencia artificial, desde el principio hasta el final, incluyendo tanto la infraestructura, como las GPU Nvidia®, los modelos fundamentales, como GPT4, las cachés de significado y las bases de datos vectoriales, como Weaviate, y los marcos de orquestación, como LangChain. También compatible con las principales plataformas de desarrollo, entrenamiento y entrega de modelos de inteligencia artificial, tales como el servicio OpenAI de Microsoft® Azure, SageMaker de Amazon® y AI Platform de Google®.

La IA Davis de la plataforma y otras tecnologías fundamentales son aprovechadas por Dynatrace AI Observability para brindar una visión exhaustiva y precisa de las aplicaciones impulsadas por IA. De esta manera, se logra ofrecer una excelente experiencia de usuario al mismo tiempo que se detectan de forma automática los cuellos de botella en el rendimiento y sus causas raíz. Además, la observabilidad de Dynatrace AI junto a Davis AI contribuye al cumplimiento de regulaciones de privacidad y seguridad, además de estándares de gobernanza, mediante un rastreo preciso de los orígenes de los resultados generados por las aplicaciones. También ayuda a predecir y controlar los costos mediante la supervisión del consumo de tokens, que son las unidades básicas utilizadas por los modelos de IA generativos para procesar las consultas.

Ryan Berry, SVP Engineering & Architecture en OneStream afirmó que «La inteligencia artificial creativa y predictiva abrirá nuevas oportunidades para nuestro negocio mediante la utilización de nuestros servicios de aprendizaje automático y lenguaje natural, pero para lograr una implementación exitosa, debemos asegurarnos de que nuestros servicios que respaldan estas tareas críticas sean confiables y tengan un rendimiento óptimo». «Por ello, confiamos en Dynatrace, líder en IA y observabilidad. Nuestros equipos utilizan Dynatrace para desarrollar y optimizar aplicaciones con inteligencia artificial creativa que funcionan eficientemente y son rentables de gestionar y escalar a gran escala».

De acuerdo con Gartner®, «Para el año 2028, más del 50% de los recursos de TI en la nube se destinarán a cargas de trabajo de IA, en comparación con menos del 10% en 2023». Esta tendencia refleja en parte el creciente interés de las empresas por la IA generativa para mejorar la productividad y eficiencia, impulsar la automatización y fomentar la innovación. A pesar del impulso, muchas organizaciones tienen preocupaciones sobre los costos asociados a los servicios basados en la IA generativa. Estos pueden llegar a ser mucho más caros que los servicios tradicionales en la nube y son difíciles de predecir, ya que dependen del consumo de tokens de IA generativa por parte de aplicaciones que aún no se encuentran en producción. Al mismo tiempo, los gobiernos en todo el mundo están estableciendo regulaciones enfocadas en el uso responsable y ético de las tecnologías de IA, y en cumplimiento con las leyes aplicables.

No se pueden olvidar de la IA generativa las organizaciones. Es necesario contar con una monitorización total impulsada por IA para asegurar el éxito de sus inversiones en IA generativa y evitar el peligro de comportamientos imprevisibles, «ilusiones» de la IA y malas experiencias de usuario.

Dynatrace ha ampliado su plataforma para ofrecer una visión integral y seguridad a modelos de lenguaje generativo y aplicaciones impulsadas por IA. Esto permite a las organizaciones adoptar la IA generativa de manera asequible y confiable, aumentando la innovación y la productividad. Dynatrace AI Observability brinda una visión exhaustiva y detecta cuellos de botella, cumpliendo con regulaciones de privacidad y gobernanza. Es esencial tener una monitorización total para garantizar el éxito de las inversiones en IA generativa y evitar comportamientos imprevisibles y malas experiencias de usuario.

Loading