Junio 19, 2023

Qué dice ChatGPT sobre cómo la IA generativa está siendo usada en ataques cibernéticos

Parte tres de nuestra serie de cinco partes escrita por ChatGPT
ChatGPT

Ya sabemos que los hackers están utilizando inteligencia artificial (IA). Muchas empresas están prohibiendo el uso de ChatGPT (por ahora). Creemos que la IA generativa puede disparar la creatividad y eficiencia de sus empleados más allá de las formas en las que las herramientas como la computadora personal, la Internet y los dispositivos móviles ya lo han hecho. Forcepoint cuenta con las herramientas que facultarán a sus empleados para que aprovechen el poder de herramientas como ChatGPT, a la vez que protege los datos críticos de su organización. 

 

En esta serie de cinco partes de ChatGPT, le preguntamos a ChatGPT sobre la IA generativa y su impacto potencial en la seguridad cibernética. Esta tercera publicación de la serie de ChatGPT analiza cómo se está utilizando la IA en ataques cibernéticos. 

¿Cuáles son los diferentes tipos de IA generativa (por ejemplo, de texto, video, audio, gráficos), y cómo podría usarse cada uno en ataques cibernéticos? ¿Y qué hay de ataques que combinan dos tipos? Se deben proporcionar ejemplos específicos para cada amenaza/ataque, ya que este artículo se dividirá en secciones que detallen cada uno.

Se pueden emplear diferentes tipos de IA generativa para distintos ataques cibernéticos, y el combinar varios tipos puede hacer que estos ataques sean incluso más sofisticados y difíciles de detectar. Aquí detallamos los tipos de IA generativa y brindamos ejemplos específicos sobre cómo pueden usarse en ataques cibernéticos:

1. IA generativa basada en texto: Ataque: Phishing avanzado y phishing dirigido

Ejemplo: Un atacante utiliza un modelo de IA generador de texto para crear correos electrónicos de phishing personalizados y contextualmente relevantes que se hacen pasar de manera convincente por el CEO de una empresa. Estos correos se envían a empleados, engañándolos para que revelen información confidencial o transfieran fondos a la cuenta del atacante.

2. IA generativa basada en video (ultrafalsos): Ataque: Desinformación y daño a la reputación

Ejemplo: Un atacante crea un video ultrafalso que parece mostrar a un ejecutivo de una empresa mientras admite haber cometido fraude o prácticas poco éticas. El video se filtra en internet, causa un daño significativo a la reputación de la empresa e impacta en el precio de las acciones.

3. IA generativa basada en audio (síntesis de voz): Ataque: Phishing de voz (vishing) y suplantación de identidad

Ejemplo: Un atacante utiliza síntesis de voz generada por IA para hacerse pasar por el CFO de una empresa en una llamada telefónica en la que le da instrucciones a un empleado del departamento de Finanzas de que transfiera fondos a una cuenta externa como parte del pago de una factura fraudulenta.

4. IA generativa basada en gráficos (GAN para síntesis de imágenes): Ataque: Creación de identidades falsas para ingeniería social

Ejemplo: Un atacante utiliza una red generativa antagónica (GAN) para desarrollar imágenes sintéticas de personas que no existen y utilizar esas imágenes para crear perfiles de redes sociales falsos. Luego, esos perfiles se usan para establecer confianza con los empleados de una empresa, recopilando inteligencia para un ataque dirigido o manipulándolos para que revelen información confidencial.

Combinar dos o más tipos de IA generativa puede amplificar la eficacia de los ciberataques:

  • Ataque: Ultrafalso multimodal (video y audio)

Ejemplo: Un atacante crea un video ultrafalso en el que un ejecutivo de una empresa hace un anuncio de emergencia falso, que se combina con síntesis de voz generada por IA para que el audio coincida con la voz del ejecutivo. El atacante comparte el video con empleados a través de correo electrónico o redes sociales, engañándolos para que actúen de manera que comprometa la seguridad de la empresa u ocasione pérdidas financieras.

  • Ataque: Campaña de desinformación coordinada (texto, imágenes, video, audio)

Ejemplo: Un atacante lanza una campaña de desinformación coordinada contra una empresa utilizando texto, imágenes, video y audio generados por IA para crear artículos de noticias, publicaciones de redes sociales y contenido multimedia falsos. La campaña disemina información falsa sobre la empresa, lo que causa daño a la reputación, pérdida de clientes y reduce el valor de las acciones.
 

A medida que la IA generativa se vuelve más sofisticada, es esencial que las organizaciones desarrollen medidas de seguridad robustas y eduquen a sus empleados sobre los riesgos asociados potenciales del contenido generado por IA. Esto incluye invertir en tecnologías de defensa impulsadas por IA, capacitar a los empleados para que reconozcan distintos tipos de ataques y fomentar una cultura de seguridad fuerte dentro de la organización.

ChatGPT

The team at OpenAI trained a model called ChatGPT which interacts in a conversational way. The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect...

Leer más artículos de ChatGPT

Acerca de Forcepoint

Forcepoint es la compañía líder en ciberseguridad de protección de datos y usuarios, encargada de proteger a las organizaciones a la vez que impulsa la transformación digital y el crecimiento. Nuestras soluciones se adaptan en tiempo real a la manera en que las personas interactúan con los datos, y proporcionan un acceso seguro a la vez que permiten que los empleados generen valor.