Get a Break from the Chaos of RSA and Meet with Forcepoint at the St. Regis.

Close
Junio 26, 2023

Cómo defenderse de las amenazas cibernéticas impulsadas por IA generativa

Parte cuatro de nuestra serie de cinco partes escrita por ChatGPT
ChatGPT

Ya sabemos que los hackers están utilizando inteligencia artificial (IA). Muchas empresas están prohibiendo el uso de ChatGPT (por ahora). Creemos que la IA generativa puede disparar la creatividad y eficiencia de sus empleados más allá de las formas en las que las herramientas como la computadora personal, la Internet y los dispositivos móviles ya lo han hecho. Forcepoint cuenta con las herramientas que facultarán a sus empleados para que aprovechen el poder de herramientas como ChatGPT, a la vez que protege los datos críticos de su organización. 

 

En esta serie de cinco partes de ChatGPT, le preguntamos a ChatGPT sobre la IA generativa y su impacto potencial en la seguridad cibernética. En la parte cuatro, le pedimos sugerencias para defendernos de las amenazas cibernéticas impulsadas por IA.

¿Cómo pueden las empresas mitigar cada uno de estos ataques/amenazas?

Para mitigar las amenazas que implica la IA generativa, las empresas pueden adoptar distintas estrategias y prácticas recomendadas para cada tipo de ataque. Estas son algunas recomendaciones para cada ataque/amenaza mencionado anteriormente:

1. Phishing avanzado y phishing dirigido (IA generativa basada en texto):

  • Implemente autenticación multifactor (MFA) para reducir el riesgo de acceso no autorizado.
  • Eduque a los empleados sobre cómo reconocer correos electrónicos de phishing y la importancia de verificar la fuente antes de tomar ninguna medida.
  • Use herramientas de detección de spam y filtrado de correo electrónico para bloquear correos electrónicos sospechosos.
  • Establezca protocolos de comunicación claros para el intercambio de información confidencial y las transacciones financieras.

2. Desinformación y daño a la reputación (IA generativa basada en video):

  • Controle las redes sociales, los foros y las fuentes de noticias en busca de contenido potencialmente dañino o engañoso relacionado con la empresa.
  • Use herramientas de análisis de video impulsadas por IA para detectar videos ultrafalsos.
  • Desarrolle una estrategia de respuesta rápida para abordar la desinformación y comunicar los hechos a los interesados de manera proactiva.
  • Fomente la transparencia y la confianza con los clientes, empleados y el público general para minimizar el impacto de las campañas de desinformación.

3. Phishing de voz (vishing) y suplantación de identidad (IA generativa basada en audio):

  • Eduque a los empleados sobre los riesgos potenciales del phishing de voz y cómo verificar la identidad de quien llama.
  • Implemente tecnologías de autenticación de llamadas y canales de comunicación seguros.
  • Establezca protocolos claros para compartir información confidencial o realizar transacciones financieras por teléfono.

4. Identidades falsas para ingeniería social (IA generativa basada en gráficos):

  • Entrene a los empleados para reconocer y denunciar interacciones y perfiles de redes sociales sospechosos.
  • Controle las redes sociales en busca de perfiles falsos que se hagan pasar por ejecutivos o empleados de la empresa.
  • Limite la información disponible públicamente sobre empleados, dado que tal información puede ser explotada por atacantes para crear identidades falsas.

En el caso de ataques combinados o multimodales:

  1. Desarrolle una estrategia de ciberseguridad integral que aborde los riesgos asociados con los distintos tipos de ataques de IA generativa.
  2. Invierta en soluciones de seguridad impulsadas por IA que puedan detectar y combatir las amenazas generadas por IA, como detección de ultrafalsos o análisis de correos electrónicos de phishing avanzado.
  3. Promueva una cultura de seguridad fuerte dentro de la organización, con énfasis en la importancia de la vigilancia, la comunicación y la denuncia de toda actividad sospechosa.
  4. Revise y actualice con frecuencia las políticas de seguridad, los procedimientos y la capacitación de los empleados para abordar amenazas emergentes y tecnologías en evolución.

Al implementar estas medidas, las empresas pueden protegerse mejor ante los riesgos asociados con la IA generativa y garantizar el uso seguro y responsable de tecnologías de IA dentro de su organización.
 

 

 

ChatGPT

The team at OpenAI trained a model called ChatGPT which interacts in a conversational way. The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect...

Leer más artículos de ChatGPT

About Forcepoint

Forcepoint is the leading user and data protection cybersecurity company, entrusted to safeguard organizations while driving digital transformation and growth. Our solutions adapt in real-time to how people interact with data, providing secure access while enabling employees to create value.