phishing malware chatbots IA

Ataques de phishing y malware con chatbots de IA: ¿qué saber?

  • FraudGPT es una de las varias nuevas herramienta de piratería basadas en Inteligencia Artificial
  • Su supuesto creador dice que está destinada a estafadores, piratas informáticos y spammers
  • ¿Cómo funcionan los chatbots de ciberdelincuencia de la próxima generación?

Hace unos días hablamos de las características de WormGPT y por qué éstas podían representar un riesgo si caían en manos equivocadas. Los peores presagios se están cumpliendo, y esos peligros parecen haberse convertido en una realidad. Es que los ciberdelincuentes están llevando adelante ataques masivos de phishing y malware con chatbots de IA. El día de hoy nos preguntamos qué deberíamos saber al respecto y cómo cuidarnos.

Pero antes, todo empieza con una nueva herramienta de piratería basada en Inteligencia Artificial, FraudGPT. Estamos refiriéndonos a un bot impulsado por IA que no tiene otro objetivo que crear chatbots entrenados específicamente con fines maliciosos. Entre sus acciones destacan el phishing y el malware, por caso.

FraudGPT salió el 25 de julio y fue anunciado en varios foros de hackers por alguien con nombre de usuario CanadianKingpin12, quien dice que la herramienta está destinada a estafadores, piratas informáticos y spammers.

Así son los chatbots de ciberdelincuencia de la próxima generación

Una investigación de profesionales de la firma de ciberseguridad SlashNext revela que CanadianKingpin12 está entrenando activamente nuevos chatbots, utilizando conjuntos de datos sin restricciones de la deep web, y usando sofisticados modelos de lenguaje que inicialmente habían sido desarrollados con el objetivo de combatir el ciberdelito.

Incluso, se filtró información según la cual CanadianKingpin12 está trabajando en DarkBART, una «versión oscura» que deriva del chatbot de Inteligencia Artificial de Google, que conocemos como Bard. De ahí su denominación.

Los investigadores también descubrieron que tiene acceso a otro gran modelo de lenguaje llamado DarkBERT, desarrollado por hackers de Corea del Sur y entrenado en datos de la web oscura pero para combatir el ciberdelito.

¿Qué acciones pueden realizar?

  • Crear campañas de phishing sofisticadas que se dirijan a las contraseñas y tarjetas de crédito de las personas
  • Ejecutar ataques avanzados de ingeniería social para obtener acceso no autorizado a redes y/o sistemas
  • Explotación de vulnerabilidades en sistemas informáticos, software y conexiones confidenciales
  • Explotar vulnerabilidades para obtener ganancias o interrumpir los sistemas
  • Creación y distribución de malware

Más detalles sobre los temibles chatbots basados en IA

Como afirmó CanadianKingpin12 en mensajes privados con los investigadores, tanto DarkBART como DarkBERT tienen acceso a Internet en vivo y una integración perfecta con Google Lens para el procesamiento de imágenes.

Para demostrar el potencial de la versión maliciosa de DarkBERT, el desarrollador compartió el siguiente video.

No está claro si CanadianKingpin12 modificó el código en la versión legítima de DarkBERT o simplemente obtuvo acceso al modelo y lo aprovechó para uso malicioso, pero en cualquier caso debemos tener a las mismas cosas.

Es que independientemente del origen de DarkBERT y la validez de las afirmaciones de quien amenaza, la tendencia de usar chatbots de IA con fines maliciosos está creciendo. Y es probable que la tasa de adopción también aumente, ya que puede proporcionar una solución fácil para los piratas informáticos menos capaces o para todos aquellos buscando expandir sus operaciones a regiones a las que no podrían llegar con sus recursos actuales.

Dado que los piratas informáticos tienen acceso a al menos herramientas de esta clase, que pueden ayudarles a ejecutar ataques avanzados de ingeniería social, habrá que doblegar los esfuerzos en ciberseguridad, subrayan insistentemente los investigadores de SlashNext. Como usuarios, lo mejor que podemos hacer es estar atentos.

¿Qué más te gustaría saber sobre los ataques de phishing y malware a partir de los chatbots de IA?


Deja un comentario