El avance de la Inteligencia Artificial (IA) está impulsado técnicas y estrategias aprovechadas por cibercelincuentes para desarrollar nuevos tipos de malware y mejorar los ya existentes. Con las posibilidades que surgieron gracias a esta tecnología, es posible crear campañas de desinformación a gran escala y videollamadas falsas, entre otras amenazas informáticas.
Para esto, los cibercriminales se sirven de modelos grandes de lenguaje (LLM) que replican al del famoso ChatGPT, pero con fines acordes a los intereses que imperan en el mundo del ciberdelito. Dos ejemplos de estos modelos son WormGPT y FraudGPT, ambos disponibles en la dark web.
Según un informe publicado en IJSR CSEIT (Revista Internacional de Investigación Científica en Informática, Ingeniería y Tecnología de la Información), FraudGPT es una herramienta de IA generativa por suscripción que permite crear correos de phishing muy convincentes en distintos idiomas, o páginas web falsas.
Este modelo, que representa un gran recurso para cibercriminales, fue descubierto por la plataforma Netenrich en julio de 2023, a través de la dark web y canales de Telegram.
![](/export/sites/rosario3/img/2024/01/23/fraudgpt.jpg_1555109941.jpg)
WormGPT, por su parte, también permite redactar correos de phishing de forma sencilla y crear malware en Python. Este LLM surge a partir de GPT-J, un modelo de código abierto creado en 2021 por la firma de investigación y desarrollo EleutherAI, y nutrido con una cantidad de parámetros equivalente a los de GPT-3 –el modelo detrás de la versión gratuita de ChatGPT–.
Para usar WormGPT se debe pagar una suscripción mensual de entre 60 y 100 euros, o realizar un pago anual de 550 euros. FraudGPT, en tanto, cuesta 200 dólares al mes o 1.700 al año.
FraudGPT funciona como una versión de ChatGPT pero sin restricciones de seguridad, por lo que permite crear virus informáticos indetectables, elaborar páginas de phishing, herramientas de hackeo e incluso aprender a piratear.
Investigadores de Trustwave, compañía que certifica la seguridad de distintos tipos de software, hicieron pruebas de FraudGPT y lo compararon con ChatGPT.
Los resultados mostraron que aunque ChatGPT ofrece el código y el correo para ataques de phishing, esto requiere de varios intentos y modificaciones en el prompt (indicaciones para el modelo). Además, el resultado incluye una advertencia, y tampoco llega a ser tan convincente como el de FraudGPT.
![](/export/sites/rosario3/img/2024/01/23/coding.jpg_158021514.jpg)
La empresa de ciberseguridad Proofpoint identificó un incremento en el uso de IA para la ejecución de estafas avanzadas, como la conocida "pig butchering" o "carnicería de cerdos", con la que los estafadores engordan la confianza de sus víctimas antes de despojarlas de sus activos.
A esta técnica se suman el uso de deepfakes, videos y audios manipulados, que afectan principalmente a funcionarios gubernamentales, empresarios y celebridades.
En ese sentido, los investigadores han observado como los atacantes de TA499, un grupo delictivo cibernético, recurren a videollamadas falsificadas mediante IA para suplantar a políticos y otras figuras públicas.
La imitación de estos individuos busca extraer información confidencial o comprometedora de las víctimas, con el fin de extorsionarlas o ridiculizarlas posteriormente mediante la publicación en redes sociales. Además, se ha identificado el riesgo de que la IA ayude a crear armas bioquímicas y se infiltre en el software de infraestructuras críticas, riesgos que las regulaciones existentes todavía no pueden abarcar.