Porto Alegre,

Anuncie no JC
Assine agora
Mercado Digital
Patricia Knebel

Patricia Knebel

Publicada em 18 de Julho de 2025 às 15:52

Cibercrime usa IA para sofisticar ataques, revela Cisco

LLMs estão sendo vendidos como ferramentas para prática de atividades ilícitas

LLMs estão sendo vendidos como ferramentas para prática de atividades ilícitas

Cisco/Dibvulgação/JC
Compartilhe:
Patricia Knebel
Patricia Knebel
Criminosos digitais estão recorrendo a grandes modelos de linguagem (LLMs, na sigla em inglês) para aplicação em fraudes on-line, aponta relatório da Cisco Talos, divisão global de inteligência de ameaças da Cisco.
Criminosos digitais estão recorrendo a grandes modelos de linguagem (LLMs, na sigla em inglês) para aplicação em fraudes on-line, aponta relatório da Cisco Talos, divisão global de inteligência de ameaças da Cisco.
A investigação identificou ao menos cinco LLMs sendo comercializados como ferramentas para prática de atividades ilícitas: GhostGPT, WormGPT, DarkGPT, DarkestGPT e FraudGPT. Esse tipo de ação deve se intensificar com o avanço da tecnologia.
Com a popularização da IA generativa, esses modelos têm sido usados para automatizar ações como envio de e-mails maliciosos, identificação de vulnerabilidades em sites e verificação de dados de cartões de crédito. Nesse caso, são criados modelos sem qualquer restrição, possibilitando ações criminosas (normalmente, bloqueadas em ferramentas legítimas).
Os modelos desenvolvidos para prática de atividades ilícitas são ofertados em fóruns da dark web ou via Telegram. Entre os exemplos listados estão OnionGPT, divulgado no fórum Dread, e WhiteRabbitNeo, que se apresenta como “IA sem censura para equipes de SecOps” e gera desde e-mails de phishing até ferramentas ofensivas de segurança.
Os criminosos também oferecem versões desbloqueadas de modelos legítimos. As ferramentas são adulteradas para contornar barreiras de segurança (guardrails) que impedem o modelo de apresentar respostas consideradas nocivas. Dessa forma, os programas conseguem ser usados em atividades ilícitas ou potencialmente prejudiciais.
Segundo a plataforma Hugging Face, há hoje mais de 1,8 milhão de LLMs disponíveis, cenário que facilita o acesso a versões sem as restrições (ou proteções) necessárias. Estruturas como o framework Ollama permitem que qualquer usuário baixe e execute localmente modelos como o Llama 2 Uncensored, capaz de produzir mensagens maliciosas que os sistemas comerciais recusariam.
Os cibercriminosos integram essas IAs a serviços externos para automatizar etapas de ataque, como envio de e-mails em massa, varredura de sites em busca de brechas e verificação de dados de cartões roubados. Embora a adoção de LLMs não represente um arsenal totalmente novo, a Cisco Talos afirma que eles reduzem custos, ampliam escala e elevam a sofisticação de golpes tradicionais.
O relatório da Cisco Talos também mostra que alguns criminosos cibernéticos empreendedores desenvolveram seus próprios LLMs sem restrições e os comercializam. Isso acontece com o GhostGPT, WormGPT, DarkGPT, Darkest GPT e FraudGPT.
LLMs sem censura
O estudo aponta ainda que os LLMs sem censura são fáceis de encontrar. Exemplo disso é a estrutura da multiplataforma Omni-Layer Learning Language Aquisition (Ollama), que um usuário consegue baixar e executar um modelo desse tipo em seu computador local. Um deles é o Llama 2 Uncensored, baseado no modelo Llama 2 da Meta.
Uma vez em execução, os usuários podem enviar prompts (perguntas) que seriam rejeitados por implementações de LLM mais preocupados com a segurança. A desvantagem é que esses modelos são executados nas máquinas locais dos usuários. A execução de LLMs maiores que geralmente produzem resultados melhores requer mais recursos do sistema.

Notícias relacionadas