
- A fraude assistida por IA cresceu acentuadamente, tornando as campanhas de phishing mais convincentes
- Ataques de identidade habilitados para Deepfake causaram perdas verificadas superiores a US$ 347 milhões em todo o mundo
- Crimeware de IA baseado em assinatura cria um mercado clandestino estável e crescente
A inteligência artificial é agora usada por cibercriminosos para automatizar fraudes, dimensionar campanhas de phishing e industrializar a representação em um nível que antes era impraticável.
Infelizmente, os ataques assistidos por IA podem estar entre as maiores ameaças à segurança que a sua empresa enfrenta este ano, mas manter-se atento e agir prontamente pode mantê-lo um passo à frente.
O relatório sobre IA Armada do Grupo-IB mostra que o uso crescente de IA por criminosos representa uma quinta onda distinta de crimes cibernéticos, impulsionada pela disponibilidade comercial de Ferramentas de IA em vez de experimentação isolada.
Aumento da atividade de crimes cibernéticos impulsionados pela IA
As evidências provenientes da monitorização da dark web mostram que a atividade do crime cibernético relacionada com a IA não é uma resposta de curto prazo às novas tecnologias.
O Group-IB afirma que as primeiras postagens na dark web com referência a palavras-chave relacionadas à IA aumentaram 371% entre 2019 e 2025.
A aceleração mais pronunciada seguiu-se ao lançamento público do ChatGPT no final de 2022, após o qual os níveis de juros permaneceram persistentemente elevados.
Em 2025, dezenas de milhares de discussões em fóruns todos os anos faziam referência ao uso indevido da IA, indicando um mercado clandestino estável em vez de curiosidade experimental.
Os analistas do Grupo-IB identificaram pelo menos 251 postagens explicitamente focadas em modelo de linguagem grande exploração, com a maioria das referências ligadas a sistemas baseados em OpenAI.
Surgiu uma economia estruturada de crimeware de IA, com pelo menos três fornecedores oferecendo Dark LLMs auto-hospedados sem restrições de segurança.
Os preços das assinaturas variam de US$ 30 a US$ 200 por mês, com alguns fornecedores reivindicando mais de 1.000 usuários.
Um dos segmentos de crescimento mais rápido é o dos serviços de falsificação de identidade, com menções a ferramentas deepfake ligadas ao desvio de verificação de identidade aumentando 233% ano após ano.
Os kits básicos de identidade sintética são vendidos por apenas US$ 5, enquanto as plataformas deepfake em tempo real custam entre US$ 1.000 e US$ 10.000.
O Grupo-IB registrou 8.065 tentativas de fraude habilitadas por deepfake em uma única instituição entre janeiro e agosto de 2025, com perdas globais verificadas atingindo US$ 347 milhões.
O malware assistido por IA e o abuso de API cresceram acentuadamente, com o phishing gerado por IA agora incorporado em plataformas de malware como serviço e ferramentas de acesso remoto.
Os especialistas alertam que os ataques alimentados por IA podem contornar as defesas tradicionais, a menos que as equipes monitorem e atualizem continuamente os sistemas.
As redes precisam de proteção contra firewalls que pode identificar tráfego incomum e tentativas de phishing geradas por IA.
Com apropriado proteção de endpointas empresas podem detectar atividades suspeitas antes que malware ou ferramentas de acesso remoto se espalhem.
Rápido e adaptável remoção de malware permanece crítico porque os ataques habilitados para IA podem ser executados e propagados mais rapidamente do que os métodos padrão podem responder.
Combinadas com uma abordagem de segurança em camadas e detecção de anomalias, essas medidas ajudam a impedir invasões, como chamadas deepfake, vozes clonadas e tentativas falsas de login.
Siga o TechRadar no Google Notícias e adicione-nos como fonte preferencial para receber notícias, análises e opiniões de especialistas em seus feeds. Certifique-se de clicar no botão Seguir!
E é claro que você também pode Siga o TechRadar no TikTok para notícias, análises, unboxings em formato de vídeo e receba atualizações regulares nossas em WhatsApp também.
