
- GTIG descobre que os atores da ameaça estão clonando modelos maduros de IA usando ataques de destilação
- Malware sofisticado pode usar IA para manipular código em tempo real para evitar detecção
- Grupos patrocinados pelo Estado estão criando kits de phishing e campanhas de engenharia social altamente convincentes
Se você usou algum moderno Ferramentas de IAvocê saberá que eles podem ser de grande ajuda para reduzir o tédio das tarefas mundanas e pesadas.
Bem, acontece que os atores da ameaça pensam da mesma forma, como o mais recente Google Grupo de inteligência de ameaças Rastreador de ameaças de IA relatório descobriu que os invasores estão usando IA mais do que nunca.
Desde descobrir como os modelos de IA raciocinam para cloná-los, até integrá-los em cadeias de ataque para contornar a detecção tradicional baseada em rede, o GTIG descreveu algumas das ameaças mais urgentes – aqui está o que eles descobriram.
Como os agentes de ameaças usam IA em ataques
Para começar, o GTIG descobriu que os agentes de ameaças estão usando cada vez mais “ataques de destilação” para clonar rapidamente grandes modelos de linguagem, para que possam ser usados pelos agentes de ameaças para seus próprios fins. Os invasores usarão um grande volume de prompts para descobrir como o LLM raciocina com as consultas e, em seguida, usarão as respostas para treinar seu próprio modelo.
Os invasores podem então usar seu próprio modelo para evitar pagar pelo serviço legítimo, usar o modelo destilado para analisar como o LLM é construído ou procurar maneiras de explorar seu próprio modelo, que também pode ser usado para explorar o serviço legítimo.
A IA também está sendo usada para apoiar a coleta de informações e campanhas de engenharia social. Tanto os grupos patrocinados pelo Estado iraniano como o norte-coreano utilizaram ferramentas de IA desta forma, com o primeiro a utilizar a IA para recolher informações sobre relações comerciais, a fim de criar um pretexto para contacto, e o último a utilizar a IA para amalgamar inteligência para ajudar a planear ataques.
O GTIG também detectou um aumento no uso de IA para a criação de kits de phishing altamente convincentes para distribuição em massa, a fim de coletar credenciais.
Além disso, alguns atores de ameaças estão integrando modelos de IA em malware para permitir que ele se adapte e evite a detecção. Um exemplo, rastreado como HONESTCUE, evitou a detecção baseada em rede e a análise estática usando o Gemini para reescrever e executar código durante um ataque.
Mas nem todos os agentes de ameaças são iguais. O GTIG também observou que há uma grande demanda por ferramentas de IA personalizadas criadas para invasores, com demandas específicas por ferramentas capazes de escrever código para malware. Por enquanto, os invasores dependem do uso de ataques de destilação para criar modelos personalizados para uso ofensivo.
Mas se essas ferramentas se tornassem amplamente disponíveis e fáceis de distribuir, é provável que os agentes de ameaças adoptassem rapidamente IA maliciosa em vectores de ataque para melhorar o desempenho de campanhas de malware, phishing e engenharia social.
Para se defenderem contra malware aumentado por IA, muitas soluções de segurança estão a implementar as suas próprias ferramentas de IA para contra-atacar. Em vez de depender de análises estáticas, a IA pode ser usada para analisar ameaças potenciais em tempo real para reconhecer o comportamento de malware aumentado por IA.
A IA também está sendo empregada para verificar e-mails e mensagens, a fim de detectar phishing em tempo real, em uma escala que exigiria milhares de horas de trabalho humano.
Além disso, o Google está buscando ativamente o uso potencialmente malicioso de IA no Gemini e implantou uma ferramenta para ajudar a procurar vulnerabilidades de software (Grande sono) e uma ferramenta para ajudar a corrigir vulnerabilidades (CodeMender).
O melhor antivírus para todos os orçamentos
