
- GreyNoise registrou 91.000 sessões de ataque contra sistemas de IA expostos entre outubro de 2025 e janeiro de 2026
- As campanhas incluíram enganar os servidores para que “ligassem para casa” e sondagens em massa para mapear modelos de IA
- Atores maliciosos visaram proxies mal configurados, testando OpenAI, Gemini e outras APIs LLM em escala
Os hackers têm como alvo proxies mal configurados para ver se conseguem invadir o servidor subjacente. Modelo de linguagem grande (LLM), alertaram os especialistas.
Pesquisadores da GreyNoise criaram recentemente um sistema de IA falso e exposto para ver quem tentaria interagir com ele.
Entre outubro de 2025 e janeiro de 2026, registaram mais de 91.000 sessões de ataque que expuseram duas campanhas de ataque.
Uma abordagem sistemática
Na primeira campanha, eles viram um agente de ameaça tentando enganar os servidores de IA para que se conectassem a um servidor sob seu controle. Eles tentaram abusar de recursos como downloads de modelos ou webhooks, forçando o servidor a “ligar para casa” sem que o proprietário soubesse. Os invasores então observariam retornos de chamada para confirmar se o sistema subjacente está vulnerável
Na segunda campanha, GreyNoise viu dois endereços IP martelando terminais de IA expostos dezenas de milhares de vezes. O objetivo não era invadir imediatamente, mas sim mapear quais modelos de IA eram acessíveis e quais eram suas configurações. Eles enviaram perguntas muito simples como “Quantos estados existem nos EUA” para determinar qual modelo de IA está sendo usado, sem disparar nenhum alarme.
Eles testaram sistematicamente APIs no estilo OpenAI, Google Formatos Gemini e dezenas de famílias de modelos importantes, em busca de proxies ou gateways que expõem acidentalmente o acesso pago ou interno à IA.
GreyNoise também queria ter certeza de que este não era o trabalho de um hobby ou de um pesquisador de segurança cibernética. O facto de a infra-estrutura utilizada na segunda campanha ter um longo historial de exploração de vulnerabilidades no mundo real, e de a campanha ter atingido o seu pico durante as férias de Natal, confirmou que foi, de facto, obra de um actor malicioso.
“Os retornos de chamada OAST são técnicas padrão de pesquisa de vulnerabilidade. Mas a escala e o momento do Natal sugerem que as operações de chapéu cinza ultrapassam os limites”, confirmou GreyNoise.
Além disso, os pesquisadores disseram que os mesmos servidores foram vistos antes da verificação de centenas de CVEs.
Através BipandoComputador
O melhor antivírus para todos os orçamentos
Siga o TechRadar no Google Notícias e adicione-nos como fonte preferencial para receber notícias, análises e opiniões de especialistas em seus feeds. Certifique-se de clicar no botão Seguir!
E é claro que você também pode Siga o TechRadar no TikTok para notícias, análises, unboxings em formato de vídeo e receba atualizações regulares nossas em WhatsApp também.
