
- 175.000 sistemas Ollama mal configurados, expostos publicamente sem autenticação
- Os invasores exploram instâncias via LLMjacking para gerar conteúdo de spam e malware
- O problema decorre da configuração incorreta do usuário, que pode ser corrigido vinculando-se apenas ao host local
Pesquisadores de segurança afirmam que cerca de 175 mil sistemas Ollama em todo o mundo estão expostos, colocando-os em risco de todos os tipos de atividades maliciosas. Na verdade, alguns já estão sofrendo abusos e, se você estiver executando uma instância do Ollama, talvez queira considerar reconfigurá-la.
Recentemente, SentinelOne SentinelLABS e Censys descobriram que muitas empresas estão executando modelos de IA localmente (a IA escuta apenas o computador em que está sendo executada, não a Internet) usando o Ollama.
No entanto, em cerca de 175.000 casos, eles estão configurados incorretamente para escutar em todas as interfaces de rede, em vez de apenas no host local, tornando o IA acessível publicamente a qualquer pessoa na Internet, sem senha.
LLMjacking
Muitas dessas instâncias são executadas em conexões domésticas, servidores VPS ou máquinas em nuvem, e cerca de metade permite “chamadas de ferramentas”, o que significa que sua IA não está apenas respondendo a perguntas, mas também executando código, chamando APIs e interagindo com outros sistemas.
Atores maliciosos que encontram essas instâncias podem abusar delas para fazer coisas diferentes e, de acordo com a Pillar Security, muitos o fazem. Em um ataque chamado LLMjacking, esses atores usam eletricidade, largura de banda e computação de outras pessoas para gerar spam, conteúdo de malware e, em alguns casos, para revender o acesso a outros criminosos.
Para piorar a situação, muitos sistemas estão localizados fora da segurança empresarial normal e não possuem os benefícios de firewalls corporativos, monitoramento, autenticação e similares. Todas essas coisas, juntamente com o fato de que muitos usam IPs residenciais, tornam-nos difíceis de rastrear e fáceis de abusar.
Além disso, alguns sistemas executam modelos sem censura, sem qualquer verificação de segurança, aumentando o potencial de abuso.
Felizmente, isso não é um bug de software ou uma vulnerabilidade e pode ser resolvido facilmente. Ollama já se liga apenas ao localhost (127.0.0.1) por padrão, o que significa que o problema começa com os usuários expondo suas instâncias à Internet sem qualquer proteção. Tudo o que os usuários precisam fazer é bloquear suas instâncias adequadamente e eles estarão protegidos contra LLMjacking.
Através As notícias dos hackers
O melhor antivírus para todos os orçamentos
Siga o TechRadar no Google Notícias e adicione-nos como fonte preferencial para receber notícias, análises e opiniões de especialistas em seus feeds. Certifique-se de clicar no botão Seguir!
E é claro que você também pode Siga o TechRadar no TikTok para notícias, análises, unboxings em formato de vídeo e receba atualizações regulares nossas em WhatsApp também.
