
Pedófilos usaram inteligência artificial (IA) para gerar mais de 3.000 vídeos de abuso infantil em 2025, revelou um relatório chocante.
Análise realizada pelo Fundação de observação da Internet (IWF) descobriu que o ano passado foi o pior já registado em material de abuso sexual infantil gerado por IA.
A instituição de caridade descobriu um aumento “assustador” de 26.362% em vídeos fotorrealistas de IA sobre abuso sexual infantil.
Em 2025, a IWF descobriu 3.440 vídeos de IA sobre abuso sexual infantil, em comparação com apenas 13 em 2024.
É preocupante que 65 por cento destes vídeos foram classificados como a classe mais extrema de abuso, Categoria A, que pode envolver penetração, bestialidade e tortura sexual.
Kerry Smith, CEO da IWF, afirma: “Os nossos analistas trabalham incansavelmente para remover estas imagens e dar alguma esperança às vítimas.
“Mas agora que a IA avançou a tal ponto que os criminosos podem essencialmente ter as suas próprias máquinas de abuso sexual infantil para fazerem o que quiserem”.
Com base nas conclusões, a IWF apela a uma ação imediata para proibir a tecnologia.
Pedófilos usaram inteligência artificial (IA) para gerar um recorde de 3.440 vídeos de abuso infantil em 2025, revelou um relatório chocante (imagem de stock)
O aumento “assustador” de material de abuso infantil gerado por IA ocorre num momento em que a IWF relata o seu pior ano de sempre em material de abuso online.
Em 2025, os analistas da IWF tomaram medidas relativamente a 312.030 relatórios onde os analistas confirmaram a presença de material de abuso sexual infantil.
Este recorde representa um aumento de sete por cento em relação aos 291.730 relatos confirmados em 2024.
Uma grande parte desse aumento foi impulsionada pelo crescimento explosivo do conteúdo gerado por IA.
As ferramentas de IA para criar material de abuso sexual não são novas, mas no ano passado os criminosos melhoraram a tecnologia para criar conteúdos mais extremos a um ritmo significativamente mais rápido.
A IWF alerta agora que este material pode ser produzido em grande escala por criminosos com conhecimentos tecnológicos mínimos.
Smith explicou: “O aumento assustador de vídeos extremos de categoria A de abuso sexual infantil gerados por IA mostra o tipo de coisas que os criminosos desejam. E é perigoso.
“A fácil disponibilidade deste material apenas encorajará aqueles que têm interesse sexual em crianças, alimentará a sua comercialização e colocará ainda mais as crianças em perigo, tanto online como offline.”
Análise conduzida pela Internet Watch Foundation alerta que a IA deu aos criminosos acesso a “suas próprias máquinas de abuso sexual infantil” (imagem de stock)
Em 2024, Hugh Nelson, então com 27 anos, foi condenado a 18 anos de prisão por usar IA para alterar fotografias de crianças reais para criar imagens de abuso sexual que lhe foram enviadas por pedófilos na internet
O facto de este material ser gerado por IA também não significa que nenhuma criança tenha sido prejudicada na sua produção.
O material de abuso sexual infantil da IA geralmente usa a imagem de crianças reais conhecidas do agressor como base para os vídeos.
Em 2024, Hugh Nelson, então com 27 anos, foi condenado a 18 anos de prisão por usando IA para alterar fotografias de crianças reais para criar imagens de abuso sexual.
O tribunal concluiu que os clientes pagantes do Sr. Nelson, que forneceram as fotografias, eram predominantemente os pais, tios, amigos da família ou vizinhos das vítimas.
Além disso, as imagens de vítimas identificáveis podem ser retratadas no material de abuso ou usadas para “treinar” a IA geradora de imagens.
Jamie Hurworth, especialista em Lei de Segurança Online e advogado de resolução de disputas da empresa Payne Hicks Beach, afirma: “O uso de IA generativa para criar material de abuso sexual infantil não deve ser uma área legal cinzenta. É exploração sexual, independentemente de as imagens serem “sintéticas”.
“O que esta notícia mostra é a escala a que a IA pode aumentar os danos se não forem implementadas e aplicadas salvaguardas eficazes.”
Esta notícia chega no momento em que Elon Musk cedeu à pressão e agiu para evitar que sua IA Grok caísse.lendo fotos sexualizadas de indivíduos reais.
Isso ocorre depois que X foi forçado a restringir a geração de imagens para Grok AI de Elon Musk, já que o bot produzia repetidamente imagens sexualizadas de crianças ou adultos alteradas para se parecerem com crianças.
O site de mídia social X, antigo Twitter, foi inundado por usuários manipular o gerador de imagens de IA para criar imagens sexualizadas não consensuais de mulheres.
Essas imagens incluíam imagens sexualizadas de crianças e adultos manipulados digitalmente para se parecerem com crianças.
Ashley St Clair, mãe de um dos filhos de Elon Musk, agora está processando X por imagens geradas por IA que, de acordo com documentos judiciais, incluem uma dela aos 14 anos de idade. despojado em um biquíni de corda.
Elon Musk já havia defendido X, dizendo que os críticos “só querem suprimir a liberdade de expressão”, e postou duas fotos geradas por IA do primeiro-ministro Sir Keir Starmer de biquíni.
Na quarta-feira, X anunciou que tinha ‘implementado medidas tecnológicas para evitar que a conta Grok permita a edição de imagens de pessoas reais em revelar roupas’.
Embora o Ofcom tenha dito que este foi um “desenvolvimento bem-vindo”, o órgão de fiscalização acrescentou que a sua investigação sobre se X violou as leis do Reino Unido “continua em curso”.
No entanto, o aplicativo Grok independente, Grok Imagine, ainda é capaz de produzir imagens de nudez que podem ser postadas no X.
Tal como salienta a IWF, ao abrigo da legislação actual, é extremamente difícil para as autoridades testar se uma ferramenta de IA pode ser utilizada indevidamente sem cometer uma ofensa se alguma imagem for criada inadvertidamente no processo.
Ms St Claire alega que a IA Grok foi usada para criar material de abuso sexual infantil (CSAM), retratando-a como uma menina de quatro anos
De acordo com as novas regras propostas em Novembro, organismos designados como a IWF e os criadores de IA terão poderes para examinar minuciosamente os modelos de IA para garantir que não possam ser usados para criar imagens nuas ou sexuais de crianças.
Além disso, em dezembro, o governo anunciou planos para proibir aplicativos de ‘nudificação’ de IA que removem digitalmente roupas de fotografias.
A secretária de tecnologia, Liz Kendall, disse: “É totalmente abominável que a IA esteja sendo usada para atingir mulheres e meninas desta forma.
«Não toleraremos que esta tecnologia seja transformada em arma para causar danos, e é por isso que acelerei a nossa acção para pôr em vigor a proibição da criação de imagens íntimas não consensuais geradas pela IA.»
