Os impactos negativos da inteligência artificial, que já levaram à proliferação de vídeos falsos e deepfake de celebridades online, estão agora a estender-se às crianças. O conteúdo de abuso sexual infantil gerado por IA é cada vez mais encontrado em áreas da Internet acessíveis ao público.
De acordo com um relatório da Internet Watch Foundation (IWF), o conteúdo de abuso sexual infantil gerado por IA está expondo ainda mais pessoas a imagens nocivas e horríveis.
Muitas das imagens e vídeos de crianças feridas e abusadas são tão realistas que pode ser muito difícil diferenciá-los das imagens de crianças reais e são considerados conteúdo criminoso aos olhos da lei do Reino Unido, da mesma forma que ‘tradicional ‘material de abuso sexual infantil seria, de acordo com a IWF.
Só nos últimos seis meses, os analistas do FMI observaram um aumento de 6% em relatos confirmados contendo material de abuso sexual infantil gerado por IA, em comparação com os 12 meses anteriores.
A IWF alerta que quase todo o conteúdo (99%) foi encontrado em áreas publicamente disponíveis da Internet e não foi escondido na dark web. A maioria dos relatos veio de membros do público (78%) que se depararam com imagens criminais em sites como fóruns ou galerias de IA. O restante foi acionado por analistas da IWF por meio de busca proativa.
Analistas dizem que ver conteúdo gerado por IA de crianças sendo abusadas sexualmente pode ser tão angustiante quanto ver crianças reais em imagens de abuso se uma pessoa não estiver preparada ou treinada para lidar com esse tipo de material.
Algum material de abuso sexual infantil baseado na IA é classificado como imagens não fotográficas, como desenhos animados, e também é considerado prejudicial à visualização e, em conformidade, avaliado pelos analistas da IWF.