Com o lançamento de inteligência artificial produtos de geração de vídeo (IA), como Sora e Luma, estamos à beira de uma enxurrada de conteúdo de vídeo gerado por IA, e os legisladores, figuras públicas e engenheiros de software já estão aviso sobre um dilúvio de deepfakes. Agora parece que a própria IA pode ser a nossa melhor defesa contra a falsificação da IA depois que um algoritmo identificou marcadores reveladores de vídeos de IA com mais de 98% de precisão.
É difícil ignorar a ironia de a IA nos proteger contra conteúdo gerado por IA, mas como disse o líder do projeto, Matthew Stamm, professor associado de engenharia na Universidade Drexel, em um declaração: “É mais do que um pouco enervante que [AI-generated video] poderia ser lançado antes que exista um bom sistema para detectar falsificações criadas por maus atores.”
“Até agora, os programas de detecção forense têm sido eficazes contra vídeos editados, simplesmente tratando-os como uma série de imagens e aplicando o mesmo processo de detecção”, acrescentou Stamm. “Mas com o vídeo gerado por IA, não há evidências de manipulação de imagem quadro a quadro, portanto, para que um programa de detecção seja eficaz, ele precisará ser capaz de identificar novos traços deixados pela forma como os programas de IA generativa constroem seus vídeos. .”
A descoberta, descrita em um estudo publicado em 24 de abril no servidor de pré-impressão arXiv, é um algoritmo que representa um novo marco importante na detecção de imagens e conteúdo de vídeo falsos. Isso ocorre porque muitas das “migalhas digitais” que os sistemas existentes procuram em mídias regulares editadas digitalmente não estão presentes em mídias inteiramente geradas por IA.
Relacionado: 32 vezes em que a inteligência artificial errou catastroficamente
A nova ferramenta que o projeto de pesquisa está lançando sobre deepfakes, chamada “MISLnet”, evoluiu de anos de dados derivados da detecção de imagens e vídeos falsos com ferramentas que detectam alterações feitas em vídeos ou imagens digitais. Isso pode incluir a adição ou movimentação de pixels entre quadros, manipulação da velocidade do clipe ou remoção de quadros.
Essas ferramentas funcionam porque o processamento algorítmico de uma câmera digital cria relações entre os valores de cores dos pixels. Essas relações entre valores são muito diferentes em imagens geradas pelo usuário ou editadas com aplicativos como o Photoshop.
Mas como os vídeos gerados por IA não são produzidos por uma câmera que captura uma cena ou imagem real, eles não contêm essas disparidades reveladoras entre os valores dos pixels.
As ferramentas da equipe Drexel, incluindo o MISLnet, aprendem usando um método chamado rede neural restrita, que pode diferenciar entre valores normais e incomuns no nível subpixel de imagens ou videoclipes, em vez de procurar indicadores comuns de manipulação de imagens como aqueles Mencionado acima.
O MISL superou sete outros sistemas falsos de detecção de vídeo de IA, identificando corretamente vídeos gerados por IA em 98,3% das vezes, superando oito outros sistemas que pontuaram pelo menos 93%.
“Já vimos vídeos gerados por IA sendo usados para criar desinformação”, disse Stamm no comunicado. “À medida que esses programas se tornam mais onipresentes e mais fáceis de usar, podemos esperar ser inundados com vídeos sintéticos”.