Paris, França:
Especialistas alertam que as mídias sociais estão sendo inundadas por vídeos “deepfake” criados digitalmente, usando identidades confiáveis de médicos famosos para promover curas milagrosas perigosas para problemas de saúde graves.
Vídeos no Facebook e Instagram aproveitaram a credibilidade de médicos famosos da TV para anunciar xaropes “naturais” não testados para diabetes, alegando até mesmo que o medicamento comprovado de primeira linha, a metformina, “poderia matar” pacientes.
Esses golpes correm o risco de colocar vidas em risco, dizem especialistas, principalmente porque usam imagens de especialistas em saúde famosos, como o apresentador de TV britânico Michael Mosley, que morreu no início deste ano.
“As pessoas parecem confiar nesses vídeos”, disse o médico britânico John Cormack à AFP.
“Muitos desses médicos da mídia gastaram muito tempo criando uma imagem de confiabilidade, então eles são acreditados mesmo quando fazem afirmações inacreditáveis”, disse Cormack, que trabalhou com o British Medical Journal (BMJ) no assunto.
O especialista em inteligência artificial (IA) Henry Ajder disse que os deepfakes médicos “realmente decolaram neste ano”.
Os vídeos de IA geralmente têm como alvo públicos mais velhos, falsificando a identidade de médicos que aparecem regularmente na televisão diurna, disse Ajder.
O médico francês Michel Cymes, que frequentemente aparece na TV na França, disse à AFP em maio que estava entrando com uma ação judicial contra o proprietário do Facebook, Meta, por “golpes” usando sua imagem.
O médico britânico Hilary Jones até contratou um investigador para rastrear deepfakes que mostrassem sua imagem.
Um vídeo mostrava Jones vendendo uma cura falsa para pressão alta — assim como balas de maconha — em um programa de TV do Reino Unido no qual ele aparece regularmente.
“Mesmo que sejam retirados, eles simplesmente reaparecem no dia seguinte com um nome diferente”, lamentou Jones no BMJ.
‘Jogo de gato e rato’
Avanços recentes em IA tornaram a qualidade das imagens, áudio e vídeo deepfake muito mais convincente, explicou o acadêmico e especialista em IA francês Frederic Jurie.
“Hoje temos acesso a dezenas de bilhões de imagens, e somos capazes de construir algoritmos que podem modelar tudo o que aparece nas imagens e regenerá-las. Isso é o que chamamos de IA generativa”, disse ele.
Não são apenas as imagens de médicos amplamente respeitados que estão sendo mal utilizadas.
A aparição do controverso pesquisador francês Didier Raoult — que foi acusado de espalhar informações enganosas sobre medicamentos para COVID-19 — também foi usada em vários vídeos deepfake.
A naturopata australiana Barbara O’Neill, que foi duramente condenada por afirmar que o bicarbonato de sódio pode curar o câncer, foi falsamente retratada vendendo pílulas que “limpam os vasos sanguíneos” em vídeos do TikTok.
Contatado pela AFP, seu marido Michael O’Neill lamentou que “muitas pessoas antiéticas” estivessem usando o nome de sua esposa “para vender produtos que ela não recomenda e, em alguns casos, são simplesmente golpes”.
Alguns vídeos falsos vão ainda mais fundo na história, alegando falsamente que O’Neill morreu por causa de um óleo milagroso vendido na Amazon.
O especialista em IA Adjer não ficou surpreso que números tão controversos de saúde também estivessem sendo vítimas de deepfakes.
“Eles são altamente confiáveis por pessoas em círculos que, digamos, são pouco ortodoxos ou conspiratórios”, disse ele.
Os especialistas não estavam otimistas de que as ferramentas de detecção de IA recentemente desenvolvidas seriam capazes de combater o ataque dos deepfakes.
“É um jogo de gato e rato”, disse Jurie.
Em vez de tentar encontrar todos os vídeos falsos que existem, ele destacou a tecnologia que pode “garantir que o conteúdo não foi alterado, como em mensagens, graças ao software que produz assinaturas digitais como um certificado”, disse ele.
(Com exceção do título, esta história não foi editada pela equipe da NDTV e é publicada a partir de um feed distribuído.)