• Sáb. Jul 27th, 2024

OpenAI afirma que atores apoiados pelo Estado usaram sua IA para desinformação

Byadmin

Mai 31, 2024 #OpenAI
OpenAI afirma que atores apoiados pelo Estado usaram sua IA para desinformação

A OpenAI disse que as campanhas interrompidas se originaram da Rússia, China, Irã e de uma empresa privada em Israel.

São Francisco, Estados Unidos:

OpenAI, a empresa por trás do ChatGPT, disse quinta-feira que interrompeu cinco operações secretas de influência nos últimos três meses que procuravam usar seus modelos de inteligência artificial para atividades enganosas.

Em uma postagem no blog, a OpenAI disse que as campanhas interrompidas se originaram da Rússia, China, Irã e de uma empresa privada com sede em Israel.

Os atores da ameaça tentaram aproveitar os poderosos modelos de linguagem da OpenAI para tarefas como geração de comentários, artigos, perfis de mídia social e depuração de código para bots e sites.

A empresa liderada pelo CEO Sam Altman disse que essas operações “não parecem ter se beneficiado de um aumento significativo no envolvimento ou alcance do público como resultado de nossos serviços”.

Empresas como a OpenAI estão sob escrutínio minucioso por temores de que aplicativos como ChatGPT ou gerador de imagens Dall-E possam gerar conteúdo enganoso em segundos e em grandes volumes.

Esta é especialmente uma preocupação com grandes eleições prestes a ter lugar em todo o mundo e países como a Rússia, a China e o Irão, conhecidos por utilizarem campanhas secretas nos meios de comunicação social para alimentar tensões antes do dia das eleições.

Uma operação interrompida, apelidada de “Má Gramática”, foi uma campanha russa, anteriormente não divulgada, que visava a Ucrânia, a Moldávia, os países bálticos e os Estados Unidos.

Utilizou modelos e ferramentas OpenAI para criar breves comentários políticos em russo e inglês no Telegram.

A conhecida operação russa “Doppelganger” empregou a inteligência artificial da OpenAI para gerar comentários em plataformas como X em idiomas como inglês, francês, alemão, italiano e polonês.

A OpenAI também derrubou a operação de influência chinesa “Spamouflage”, que abusava de seus modelos para pesquisar mídias sociais, gerar texto em vários idiomas e depurar código para sites como o anteriormente não relatado revelacum.com.

Um grupo iraniano, a “União Internacional de Mídia Virtual”, foi perturbado por usar OpenAI para criar artigos, manchetes e conteúdo publicado em sites vinculados ao Estado iraniano.

Além disso, a OpenAI interrompeu uma empresa comercial israelense chamada STOIC, que parecia usar seus modelos para gerar conteúdo no Instagram, Facebook, Twitter e sites afiliados.

Esta campanha também foi sinalizada pelo proprietário do Facebook, Meta, no início desta semana.

As operações foram publicadas em plataformas como Twitter, Telegram, Facebook e Medium, “mas nenhuma conseguiu envolver um público substancial”, disse OpenAI.

Em seu relatório, a empresa descreveu tendências de aproveitamento da IA, como gerar grandes volumes de texto/imagem com menos erros, misturar IA e conteúdo tradicional e fingir engajamento por meio de respostas de IA.

A OpenAI disse que a colaboração, o compartilhamento de inteligência e as salvaguardas incorporadas em seus modelos permitiram as interrupções.

(Esta história não foi editada pela equipe da NDTV e é gerada automaticamente a partir de um feed distribuído.)

Source

By admin

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *