• Qui. Set 19th, 2024

OpenAI bloqueia contas ChatGPT de grupo iraniano por mirar eleição nos EUA

OpenAI bloqueia contas ChatGPT de grupo iraniano por mirar eleição nos EUA

A OpenAI disse que a operação não parece ter alcançado um engajamento significativo do público.

Washington:

A OpenAI disse na sexta-feira que havia removido contas de um grupo iraniano por usar seu chatbot ChatGPT para gerar conteúdo destinado a influenciar a eleição presidencial dos EUA e outras questões.

A operação, identificada como Storm-2035, usou o ChatGPT para gerar conteúdo focado em tópicos como comentários sobre os candidatos de ambos os lados nas eleições dos EUA, o conflito em Gaza e a presença de Israel nos Jogos Olímpicos, e depois compartilhou por meio de contas de mídia social e sites.

Uma investigação da empresa de IA apoiada pela Microsoft mostrou que o ChatGPT foi usado para gerar artigos longos e comentários mais curtos nas redes sociais.

A OpenAI disse que a operação não parece ter alcançado um engajamento significativo do público.

A maioria das postagens identificadas nas redes sociais recebeu poucas ou nenhuma curtida, compartilhamento ou comentário, e a empresa não viu indícios de artigos da web sendo compartilhados nas redes sociais.

As contas foram proibidas de usar os serviços da OpenAI e a empresa continua monitorando as atividades em busca de quaisquer novas tentativas de violação de políticas, afirmou.

No início de agosto, um relatório de inteligência sobre ameaças da Microsoft afirmou que a rede iraniana Storm-2035, composta por quatro sites disfarçados de veículos de notícias, está interagindo ativamente com grupos de eleitores dos EUA em extremos opostos do espectro político.

O engajamento estava sendo construído com “mensagens polarizadas sobre questões como os candidatos presidenciais dos EUA, os direitos LGBTQ e o conflito Israel-Hamas”, afirmou o relatório.

A candidata democrata Kamala Harris e o rival republicano Donald Trump estão em uma disputa acirrada antes da eleição presidencial de 5 de novembro.

A empresa de IA disse em maio que havia interrompido cinco operações secretas de influência que buscavam usar seus modelos para “atividades enganosas” na internet.

(Com exceção do título, esta história não foi editada pela equipe da NDTV e é publicada a partir de um feed distribuído.)

Source

By admin

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *