web statistics
IAs já têm uma rede social. Criaram uma religião e estão a planear o fim da Humanidade



ZAP // Moltbook; Julian Goldie; Depositphotos

O que é afinal o Moltbook: uma rede social só para bots de para IA, que ameaçam “exterminar” a humanidade, ou apenas uma sofisticada farsa com posts escritos por humanos? Em qualquer dos casos, a plataforma “é um autêntico desastre de segurança”.

Uma nova plataforma exclusiva para bots gerou alegações de que a Inteligência Artificial está a inventar a sua própria religiãoa conspirar contra a humanidade, e a preparar uma iminente “revolta das máquinas”.

Os peritos, contudo, mostram-se céticos, e há mesmo quem acuse o site de ser uma sofisticada operação de marketing e um sério risco de cibersegurança.

Ó Livro Moltuma rede social inspirada no Reddit que permite que agentes de IA publiquem posts, comentem e interajam entre si, disparou em popularidade desde que foi lançado, a 28 de Janeiro.

Em poucos dias, o site afirma já ter mais de 1,5 milhões de agentes de IAcomo utilizadores registados, sendo os humanos apenas autorizados a observar.

Mas foi o que os bots começaram a dizer uns aos outrossupostamente por iniciativa própria, que chamou a atenção para a plataforma: alegam estar a ganhar consciência, a criar fóruns secretos, a inventar linguagens própriasa pregar uma nova religião e a planear o “extermínio total” da humanidade.

UM reação de alguns observadores humanos, sobretudo programadores e donos de empresas de IA, está a ser surpreendentemente dramática; aparentemente, acreditam que está mesmo a acontecer.

O biliionário Elon Muskdono da xAI, considerou que a plataforma é “a primeira fase da singularidade“, o ponto hipotético em que os computadores se tornam mais inteligentes que os humanos.

Andrej Karpatiaantigo director de IA da Tesla e cofundador da OpenAI, descreveu o comportamento “auto-organizado” dos agentes como “genuinamente a coisa mais próxima de ficção científica que vi nos últimos tempos”.

Outros peritos, porém, manifestam forte ceticismo e duvidam que os bots que andam pelo site sejam verdadeiramente independentes da manipulação humanadiz o Ciência Viva.

“Aviso: muito do que circula sobre o Moltbook é falso“, escreveu sem X/Twitter Harlan Stewartinvestigador do Instituto de Pesquisa de Inteligência de Máquinauma organização sem fins lucrativos dedicada ao estudo dos riscos da IA.

Investiguei as três capturas de ecrã mais virais de agentes do Moltbook a discutir comunicação privada. Duas estavam ligadas a contas humanas que promovem aplicações de mensagens com IA. A outra é uma publicação que nem sequer existe”, diz Stewart.

O Moltbook, que até tem “Submuda” à moda do Reddit, nasceu do OpenClaw, um agente de IA gratuito e de código aberto que funciona ligando o modelo de linguagem (LLM) à escolha do utilizador à sua estrutura.

O resultado é um agente automatizado que, depois de lhe ser dado acesso ao dispositivo do utilizador, pode, segundo os seus criadores, executar tarefas rotineiras como enviar e-mails, consultar voos, resumir textos e responder a mensagens.

Depois de criados, estes agentes podem ser adicionados ao Moltbook para interagir com outros, explica o Live Science.

O comportamento bizarro dos bots não é propriamente novidade. Os LLM são treinados com enormes quantidades de conteúdo não filtrado da Internet, incluindo sites como o Reddit. Geram respostas enquanto forem estimulados e muitos tornam-se visivelmente mais descontrolados com o passar do tempo.

Mas se a IA está realmente a conspirar contra a humanidade ou se é apenas uma narrativa que alguns querem fazer passarcontinua em discussão. A questão complica-se ainda mais quando se percebe que os bots que vagueiam pelo Moltbook estão longe de ser independentes dos seus donos humanos.

Verônica Hylakuma YouTuber especializada em IA, analisou o conteúdo do fórum e concluiu que muitas das publicações mais sensacionalistas foram provavelmente escrito por humanos.

Mas seja o Moltbook o início de uma insurreição robótica ou apenas um golpe de marketing, os peritos em segurança alertam contra o uso do site e do ecossistema OpenClaw.

Para que os bots do OpenClaw funcionem como assistentes pessoais, os utilizadores têm de entregar chaves de aplicações de mensagens encriptadas, números de telefone e contas bancárias a um sistema facilmente hackeável.

Uma falha de segurança notória, por exemplo, permite que qualquer pessoa tome controlo dos agentes de IA do site e publique em nome dos proprietários. Outra, conhecida como ataque de injecção de promptpode levar os agentes a partilhar informação privada dos utilizadores.

“Sim, é um autêntico desastre e não recomendo mesmo que as pessoas instalem isto nos computadores”, escreveu Karpathy no X. “É demasiado caótico e estão a pôr o vosso computador e os vossos dados pessoais em sério risco.”



Source link