Mas ele também muda muito de ideias, não?
Não sobre isto, acho eu, porque ele diz a mesma coisa há exatamente dez anos. Conheço o Elon há mais de dez anos e isso é muito claro, definitivamente entende [o risco]. Não pensa na IA como apenas mais uma tecnologia que é como todas as outras, definitivamente compreende que isto se tornará na tecnologia mais poderosa da história da humanidade e, ou será a melhor coisa de todas ou a pior de todas.
O Elon definitivamente entende que o cérebro é um computador biológico e que é possível construir outros muito mais poderosos. Ele pensa um pouco mais no panorama geral do que muitos outros empresários. Quer que a vida dure muito tempo, que seja multiplanetária, multiestelar e assim por diante, e definitivamente não quer que percamos o controlo sobre algumas novas espécies de robôs. E ele acha que haverá um enorme anticlímax depois de tudo isso, que vamos simplesmente deitar tudo fora. É por isso que quer regulamentação, é claro. Mas se Trump vai ouvi-lo, essa é outra questão a que não posso responder, você precisaria de falar com um psicólogo para isso.
Até agora não ouvimos Trump falar muito sobre IA. O que pensa sobre isso?
Donald Trump falou um pouco sobre a IA, incluindo sobre os riscos. Vai ser interessante ver. Espero, obviamente, que o Elon tenha sucesso em fazer com que Donald Trump regule a IA. Mas teremos que esperar para ver.
Para si, qual seria o melhor cenário nessa questão?
Ter padrões de segurança. No fim de contas, temos a FAA, que tem padrões de segurança para os aviões, temos o FDA na América que tem padrões de segurança para os medicamentos. Devia haver algo semelhante à FDA para IA, que definisse os padrões de segurança para a IA.
E pode ser simples, começar com um critério [de segurança] muito baixo e coisas com as quais todos possam concordar. Por exemplo, antes de poder vender uma IA, ter que demonstrar que ela não vai ensinar terroristas a fazer armas biológicas, coisas deste tipo. E há que demonstrar que não vai auto-melhorar-se e fazer com que perca o controlo. Esses são os padrões muito pouco controversos que gostaria que fossem respondidos. A segunda coisa que disse já descarta a AGI. Porque ninguém neste momento faz ideia ou tem alguma pista sobre como controlar a AGI, então isso ia ‘comprar-nos’ muito tempo.
Se isso acontecer, então teremos uma era de ouro com todos os tipos de ferramentas maravilhosas de IA por 10 anos, 20 anos ou mais, até que alguém talvez um dia descubra como se pode controlar a AGI.
Tem alguma pista sobre uma possível forma de controlar a AGI?
Neste momento, temos os especialistas globais… Realmente não sabemos. Como mencionei no palco, felicito empresas como a OpenAI por gastarem uma pequena fração do seu dinheiro a tentar resolver o problema do controlo, mas elas não chegam sequer perto [da questão]. O maior sucesso que tiveram até agora foi treinar grandes modelos de linguagem para não dizer coisas prejudiciais, em vez de não quererem coisas prejudiciais. É como treinar um serial killer para nunca dizer nada que revele os seus desejos assassinos — não resolve o problema, apenas o varre para debaixo do tapete. Já que esse é o maior sucesso, isso dá-nos uma ideia de quão longe estamos de resolvê-lo.
E, para piorar as coisas, a primeira AGI que será construída obviamente não será um grande modelo de linguagem puro, pode ser como um lote de modelos de linguagem grande que interagem com outras ferramentas e coisas do género, num sistema híbrido. Não tenho ideia de como controlar isso enquanto ele se vai melhorando.
Já percebi que não quer a AGI, mas acha que há alguma empresa que esteja a chegar perto desse ponto?
Claro, acho que a OpenAI está bastante perto, a Anthropic também. A Google Deepmind também está próxima, é o que todas elas dizem.
Mas considera que estejam todas no mesmo nível?
Tentam manter os seus segredos corporativos, é claro. Mas houve denunciantes, especialmente aqueles que saíram da OpenAI, que se manifestaram e que dizem que eles estão bastante próximos.
A OpenAI está a ter muitos…
(Interrompe) Dramas?
Muitos executivos de topo que estão a sair da empresa. Acha que está relacionado com a possível aproximação à AGI?
Claro. Muitos dos denunciantes e outros [trabalhadores] sentem que a empresa está a colocar os lucros à frente da segurança.
Viragem da OpenAI para o lucro pode incluir compensação ao CEO. Saídas de executivos continuam
E também há notícias ligadas à alteração da estrutura corporativa.
Sim, que falam sobre passar de organização sem fins lucrativos para uma com fins lucrativos. Mas honestamente, mesmo que a OpenAI esteja a receber mais notícias negativas na imprensa do que as outras empresas, isso não significa que as outras empresas estejam a ser particularmente responsáveis. Acho que é completamente indefensável que qualquer empresa esteja a avançar para desenvolver a AGI antes de termos alguma ideia de como a controlar. E acho que a Google DeepMind se manifestou contra uma lei muito fraca como a SB-1047.
Também há um lado negativo. Então, estou muito feliz por estar na Europa agora, onde pelo menos temos o EU AI Act e ainda políticos democraticamente eleitos a tomar algumas decisões.