No mundo da inteligência artificial (IA), uma batalha está em andamento. De um lado estão as empresas que acreditam em manter os conjuntos de dados e algoritmos por trás de seu software avançado privados e confidenciais. Do outro, estão as empresas que acreditam em permitir que o público veja o que está por baixo do capô de seus sofisticados modelos de IA.
Pense nisso como a batalha entre IA de código aberto e fechado.
Nas últimas semanas, a Meta, empresa controladora do Facebook, assumiu a luta pela IA de código aberto em grande estilo ao lançar uma nova coleção de grandes modelos de IA. Isso inclui um modelo chamado Llama 3.1 405B, que o fundador e presidente-executivo da Meta, Mark Zuckerberg, diz ser “o primeiro modelo de IA de código aberto de nível de fronteira”.
Para qualquer um que se preocupe com um futuro em que todos possam acessar os benefícios da IA, esta é uma boa notícia.
O perigo da IA de código fechado – e a promessa da IA de código aberto IA de código fechado se refere a modelos, conjuntos de dados e algoritmos que são proprietários e mantidos confidenciais. Exemplos incluem ChatGPT, Gemini do Google e Claude da Anthropic.
Leia também: WhatsApp vai facilitar uso do Meta AI com novo recurso, confira detalhes aqui
Embora qualquer pessoa possa usar esses produtos, não há como descobrir quais conjuntos de dados e códigos-fonte foram usados para construir o modelo ou a ferramenta de IA.
Embora essa seja uma ótima maneira para as empresas protegerem sua propriedade intelectual e seus lucros, ela corre o risco de minar a confiança e a responsabilidade públicas. Tornar a tecnologia de IA de código fechado também desacelera a inovação e torna uma empresa ou outros usuários dependentes de uma única plataforma para suas necessidades de IA. Isso ocorre porque a plataforma que possui o modelo controla mudanças, licenciamento e atualizações.
Há uma série de estruturas éticas que buscam melhorar a justiça, a responsabilização, a transparência, a privacidade e a supervisão humana da IA. No entanto, esses princípios geralmente não são totalmente alcançados com a IA de código fechado devido à falta inerente de transparência e responsabilização externa associada a sistemas proprietários.
No caso do ChatGPT, sua empresa controladora, a OpenAI, não divulga nem o conjunto de dados nem o código de suas últimas ferramentas de IA para o público. Isso torna impossível para os reguladores auditá-lo. E embora o acesso ao serviço seja gratuito, ainda há preocupações sobre como os dados dos usuários são armazenados e usados para modelos de retreinamento.
Por outro lado, o código e o conjunto de dados por trás dos modelos de IA de origem opeTECHn estão disponíveis para todos verem.
Leia também: Usuários do WhatsApp e Instagram agora podem acessar o Meta AI em hindi, o chatbot ganha suporte para 7 novos idiomas
Isso promove o desenvolvimento rápido por meio da colaboração da comunidade e permite o envolvimento de organizações menores e até mesmo indivíduos no desenvolvimento de IA. Também faz uma grande diferença para pequenas e médias empresas, pois o custo de treinar grandes modelos de IA é colossal.
Talvez o mais importante seja que a IA de código aberto permite o exame minucioso e a identificação de possíveis vieses e vulnerabilidades.
No entanto, a IA de código aberto cria novos riscos e preocupações éticas.
Por exemplo, o controle de qualidade em produtos de código aberto geralmente é baixo. Como os hackers também podem acessar o código e os dados, os modelos também são mais propensos a ataques cibernéticos e podem ser adaptados e personalizados para propósitos maliciosos, como retreinar o modelo com dados da dark web.
Um pioneiro da IA de código aberto
Entre todas as empresas líderes em IA, a Meta surgiu como pioneira em IA de código aberto. Com seu novo conjunto de modelos de IA, ela está fazendo o que a OpenAI prometeu fazer quando foi lançada em dezembro de 2015 – ou seja, avançando a inteligência digital “da maneira que é mais provável que beneficie a humanidade como um todo”, como a OpenAI disse naquela época.
Llama 3.1 405B é o maior modelo de IA de código aberto da história. É o que é conhecido como um modelo de linguagem grande, capaz de gerar texto em linguagem humana em vários idiomas. Ele pode ser baixado online, mas devido ao seu tamanho enorme, os usuários precisarão de hardware poderoso para executá-lo.
Leia também: Meta tenta imitar recurso da Apple? Nova patente revela como o Vision Pro pode ‘inspirar’ o próximo headset Meta
Embora não supere outros modelos em todas as métricas, o Llama 3.1 405B é considerado altamente competitivo e tem desempenho melhor do que os modelos de linguagem grandes, comerciais e de código fechado existentes em certas tarefas, como tarefas de raciocínio e codificação.
Mas o novo modelo não é totalmente aberto, porque a Meta não liberou o enorme conjunto de dados usado para treiná-lo. Este é um elemento “aberto” significativo que está faltando atualmente.
No entanto, o Llama da Meta nivela o campo de atuação para pesquisadores, pequenas organizações e startups porque pode ser aproveitado sem os imensos recursos necessários para treinar grandes modelos de linguagem do zero.
Moldando o futuro da IA
Para garantir que a IA seja democratizada, precisamos de três pilares principais:
governança: estruturas regulatórias e éticas para garantir que a tecnologia de IA seja desenvolvida e usada de forma responsável e ética
acessibilidade: recursos de computação acessíveis e ferramentas fáceis de usar para garantir um cenário justo para desenvolvedores e usuários
abertura: conjuntos de dados e algoritmos para treinar e construir ferramentas de IA devem ser de código aberto para garantir transparência.
Alcançar esses três pilares é uma responsabilidade compartilhada pelo governo, indústria, academia e o público. O público pode desempenhar um papel vital defendendo políticas éticas em IA, mantendo-se informado sobre os desenvolvimentos de IA, usando IA de forma responsável e apoiando iniciativas de IA de código aberto.
Mas várias questões permanecem sobre a IA de código aberto. Como podemos equilibrar a proteção da propriedade intelectual e o fomento da inovação por meio da IA de código aberto? Como podemos minimizar as preocupações éticas em torno da IA de código aberto? Como podemos proteger a IA de código aberto contra o uso indevido em potencial?
Abordar adequadamente essas questões nos ajudará a criar um futuro em que a IA seja uma ferramenta inclusiva para todos. Iremos enfrentar o desafio e garantir que a IA sirva ao bem maior? Ou deixaremos que ela se torne outra ferramenta desagradável de exclusão e controle? O futuro está em nossas mãos.
Mais uma coisa! Agora estamos nos Canais do WhatsApp! Siga-nos lá para não perder nenhuma atualização do mundo da tecnologia. Para seguir o canal HT Tech no WhatsApp, clique aqui para se juntar agora!