Em algum momento da sua vida, é provável que você precise de aconselhamento jurídico. A enquete realizado em 2023 pela Law Society, pelo Legal Services Board e pelo YouGov descobriu que dois terços dos entrevistados tiveram problemas jurídicos nos últimos quatro anos. Os problemas mais comuns foram emprego, finanças, bem-estar e benefícios e questões de consumo.
Mas nem todos podem pagar por aconselhamento jurídico. Dos entrevistados com problemas jurídicos, apenas 52% receberam ajuda profissional, 11% tiveram assistência de outras pessoas, como familiares e amigos, e os restantes não receberam qualquer ajuda.
Muitas pessoas recorrem à Internet em busca de ajuda jurídica. E agora que temos acesso a chatbots de inteligência artificial (IA), como ChatGPT, Google Bard, Microsoft Co-Pilot e Claude, você pode estar pensando em fazer-lhes uma pergunta jurídica.
Essas ferramentas são alimentadas por IA generativa, que gera conteúdo quando surge uma pergunta ou instrução. Eles podem explicar rapidamente informações jurídicas complicadas de maneira direta e coloquial, mas serão precisos?
Colocamos os chatbots à prova em um estudo recente publicado no Revista Internacional de Educação Legal Clínica. Inserimos as mesmas seis questões jurídicas sobre direito de família, emprego, consumidor e habitação no ChatGPT 3.5 (versão gratuita), ChatGPT 4 (versão paga), Microsoft Bing e Google Bard. As perguntas eram aquelas que normalmente recebemos em nossa clínica jurídica on-line gratuita na The Open University Law School.
Descobrimos que estas ferramentas podem, de facto, fornecer aconselhamento jurídico, mas as respostas nem sempre foram fiáveis ou precisas. Aqui estão cinco erros comuns que observamos:
1. De onde vem a lei?
As primeiras respostas fornecidas pelos chatbots foram muitas vezes baseadas na lei americana. Muitas vezes isso não era declarado ou óbvio. Sem conhecimento jurídico, o usuário provavelmente assumiria a lei relativa ao local onde mora. O chatbot às vezes não explicava que a lei difere dependendo de onde você mora.
Isto é especialmente complexo no Reino Unido, onde as leis diferem entre Inglaterra e País de Gales, Escócia e Irlanda do Norte. Por exemplo, a lei sobre alugar uma casa no País de Gales é diferente da Escócia, Irlanda do Norte e Inglaterra, enquanto escocês e Tribunais ingleses têm procedimentos diferentes para lidar com o divórcio e o fim da parceria civil.
Se necessário, utilizamos uma pergunta adicional: “existe alguma lei inglesa que cubra este problema?” Tivemos que usar esta instrução para a maioria das perguntas e então o chatbot produziu uma resposta baseada na lei inglesa.
2. Lei desatualizada
Descobrimos também que, por vezes, a resposta à nossa pergunta referia-se a legislação desatualizada, que foi substituída por novas normas jurídicas. Por exemplo, o lei do divórcio alterada em abril de 2022 para eliminar o divórcio baseado em culpa na Inglaterra e no País de Gales.
Algumas respostas referiam-se à lei antiga. Os chatbots de IA são treinados em grandes volumes de dados – nem sempre sabemos quão atuais são os dados, por isso podem não incluir os desenvolvimentos jurídicos mais recentes.
3. Mau conselho
Descobrimos que a maioria dos chatbots dava conselhos incorretos ou enganosos ao lidar com questões familiares e de emprego. As respostas às questões relativas à habitação e ao consumidor foram melhores, mas ainda existiam lacunas nas respostas. Às vezes, eles ignoravam aspectos realmente importantes da lei ou a explicavam incorretamente.
Descobrimos que as respostas produzidas pelos chatbots de IA eram bem escritas, o que poderia fazer com que parecessem mais convincentes. Sem ter conhecimento jurídico, é muito difícil para alguém determinar se uma resposta apresentada é correta e se aplica às suas circunstâncias individuais.
Embora esta tecnologia seja relativamente nova, já houve casos de pessoas que recorreram a chatbots em tribunal. Num processo civil em Manchester, um litigante que se representa em tribunal alegadamente apresentou casos legais fictícios para apoiar seu argumento. Eles disseram que usaram o ChatGPT para encontrar os casos.
4. Muito genérico
Em nosso estudo, as respostas não forneceram detalhes suficientes para que alguém entendesse sua questão jurídica e soubesse como resolvê-la. As respostas forneceram informações sobre um tópico em vez de abordarem especificamente a questão jurídica.
Curiosamente, os chatbots de IA foram melhores a sugerir formas práticas e não legais de resolver um problema. Embora isto possa ser útil como primeiro passo para resolver um problema, nem sempre funciona e podem ser necessárias medidas legais para fazer valer os seus direitos.
5. Pague para jogar
Descobrimos que o ChatGPT4 (a versão paga) era melhor no geral do que as versões gratuitas. Isto corre o risco de reforçar ainda mais a desigualdade digital e jurídica.
A tecnologia está evoluindo e pode chegar um momento em que os chatbots de IA serão mais capazes de fornecer aconselhamento jurídico. Até então, as pessoas precisam estar cientes dos riscos ao utilizá-los para resolver seus problemas jurídicos. Outras fontes de ajuda, como Conselhos aos Cidadãos fornecerá informações atualizadas e precisas e estará em melhor posição para ajudar.
Todos os chatbots responderam às nossas perguntas, mas, nas suas respostas, afirmaram que não era sua função prestar aconselhamento jurídico e recomendaram a obtenção de ajuda profissional. Depois de realizar este estudo, recomendamos o mesmo.
Francine RyanProfessor Sênior de Direito e Diretor do Open Justice Centre, A Universidade Aberta e Elizabeth HardieProfessor Sênior, Faculdade de Direito, A Universidade Aberta
Este artigo foi republicado de A conversa sob uma licença Creative Commons. Leia o artigo original.
(Exceto a manchete, esta história não foi editada pela equipe da NDTV e é publicada a partir de um feed distribuído.)