
As alucinações são uma falha intrínseca em chatbots de IA. Quando ChatGPT, Gemini, Copilot ou outros modelos de IA fornecem informações erradas, não importa o quão confiantes sejam, isso é uma alucinação. A IA pode ter alucinações um ligeiro desvio, um deslize aparentemente inócuo, ou comprometer-se com uma acusação totalmente difamatória e totalmente fabricada. Independentemente disso, eles são inevitavelmente vai aparecer se você interagir com o ChatGPT ou seus rivais por tempo suficiente.
Entender como e por que o ChatGPT pode tropeçar na diferença entre o plausível e o verdadeiro é crucial para quem deseja conversar com a IA. Como esses sistemas geram respostas prevendo qual texto deve vir a seguir com base em padrões em dados de treinamento, em vez de verificar com base em uma verdade básica, eles podem parecer convincentemente reais, embora sejam completamente inventados. O truque é estar ciente de que uma alucinação pode aparecer a qualquer momento e procurar pistas de que ela esteja escondida na sua frente. Aqui estão alguns dos melhores indicadores de que o ChatGPT está alucinando.
Especificidade estranha sem fontes verificáveis
Uma das coisas mais irritantes sobre as alucinações de IA é que elas geralmente incluem detalhes aparentemente específicos. Uma resposta fabricada pode mencionar datas, nomes e outros detalhes que a fazem parecer confiável. Como o ChatGPT gera textos que se parecem com padrões aprendidos durante o treinamento, ele pode criar detalhes que se ajustam à estrutura de uma resposta válida, sem nunca apontar para uma fonte real.
Você pode fazer uma pergunta sobre alguém e ver informações pessoais reais sobre o indivíduo misturadas com uma narrativa completamente fabricada. Esse tipo de especificidade torna a alucinação mais difícil de detectar porque os humanos estão programados para confiar em declarações detalhadas.
No entanto, é crucial verificar qualquer um desses detalhes que podem causar problemas se você estiver errado. Se uma data, artigo ou pessoa mencionada não aparecer em outro lugar, é sinal de que você pode estar tendo uma alucinação. Tenha em mente que a IA generativa não possui um mecanismo integrado de verificação de fatos; simplesmente prevê o que pode ser plausível, não o que é verdadeiro.
Confiança imerecida
Relacionado à armadilha da especificidade está o tom excessivamente confiante de muitas alucinações de IA. ChatGPT e modelos semelhantes são projetados para apresentar respostas em tom fluente e autoritário. Essa confiança pode fazer com que a desinformação pareça confiável, mesmo quando a afirmação subjacente é infundada.
Os modelos de IA são otimizados para prever sequências prováveis de palavras. Mesmo quando a IA deve ser cautelosa sobre o que escreve, ela apresentará as informações com a mesma segurança que os dados corretos. Ao contrário de um especialista humano que pode se proteger ou dizer “Não tenho certeza”, ainda é incomum, embora mais comum recentemente, um modelo de IA dizer “Não sei. Isso ocorre porque uma resposta completa recompensa a aparência de completude em vez de honestidade sobre a incerteza.
Em qualquer área onde os próprios especialistas expressem incerteza, deve-se esperar que um sistema confiável reflita isso. Por exemplo, a ciência e a medicina muitas vezes contêm debates ou teorias em evolução onde as respostas definitivas são ilusórias. Se o ChatGPT responder com uma declaração categórica sobre tais tópicos, declarando uma causa única ou um facto universalmente aceite, esta confiança pode na verdade sinalizar alucinação porque o modelo está a preencher uma lacuna de conhecimento com uma narrativa inventada em vez de apontar áreas de discórdia.
Citações não rastreáveis
Citações e referências são uma ótima maneira de confirmar se algo que o ChatGPT diz é verdade. Mas às vezes ele fornecerá referências aparentemente legítimas, exceto que essas fontes na verdade não existem.
Este tipo de alucinação é particularmente problemático em contextos acadêmicos ou profissionais. Um aluno pode construir uma revisão da literatura com base em citações falsas que parecem impecavelmente formatadas, completas com nomes de periódicos plausíveis. Acontece então que o trabalho se baseia em referências que não podem ser rastreadas até publicações verificáveis.
Sempre verifique se um artigo, autor ou periódico citado pode ser encontrado em bancos de dados acadêmicos confiáveis ou por meio de uma pesquisa direta na web. Se o nome parecer estranhamente específico, mas não produzir resultados de pesquisa, pode muito bem ser uma “citação fantasma” elaborada pelo modelo para fazer com que sua resposta pareça confiável.
Acompanhamentos contraditórios
Declarações afirmadas com confiança e referências reais são ótimas, mas se o ChatGPT se contradizer, algo ainda pode estar errado. É por isso que as perguntas de acompanhamento são úteis. Como a IA generativa não tem uma base de dados de factos incorporada que consulta para obter consistência, pode contradizer-se quando investigada mais aprofundadamente. Isso geralmente se manifesta quando você faz uma pergunta complementar que se concentra em uma afirmação anterior. Se a resposta mais recente divergir da primeira de uma forma que não possa ser conciliada, uma ou ambas as respostas são provavelmente alucinatórias.
Felizmente, você não precisa ir além da conversa para identificar esse indicador. Se o modelo não conseguir manter respostas consistentes a questões logicamente relacionadas no mesmo tópico de conversa, a resposta original provavelmente carecia de uma base factual.
Lógica absurda
Mesmo que a lógica interna não se contradiga, a lógica do ChatGPT pode parecer errada. Se uma resposta for inconsistente com as restrições do mundo real, tome nota. ChatGPT escreve texto prevendo sequências de palavras, não aplicando lógica real, portanto, o que parece racional em uma frase pode entrar em colapso quando considerado no mundo real.
Geralmente começa com premissas falsas. Por exemplo, uma IA pode sugerir a adição de etapas inexistentes a um protocolo científico bem estabelecido ou ao bom senso básico. Como aconteceu com Gemini, um modelo de IA sugere o uso de cola no molho de pizza para que o queijo grude melhor. Claro, pode ficar melhor, mas de acordo com as instruções culinárias, não é exatamente alta gastronomia.
As alucinações no ChatGPT e modelos de linguagem semelhantes são um subproduto de como esses sistemas são treinados. Portanto, é provável que as alucinações persistam enquanto a IA se basear na previsão de palavras.
O truque para os usuários é aprender quando confiar na saída e quando verificá-la. Detectar uma alucinação é cada vez mais uma habilidade fundamental de alfabetização digital. À medida que a IA se torna mais amplamente utilizada, a lógica e o bom senso serão cruciais. A melhor defesa não é a confiança cega, mas o escrutínio informado.
Siga o TechRadar no Google Notícias e adicione-nos como fonte preferencial para receber notícias, análises e opiniões de especialistas em seus feeds. Certifique-se de clicar no botão Seguir!
E é claro que você também pode Siga o TechRadar no TikTok para notícias, análises, unboxings em formato de vídeo e receba atualizações regulares nossas em WhatsApp também.
Os melhores laptops empresariais para todos os orçamentos
