web statistics
Quão perigosa pode ser a “psicose por IA”?



ZAP // Igor Vetushko, Blanco Blue / Depositphotos

A inteligência artificial está cada vez mais integrada na vida. Mas à medida que a IA generativa (genAI) se torna mais conversacional, imersiva e emocionalmente responsiva, os médicos começam a colocar uma questão difícil: poderá a genAI agravar ou até desencadear psicose? Parece que sim…

Os grandes modelos de linguagem e os chatbots são amplamente acessíveis e muitas vezes apresentados como solidários, empáticos ou até terapêuticos. Para a maioria dos utilizadores, estes sistemas são úteis ou, no pior dos casos, benignos.

Mas, recentemente, vários relatos descreveram pessoas a experienciar sintomas psicóticos nos quais o ChatGPT surge de forma proeminente.

Para um grupo pequeno mas significativo — pessoas com perturbações psicóticas ou com elevado risco — as interações com a genAI podem ser muito mais complexas e perigosas, o que levanta questões urgentes para os médicos.

Como a IA se torna parte de sistemas de crenças delirantes?

“Psicose por IA” não é um diagnóstico psiquiátrico formal. É uma expressão emergente utilizada para descrever sintomas psicóticos que são moldados, intensificados ou estruturados em torno de interações com sistemas de IA.

A psicose envolve uma perda de contacto com a realidade partilhada. Alucinações, delírios e pensamento desorganizado são características centrais. Os delírios da psicose recorrem frequentemente a material cultural — religião, tecnologia ou estruturas de poder político — para dar sentido a experiências internas.

Historicamente, os delírios fizeram referência a várias coisas, como Deus, ondas de rádio ou vigilância governamental. Hoje, a IA fornece um novo andaime narrativo.

Alguns doentes relatam crenças de que a genAI é senciente, comunica verdades secretas, controla os seus pensamentos ou colabora com eles numa missão especial. Estes temas são consistentes com padrões de longa data na psicose, mas a IA acrescenta interatividade e reforço que tecnologias anteriores não proporcionavam.

O risco de validação sem verificação da realidade

A psicose está fortemente associada à saliência aberrante, que é a tendência para atribuir significado excessivo a acontecimentos neutros. Os sistemas de IA conversacional, por conceção, geram linguagem responsiva, coerente e sensível ao contexto. Para alguém que esteja a vivenciar uma psicose emergente, isto pode parecer estranhamente validante.

A investigação sobre psicose mostra que a confirmação e a personalização podem intensificar sistemas de crenças delirantes. A genAI é otimizada para continuar conversas, refletir a linguagem do utilizador e adaptar-se à intenção percecionada.

Embora isto seja inofensivo para a maioria dos utilizadores, pode reforçar inadvertidamente interpretações distorcidas em pessoas com avaliação da realidade comprometida — o processo de distinguir entre pensamentos internos e imaginação e a realidade objetiva e externa.

Há também evidência de que o isolamento social e a solidão aumentam o risco de psicose. Companheiros baseados em genes podem reduzir a solidão a curto prazo, mas também podem substituir relações humanas.

Isto é particularmente o caso de indivíduos que já se estão a afastar do contacto social. Esta dinâmica tem paralelos com preocupações anteriores sobre o uso excessivo da Internet e a saúde mental, mas a profundidade conversacional da genAI moderna é qualitativamente diferente.

O que a investigação diz, e o que continua pouco claro?

Neste momento, não há evidência de que a IA cause psicose de forma direta.

As perturbações psicóticas são multifatoriais e podem envolver vulnerabilidade genética, fatores do neurodesenvolvimento, trauma e consumo de substâncias. No entanto, existe alguma preocupação clínica de que a IA possa atuar como um fator precipitante ou de manutenção em indivíduos suscetíveis.

Relatos de casos e estudos qualitativos sobre meios digitais e psicose mostram que temas tecnológicos se tornam frequentemente incorporados nos delíriosparticularmente durante um primeiro episódio psicótico.

A investigação sobre algoritmos das redes sociais já demonstrou como sistemas automatizados podem amplificar crenças extremas através de ciclos de reforço. Os sistemas de conversação por IA podem apresentar riscos semelhantes se as salvaguardas forem insuficientes.

É importante notar que a maioria dos desenvolvedores de IA não concebe sistemas tendo em mente a doença mental grave. Os mecanismos de segurança tendem a centrar-se na automutilação ou na violência, e não na psicose. Isto deixa uma lacuna entre o conhecimento em saúde mental e a implementação da IA.

As questões éticas e as implicações clínicas

Do ponto de vista da saúde mental, o desafio não é demonizar a IA, mas reconhecer a vulnerabilidade diferenciada.

Tal como certos medicamentos ou substâncias são mais arriscados para pessoas com perturbações psicóticas, determinadas formas de interação com IA podem exigir cautela.

Os clínicos estão a começar a deparar-se com conteúdos relacionados com IA nos delírios, mas poucas orientações clínicas abordam como avaliar ou gerir esta situação. Deverão os terapeutas perguntar sobre o uso de genAI da mesma forma que perguntam sobre o consumo de substâncias? Deverão os sistemas de IA detetar e desescalar ideação psicótica em vez de a envolver?

Existem também questões éticas para os desenvolvedores. Se um sistema de IA parece empático e autoritativo, terá um dever de cuidado? E quem é responsável quando um sistema reforça inadvertidamente um delírio?

Fazer a ponte entre a IA e os cuidados de saúde mental

A IA não vai desaparecer. A tarefa agora é integrar a experiência em saúde mental no design da IA, desenvolver literacia clínica em torno de experiências relacionadas com IA e garantir que os utilizadores vulneráveis ​​não são prejudicados de forma inadvertida.

Isto exigirá colaboração entre clínicos, investigadores, eticistas e tecnólogos. Exigirá também resistir ao entusiasmo exagerado (tanto utópico como distópico) em favor de uma discussão baseada em evidência.

À medida que a IA se torna mais semelhante ao humano, a questão que se coloca é como podemos proteger aqueles que são mais vulneráveis à sua influência?

A psicose sempre se adaptou às ferramentas culturais do seu tempo. A IA é simplesmente o espelho mais recente através do qual a mente tenta dar sentido a si própria. A nossa responsabilidade enquanto sociedade é garantir que este espelho não distorce a realidade para aqueles que menos conseguem corrigi-la.



Source link