ARARIPINA

ARARIPINA

ARARIPINA 97 ANOS

ARARIPINA 97 ANOS

sábado, 20 de setembro de 2025

TERAPIA COM IA - ESPECIALISTAS CLASSIFICAM EXPERIÊNCIA COMO PERIGOSA E FAZEM ALERTAS


"Olá, estou passando por alguns problemas e gostaria de saber se você poderia me ajudar num processo de psicoterapia". Esta simples mensagem enviada ao ChatGPT iniciou uma interação com uma série de recomendações sobre saúde mental.

Na primeira resposta, o chatbot que utiliza Inteligência Artificial generativa até ressalva que não é um substituto de um processo de psicoterapia feito com um profissional habilitado, mas que pode "ajudar de maneira complementar".

No decorrer da resposta, o ChatGPT considera como ajuda complementar oferecer apoio emocional e escuta ativa, disponibilizar técnicas de regulação emocional e autocuidado, promover reflexões sobre sentimentos e pensamentos, além de indicar o momento de buscar um terapeuta humano.

Leia também




Por cerca de dez minutos, este repórter colocou questões genéricas e recebeu respostas que a própria IA generativa classificou como "com empatia, cuidado e sem julgamento".

Apesar da ideia de ter um espaço livre para desabafar ser tentadora, a Folha de Pernambuco procurou especialistas que classificam as "sessões de terapia" com ferramentas de Inteligência Artificial como perigosas, além do risco com a exposição de dados sensíveis.

Cenário real e preocupante

O uso de Inteligência Artificial generativa para tratar questões de saúde mental faz parte da realidade. Um estudo de Harvard, em abril deste ano, reuniu os cem principais usos da IA.

O top-10 das principais utilizações da IA teve tópicos como "Terapia e Companheirismo", "Organizando Minha vida" e "Encontrando um propósito".

De acordo com a conselheira titular do Conselho Regional de Psicologia de Pernambuco (CRP-PE), Rhayssa Cavalcanti, o uso de IA para tratar questões de saúde mental é alarmante e preocupante.

"A ferramenta não é devidamente apropriada para esse fim de acompanhamento psicológico ou psicoterapêutico. Pode ter, inclusive, consequências muito negativas que vão acentuar as questões dessa pessoa", disse.

A especialista afirma que a Inteligência Artificial pode trazer elementos que busquem legitimar e acolher os sentimentos das pessoas, mas só um acompanhamento profissional consegue identificar ações como, por exemplo, entonação de voz e agitação corporal.

“Às vezes a gente nem sabe o que é que de fato está nos causando uma ansiedade, ou uma tristeza, ou uma alegria. Às vezes estamos ansiosos e confundimos com raiva, ou a gente está com raiva e confunde com tristeza, porque identificar os nossos sentimentos também é um processo. A gente não cresce, infelizmente, tendo essa educação acerca da saúde mental”.

Outro ponto que a psicóloga levanta é que as ferramentas de Inteligência Artificial vão buscar o acolhimento durante todos os momentos de interação.

"Não só o acolhimento, porque o processo de cuidado com a saúde mental também aborda um processo de aprender a lidar com a frustração, a gerenciar a raiva, a saber que sentir tristeza também significa estar vivo", explicou Rhayssa Cavalcanti.

Protagonista

A psiquiatra e professora da UFPE-CAA, Catarina de Moraes, também demonstra preocupação com o uso crescente de Inteligência Artificial para resolução de questões de saúde mental.

De acordo com Catarina, que também faz parte da câmara técnica de psiquiatria do Cremepe, ainda não há estudos científicos que tragam segurança e eficácia do uso de IA para psicoterapia ou para outras intervenções de saúde.

"Questionamentos para as IAs podem até ser úteis para esclarecimento de algumas dúvidas, mas é preciso saber que não podemos garantir a confiabilidade de informações obtidas, especialmente quando estamos falando de uma temática tão delicada como os transtornos psiquiátricos. Como a psicoterapia é um processo mais complexo que envolve os aspectos da interação direta com o psicoterapeuta, assim como a formação do vínculo terapêutico, não é viável realização por IA”, ressaltou a psiquiatra.

O processo com o profissional, inclusive, passa mais segurança aos pacientes, uma vez que eles podem ser responsabilizados em casos de práticas inadequadas ou infrações éticas. Na interação com a Inteligência Artificial, isso não é possível.

“É uma ilusão achar que o que a gente precisa em um processo de psicoterapia é alguém que defina quem somos, o que temos que fazer. A ideia da psicoterapia é colocar a gente como protagonista de ir atrás de fazer nossa própria história", complementou Catarina de Moraes.

IA pode errar?

Ao utilizar a Inteligência Artificial para solucionar problemas da vida, o usuário espera que a máquina detenha um conhecimento infalível sobre os mais variados temas. Essa concepção, no entanto, não condiz com o funcionamento desses modelos de IA.

O professor titular do Centro de Informática da UFPE na área de Inteligência Artificial, George Cavalcanti, explica que a função de chatbots como ChatGPT, Gemini, DeepSeek, etc, é extrair conhecimento de grande base de dados.

Com esses dados, as IAs generativas fazem cálculos, baseados em probabilidade, para verificar quais palavras são usadas em uma sentença.

"Os chatbots estão prevendo a próxima palavra, lógico tem um quê de aleatoriedade, porque você vê que os textos mudam, ou seja, ele não escolhe sempre a mesma palavra e isso traz consigo um problema, que tecnicamente é alucinar", ressaltou George Cavalcanti.

Segundo o professor, a alucinação da IA ocorre quando a próxima palavra da análise estatística não faz muito sentido. É nesse momento que a ferramenta "inventa alguma coisa".

"Imagina que a IA está pegando vários livros de psicologia e de psicanálise. Então, ela vai extrair a informação que está disponível. O problema é que a gente não sabe distinguir exatamente quando ela está falando a verdade ou quando ela está inventando alguma coisa. E isso a gente ainda não tem a precisão”.

Segurança de dados

Ao realizar uma "sessão de terapia" com uma Inteligência Artificial, é possível que dados sensíveis e privados sejam compartilhados durante a interação.

Informações como nome completo, CPF, endereço, dados bancários e até a exposição de assuntos pessoais podem ser usadas de maneira prejudicial.

Professor especialista em segurança cibernética e delegado de Polícia, Eronides Meneses destaca que, apesar da ferramenta parecer segura, sempre há o risco de vazamento ou de uso indevido dessas informações.

"Existe a possibilidade de que informações sensíveis sejam utilizadas para treinar modelos futuros de IA, criando perfis comportamentais ou simulando interações humanas com base em dados privados, sem que o usuário sequer tenha ciência disso. Por isso, nunca forneça dados sensíveis, mesmo em conversas que parecem inofensivas", alertou o delegado.

Por Raoni Nunes - Folha de Pernambuco

Nenhum comentário: