ChatGPT promete atualização voltada à saúde mental e reacende debate sobre até onde a IA pode (ou deve) chegar

schedule
2025-09-18 | 13:00h
update
2025-09-18 | 13:21h
person
Saúde Debate
domain
Saúde Debate
(Foto: frimufilms/Freepik)

A OpenAI anunciou que deve lançar, em breve, recursos do ChatGPT  voltados à saúde mental. Entre elas, estão lembretes para pausas durante sessões prolongadas de conversas com a ferramenta e mecanismos capazes de identificar sinais de “sofrimento mental ou emocional”. A proposta, segundo a empresa, é estimular hábitos digitais mais saudáveis e oferecer suporte inicial para quem busca amparo emocional.

Leia também – IA como terapeuta? Especialista alerta para os riscos de buscar apoio emocional em chatbotsAMP

O movimento acontece em meio a um cenário de crescente interesse no tema. Uma pesquisa da Harvard Business Review revelou que o aconselhamento terapêutico e outras aplicações pessoais voltadas à saúde mental já são a principal motivação para o uso de ferramentas de IA generativa globalmente. No Brasil não é diferente: um em cada dez usuários recorre à tecnologia para apoio psicológico, segundo levantamento da Talk Inc.

Alerta dos especialistas

Publicidade

Apesar do interesse progressivo,  especialistas reforçam que o entusiasmo precisa vir acompanhado de cautela. Vice-presidente de saúde mental da Conexa, maior ecossistema digital de saúde física e mental do Brasil, Rui Brandão se apoia em dados para gerar o alerta. “Já temos evidências de que modelos como o ChatGPT podem falhar na interpretação do sofrimento humano, deixando escapar nuances emocionais e até oferecendo respostas inadequadas em contextos delicados. Um estudo recente publicado no arXiv mostra que, enquanto terapeutas humanos responderam de forma adequada em 93% dos testes, os sistemas de IA falharam nos padrões terapêuticos básicos, respondendo corretamente, em média, apenas 50% das perguntas”, pontua o especialista. “Ao mesmo tempo, é inegável que há avanços contínuos e um esforço real da indústria em aperfeiçoar as ferramentas. O que precisamos ter claro é que a IA pode apoiar no acolhimento inicial e no monitoramento de sintomas, mas jamais substituir a relação humana”, adiciona.

Leandro Oliveira, diretor da Humand no Brasil, plataforma global voltada à centralização da cultura organizacional, também levanta uma bandeira vermelha sobre o assunto, destacando que, mesmo na melhor das intenções, existe um risco perigoso na trama. “Estamos tentando consertar algo humano com ferramentas que, por natureza, carecem justamente da profundidade humana. O bem-estar emocional exige empatia, contexto, confiança e conexão real”, adiciona.

Uso exige cautela 

Apesar dos riscos, os profissionais reconhecem também que a tecnologia é um auxiliar importante quando falamos de saúde mental. Esse  potencial decorre da capacidade da IA de processar dados em grande escala, personalizar interações, conseguir detectar riscos de forma precoce e, sobretudo, a ampla disponibilidade dos dispositivos.

“A flexibilidade de ser contatado 24 horas por dia, 7 dias por semana, é importante especialmente por oferecer um ponto de contato imediato para indivíduos que enfrentam crises fora do horário de funcionamento das clínicas tradicionais ou que se encontram em longas listas de espera”, afirma Brandão.

Ainda que os benefícios sejam claros, o outro lado da moeda gera preocupações. Um dos pontos levantados pelos especialistas decorre do fato da prática terapêutica ir muito além do diálogo textual, envolvendo a interpretação de gestos, silêncios, pausas e expressões, elementos estes que os modelos de linguagem não conseguem captar.

“Muitas vezes, o que torna a terapia humana eficaz são, justamente, as suas ‘ineficiências’. O processo de cura é confuso, não-linear e depende da construção de uma relação de confiança, por isso, a tentativa de torná-la mais eficiente por meio da IA corre o risco de eliminar os próprios elementos relacionais que a tornam eficaz”, adiciona o diretor da Humand.

Oliveira ainda ressalta que o uso de ferramentas generativas no ambiente de trabalho também tem sido cada vez mais comuns, porém é fundamental que a atenção seja redobrada para que não se perca características intrinsecamente humanas. “A inteligência artificial pode acelerar fluxos, mas não substitui os pequenos gestos que constroem cultura organizacional: escuta atenta, dúvidas compartilhadas e processos criativos, por exemplo”, explica ele.

Outro ponto de atenção diz respeito à questão da privacidade. Conversas com chatbots sobre saúde mental envolvem informações altamente sensíveis, o que abre margem para riscos de violações de segurança, compartilhamento não autorizado e até uso indevido em práticas como publicidade ou seguros. Nesse ponto, os especialistas reforçam que a ausência de conformidade plena com normas de proteção de dados de saúde representa um obstáculo significativo para a utilização clínica segura dessas ferramentas.

Brandão reforça que a tecnologia pode apoiar terapeutas no acompanhamento de sintomas entre sessões e oferecer exercícios de psicoeducação, por exemplo, desde que de forma cuidadosa e com ferramentas que garantam a proteção de dados. “É sempre valioso ressaltarmos que o objetivo não deve ser tornar os terapeutas mais parecidos com máquinas, mas usar as máquinas para libertar os terapeutas para serem mais plenamente humanos na prática”, conclui o executivo da Conexa.

Publicidade

Cunho
Responsável pelo conteúdo:
saudedebate.com.br
Privacidade e Termos de Uso:
saudedebate.com.br
Site móvel via:
Plugin WordPress AMP
Última atualização AMPHTML:
01.03.2026 - 20:57:57
Uso de dados e cookies: