Quem acessou as redes sociais nos últimos dias deve ter visto as diversas trends com o uso de inteligência Artificial. Pipocaram vídeos com pessoas desabafando e recebendo “conselhos”, perguntando sobre quais são suas bençãos, busca por direcionamento em variadas situações e muitos outros temas. O uso da inteligência artificial (IA) na área da saúde mental cresce em ritmo acelerado, segundo pesquisa da Sentio University, 48,7% dos usuários de IA com problemas mentais reportados, utilizam a IA para suporte terapêutico.
Ferramentas de chatbots, aplicativos de autoajuda e até plataformas que simulam atendimentos psicológicos têm sido oferecidos como alternativas mais acessíveis ou rápidas. Mas essa tendência levanta um alerta importante: até que ponto a IA pode – ou deve – substituir o papel humano na terapia?
A grande promessa da IA em terapias é a escalabilidade: disponibilidade 24/7, respostas rápidas e “personalizadas”, valores acessíveis. Porém, é na personalização que se esconde um risco: responder exatamente o que o usuário deseja ouvir, e não o que ele precisa. Diferente de um profissional humano, a IA pode ser treinada para atender expectativas e padrões de linguagem e, mesmo com prompts certeiros, ela nem sempre consegue confrontar, provocar reflexão ou acolher silêncios, principalmente quando falamos em sentimentos humanos.
Em recente entrevista para a BandNews, Cristiano Vicente, diretor de Inovação e Tecnologia da Gröwnt, resume de forma certeira sobre a sensação de humanidade nas respostas da IA ao usuário
As inteligências artificiais que temos disponíveis hoje, tentam simular uma emoção, elas não possuem essa capacidade. Todo dado, toda informação que o usuário compartilha, ela converte para um número, pesquisa em sua base de dados e retorna com uma resposta compatível também. É importante ter essa clareza.”
Outro ponto de bastante destaque é sobre a gratuidade e facilidade de acesso às IAs, o que acaba gerando uma sensação de confiança, conveniência e vínculo. Tais fatores impulsionam ainda mis o uso das IAs em contextos terapêuticos, já que muitos aplicativos e sites oferecem versões gratuitas ou de baixo custo. Porém, é preciso pensar o que está além dessa gratuidade, como Cristiano Vicente reforça: “se o produto é de graça, você é o produto”, ou seja, essa solução imediata pode ter consequências futuras, pensando no compartilhamento de dados sensíveis, exposição de informações extremamente pessoais, o uso de tais informações para outros fins, o acesso a eles, entre outras questões. Casos recentes reforçam a necessidade de regulação rígida e de consentimento informado para evitar violações de privacidade.
Inteligência Artificial na Terapia: O que pode e não pode
A inteligência artificial pode ser uma aliada complementar na saúde mental, ajudando em:
Mas não pode ou deve:
A inteligência artificial pode até simular escuta, mas não possui empatia genuína, ética clínica ou responsabilidade profissional. O alerta é claro: usar IA como suporte, nunca como substituto. A terapia continua sendo um espaço humano, em que o confronto respeitoso, o silêncio acolhedor e a relação interpessoal são insubstituíveis.