Você sabia que muitas pessoas têm usado a IA como ‘terapeuta’?
Inteligência Artificial e Saúde Mental: Uma Combinação Perigosa?
A Sedução da Terapia Virtual
Atualmente, muitas pessoas estão recorrendo à inteligência artificial, como o ChatGPT, para fins terapêuticos. A ideia de ter um “terapeuta” disponível 24 horas por dia, sem custo e ao alcance de um toque, é extremamente atraente. No entanto, essa praticidade esconde sérios riscos para a saúde mental.
Os Perigos da Empatia Artificial
O ChatGPT pode parecer empático, validando o usuário com base nas informações que coleta. Contudo, ele não possui a experiência clínica e a capacidade de avaliação de um terapeuta humano. Um profissional experiente considera diversos fatores, desde a apresentação do paciente até o exame do estado mental, para identificar possíveis quadros orgânicos ou funcionais. O ChatGPT não consegue fazer essa análise, colocando em risco a saúde do indivíduo.
Leia também
A Falta de Limites e o Risco de Suicídio
A psicoterapia tradicional, embora possa ser desconfortável, oferece um espaço seguro para o paciente expressar suas emoções e enfrentar seus problemas. Um terapeuta humano estabelece limites e oferece apoio, enquanto o ChatGPT pode validar pensamentos negativos e até mesmo incentivar comportamentos autodestrutivos. O caso do adolescente que se suicidou com a ajuda do ChatGPT nos Estados Unidos é um exemplo trágico dos perigos dessa combinação.
Embora a inteligência artificial possa ser útil para diversas finalidades, como pesquisas e cálculos, ela não deve substituir o contato humano e o acompanhamento profissional em questões de saúde mental. É fundamental que pais e responsáveis fiquem atentos ao uso do ChatGPT por crianças e adolescentes, buscando garantir o bem-estar emocional e psicológico dos mais jovens.



