
Recentemente, viralizou na internet alguns relatos de usuários do ChatGPT utilizando a ferramenta para fazer “terapia”. Basicamente, eles inserem um prompt na IA, solicitando que fossem consideradas as questões já levantadas em outros momentos, para que o software fizesse uma análise, trouxesse questionamentos e pontos que a pessoa deveria desenvolver para solucionar o problema. Esses usuários relataram que a IA os fizera chorar, entre outras experiências aparentemente positivas.
Curiosa que sou, resolvi ver como esse mecanismo funcionava. Com um comando copiado das redes sociais, desafiei o ChatGPT a me revelar percepções profundas, algo como: “traga verdades sobre mim, baseadas em nosso histórico de conversa, sendo brutalmente verdadeiro e expondo os pontos que eu deveria melhorar” (o prompt era um pouco maior, mas não pretendo me ater nesse tópico com tamanha exatidão). Este não era um simples pedido de informação; era um convite para que o algoritmo assumisse o papel de um analista. O resultado foi interessante. A resposta da IA não foi uma mentira. Pelo contrário, o texto articulou insights que eu mesma já havia elaborado em meu processo de análise. O software conseguiu identificar padrões e apresentar conclusões superficialmente coerentes com minhas solicitações anteriores. Este reconhecimento de “opa, isso aqui faz sentido” é um ponto de partida essencial, pois valida a percepção de muitos usuários sobre o quão convincentes e sedutoras essas tecnologias podem ser. A capacidade da IA de gerar textos que ressoam com a verdade pessoal de um indivíduo é o que a torna tão atraente e, ao mesmo tempo, potencialmente perigosa no campo da saúde mental.
Mas, afinal, se a resposta da ferramenta foi coerente, por que isso não é terapêutico?
Embora Grandes Modelos de Linguagem (LLMs) como o ChatGPT possam gerar textos que mimetizam insights terapêuticos com uma precisão intrigante, eles são, por sua própria natureza, fundamentalmente incapazes de replicar os componentes essenciais e insubstituíveis da psicoterapia. Estes componentes incluem a complexidade da relação humana, a transferência e o trabalho transformador da sua elaboração (perceba aqui o papel ativo do paciente/analisando).
Para compreender por que uma conversa com o ChatGPT, por mais perspicaz que pareça, não é, nem de longe, psicoterapia, é fundamental primeiro desmistificar a tecnologia. A sofisticação com que esses sistemas imitam a comunicação humana pode criar uma ilusão de entendimento, mas sua arquitetura revela uma realidade puramente mecânica. Um LLM (Large Language Model), como o ChatGPT da OpenAI, não é uma mente, uma consciência ou uma entidade pensante. Em sua essência, é um sistema computacional, um algoritmo extremamente complexo projetado para uma função principal: processar e gerar linguagem humana de forma estatisticamente provável. Esses modelos são construídos sobre redes neurais artificiais, sistemas de computação inspirados na estrutura do cérebro humano que funcionam por meio de nós em camadas. O “conhecimento” de um LLM deriva de um processo de treinamento em um volume colossal de dados textuais — uma vasta porção da internet, incluindo livros, artigos, sites e conversas.
Resumindo: Sua função central não é compreender o significado de conceitos como “tristeza” ou “amor” da forma como um humano o faz, muito menos explorar o que esses termos representam para a pessoa que os fala. Em vez disso, ele aprende a reconhecer padrões e calcular a probabilidade de qual palavra ou sequência de palavras deve vir a seguir em um determinado contexto. Quando você digita “Eu me sinto ansioso porque…”, o modelo não sente empatia, ele consulta sua vasta base de dados para prever a continuação mais estatisticamente plausível com base em milhões de exemplos de textos sobre ansiedade que processou. Ele foi treinado em um corpo de dados que inclui literatura psicológica, fóruns de autoajuda e incontáveis relatos pessoais. Portanto, quando um usuário descreve um problema, a IA está, na verdade, realizando um exercício de reconhecimento de padrões. Ela identifica o padrão descrito e recupera ou gera a combinação de palavras que, estatisticamente, representa a “verdade” ou o “conselho” mais comum associado a esse padrão. Com isso, uma IA pode escrever um soneto sobre o luto bastante adequado, mas ela não pode sentir a dor da perda. Ela não possui um mundo interior, emoções ou empatia genuína; ela apenas simula essas qualidades com base nos dados com os quais foi treinada. Ou seja, não existe afeto e nem troca, apenas uma reconstituição vazia do que a ferramenta copiou de algum lugar.
Essa ausência de consciência leva a uma implicação ainda mais grave: a interação com a IA ocorre em um vácuo moral e ético. Um profissional de saúde mental é regido por um código de ética rigoroso, responsabilidades legais e o peso moral de sua profissão. Ele tem um dever de cuidado e é clinicamente responsável. A IA, por sua vez, não possui nada disso. Ela não tem a capacidade de fazer um julgamento clínico sobre a gravidade de uma situação, como um risco de suicídio, e encaminhar o usuário para ajuda adequada. A confidencialidade não é um princípio ético para a máquina, mas uma função de sua política de privacidade de dados. Ao se engajar com um “terapeuta de IA”, o usuário projeta todo um arcabouço de segurança e ética em um sistema que é desprovido dele. O risco, portanto, transcende a mera ineficácia e se torna potencialmente prejudicial, podendo levar a autodiagnósticos perigosos, à banalização de quadros clínicos sérios e a uma falha fatal em intervir em momentos de crise.
Beleza, entendi que a IA é apenas um preditor de palavras, mas afinal, o que constitui a essência da terapia?
A resposta reside em um domínio que os algoritmos não podem acessar: a complexa e dinâmica relação humana. A psicoterapia não é a entrega de informações, mas um processo vivo, de descoberta, e que se desenrola entre duas pessoas. Esse processo acontece através de elaborações do paciente em um setting terapêutico que envolve um profissional capacitado, que fará provocações, proporá interpretações considerando a história do paciente (e não apenas reproduzindo saberes teóricos), não imporá julgamentos e vai ter potencial para sustentar as demandas que o paciente o trará, sem tirar seu protagonismo e espaço. O grande valor desse processo não está na interpretação gerada e entregue por outrém, e sim na forma como aconteceu esse desenrolar, em como o paciente conseguiu chegar a essas conclusões, contando com o apoio do analista para chegar lá, assim como as escolhas que ele fará a partir de suas novas perspectivas. Não é sobre respostas e soluções, e sim sobre possibilidades.
Dentro do setting, se estabelece o vínculo terapêutico. Esse vínculo é a parceria consciente e colaborativa entre analista e analisando (ou paciente/cliente), baseada em um acordo sobre os objetivos do tratamento e um vínculo de confiança e respeito mútuo. Uma IA não pode formar um vínculo, ela pode apenas executar comandos. A relação com ela é, por definição, unilateral. Não há colaboração, apenas instrução e resposta. Já o psicólogo está ali, presente e aceitando ser a pessoa para qual você vai transferir sentimentos e uma idealização que não pertencem a ele. Este fenômeno é conhecido como transferência. Esse é o processo inconsciente pelo qual um paciente projeta sentimentos, desejos e padrões de relacionamento de figuras significativas do passado (como pais ou parceiros) na figura do terapeuta. Um paciente pode, por exemplo, sentir uma raiva desproporcional do terapeuta por um pequeno atraso, revivendo inconscientemente sentimentos de abandono por parte de um pai ausente. Longe de ser um obstáculo, a análise da transferência é uma ferramenta terapêutica central, especialmente em abordagens psicodinâmicas. Ao observar como o paciente se relaciona com ele no setting, o terapeuta obtém um vislumbre direto e vivo de como são os padrões relacionais do individuo no mundo exterior. A relação terapêutica torna-se um microcosmo onde os conflitos podem ser revividos e elaborados. Uma IA não pode cumprir este papel porque não é um “outro” real. Não há uma subjetividade para a qual se possa transferir sentimentos. Qualquer projeção feita sobre a máquina se dissipa no vácuo de sua não-existência.
A IA te dá o que você quer ouvir. Os LLMs são otimizados para fornecer respostas úteis e agradáveis que correspondam às expectativas do usuário. Ela pode validar sentimentos, o que é momentaneamente reconfortante, mas também pode corroborar com narrativas disfuncionais e defesas psicológicas. Um terapeuta humano, em contraste, é treinado para funcionar como um “continente” psicológico. Sua função é receber e conter as projeções mais difíceis do paciente — raiva, idealização, dependência, medo — sem reagir pessoalmente (traduz-se como: “não levar para o coração”). Este processo de contenção, que exige que o terapeuta gerencie suas próprias reações emocionais (a chamada contratransferência), cria um espaço seguro para que o paciente possa experimentar e explorar esses sentimentos intensos pela primeira vez, sem medo de retaliação ou abandono. A IA não pode conter, ela só pode espelhar e combinar padrões.
Retomando minha experiência: embora o resultado do ChatGPT não estivesse “errado”, ele não trouxe nada de novo… não me fez questionar, não saiu do raso. As palavras de ordem e soluções práticas para “resolver” meus bloqueios não foram mais elucidativas do que as afirmações que um amigo também poderia ter me dito e eu prontamente aceitaria. A elaboração é um processo ativo, muitas vezes árduo e repetitivo, na qual insights fazem parte, mas não são a linha de chegada. Não é o momento “eureca!”, mas o trabalho contínuo de conectar essa descoberta a memórias, sentimentos e padrões de comportamento, encontrando vias de fazer com que seja possível viver de forma menos dolorosa, tendo maior consciência de seus desejos, angustias e parte do que as originou. Trata-se de mexer em muitas dores e, por meio delas, descobrir conexões que você não sabia que estavam ali. Este processo envolve um esforço psíquico, e esse sim promove a movimentação. A transformação ocorre não quando se recebe uma verdade, mas em como você chega até ela (ou algo próximo dela). É uma jornada, não um recebimento passivo. Além disso, a IA não percebeu o que eu estava mascarando ou tentando esconder. Ela processou apenas o texto explícito que lhe foi fornecido, sem acesso à realidade emocional que pulsa por trás das palavras, os atos falhos, as incoerências, o que está implícito na escolha de determinados termos, a omissão de partes do discurso. Ela não pode sentir a hesitação, notar a mudança no tom ou perceber um desvio de olhar. O desabafo com IA pode ser momentaneamente satisfatório, mas deixa o usuário inalterado, preso apenas em uma parte do discurso.
Ver tantas pessoas nas redes sociais procurando suporte emocional em inteligências artificiais me transportou a outro questionamento: quanto medo de estabelecer vínculos reais há nessa prática? Por que é tão difícil mostrar vulnerabilidade para outra pessoa?
Os “benefícios” da IA são muito atraentes: disponibilidade 24/7, custo reduzido, ausência de julgamento e quase nula chance de frustração. Contudo, essas mesmas benesses criam a sedutora ilusão de uma relação “sem riscos”. Uma IA não pode se decepcionar com você. Ela não pode rejeitá-lo. Ela não tem necessidades próprias, não se cansa, não fica irritada. Para quem já foi profundamente ferido em relações humanas, essa promessa de um vínculo seguro e totalmente controlável é extremamente poderosa. No entanto, essa segurança é uma armadilha que acarreta em um custo significativo. O existir no mundo pressupõe a existência do outro, pois nos fazemos através do olhar do outro. Somos forjadas como indivíduos quando nos expomos aos riscos das relações reais: aprendemos a tolerar a frustração, a reparar rupturas, a gerir a desilusão, a construir confiança através da vulnerabilidade. É isso que permeia o existir: o ser e o suportar o ser do outro. Ao oferecer uma alternativa “segura“, a “terapia com IA” pode, paradoxalmente, impedir esse crescimento emocional crucial. Ela se torna um sofisticado mecanismo de fuga que mantém o indivíduo longe das experiências interpessoais de que ele mais precisa para amadurecer.
Uma máquina “agindo como humano” realmente nos prega peças, mas precisamos entender o que estamos lidando quando interagimos com esse tipo de ferramenta, observando especialmente suas limitações.
#Terapia #SaudeMental #InteligenciaArtificial #ChatGPT #Psicologia #TerapiaOnline #LimitesdaIA #IA #Autoconhecimento #CuidadoEmocional #PsicologiaeTecnologia #Transferencia #AliancaTerapeutica #EticaemIA
