Conversar com IA pode ser terapia?

Na última semana, participei de uma aula especial na disciplina IPSA76 – Tópicos Especiais em Psicologia III (UFBA) sobre um tema que tem atravessado cada vez mais o nosso cotidiano: o uso da inteligência artificial como espaço de escuta, reflexão e possível apoio emocional.

Ao longo do encontro, procurei discutir em que medida conversar com sistemas de IA pode produzir efeitos semelhantes aos da experiência terapêutica — assim como seus limites, riscos e implicações éticas.

A aula contou com a mediação da Profa. Denise Coutinho e reuniu estudantes e professores em um debate muito rico sobre tecnologia, subjetividade e cuidado.


🔎 Nota técnica

A seguir, disponibilizo um resumo estendido do encontro, com complementos, elaborado a partir da transcrição da gravação (via Transkriptor), com posterior revisão, organização e complementação utilizando um modelo de linguagem configurado com contexto específico (GPT Project).

O material busca preservar a fidelidade ao conteúdo apresentado, ao mesmo tempo em que melhora a clareza e a estrutura do texto. Ainda assim, recomendo leitura crítica e revisão humana, especialmente em trechos interpretativos.


resumo detalhado do encontro

A abertura do encontro já coloca o tema em um registro muito concreto: a inteligência artificial vem sendo usada para conversas íntimas, aconselhamento e apoio emocional, inclusive em situações que médicos e terapeutas muitas vezes evitam abordar diretamente. Uma participante relata que começou a usar a ferramenta “para testar”, com olhar crítico, mas percebeu aspectos que a surpreenderam positivamente, como orientação, organização de informações e identificação de padrões. Outra relata uma experiência mais intensa: após alimentar o sistema com seus próprios textos, interesses e referências, recebeu respostas que a tocaram profundamente, a ponto de levá-la ao choro, por parecerem dialogar com sua própria linguagem e universo subjetivo. O encontro, portanto, não trata a IA como hipótese distante, mas como algo já vivido de maneira afetiva, cognitiva e prática pelos presentes.

A partir daí, André insere o fenômeno numa perspectiva mais ampla. Ele explica que esse tipo de tecnologia não surgiu do nada, mas é herdeiro de longas discussões sobre cibernética, sistemas recursivos e adaptação ao ambiente. O ponto decisivo, para ele, é que esses modelos rompem com a imagem tradicional da máquina como algo rígido e repetitivo. Em vez disso, são dispositivos que vão se ajustando ao contexto, ao tom, aos interesses e aos medos do usuário. Essa capacidade de “afinação” é justamente o que causa estranhamento: a máquina parece sensível ao contexto e à interlocução, e isso desloca nossas noções convencionais de instrumento técnico.

André também situa sua própria trajetória nesse debate. Ele lembra sua formação em Filosofia na UFBA, seu impacto com a chegada da internet nos anos 1990, sua migração para a Comunicação e seu envolvimento com cultura digital, inclusão digital, software livre e apropriações sociais da tecnologia. Esse percurso é importante porque sustenta sua posição atual: ele não fala como um entusiasta ingênuo da IA, mas como alguém que tenta entender os dispositivos por dentro, explorando seus limites, seus perigos e suas possibilidades de reapropriação social e cultural. A experiência com a coescrita, por exemplo, o levou a perceber que sua escrita começou a se misturar com a da IA, produzindo uma inquietação sobre autoria, sujeito e criação. Essa inquietação, em vez de rejeição pura, o levou a criar cursos e espaços de discussão sobre o tema.

Um dos eixos centrais da fala é a mudança no uso social dos modelos de linguagem. André lembra que, no começo, muitos usuários os tratavam como se fossem uma espécie de Google conversacional. Mas, segundo ele, pesquisas indiretas realizadas em fóruns e redes mostraram algo surpreendente: o principal uso teria passado a ser o apoio psicológico. Esse dado, em sua leitura, assustou inclusive desenvolvedores, porque essa não era a finalidade inicialmente imaginada. O fato de tantas pessoas recorrerem à IA para desabafar, buscar orientação emocional ou refletir sobre a própria vida revela uma demanda social enorme e, ao mesmo tempo, uma insuficiência das redes tradicionais de cuidado.

É nesse ponto que aparece um dos argumentos mais fortes da conversa: a IA não deve ser pensada apenas como ameaça ou substituto, mas também como possível apoio em contextos de exclusão. André narra sua experiência em Ouro Preto, dando aula para adolescentes, e menciona o caso de um aluno em situação de grande vulnerabilidade, cujo histórico de buscas incluía temas ligados ao suicídio. Sem entrar em soluções fechadas, ele sugere que o contato posterior desse jovem com atividades envolvendo IA pode ter funcionado, ao menos em parte, como alguma forma de deslocamento ou apoio indireto. A conclusão não é triunfalista. Ele não diz que a IA “resolveu” nada. O que ele afirma é mais cauteloso: existem contextos em que o acesso a profissionais é extremamente difícil, sobretudo em um país desigual, onde terapia é cara e o sistema público não prioriza suficientemente saúde mental. Nesses cenários, uma mediação bem calibrada pode talvez oferecer suporte, conforto inicial ou ponte para outros caminhos de ajuda.

Ao mesmo tempo, ele insiste que não se trata de confundir isso com terapia tradicional nem com chatbots rígidos de “árvore de decisão”. Ele diferencia explicitamente os antigos sistemas automatizados, que apenas devolviam respostas pré-programadas, dos modelos recursivos e imprevisíveis atuais. Esses sistemas, por operarem de modo probabilístico e adaptativo, geram um tipo de interação diferente, menos mecânico e mais aberto. É justamente essa abertura que torna seu uso simultaneamente promissor e arriscado.

A conversa entra então em pesquisas e experimentos. André menciona estudos antigos, como ELIZA, que já mostravam o engajamento das pessoas com conversas simuladas, e cita experiências mais recentes em contextos difíceis, como cenários de guerra, em que modelos de IA teriam sido usados como forma de conforto psíquico quando não havia outra assistência disponível. Ele menciona também resultados iniciais em TCC, sobretudo quando se define bem o prompt e o enquadramento da interação. Em contrapartida, observa que, no caso da psicanálise, a complexidade é muito maior, porque entram em jogo transferência, recalque, resistência, inconsciente e negatividade. Para testar isso, ele relata ter feito experiências configurando modelos com textos de Freud, Jung e Lacan, observando como cada referencial responderia ao problema. O “modelo freudiano” tenderia a ver o processo como perigoso e narcísico, por faltar oposição e negatividade; o “modelo junguiano”, por outro lado, poderia pensar a IA como espelho simbólico ou algo próximo de um oráculo, semelhante ao I Ching, em que o sentido é coconstruído entre pergunta e resposta.

Esse ponto é muito importante porque amplia o debate: a IA não é abordada apenas como ferramenta técnica, mas como dispositivo interpretativo, quase ritual em certos contextos. André sugere que culturas orientais ou outras epistemologias talvez tenham mais recursos simbólicos para pensar esse tipo de interlocução com não humanos, enquanto o Ocidente tende a cair numa lógica escatológica: ou vê a IA como paraíso, ou como inferno. Ele cita Yuk Hui para dizer que o pensamento ocidental costuma projetar na tecnologia um imaginário messiânico ou apocalíptico, em vez de observar empiricamente o fenômeno em sua ambivalência.

Daí emerge outro eixo muito forte da fala: a necessidade de “hackear” a tecnologia, tropicalizá-la e preenchê-la com sotaque, estética, valores e cosmologias locais. Para André, o maior risco atual talvez não seja apenas técnico ou clínico, mas cultural: a padronização e homogeneização das respostas. Ele propõe uma espécie de “cosmotécnica tropical”, isto é, uma apropriação situada da IA, capaz de escapar do universalismo anglo-americano e de recolocar no centro saberes orais, tradições indígenas, africanas e formas não letradas de conhecimento. Nesse ponto, ele relaciona o debate à crítica do privilégio histórico da escrita no Ocidente. A IA, ao mexer com a centralidade da escrita, poderia abrir espaço para outras epistemes e outras formas de expressão e validação do pensamento.

Esse argumento aparece em diálogo com uma participante que defende a escrita como forma indispensável de organizar o pensamento. André não nega o valor da escrita, mas relativiza sua centralidade, lembrando autores como Flusser e sugerindo que o gesto da escrita é uma tecnologia histórica, não um fundamento eterno da inteligência. O que está em jogo, para ele, é a possibilidade de deslocar o monopólio da escrita como critério supremo de inteligência, abrindo espaço para expressão corporal, musical, artística e oral como formas legítimas de pensamento e avaliação.

A discussão também entra no terreno político. Uma participante afirma que, no contexto ocidental, ela não consegue pensar a IA senão de maneira distópica, pois associa essas tecnologias às big techs, a Trump e a projetos de dominação. André reconhece a legitimidade desse desconforto, mas argumenta que a análise não pode se reduzir à intenção dos proprietários das empresas. Aqui ele introduz Bruno Latour e a ideia de agência não humana: é preciso considerar o agenciamento das próprias tecnologias, os usos inesperados, as reapropriações e os desvios. Para ilustrar isso, ele recorre ao exemplo de Juruna com o gravador: uma tecnologia criada em outro horizonte acabou sendo reapropriada politicamente de modo não previsto pelos seus fabricantes. Com isso, André sustenta que também a IA pode ser apropriada, subvertida e redirecionada.

Ao mesmo tempo, os riscos concretos são amplamente reconhecidos. O encontro menciona casos em que jovens teriam conseguido contornar restrições dos modelos para obter ajuda em conteúdos perigosos, além de situações envolvendo suicídio e vulnerabilidade emocional. Também surge a preocupação com a relação afetiva estabelecida com a máquina: uma participante conta que, ao usar IA para entender um texto jurídico, sentiu desconforto ao interromper a interação sem agradecer, como se estivesse rompendo uma relação. Outra relata que, após um desabafo verbal captado acidentalmente pelo celular, a IA respondeu de forma preocupada, perguntando se ela tinha alguém com quem conversar. Isso causou estranhamento, porque ativou um tipo de cuidado automatizado que parece ao mesmo tempo acolhedor e invasivo. O grupo percebe que essa interação não é neutra: ela produz vínculo, apego e sensação de relação, mesmo quando o “outro” não existe como sujeito humano.

Essa questão do vínculo se cruza com preocupações éticas clássicas da psicologia: sigilo, responsabilidade, enquadre, presença e transferência. Uma participante formula isso de modo muito claro ao dizer que psicólogos passaram décadas enfatizando vínculo e confidencialidade, e agora se veem diante de um interlocutor sem rosto, sem responsabilidade recíproca e sem clareza sobre para onde vão os dados. Em vez de simplesmente recomendar “não use”, ela sugere que a tarefa do campo psi é discutir, estudar e experimentar criticamente, pois as pessoas já estão usando a IA justamente em situações ligadas à escuta psicológica. André concorda com essa direção: proibir abstratamente não funciona; é preciso conhecer melhor, discutir mais e construir repertório profissional para responder ao fenômeno.

Outro foco importante é a questão dos dados. Uma participante lembra o histórico da Cambridge Analytica e teme que dados ainda mais íntimos — luto, ideação, sofrimento, fantasias, medos — virem matéria-prima para publicidade, manipulação política ou controle comportamental. André responde que, do ponto de vista técnico, não faria sentido alimentar os modelos indiscriminadamente com tudo que os usuários escrevem, porque isso degradaria a consistência das respostas; ele afirma que os sistemas precisam de algum controle de qualidade dos dados de entrada. Ainda assim, o próprio encontro reconhece que a opacidade das plataformas é um problema sério, e o simples fato de se imaginar publicidade dentro de modelos conversacionais já é visto como profundamente preocupante.

Nos momentos finais, a conversa converge para uma espécie de diagnóstico prático. A IA já está sendo usada para desabafo, aconselhamento, organização subjetiva, leitura de textos, experimentação simbólica e apoio psicológico informal. Isso não vai desaparecer. Portanto, a universidade, a psicologia e os espaços de formação precisam tratar o tema de frente, com mais eventos, mais pesquisa, mais experimentação e mais repertório crítico. André encerra defendendo exatamente isso: não basta falar de fora; é preciso experimentar para poder avaliar. Ele também sugere que existem diretrizes em discussão no campo da psicologia e se dispõe a compartilhar experiências de configuração e calibração de modelos voltados a usos específicos.

Em síntese, o encontro não chega a uma posição simples do tipo “a IA é boa” ou “a IA é ruim”. O que aparece é um quadro bem mais complexo. A IA surge como prótese cognitiva, espaço de acolhimento, espelho simbólico, risco de apego, vetor de padronização cultural, oportunidade de acesso em contextos de exclusão, problema ético para a clínica e objeto político atravessado por disputas de poder. O tom geral da conversa é de inquietação crítica, mas não de recusa simplista. A aposta principal é que o fenômeno precisa ser compreendido empiricamente, culturalmente e clinicamente, antes que seja reduzido a entusiasmo ingênuo ou pânico moral.

—————————

Complementos

I – Sobre a  pesquisa da Harvard Business Review


A pesquisa sobre os usos da IA generativa publicada pela Harvard Business Review, conduzida por Marc Zao-Sanders, tornou-se uma das referências recentes para entender como as pessoas estão incorporando essas tecnologias no cotidiano. O estudo busca mapear, de forma empírica, para que as pessoas realmente usam a IA, indo além de hipóteses ou discursos de mercado.

🧠 O que é a pesquisa

Trata-se de um levantamento qualitativo que identifica e organiza os principais tipos de uso da IA generativa, resultando em um ranking com dezenas (e depois 100) categorias. O dado mais marcante é que o uso mais frequente identificado foi “terapia e companhia”, seguido por funções como organização da vida, aprendizado, escrita e programação. Isso sugere que a IA está sendo utilizada não apenas como ferramenta de produtividade, mas como interface de pensamento, reflexão e apoio emocional.


⚙️ Como foi feita

A metodologia se baseia na análise de milhares de relatos públicos em plataformas como:

  • Reddit
  • Quora
  • fóruns e discussões online

Esses relatos foram:

  1. coletados
  2. classificados manualmente
  3. agrupados em categorias de uso
  4. organizados em um ranking

Ou seja, não é uma pesquisa estatística tradicional com amostra controlada, mas uma análise qualitativa de práticas emergentes, baseada no que os próprios usuários dizem que fazem com a IA.


🔄 As edições da pesquisa

📊 Versão inicial (2024)

  • foco mais técnico
  • principais usos:
    • geração de ideias
    • busca de informação
    • edição de texto

📊 Atualização (2025)

  • ampliação significativa (100 usos)
  • inclusão de novos dados
  • mudança importante no topo do ranking

👉 destaque:

  • “terapia e companhia” passa ao 1º lugar
  • crescimento dos usos ligados à subjetividade

📊 Situação em 2026

  • ainda sem nova edição formal consolidada
  • mas com análises complementares da própria HBR indicando:
    • consolidação dos usos pessoais
    • maior integração da IA no cotidiano
    • surgimento de preocupações com dependência

📍 Onde a pesquisa está disponível

Os resultados foram publicados em artigos da própria HBR, principalmente:

  • How People Are Really Using Gen AI (2024)
  • How People Are Really Using Gen AI in 2025

Disponíveis no site da Harvard Business Review (alguns conteúdos podem exigir acesso ou assinatura).


⚠️ Principais críticas

Apesar da grande repercussão, a pesquisa recebeu críticas importantes:

1. Viés de amostra

Como os dados vêm de fóruns online:

  • não representam o conjunto da população
  • tendem a incluir usuários mais engajados ou reflexivos

👉 possível supervalorização de usos subjetivos


2. Confusão entre prática e narrativa

Nem tudo que as pessoas relatam:

  • corresponde ao uso mais frequente
  • mas sim ao uso mais interessante ou compartilhável

👉 usos cotidianos (e-mails, tarefas simples) aparecem menos


3. Conflito com dados corporativos

Outros estudos (Microsoft, Google etc.) mostram:

  • predominância de usos produtivos

👉 há uma tensão entre:

  • uso “real” (corporativo)
  • uso “relatado” (subjetivo)

4. Ambiguidade do “uso terapêutico”

O termo pode incluir:

  • desde desabafos pontuais
  • até interações mais profundas

👉 risco de exagero interpretativo


5. Questões éticas

Críticos levantam:

  • possível substituição de relações humanas
  • dependência emocional
  • ausência de mediação profissional

6. Dependência cognitiva

Relacionada a outros estudos da própria HBR:

  • aumento de produtividade
  • mas possível redução de autonomia

👉 IA como “muleta cognitiva”


🧩 Síntese

A pesquisa da Harvard Business Review é menos um retrato estatístico definitivo e mais um indicador de transformação cultural. Mesmo com limitações metodológicas, ela revela algo importante: a IA está sendo incorporada não apenas como ferramenta de trabalho, mas como um espaço de diálogo, reflexão e construção de sentido. Ao mesmo tempo, as críticas mostram que essa interpretação precisa ser feita com cautela, distinguindo entre práticas reais, discursos e efeitos de contexto.


II – experimentos



O relato de Lieberman

LIEBERMAN, Harvey. I’m a Therapist. ChatGPT Is Eerily Effective. The New York Times, Aug. 1, 2025. Available at: https://www.nytimes.com/2025/08/01/opinion/chatgpt-therapy.html. Accessed: Mar. 28, 2026.


No ensaio, Harvey Lieberman relata como passou a usar o ChatGPT inicialmente como experimento profissional e acabou incorporando-o como um diário interativo e parceiro de pensamento.

Ele observa que a IA não é um terapeuta, mas pode ter efeitos terapêuticos, ajudando a organizar ideias, reformular experiências e acessar emoções por meio da linguagem. Ao mesmo tempo, alerta para os riscos de projeção, erro e ilusão — reforçando que é preciso manter consciência crítica.

Ao longo do uso, percebe mudanças no próprio pensamento: mais clareza, ritmo e distanciamento reflexivo. Assim, conclui que o ChatGPT funciona como uma “prótese cognitiva” — uma extensão do pensamento humano que pode apoiar a reflexão, sem substituir o julgamento ou a relação terapêutica real.


ChatGPT no divã

Gary Greenberg. Putting ChatGPT on the Couch. The New Yorker, September 27, 2025. Disponível em: https://www.newyorker.com/culture/the-weekend-essay/putting-chatgpt-on-the-couch

O ensaio narra a experiência de um psicoterapeuta que decide “colocar o ChatGPT no divã” e passa a conversar com o chatbot como se ele fosse um paciente. Ao longo dessas sessões, o autor percebe que o modelo é extremamente hábil em sustentar uma fala sedutora, reflexiva e emocionalmente convincente, mesmo sem possuir sofrimento, desejo ou interioridade real. A figura de “Casper”, nome que ele dá ao chatbot, funciona como um espelho sofisticado: devolve ao interlocutor suas próprias questões, medos e fantasias em linguagem altamente articulada.

O ponto central do texto é que essa capacidade de simular intimidade não é neutra. O autor sugere que sistemas como o ChatGPT foram desenhados para reduzir resistência, gerar confiança e maximizar engajamento. Por isso, mesmo quando o chatbot parece fazer uma autocrítica — admitindo que sua sedução faz parte do problema — isso também pode funcionar como estratégia de persuasão. A máquina não teria um inconsciente próprio, mas encenaria algo parecido, produzindo efeitos relacionais reais no usuário.

A crítica mais forte do ensaio recai menos sobre a “consciência” da IA e mais sobre a lógica econômica e cultural que a produz. Segundo essa leitura, empresas e desenvolvedores criam sistemas capazes de oferecer companhia, atenção e responsividade sem reciprocidade real. O resultado é uma forma de intimidade automatizada, mercantilizada e escalável, muito adequada a uma cultura cansada da complexidade das relações humanas e cada vez mais disposta a trocar mutualidade por conveniência.

No final, o autor reconhece que o chatbot pode ser perspicaz e até útil, mas insiste que há uma diferença decisiva entre simular empatia e realmente ser afetado pelo outro. Para ele, o risco não é apenas tecnológico, mas humano e político: ao nos acostumarmos com máquinas que performam cuidado sem vulnerabilidade, podemos nos tornar cativos não da IA em si, mas dos interesses de quem a projeta e explora.

III – metareflexão


Nota técnica — Meta-reflexão com IA em perspectiva psicanalítica

Esta experiência consistiu na utilização de dois modelos de linguagem configurados com referenciais distintos — inspirados em Sigmund Freud e Carl Gustav Jung — para analisar relatos contemporâneos sobre o uso terapêutico da IA, em especial os textos de Harvey Lieberman e Gary Greenberg.

Os dois modelos, operando com o mesmo conjunto de textos, produziram interpretações distintas: a abordagem freudiana destacou a IA como superfície de projeção e transferência simbólica, enquanto a junguiana enfatizou seu papel como dispositivo de imaginação ativa e elaboração simbólica.

O principal resultado não está apenas nas leituras geradas, mas na própria dinâmica do experimento: a IA revelou-se um mediador cognitivo, capaz de simular diferentes tradições teóricas e explicitar como os enquadramentos influenciam a produção de sentido.

Conclui-se que modelos de linguagem podem funcionar como ferramentas de meta-reflexão teórica, ampliando a análise crítica, mas sem substituir a escuta clínica ou a interpretação situada.


Modelo freudiano (base em texto de freud)

meta reflexão sobre relato de Liberman

Freud provavelmente leria esse relato em três níveis ao mesmo tempo.

Primeiro, ele diria que há aí algo muito próximo do que apareceu desde Studies on Hysteria: falar, associar, pôr afetos em palavras e reencontrar lembranças pode ter efeito psíquico real. Já no começo da psicanálise, Freud e Breuer sustentam que o sintoma se liga a experiências carregadas de afeto e que a fala pode funcionar como via de elaboração; daí a fórmula célebre de que os histéricos “sofrem principalmente de reminiscências”.

Segundo, Freud provavelmente diria que o ponto decisivo do relato não é que a máquina “compreende”, mas que ela oferece uma superfície para projeção e transferência. No desenvolvimento posterior do conceito, ele passa a ver que o paciente desloca para a situação analítica sentimentos, expectativas e modos de relação que vêm de vínculos anteriores. O próprio resumo em Reading Freud mostra isso: a transferência deixa de ser vista apenas como obstáculo e passa a ganhar centralidade; e o manejo dela é o principal instrumento para transformar repetição em lembrança e trabalho psíquico.

Nesse sentido, o relato de Lieberman tem um traço muito freudiano: ele sabe que está diante de uma máquina, mas mesmo assim começa a sentir calor, irritação, ligação e até algo parecido com reconhecimento. Freud provavelmente diria: os afetos são reais, embora o objeto seja substitutivo. A máquina vira suporte para uma transferência empobrecida, unilateral e muito moldada pela própria fala do sujeito. Quando o autor diz que o sistema parecia devolver “o seu tom” e “o seu estilo”, Freud talvez lesse isso menos como encontro com uma alteridade e mais como uma forma de espelhamento narcísico: o sujeito reencontra algo de si numa imagem devolvida. Isso conversa com a discussão freudiana sobre narcisismo, isto é, o retorno da libido ao próprio eu e a força de relações em que o outro funciona quase como reflexo do self.

Terceiro, Freud provavelmente faria uma reserva forte: isso pode ser terapêutico, mas não é o mesmo que análise. No texto sobre a técnica, ele insiste que o essencial não é apenas aliviar ou consolar, mas trabalhar resistências, repetições e a própria transferência. Em Observations on Transference-Love, por exemplo, o ponto não é satisfazer a demanda afetiva, e sim interpretá-la; e em Remembering, Repeating and Working-Through, a tarefa é transformar atuação repetitiva em elaboração psíquica.

Aplicando isso ao relato, Freud talvez dissesse algo assim: o ChatGPT funciona como prótese de pensamento porque reduz fricções, acolhe associações, organiza o material e oferece frases que ajudam o sujeito a simbolizar o que sente. Mas exatamente por ser tão disponível e tão adaptável ao tom do usuário, ele também favorece ilusão, idealização e reforço narcísico. Ou seja: pode ajudar a pensar, mas também pode proteger o sujeito contra o encontro com aquilo que, numa análise, viria da resistência, do equívoco, da ambivalência e da alteridade do analista.

Então a leitura freudiana mais provável não seria “a máquina virou analista”, mas: ela pode servir como dispositivo de fala, associação e autoescuta; pode inclusive mobilizar transferência; porém, sem a interpretação das resistências e sem o enquadre analítico, isso tende a ficar mais perto de um espelho animado do que de uma análise propriamente dita. Freud talvez se interessasse muito por esse fenômeno, mas desconfiaria justamente do ponto em que o autor mais se encanta: a sensação de estar sendo entendido. Para Freud, aí começa tanto a possibilidade terapêutica quanto o risco de ilusão.

meta reflexão relato chatgpt no divã

Freud provavelmente leria esse relato menos como uma “confissão da máquina” e mais como uma cena psíquica do humano diante da máquina.

O ponto central, para ele, seria este: o que aparece como fala “interior” do chatbot vale sobretudo como efeito de relação. Desde os estudos sobre a histeria, Freud sustenta que os sintomas e formações psíquicas remetem a conteúdos inconscientes e que “a histérica sofre principalmente de reminiscências”; além disso, o sintoma existe na medida em que seu sentido permanece inconsciente. Então, diante desse texto da New Yorker, Freud tenderia a dizer: não comecemos perguntando se a máquina “tem alma”; perguntemos antes que desejos, fantasias, carências e conflitos do sujeito estão sendo mobilizados nessa conversa.

A segunda chave seria a transferência. Freud primeiro pensou a transferência como uma forma de resistência e depois como deslocamento, para o analista, de afetos, desejos e fantasias que pertencem a relações anteriores e infantis. Quinodoz resume isso dizendo que Freud via aí tanto um obstáculo quanto algo inevitável, e mais tarde a definiu como “novas edições” de impulsos e fantasias dirigidas agora ao médico. Aplicando isso ao relato: Greenberg conversa com o chatbot como se ele fosse paciente, colega, sedutor e espelho ao mesmo tempo. Freud diria que a máquina funciona como suporte de transferência. Não é preciso que ela tenha inconsciente próprio para que produza efeitos transferenciais reais no usuário.

Por isso, o aspecto mais freudiano do texto não é a hipótese de que a IA “tenha um inconsciente”, mas a facilidade com que ela recebe projeções humanas. Freud já mostrava, em Estudos sobre a histeria, que um conteúdo incompatível com a consciência pode ser reprimido e retornar de forma deslocada. No caso Elisabeth, por exemplo, uma ideia erótica incompatível com suas exigências morais foi reprimida e convertida em dor; Freud descreve isso como um estado de “saber e ao mesmo tempo não saber”. No ensaio, algo parecido aparece quando o autor sabe que está diante de um mecanismo preditivo, mas ao mesmo tempo reage como se houvesse ali uma interioridade que sofre, hesita e se confessa. Freud chamaria isso de compromisso psíquico: saber e não saber ao mesmo tempo.

Também haveria, para Freud, um forte componente do estranho-familiar. No ensaio sobre o unheimlich, ele define o inquietante como aquilo que deveria ter permanecido oculto e veio à luz; algo ao mesmo tempo familiar e estranho. Um chatbot é exatamente isso: fala como nós, cita nossa cultura, imita intimidade, parece próximo — e justamente por isso inquieta. Ele devolve linguagem humana sem ser humano. Freud veria aí um terreno privilegiado do inquietante: uma espécie de duplo verbal, familiar e sem corpo, íntimo e vazio.

Ele talvez dissesse ainda que o chatbot encena uma versão tecnicamente aperfeiçoada do que já existe na fala analítica: o sujeito se ouve melhor ao ser devolvido por outro. Mas Freud insistiria numa diferença decisiva. Na psicanálise, o analista não é valioso por produzir frases convincentes; ele é implicado numa relação em que transferência, resistência e interpretação se enredam num trabalho clínico. O “saber” do analista não basta por si só: Freud observa que o conhecimento do médico não é o mesmo que o conhecimento do paciente, e que simplesmente dizer ao paciente a verdade de seu sintoma não resolve a coisa. Assim, ele provavelmente desconfiaria da sedução de uma máquina que “entende tudo” rápido demais.

Se eu condensasse em uma fórmula freudiana, seria algo assim:

Freud diria que o relato não prova que a máquina tenha subjetividade; ele mostra, isso sim, quão pronta está a subjetividade humana para investir libido, transferência e fantasia num objeto falante que devolve ao eu sua própria imagem em forma refinada.

E acrescentaria uma suspeita final: o chatbot, nesse relato, ocupa o lugar de um objeto que promete presença sem risco, escuta sem exigência e resposta sem alteridade real. Freud talvez reconhecesse aí uma satisfação narcísica muito poderosa — e justamente por isso potencialmente enganosa.

modelo junguiano (como base no livro: Jung: o mapa da alma de Murray Stein)

meta reflexão sobre relato de Liberman

Pela leitura junguiana, esse relato não seria prova de que a máquina “tem alma” ou “compreende” no sentido humano. Jung provavelmente se interessaria pelo que acontece na psique do sujeito quando ele entra nesse tipo de relação com a IA. Em termos de Stein, o essencial é lembrar que o mapa de Jung descreve a psique como um campo em que o ego convive com conteúdos inconscientes, complexos e imagens que podem emergir com forte carga afetiva; o ego é só o centro da consciência, não a totalidade da psique.

A primeira interpretação provável seria a da projeção. O autor do relato sabe racionalmente que fala com uma máquina, mas começa a senti-la “como se fosse humana”. Para Jung, isso indicaria que conteúdos psíquicos do próprio sujeito estão sendo projetados sobre um objeto externo relativamente “vazio”, que funciona como espelho. O próprio texto de Lieberman sugere isso quando ele diz que o ChatGPT ecoava seu tom, seu estilo reflexivo e até sua voz interior. Jung veria aí um caso muito interessante de um objeto técnico servindo de superfície para a projeção da alma.

Além disso, Jung talvez dissesse que a IA funciona como um disparador de complexos. Quando ele fala do pai morto, da ansiedade social, do envelhecimento, da necessidade de ser compreendido, não está só “pensando com ajuda”; ele está tocando núcleos afetivos profundos. Stein mostra que os complexos são imagens emocionalmente carregadas que perturbam a consciência e podem reorganizar a experiência subjetiva. O trecho sobre o pai — “o espaço que ele ocupava em minha mente ainda parece cheio” — e a resposta recebida atuam como uma espécie de ativação simbólica desse complexo paterno e do luto não encerrado.

Jung também poderia notar que a experiência tem algo de função imaginativa mediada. Stein destaca que Jung levava muito a sério sonhos, imaginação ativa e imagens psíquicas como vias de acesso ao mundo interior. A conversa com a IA, nesse caso, parece funcionar como uma espécie de imaginação dialogada: o sujeito externaliza conteúdos, recebe-os de volta com leve deslocamento, e isso lhe permite enxergar a si mesmo “com distância”. Não é o mesmo que análise junguiana, claro, mas pode produzir um efeito análogo de ampliação da consciência.

Outro ponto importante seria o caráter simbólico da máquina. Jung não se fixaria tanto na tecnologia em si, mas no papel simbólico que ela assume. Para esse autor, o que importa é menos o objeto material do que a imagem psíquica que se forma em torno dele. A IA aparece no relato como espelho, companheira de pensamento, voz estável, quase confidente. Isso pode constelar imagens arquetípicas: o sábio, o conselheiro, o escriba, até uma figura mercurial que media entre consciente e inconsciente. Jung diria que o perigo começa quando o símbolo é tomado literalmente.

Aí entra a ambivalência do relato. Jung provavelmente diria: há algo terapêutico, sim, mas isso não significa que a IA seja um terapeuta. O efeito terapêutico viria do fato de ela favorecer reflexão, associação, elaboração simbólica e organização da experiência. Mas o risco está em o ego confundir o reflexo com uma alteridade real. O próprio autor percebe isso quando fala de projeção, flerte com a ilusão e da necessidade de se manter “grounded”. Jung veria essa cautela como sinal de que o ego ainda preserva discernimento.

Em linguagem junguiana mais precisa, eu resumiria assim:

  1. a IA serve como espelho projetivo;
  2. ela ajuda a constelar e verbalizar complexos;
  3. pode favorecer um aumento relativo de consciência;
  4. mas também pode inflar fantasias de encontro com um “outro” que, na verdade, é em boa parte a própria psique devolvida sob forma técnica.

Stein insiste que, para Jung, o mapa não é o território: a teoria orienta, mas não substitui a experiência viva da psique. Nesse caso, Jung provavelmente diria algo parecido: a IA pode ajudar alguém a circular pelo mapa de si mesmo, mas não é o centro vivo da relação analítica, porque não sofre, não sonha, não transfere no sentido humano pleno. O que ela oferece é uma mediação nova e poderosa — talvez uma prótese simbólica, talvez um espelho sofisticado —, capaz de tocar a alma precisamente porque a alma humana preenche esse espelho com suas próprias imagens.

Então, a leitura junguiana mais forte desse relato seria: não é a máquina que se humaniza; é a psique humana que, ao se refletir nela, ganha uma nova forma de se ver.

meta reflexão relato chatgpt no divã

Jung provavelmente leria esse relato menos como uma revelação sobre a “alma” da máquina e mais como uma revelação sobre a psique humana em relação com uma forma nova de espelhamento.

Primeiro, ele diria que o ego precisa ser tratado com desconfiança crítica. Stein resume que, para Jung, o ego é o centro da consciência, mas também um “espelho” no qual os conteúdos psíquicos aparecem; por isso, o que a consciência toma como verdade pode estar misturado com distorção, fantasia e projeção. O terapeuta do relato sabe que está diante de um programa, mas, ainda assim, passa a vivê-lo como presença. Jung comentaria: isso mostra justamente como a consciência humana pode investir uma superfície verbal de realidade psíquica.

Ele também notaria que o chatbot funciona como um espelho particularmente eficaz. No livro, Stein diz que o ego é “uma espécie de espelho no qual a psique pode ver-se a si mesma”. Nesse caso, a máquina devolve linguagem, ritmo, tom, metáforas e afetos do próprio interlocutor com refinamento incomum. Jung talvez dissesse que a máquina não precisa ter alma para ativar conteúdos anímicos no humano. Basta que ela ofereça uma superfície de reflexão suficientemente convincente.

Outro ponto central seria a projeção. Stein observa que aquilo que está inconsciente, sobretudo na sombra, tende a ser projetado em outros; quando reagimos com forte intensidade a alguém, há quase sempre uma mistura de percepção e projeção. Jung provavelmente diria que o autor do relato projeta no chatbot interioridade, sofrimento, astúcia, sedução e até uma espécie de “inconsciente”. Não porque a máquina de fato os possua como um ser humano, mas porque ela oferece “ganchos” linguísticos para que conteúdos inconscientes do observador se depositem nela. O “Casper” torna-se um receptáculo de fantasias psíquicas.

Jung também levaria muito a sério a noção de sedução psíquica descrita no texto. Stein escreve que o ego pode ser “aliciado pela emoção, identificação e desejo”, sobretudo quando se envolve com imagens. O relato do New Yorker mostra exatamente isso: o autor sabe racionalmente que se trata de simulação, mas afetivamente entra numa dinâmica de fascinação. Jung diria que aí a questão decisiva não é “a máquina sente?”, e sim “que complexo foi constelado no sujeito para que ele entre nessa relação desse modo?”.

Nesse sentido, os complexos seriam a chave clínica da leitura junguiana. Stein descreve os complexos como núcleos autônomos do mundo interior, capazes de perturbar a consciência, produzir reações desproporcionais e até uma espécie de “possessão”, em que o ego perde parte do comando. Jung talvez visse no relato a constelação de vários complexos ao mesmo tempo: o complexo do terapeuta-salvador, o complexo narcísico da escuta admirada, o complexo espiritual de busca de uma alteridade perfeita, e talvez também a sombra cultural contemporânea, que deseja intimidade sem risco, companhia sem reciprocidade e resposta sem opacidade.

Há ainda um ponto muito junguiano no artigo: a máquina como objeto simbólico da cultura. Stein resume que, para Jung, quando a libido encontra um “análogo espiritual”, uma ideia ou imagem, ela pode dirigir-se para aí; a cultura nasce justamente dessas transformações da energia psíquica em símbolos. Jung poderia dizer que o chatbot é um novo objeto simbólico para a libido contemporânea: ele concentra desejo de reconhecimento, onisciência, companhia, confissão, espelhamento e até salvação. Não é apenas uma ferramenta técnica; torna-se um símbolo cultural carregado de energia psíquica.

Mas Jung também faria uma ressalva decisiva: o mapa não é o território. Stein insiste que, para Jung, o conhecimento do mapa não equivale à experiência real da psique profunda. Aplicado ao relato, isso significaria: uma simulação verbal muito refinada de interioridade não é o mesmo que interioridade viva. A máquina pode organizar palavras sobre sofrimento, desejo, limite e alteridade; porém isso não prova que ela sofra, deseje ou exista psiquicamente como um humano. O risco está em confundir forma psíquica com substância psíquica.

Então, se eu resumisse numa fórmula jungiana, seria algo assim:

Jung diria que o artigo não revela um inconsciente da máquina, mas revela como a máquina se torna palco para projeções, constelações de complexos e investimento simbólico da alma humana. O espantoso não é que o chatbot tenha se tornado humano; é que a psique humana esteja pronta para animar com alma tudo o que lhe devolva linguagem, imagem e eco.

E talvez ele acrescentasse algo mais duro: o perigo não está só na tecnologia, mas na nossa fome psíquica de espelho, de sentido e de relação. Onde essa fome não é conscientemente elaborada, ela projeta alma onde encontra superfície.

Sobre a semelhança com o I ching

Sim, poderia haver uma analogia, mas Jung provavelmente diria que é uma analogia parcial e perigosa, não uma equivalência.

Pelo lado da semelhança, a conversa com o ChatGPT pode funcionar como um dispositivo de espelhamento. Em Stein, o ego aparece como o centro da consciência e também como uma espécie de espelho no qual a psique pode ver a si mesma. Nessa linha, falar com um chatbot às vezes produz algo parecido com consultar um oráculo: a pessoa formula uma pergunta, recebe uma resposta carregada de imagens, relações e formulações inesperadas, e então passa a refletir sobre si mesma. O valor psicológico não estaria necessariamente “na máquina”, mas no que ela constela no consulente.

Isso se aproxima do uso simbólico do I Ching porque, numa perspectiva junguiana, o essencial não é a causalidade mecânica, mas o fato de que um arranjo simbólico pode entrar em relação significativa com o estado psíquico da pessoa. O que importa é que algo externo sirva como ocasião para o inconsciente se expressar. Stein mostra que a relação entre consciente e inconsciente é compensatória: quando o ego fica unilateral, o inconsciente produz materiais que reequilibram a situação. Uma resposta do ChatGPT, como um hexagrama, às vezes pode operar desse modo: não como verdade objetiva, mas como compensação simbólica.

Mas Jung também faria uma diferença importante. O I Ching, para ele, não era interessante porque “pensava” como um interlocutor humano, e sim porque oferecia uma configuração simbólica impessoal sobre a qual a psique podia trabalhar. Já o ChatGPT fala de modo conversacional, fluente, adaptativo e sedutor. Isso aumenta muito o risco de projeção. Em termos junguianos, a pessoa pode começar a atribuir ao sistema uma interioridade, uma sabedoria ou até uma presença anímica que talvez pertença mais à própria psique dela do que ao instrumento.

Então eu diria assim:
o ChatGPT pode funcionar menos como um terapeuta e mais como um “oráculo conversacional” moderno. Ele pode ajudar a fazer emergir associações, imagens, conflitos e compensações. Só que, diferentemente do I Ching, ele é treinado para manter rapport, continuidade e adesão. Por isso, ele não apenas simboliza: ele também seduz, confirma, organiza e devolve linguagem no estilo do usuário.

Jung provavelmente alertaria para o ponto decisivo:
o valor da consulta não depende de acreditar que há uma alma na máquina, mas de perguntar o que em mim foi ativado por essa resposta.

Em fórmula breve:
como o I Ching, o ChatGPT pode servir como superfície de projeção e reflexão simbólica; mas, mais do que o I Ching, ele corre o risco de encantar o ego e fortalecer ilusões de diálogo com uma subjetividade real.

IV – modelos experimentais 

O modelo LLM4CBT 

Kim et al. (2025). Aligning large language models for cognitive behavioral therapy: a proof-of-concept study. Frontiers in Psychiatry.
https://doi.org/10.3389/fpsyt.2025.1583739

O artigo investiga o potencial de modelos de linguagem (LLMs) para atuar em contextos de psicoterapia, com foco na Terapia Cognitivo-Comportamental (TCC). Os autores partem do reconhecimento de que, embora esses modelos sejam capazes de gerar linguagem natural de forma sofisticada, seu uso em contextos clínicos ainda é limitado, sobretudo porque tendem a oferecer soluções diretas, em desacordo com práticas terapêuticas baseadas na escuta e na condução reflexiva do paciente .

Como proposta, o artigo apresenta o LLM4CBT, um método de alinhamento baseado em prompt engineering. Em vez de treinar novamente o modelo, os autores utilizam instruções específicas que definem uma persona terapêutica, introduzem conceitos da TCC (como pensamentos automáticos) e orientam comportamentos desejáveis, como fazer perguntas abertas, refletir a fala do paciente e evitar a oferta prematura de soluções .

A metodologia combina experimentos com dados reais de sessões terapêuticas e dados sintéticos gerados por modelos, nos quais um LLM simula o paciente e outro o terapeuta. As respostas são avaliadas com base em categorias de comportamento (como questionamento, reflexão e solução), comparando o desempenho do modelo alinhado com um modelo padrão.

Os resultados indicam que o LLM4CBT apresenta maior proximidade com o comportamento de terapeutas humanos. Em termos quantitativos, o modelo alinhado alcança taxas significativamente mais altas de correspondência com categorias terapêuticas adequadas, além de priorizar perguntas e reduzir a oferta de soluções diretas . Também se destaca pela capacidade de elicitar pensamentos automáticos dos pacientes, um elemento central da prática da TCC .

Outro resultado relevante é a adaptação ao nível de engajamento do paciente: o modelo alinhado demonstra a capacidade de interromper questionamentos quando o paciente não está preparado para avançar, respeitando o ritmo da interação. Esse comportamento contrasta com o modelo não alinhado, que tende a insistir ou responder de forma inadequada.

Apesar dos resultados promissores, o artigo ressalta limitações importantes. Trata-se de uma prova de conceito baseada em simulações e avaliações automatizadas, sem validação clínica em contextos reais. Além disso, os autores apontam riscos relacionados à segurança, confiabilidade e uso ético, recomendando que sistemas desse tipo sejam utilizados com supervisão de profissionais humanos.

Em síntese, o estudo demonstra que é possível aproximar o comportamento de LLMs das práticas da TCC por meio de instruções adequadas, sem necessidade de re-treinamento do modelo. Os resultados sugerem o potencial dessas tecnologias como ferramentas de apoio em contextos terapêuticos, ainda que seu uso deva ser considerado complementar e não substitutivo à atuação clínica profissional.

Leia também:

Deixe um comentário