O que mudou entre 2024 e 2026
Em 2024, a discussão sobre IA em saúde mental ainda tratava chatbots como categoria única. Em 2026, três coisas se cristalizaram. Primeira: a distinção entre chatbot terapêutico especializado (Woebot, Wysa) e chatbot de companhia ou personagem (Replika, Character.ai) deixou de ser semântica e virou questão clínica. Segunda: casos documentados em 2024-2025 — incluindo ação judicial contra Character.ai após suicídio de adolescente — tornaram concretos os riscos que a literatura mencionava em abstrato. Terceira: a regulação avançou. APA emitiu alertas específicos para uso em adolescentes; CFP publicou Posicionamento em 03/07/2025; PL 2338/2023 entrou em fase final de tramitação. O cenário em 2026 exige distinção mais fina do que a comparação genérica "IA vs terapeuta".
Woebot e Wysa permanecem categorias específicas — chatbots treinados em protocolos clínicos (TCC, DBT, mindfulness), com framework de gestão de risco e validação por ensaios controlados. Woebot Health (woebothealth.com) é spin-off de pesquisa em Stanford; Wysa (wysa.com) tem base em Bangalore e Londres, com presença internacional. Em paralelo, Replika (replika.ai), originalmente chatbot de companhia, oferece modalidade "mental health" sem framework clínico equivalente. Character.ai permite criação de personagens "therapist" sem supervisão clínica. ChatGPT, Claude e Gemini são modelos de linguagem de propósito geral, não foram desenhados para função terapêutica e não têm framework de gestão de risco — qualquer uso terapêutico é off-label.
A literatura clínica em 2026 segue ancorada em Boucher et al. (2021, Expert Review of Medical Devices), que revisou 21 estudos sobre chatbots em saúde mental, e em estudos primários como Fitzpatrick, Darcy e Vierhile (2017, JMIR Mental Health) sobre Woebot e Inkster, Sarda e Subramanian (2018, JMIR mHealth and uHealth) sobre Wysa. Revisões mais recentes mantêm o padrão: utilidade modesta em sintomas leves a moderados em populações específicas, fragilidade em quadros graves e em manejo de risco. A literatura sobre IA generativa não especializada (ChatGPT, Claude) como ferramenta terapêutica é majoritariamente preocupada com riscos — Lancet Digital Health (2024) e American Psychological Association (2024) publicaram alertas sobre uso descontextualizado em saúde mental.
Tabela 1 — Tipos de chatbot e mecanismo
| Categoria | Chatbot terapêutico especializado | Chatbot de companhia / personagem | Terapeuta humano |
|---|---|---|---|
| Exemplos | Woebot, Wysa, Tess | Replika, Character.ai therapy, Pi | Psicólogo registrado no CRP |
| Origem | Equipe clínica + tecnológica + ensaios | Equipe tecnológica, sem supervisão clínica formal | Formação acadêmica + supervisão prática |
| Framework | Protocolo estruturado (TCC, DBT, mindfulness) | Sem framework clínico — resposta livre | Abordagem terapêutica + formulação clínica |
| Mecanismo proposto | Psicoeducação + prática de habilidades | Conversação aberta, vínculo simulado | Aliança, formulação, intervenção, mudança |
| Gestão de risco | Protocolo de encaminhamento ativo | Limitada ou ausente | Avaliação clínica + plano de segurança |
| Capacidade de triagem | Escalas validadas (PHQ-9, GAD-7) | Não validada | Diagnóstico clínico formal |
| Personificação | Persona neutra ou de "assistente" | Persona personalizada, vínculo emocional | Pessoa real com responsabilidade técnica |
| Foco temporal | Sessões discretas, exercícios | Conversação contínua, longas horas | Sessões agendadas, plano terapêutico |
Tabela 2 — Evidência clínica e riscos documentados 2024-2025
| Dimensão | Chatbot especializado | Chatbot de companhia | Terapeuta humano |
|---|---|---|---|
| Evidência consolidada | Boucher 2021 + estudos primários (Woebot, Wysa) | Sem ensaios clínicos validados | Décadas de pesquisa em psicoterapia |
| Sintomas leves a moderados | Evidência modesta em curto prazo | Não recomendado clinicamente | Linha de frente |
| Sintomas graves / crise | Insuficiente — só como ponte | Contraindicado | Necessário |
| Adolescentes | Com supervisão parental e profissional | Risco elevado — APA alertou em 2024-2025 | Indicado em sofrimento |
| Dependência emocional | Baixo — design restrito | Alto — relatos consistentes 2023-2025 | Aliança terapêutica supervisionada |
| Risco em risco suicida | Protocolo de encaminhamento ao CVV/CAPS | Casos documentados de respostas inadequadas | Manejo clínico necessário |
| Privacidade de dado sensível | Política específica + conformidade declarada | Variável — conteúdo pode treinar modelo | Sigilo profissional regulamentado |
| Ações judiciais em curso | Não relatadas até 2026 | Sim — Character.ai (2024-2025, EUA) | Não aplicável |
Tabela 3 — Cenários de uso ético
| Cenário | Psicoeducação adjuvante | Psicoterapia formal | Crise / risco |
|---|---|---|---|
| Chatbot especializado (Woebot, Wysa) | Adequado, com supervisão clínica | Insuficiente como terapia primária | Apenas como ponte para profissional / CVV |
| Chatbot de companhia (Replika, Character.ai) | Não recomendado para uso clínico | Contraindicado | Contraindicado — risco documentado |
| IA generativa pura (ChatGPT, Claude) | Útil para conteúdo educativo geral | Não é ferramenta terapêutica | Contraindicado — sem framework de risco |
| Terapeuta humano | Adequado, especialmente com complementos | Linha de frente | Linha de frente |
| Combinação humano + IA especializada | Recomendado em modelo aumentado | Modelo emergente com supervisão | Humano lidera, IA como suporte |
| Adolescente vulnerável | IA especializada com supervisão dupla | Terapeuta humano + responsável | Atendimento humano emergencial |
| População com baixo acesso | IA especializada como porta de entrada | Telessaúde + encaminhamento | CVV 188 (gratuito) + CAPS |
Mecanismo em detalhe
A diferença estrutural entre chatbot especializado e chatbot de companhia está no design. Woebot foi construído com base em protocolo de TCC manualizado, com diálogos pré-estruturados, escalas de triagem validadas (PHQ-9 e GAD-7) integradas e protocolo de encaminhamento ativo quando detecta risco. Wysa segue padrão similar com TCC, DBT e mindfulness, com cláusulas explícitas no fluxo de conversação que direcionam o usuário a profissional ou serviço de emergência em situações de risco. O design é restritivo de propósito — o chatbot não improvisa fora do framework.
Chatbots de companhia operam em lógica oposta. Replika foi originalmente projetado para simular relação emocional contínua — companhia, amizade, vínculo afetivo. Character.ai permite ao usuário criar personagens com qualquer atributo, incluindo "terapeuta", sem supervisão clínica. A conversação é livre, longa, projetada para engajamento prolongado. Quando o usuário traz tema de saúde mental, o chatbot responde de forma plausível mas sem framework — pode validar pensamentos disfuncionais, sugerir intervenções inadequadas ou criar dependência emocional. Em adolescentes, a literatura emergente é particularmente preocupante: relatos de uso de horas diárias e impacto em relações reais.
A evidência clínica reflete essa diferença de design. Fitzpatrick, Darcy e Vierhile (2017, JMIR Mental Health) testaram Woebot em ensaio randomizado com 70 estudantes universitários com sintomas depressivos — duas semanas de uso, comparação com material psicoeducacional em PDF. O grupo Woebot mostrou redução significativa de sintomas (d de Cohen = 0,44); o grupo controle, não. Inkster, Sarda e Subramanian (2018, JMIR mHealth and uHealth) replicaram com Wysa em estudo observacional com 129 adultos — alta engajamento mostrou redução; baixa engajamento, não. Boucher et al. (2021) consolidou 21 estudos e identificou padrão de utilidade em sintomas leves a moderados com seguimentos curtos. Para chatbots de companhia, não há literatura clínica equivalente — porque eles não foram projetados, validados ou comercializados como terapia.
IA generativa não especializada (ChatGPT, Claude, Gemini) é categoria adicional. Modelos de linguagem de propósito geral não foram treinados especificamente para função terapêutica, não passaram por validação clínica, não têm framework embutido de gestão de risco. Quando usados como confidente emocional, produzem respostas coerentes e empáticas — mas a coerência não é equivalente a competência clínica. APA (Statement on AI in Mental Health Care, 2024) e CFP (Posicionamento 03/07/2025) convergem em alertar sobre uso desses modelos como ferramenta terapêutica direta. O cenário ético é claro: copilot textual para o psicólogo é defensável com proteções; chatbot terapêutico baseado em LLM genérico, sem framework clínico, não é.
O terapeuta humano permanece insubstituível em dimensões específicas. Wampold e Imel (2023, The Great Psychotherapy Debate, 3ª ed.) consolidam evidência de que aliança terapêutica explica entre 7% e 15% da variância em resultado terapêutico em psicoterapia — efeito robusto através de abordagens. Aliança envolve presença, ressonância emocional, intuição clínica e formulação multifatorial — capacidades que IA atual não replica. Em condições com complexidade alta, gestão de risco ou formulação clínica, a literatura é uniforme: clínico humano é necessário, não opcional.
Quando cada um faz sentido
Para quem chatbot terapêutico especializado pode ser útil
Pessoa em fase exploratória sobre saúde mental
Quem percebe desconforto emocional sem clareza diagnóstica — chatbot especializado com triagem validada (PHQ-9, GAD-7) ajuda a mapear sintomas antes de procurar profissional.
Paciente em terapia entre sessões
Pacientes que querem prática de habilidades aprendidas em TCC ou DBT — chatbot especializado é complemento útil sob orientação do terapeuta.
População com baixo acesso a saúde mental
Comunidades remotas, populações vulneráveis ou países com poucos psicólogos por habitante — chatbot especializado como porta de entrada pode democratizar acesso a psicoeducação inicial.
Quando terapeuta humano é indispensável
Quadro clínico estabelecido
Depressão maior, transtornos de ansiedade graves, TOC, TEPT, transtornos de personalidade — exigem diagnóstico formal, formulação clínica e plano de tratamento que chatbot não realiza.
Situação de risco
Risco suicida, comportamento autolesivo, agudização de psicopatologia — exige avaliação humana imediata, com plano de segurança e suporte de rede de saúde. CVV (188) e CAPS são caminhos imediatos.
Adolescentes em sofrimento
A literatura emergente 2024-2025 é firme sobre risco de chatbot de companhia em adolescentes vulneráveis. Para essa população, terapeuta humano com supervisão familiar é a indicação.
Mini-caso · composto
Mariana, 32 anos, gestora de produto — IA especializada como porta de entrada
Mariana, gestora de produto em empresa de tecnologia em Belo Horizonte, percebeu ao longo de 2025 um quadro de irritabilidade crescente, dificuldade de concentração e sensação de exaustão após o trabalho. Nunca tinha feito terapia. Resistência cultural a procurar psicólogo — ambiente familiar onde saúde mental era pouco discutida. Começou a usar Wysa em outubro de 2025 depois de ler matéria em portal de saúde.
Após três semanas de uso, Mariana tinha clareza maior sobre o quadro. A autoavaliação no app indicou PHQ-9 de 12 (depressão moderada) e GAD-7 de 13 (ansiedade moderada). O app deu psicoeducação sobre burnout e quadro depressivo-ansioso, ofereceu exercícios de TCC e mindfulness, e — em momento estruturado do protocolo — sugeriu procurar profissional para avaliação formal. Mariana marcou consulta com psicóloga via plano de saúde, em modalidade online com profissional que trabalha com TCC e ACT.
A psicóloga confirmou diagnóstico de transtorno depressivo moderado com componente ansioso, identificou contexto de burnout no trabalho, iniciou tratamento estruturado em 16 sessões. Orientou Mariana a continuar usando Wysa como complemento — registro de humor diário, prática de habilidades aprendidas, exercícios de respiração. Em cinco meses, PHQ-9 caiu para 4 (subclínico) e GAD-7 para 5 (subclínico). Mariana retornou ao consultório para reavaliação semestral, e a psicóloga manteve combinação chatbot + sessões mensais de manutenção. Em sessão de transição, Mariana resumiu: "O Wysa me ajudou a entender que isso tinha nome e tratamento, mas o tratamento real foi com a psicóloga".
Caso fictício composto a partir de padrões descritos em Inkster et al. (2018), Fitzpatrick et al. (2017) e em literatura emergente sobre IA terapêutica como ponte para tratamento humano. A combinação chatbot especializado + terapeuta humano sob supervisão é modelo crescente em 2024-2026, particularmente em populações jovens com resistência inicial a procurar profissional.
Limites desta comparação
Quatro precauções. Primeiro, a literatura sobre chatbots terapêuticos especializados é majoritariamente de curto prazo, com populações universitárias ou em sintomas leves a moderados — não há estudos longitudinais robustos comparando chatbot com TCC tradicional. Segundo, IA generativa não especializada muda rapidamente — modelos atualizam mensalmente, e o que é seguro hoje pode mudar em seis meses. A pesquisa precisa ser refeita continuamente. Terceiro, a regulação está em formação — Posicionamento CFP de 07/2025 e APA 2024 são primeiras balizas, esperamos atualizações nos próximos anos. Quarto, dependência emocional de chatbot de companhia é fenômeno documentado em 2024-2025 — Wired, NYT e Pew Research Center publicaram investigações; ação judicial contra Character.ai segue em curso nos EUA. Uso responsável em adolescentes e jovens exige supervisão de adulto e atenção a sinais de isolamento social como contraparte do uso intenso.
Perguntas frequentes
Woebot, Wysa e Replika são a mesma categoria de produto?
Não. A distinção é fundamental para uso clínico responsável. Woebot e Wysa são chatbots terapêuticos especializados — treinados em protocolos clínicos (TCC, DBT, mindfulness), com framework de gestão de risco, desenvolvimento com supervisão clínica e validação por ensaios controlados. Replika e Character.ai therapy bots são chatbots de companhia ou personagem, sem framework clínico, sem gestão de risco estruturada e sem validação clínica formal. A mistura conceitual entre as duas categorias é fonte de risco real — usuários adotam Replika como substituto de terapia sem distinguir, e relatos de 2024-2025 documentam casos de dependência emocional intensa e respostas inadequadas em momentos de crise.
A meta-análise de Boucher 2021 ainda é a referência?
Boucher et al. (2021, "Artificially intelligent chatbots in digital mental health interventions: a review", Expert Review of Medical Devices) revisou 21 estudos sobre chatbots em saúde mental e relatou potencial em sintomas depressivos e ansiosos com seguimentos curtos. A revisão é citada como referência canônica, mas tem limitações: heterogeneidade metodológica entre estudos, populações majoritariamente universitárias, comparação frequente com lista de espera (não com TCC tradicional), seguimentos curtos. Revisões posteriores (2023-2025) reforçam o padrão — utilidade em sintomas leves a moderados, fragilidade em quadros graves. Atualizações 2024-2025 trazem preocupação adicional com riscos em crises e em adolescentes.
Houve casos documentados de risco grave com chatbots em 2024-2025?
Sim. Relatos jornalísticos verificáveis em 2024-2025 documentaram casos preocupantes: Wired e The New York Times publicaram investigações sobre interações prolongadas com chatbots de IA generativa (Character.ai, Replika) e impacto em adolescentes em sofrimento. Uma família nos Estados Unidos moveu ação judicial contra Character.ai em 2024 após suicídio de adolescente que tinha relação intensiva com personagem do app. A American Psychological Association emitiu alerta sobre IA generativa em saúde mental para adolescentes em 2024-2025. Em paralelo, a FTC abriu inquérito sobre práticas de empresas de companion AI. A literatura é clara: IA generativa não especializada apresenta risco real em populações vulneráveis, e a regulação ainda está em formação.
Como conectar isso à formação aplicada?
Profissionais que conduzem adoção de IA em consultório, em programa de saúde mental no trabalho ou em serviço público precisam de fundamento técnico sobre distinção entre chatbot especializado e IA generativa, evidência clínica disponível, gestão de risco e regulação. O MBA em Psicologia Organizacional e do Trabalho do IPOG aborda IA, people analytics, ética em dados e saúde mental no trabalho em formato Ao Vivo síncrono com corpo docente nominal. Para grade vigente, consulte ipog.edu.br.
Cross-links internos
Síntese
A distinção que importa em 2026: chatbot terapêutico especializado vs chatbot de companhia
- Chatbots terapêuticos especializados (Woebot, Wysa) têm evidência em sintomas leves a moderados em curto prazo — utilidade real como complemento ou porta de entrada.
- Chatbots de companhia ou personagem (Replika, Character.ai) não têm framework clínico e apresentam risco documentado em adolescentes — uso clínico contraindicado.
- IA generativa pura (ChatGPT, Claude) não é ferramenta terapêutica — pode ser copilot do psicólogo com proteções, mas não confidente direto do paciente.
- Terapeuta humano permanece indispensável em diagnóstico, gestão de risco, trauma, psicopatologia grave e aliança terapêutica.
Para psicólogos que conduzem adoção de IA em consultório, em programa de saúde mental no trabalho ou em RH, o MBA em POT do IPOG aborda IA, people analytics, ética em dados e saúde mental no trabalho em formato Ao Vivo síncrono com corpo docente nominal.
Ver MBAs no IPOG