Resposta rápida
IA generativa — ChatGPT, Claude, Gemini — entrou rapidamente na rotina de profissionais de saúde mental como ferramenta de apoio à decisão. A literatura empírica acumulada entre 2024 e 2026 (Sharma et al., Heinz et al. em Stanford, série da APA) consolidou duas conclusões úteis. Primeiro, o desempenho dos sistemas em tarefas de triagem é variável — bom em texto plausível, ruim em discriminação clínica fina, vulnerável a viés cultural e demográfico. Segundo, o uso defensável no Brasil é como apoio mediado por psicólogo habilitado, com governança técnica de dado sensível sob a LGPD e a Resolução CFP. Diagnóstico autônomo por IA fica fora do marco regulatório.
Tese contraintuitiva: o problema não é a IA em si — é o paradigma de eficiência aplicado à clínica
A narrativa de mercado promete clínica mais barata e escalável com IA. A literatura empírica responde com cautela. Heinz et al. (Stanford, 2025) compararam saídas de LLMs em cenários clínicos pareados — diferindo apenas em raça, gênero e classe socioeconômica do paciente — e identificaram divergência sistemática nas recomendações. O sistema não é neutro; reproduz viés do conjunto de treinamento, que reflete padrões clínicos publicados majoritariamente em inglês, no Hemisfério Norte, com sub-representação consistente de populações latino-americanas.
A inversão necessária: a pergunta deixa de ser a IA substitui o psicólogo e passa a ser em que escopo a IA reduz a carga cognitiva do psicólogo sem deslocar a responsabilidade clínica. A literatura aponta resposta clara — apoio a tarefas administrativas (síntese de prontuário, transcrição, geração de hipóteses para revisão, psicoeducação entre sessões), nunca decisão diagnóstica autônoma. Clínica que entrega o diagnóstico ao algoritmo está operando contra a Resolução do CFP e contra a evidência disponível.
Síntese do estado da arte: dos chatbots estruturados aos LLMs em terapia
A literatura de IA em saúde mental tem dois capítulos distintos. O primeiro, anterior a 2022, trata de chatbots estruturados — sistemas baseados em regras e árvores de decisão. Becky Inkster e colaboradores publicaram em 2018 estudo seminal sobre o Wysa, chatbot apoiado em terapia cognitivo-comportamental, com evidência de redução de sintomas depressivos leves em uso continuado. Kathleen Fitzpatrick e colegas haviam publicado em 2017 o estudo sobre o Woebot, com achados similares. A literatura desse período é cautelosa mas positiva sobre uso adjuvante em sintomas leves a moderados, com supervisão clínica.
O segundo capítulo começa em 2022-2023 com a popularização de LLMs generativos. Ashish Sharma e colaboradores publicaram em 2024 uma das primeiras revisões sistemáticas de LLMs em terapia, indicando desempenho promissor em geração de respostas empáticas, mas inferior a terapeutas humanos em discriminação clínica e em manejo de crise. Heinz e colaboradores publicaram em 2025, em parceria com a Universidade de Stanford, estudo de auditoria comparando saídas de LLMs em cenários pareados — o achado de viés sistemático foi o ponto mais citado da literatura recente.
A American Psychological Association emitiu entre 2024 e 2026 série de comunicados públicos e diretrizes sobre uso de IA em prática clínica. Pontos principais: IA como apoio, não como substituto; necessidade de transparência ao paciente; obrigação de proteção do dado sensível; e responsabilidade clínica permanente do profissional habilitado. A APA passou a tratar o tema como urgente após a difusão de aplicativos comerciais de saúde mental que omitiam ao usuário que as respostas vinham de sistema automatizado, sem supervisão clínica.
"O risco não é a IA gerar texto ruim. É a IA gerar texto bom o suficiente para o usuário acreditar e o profissional não revisar. A boa aparência clínica do texto generativo é precisamente o que cria o risco." — adaptado de comunicado APA (2025).
No Brasil, a literatura aplicada cresceu. Pesquisa publicada em Trends in Psychology (2025) avaliou uso de IA generativa por psicólogos em formação, encontrando uso amplo na elaboração de relatórios e na revisão de hipóteses, com baixa adesão a protocolos formais de governança. Estudo em Psicologia: Reflexão e Crítica (2025) mapeou ferramentas comerciais oferecidas a empresas brasileiras para triagem de saúde mental ocupacional, identificando problemas relevantes de transparência sobre limitações dos sistemas, sobre fluxo de dados e sobre validação para população brasileira.
O Conselho Federal de Psicologia, em cartas e notas técnicas publicadas entre 2024 e 2026, manteve a Resolução CFP 11/2018 como referência e ampliou orientação sobre uso de IA. Pontos centrais: diagnóstico psicológico é ato privativo do psicólogo, não delegável a sistema automatizado; uso de IA exige consentimento informado; transferência de dado sensível a servidor estrangeiro exige garantia de proteção sob a LGPD; uso comercial de plataformas de IA para triagem em RH requer responsável técnico habilitado. A Resolução do CFP sobre atendimento online (Resolução CFP 11/2018, atualizada) continua sendo o instrumento normativo aplicável.
Debates abertos persistem. A literatura ainda não consolidou validação de LLMs para população brasileira em tarefas clínicas — protocolo, instrumento e amostra. A relação entre apoio à decisão (decision support) e dependência (deskilling) merece estudo longitudinal. A regulação federal de IA, em tramitação em 2026, deve trazer obrigações adicionais. A prática clínica está, em larga medida, antes da consolidação normativa.
Achados-chave 2024-2026
Recorte da literatura recente em IA generativa aplicada a saúde mental.
| Autor (Ano) | País | Achado | Implicação prática |
|---|---|---|---|
| Heinz et al. (Stanford, 2025) | EUA | LLMs produzem saídas divergentes em cenários pareados que diferem apenas em raça, gênero e classe. | Auditoria de viés é requisito antes de uso clínico; prompt isolado não corrige. |
| Sharma et al. (2024) | EUA | LLMs geram respostas empáticas plausíveis; desempenho inferior a terapeutas em discriminação clínica e crise. | Uso defensável é adjuvante; manejo de crise permanece humano. |
| Inkster (Wysa, 2018) | Reino Unido | Chatbot estruturado em TCC com evidência de redução de sintomas depressivos leves em uso continuado. | Aplicativos estruturados têm escopo válido em sintomas leves; LLMs não substituem esse desenho. |
| Fitzpatrick (Woebot, 2017) | EUA | Chatbot baseado em TCC com efeito mensurável em ansiedade e depressão leve em estudo randomizado. | Evidência válida para chatbot supervisionado; não generaliza para LLM aberto. |
| APA (2024-2026) | EUA | Diretrizes públicas: IA como apoio, transparência ao paciente, responsabilidade clínica permanente. | Política institucional de clínica e RH precisa documentar uso e consentimento. |
| CFP (2024-2026) / Trends in Psychology (2025) | Brasil | Resolução CFP mantém diagnóstico como ato privativo; uso amplo em formação sem governança formal. | Clínica brasileira precisa protocolo de uso, consentimento e proteção LGPD. |
Caso composto · ilustrativo
O programa de RH que comprou triagem por IA e descobriu o passivo no jurídico
Empresa de tecnologia com 1.800 colaboradores contratou em 2025 plataforma comercial de saúde mental que oferecia triagem inicial por IA generativa, com encaminhamento condicional a psicólogo humano. O modelo era atraente em custo e em escala — atendimento imediato, sem fila, com relatório resumido para o RH (anonimizado, segundo o fornecedor). Em seis meses, a área de saúde ocupacional registrou aumento expressivo de adesão à plataforma e indicador de bem-estar reportado pelo dashboard.
A reavaliação jurídica e técnica, contratada por iniciativa da diretoria de Compliance, identificou três problemas estruturais. O sistema operava com modelo treinado em texto majoritariamente em inglês, sem validação para população brasileira documentada. O fluxo de dados implicava transferência internacional para servidor norte-americano sem garantia de adequação sob a LGPD. O serviço era ofertado como triagem psicológica sem responsável técnico habilitado registrado no Conselho Regional de Psicologia. A continuidade do contrato exporia a empresa a passivo administrativo e a questionamento ético do CFP. A solução adotada foi reconfigurar o uso da plataforma para psicoeducação e organização administrativa, mantendo triagem clínica sob psicólogo habilitado interno, com documentação de consentimento e protocolo de proteção do dado sensível. O custo médio por colaborador subiu, mas o passivo desapareceu.
Implicações práticas
Três frentes em que o tema deixa de ser entusiasmo de adoção e vira decisão técnica e regulatória.
Clínica
Protocolo de uso e consentimento
Documentar consentimento informado, registrar uso de IA em prontuário, manter responsabilidade clínica explícita. Atendimento online pela Resolução CFP exige cumprimento integral.
RH e saúde ocupacional
Auditoria de fornecedor
Plataforma comercial de saúde mental exige responsável técnico habilitado, validação brasileira documentada e adequação LGPD para transferência internacional. Sem isso, é passivo regulatório.
Educação
Formação técnica especializada
Profissional formado em Neurociência e Psicologia Positiva no Desenvolvimento Humano — área do MBA NCPP do IPOG — coordena programa que articula avaliação técnica e ferramenta digital.
Perguntas frequentes sobre IA em psicodiagnóstico
IA generativa pode fazer diagnóstico psicológico?
Não, no Brasil. A Resolução CFP 11/2018, atualizada com cartas e notas técnicas entre 2024 e 2026, mantém o diagnóstico psicológico como ato privativo de psicólogo habilitado. A literatura recente, incluindo Sharma et al. (2024) sobre LLMs em terapia e Heinz et al. (Stanford, 2025), mostra que sistemas como ChatGPT, Claude e Gemini têm desempenho variável em tarefas de triagem e screening — bom em texto plausível, ruim em discriminação clínica fina e em casos complexos. O uso defensável é como apoio à decisão do profissional habilitado, nunca como substituto. APA (2024-2026) emitiu alertas reforçando o ponto. Sistema que vende diagnóstico autônomo por IA opera contra o marco regulatório brasileiro.
Quais são os principais vieses de IA generativa em saúde mental?
Três grupos documentados. Primeiro, viés cultural — os modelos foram treinados majoritariamente em texto em inglês, refletem padrões clínicos do Hemisfério Norte e tendem a subdiagnosticar em populações brasileiras com expressão emocional culturalmente distinta. Segundo, viés de gênero, raça e classe — Heinz et al. (Stanford, 2025) mostraram em testes com cenários clínicos pareados que diferentes saídas eram produzidas para o mesmo quadro com mudança apenas do perfil demográfico do paciente. Terceiro, viés de adesão (sycophancy) — modelos tendem a concordar com a hipótese do usuário, comprometendo função crítica do diagnóstico, que é considerar diferenciais. Esses vieses não são corrigíveis por prompt — exigem governança técnica e validação clínica antes do uso.
O que a LGPD exige da clínica que usa IA?
A Lei Geral de Proteção de Dados (Lei 13.709/2018) classifica dado de saúde como dado sensível (art. 5º, II), exigindo base legal específica para tratamento — consentimento explícito, exercício regular de direitos, proteção da vida, tutela da saúde por profissional, entre outras (art. 11). Para clínica que insere conteúdo de sessão em sistema de IA generativa: a transferência internacional do dado a servidor estrangeiro precisa de garantia de proteção (art. 33). Modelos comerciais que treinam com a entrada do usuário são, em regra, inviáveis sem desidentificação rigorosa e consentimento informado. O Conselho Federal de Psicologia vem produzindo orientações sobre o ponto desde 2024.
IA pode ajudar em algo na clínica psicológica?
Sim, com escopo bem definido. Aplicações com melhor evidência: organização e síntese de prontuário, transcrição de sessão com consentimento, geração de hipóteses para revisão do profissional, psicoeducação para o paciente entre sessões, triagem inicial em programas de saúde mental ocupacional (sob supervisão), apoio à elaboração de relatório. Inkster et al. (Wysa, 2018) e Fitzpatrick et al. (Woebot, 2017) descreveram eficácia limitada mas mensurável de chatbots estruturados em sintomas leves a moderados. O salto para LLMs generativos é recente. Sharma et al. (2024) e Heinz et al. (2025) mostram potencial de apoio com necessidade explícita de governança clínica e regulatória.
Síntese
IA em psicodiagnóstico é apoio mediado, não substituição autônoma
Clínica, RH e plataforma que entenderam o ponto trataram a IA como ferramenta sob responsabilidade clínica permanente — com consentimento, governança de dado sensível e validação para população brasileira. A coordenação técnica exige formação que articula avaliação clínica e tecnologia. O MBA em Neurociência e Psicologia Positiva no Desenvolvimento Humano do IPOG é a trilha mais direta.
Ver pós oficial no IPOG