Pular para o conteúdo principal
Portal independente. Não é o site oficial do IPOG. Matrículas e ofertas oficiais em ipog.edu.br
pP
Guia · HowTo · 9 passos · 2026

Uso ético de IA generativa na clínica em 2026: protocolo em 9 passos para psicólogos brasileiros

Protocolo operacional para escuta passiva, notas automáticas, chatbots adjuvantes e copilots textuais — com CFP, LGPD, viés, deepfakes e documentação pericial.

Tempo de leitura ~21 min Persona · Psicólogos clínicos, supervisores e RH
MBA em POT no IPOG

Tese contraintuitiva

A leitura predominante sobre IA na clínica oscila entre dois polos pobres: proibição ampla ou adoção sem método. As duas falham por motivos opostos. A APA (Statement on AI in Mental Health Care, 2024) e o CFP (Posicionamento sobre IA, 03/07/2025) convergem em uma posição intermediária — e ela é mais exigente do que parece. A IA é aliada na sistematização de informações e no apoio a decisões, com casos de uso permitidos e proibidos, e a responsabilidade técnica permanece integralmente do psicólogo. A pergunta operacional não é "usar ou não usar IA". É "para qual caso clínico, com qual proteção, sob qual norma".

A inversão prática deste guia: comece pela finalidade clínica, não pelo plano. Avalie a regulação aplicável antes do prompt. Redija consentimento específico e modelo de retenção sob LGPD. Desidentifique antes de prompt. Escolha modelo conforme localização. Audite viés a cada saída. Trate deepfake como risco operacional em teleterapia, não como tema de ficção. Documente uso para a perícia que talvez nunca aconteça — e que, se acontecer, define o resultado. Quem segue esse trajeto integra a IA à rotina como o consultório integrou outras tecnologias: com método, e não com susto.

Os 9 passos

Passo 1 · Definir caso de uso clínico antes do software

A pergunta correta não é "qual IA usar?", e sim "para que finalidade clínica?". O CFP (Posicionamento sobre Inteligência Artificial no Contexto da Prática Psicológica, 03/07/2025) afirma que a IA pode ser aliada na sistematização de informações e no apoio a decisões — não substituta do julgamento. Antes de assinar plano de qualquer ferramenta, defina por escrito a finalidade: escuta passiva e relatório de fidelidade, notas de sessão automatizadas, apoio a supervisão clínica, psicoeducação interpaciente, organização administrativa. Cada finalidade tem perfil de risco, marco regulatório e exigência ética distintos.

Armadilha comum

Adotar a mesma ferramenta para tudo. Plano genérico vira política genérica — e política genérica deixa rastro genérico no processo ético.

Passo 2 · Avaliar conformidade com Resolução CFP 11/2018 e atualizações 2024-2025

A Resolução CFP 11/2018 disciplina serviços psicológicos prestados por meios de tecnologia da informação e comunicação. Em 03/07/2025, o CFP divulgou Posicionamento sobre IA na prática psicológica anunciando grupo de trabalho para diretrizes específicas, sem revogação da 11/2018. Em paralelo, o Código de Ética do Psicólogo (Resolução CFP 10/2005) e a Resolução CFP 06/2019 (documentos psicológicos) seguem aplicáveis. Quem usa IA precisa demonstrar que a ferramenta respeita sigilo, registro, ambiente e responsabilidade técnica — pilares da 11/2018 — independentemente do hype tecnológico.

Armadilha comum

Confundir o Posicionamento de 2025 com Resolução nova. Posicionamento é nota técnica que orienta; resolução é norma com poder sancionatório. Confundir os dois leva à falsa sensação de cobertura regulatória.

Passo 3 · Redigir consentimento informado específico para IA

O termo de consentimento informado padrão não cobre uso de IA. Para escuta passiva (Eleos, Lyssn), notas automáticas (Bunny.tools, Mentalyc), chatbots adjuvantes (Woebot, Wysa) ou copilot textual (ChatGPT Enterprise, Claude for Business), o termo deve detalhar: qual ferramenta, qual finalidade, qual dado coletado, qual período de retenção, qual base legal sob LGPD, possibilidade de revogação, consequências da revogação. APA (Statement on AI in Mental Health Care, 2024) e CFP (2025) convergem nesse ponto. O paciente assina porque entende — não porque o termo é longo.

Armadilha comum

Anexar parágrafo sobre IA ao termo existente sem revisar a coerência do documento. Inconsistência interna no termo é argumento de defesa frágil em perícia.

Passo 4 · Aplicar LGPD ao prontuário com modelo de retenção escrito

A LGPD (Lei 13.709/2018, Art. 11) trata dado psicológico como dado pessoal sensível. Tratamento exige base legal específica — tutela da saúde, consentimento explícito ou exercício regular de direitos em processo. Para prontuário com IA, defina por escrito: tempo de retenção (mínimo CFP 06/2019, que é 5 anos a partir do último registro), forma de criptografia em repouso e em trânsito, política de backup, processo de descarte seguro, log de acesso. Sem documento de retenção, a ANPD trata a clínica como controladora desprotegida.

Armadilha comum

Adotar ferramenta cloud sem clausular retenção e descarte. "Vamos resolver isso depois" é resposta padrão de quem nunca sofreu auditoria.

Passo 5 · Desidentificar dados antes de qualquer prompt

Mesmo em ferramenta contratada com cláusula de não treinamento, a higiene de prompt é regra de prudência. Antes de submeter texto à IA, remova nome, CPF, RG, número de prontuário, datas exatas, profissão muito específica, endereço, marcadores familiares únicos. Estudos de re-identificação por triangulação (Sweeney, 2015; Rocher et al., 2019, Nature Communications) mostram que 87% de norte-americanos podem ser re-identificados a partir de CEP, data de nascimento e gênero — três campos aparentemente "anônimos". Em clínica, triangulação é trivial.

Armadilha comum

Tratar desidentificação como troca de nome. Detalhe contextual específico é identificador indireto — descreva sem singularizar.

Passo 6 · Escolher modelo conforme localização de processamento

A LGPD (Art. 33) impõe condições para transferência internacional de dados sensíveis. Modelos hospedados nos EUA (OpenAI default, Anthropic default, Google) exigem base legal específica ou contrato com cláusulas-padrão da ANPD. Modelos com hospedagem no Brasil (Microsoft 365 Copilot com tenant Brazil South, AWS Bedrock região São Paulo) ou on-premise (Llama 3 local, GPT-4 via Azure dedicado) reduzem fricção regulatória. Para escuta passiva clínica, hospedagem brasileira ou europeia (sob GDPR/AI Act 2024) é caminho mais defensável.

Armadilha comum

Assumir que "a empresa é grande, deve estar tudo certo". Tamanho do fornecedor não substitui contrato adequado à LGPD.

Passo 7 · Auditar viés clínico de cada saída

Modelos de linguagem reproduzem viés do corpus de treinamento, e literatura recente mostra impacto clínico real. Hua et al. (2024) revisaram aplicações de LLM em saúde mental e documentaram viés sistemático em raça, gênero e idioma. Stade et al. (2024, JMIR Mental Health) testaram ChatGPT em cenários de psicoterapia e relataram respostas que ignoravam pistas culturais e socioeconômicas. A regra técnica: trate a saída como rascunho de profissional em formação. Reveja com checklist explícito de viés antes de incorporar ao prontuário, ao laudo ou à comunicação com paciente.

Armadilha comum

Aceitar a primeira saída por economia de tempo. IA produz texto plausível, não verdade clínica — e plausibilidade sem revisão importa viés para dentro do consultório.

Passo 8 · Estabelecer protocolo para deepfakes e fraudes em teleterapia

Deepfakes de pacientes e de terapeutas saíram do campo teórico em 2024-2025. Europol (Internet Organised Crime Threat Assessment, 2024) relata uso crescente de deepfakes em fraudes envolvendo telessaúde. Para mitigar, adote: verificação biométrica leve no início da sessão (mostrar documento ao vivo no primeiro encontro), código de palavra combinado para pedidos urgentes fora de sessão, canal oficial único para comunicação clínica, política escrita sobre o que faz quando suspeita de identidade. PL 2338/2023 (Marco Civil da IA, em tramitação) prevê tipificação específica de deepfakes em saúde.

Armadilha comum

Achar que deepfake é problema de banco. Em teleterapia, identidade visual e vocal é a base da relação clínica — comprometê-la é comprometer o atendimento.

Passo 9 · Documentar uso de IA para fins periciais e éticos

Se a IA entrou no fluxo clínico, ela aparece no processo. Para qualquer ato profissional que tenha sido auxiliado por IA — nota de sessão, esboço de laudo, psicoeducação enviada, transcrição armazenada — documente: qual ferramenta, qual finalidade, qual revisão humana, qual decisão final. Em perícia ética ou cível, a documentação é a defesa. A APA (2024) recomenda log mínimo de uso de IA em saúde mental; o CFP (2025) sinaliza convergência. Documentação não é burocracia: é prova de juízo profissional ativo.

Armadilha comum

Usar IA e não registrar. Em processo ético, ausência de registro é tratada como ausência de cuidado.

Checklist de execução em 90 dias

Adapte ao porte da prática. Profissional autônomo executa em ~45 dias; clínica multiprofissional precisa de 60 a 90.

Passo Indicador Quem executa Quando Status
1 · Caso de uso Documento de finalidade clínica Profissional Semana 1 Pendente
2 · Conformidade CFP Leitura 11/2018 + Posicionamento 07/2025 Profissional Semana 1 Pendente
3 · Consentimento IA Termo específico revisado Profissional + jurídico Semana 2 Pendente
4 · LGPD prontuário Política de retenção escrita Profissional + DPO Semana 2 Pendente
5 · Desidentificação Checklist de prompt Profissional Por uso Pendente
6 · Localização de modelo Contrato com cláusula de hospedagem Profissional Semana 3 Pendente
7 · Auditoria de viés Checklist de revisão de saída Profissional Por uso Pendente
8 · Protocolo deepfake Política escrita + código de palavra Profissional Semana 3 Pendente
9 · Documentação pericial Log de uso de IA Profissional Por uso Pendente

Mini-caso composto · ilustrativo

Clínica com 8 profissionais adota escuta passiva e copilot textual em 90 dias

Clínica em capital do Sul, com 8 psicólogos autônomos compartilhando estrutura, formalizou adoção de IA em 2026 após auditoria interna identificar três usos informais sem governança: dois profissionais usavam Whisper local para transcrever sessão sem consentimento documentado, um usava ChatGPT gratuito para esboçar laudo com dado identificado, um experimentava chatbot adjuvante com paciente jovem em fase de manutenção. Nenhum incidente formal, mas exposição clara.

Em 90 dias, a coordenação clínica implementou: leitura coletiva da Resolução CFP 11/2018 e do Posicionamento CFP de 07/2025, contratação de ChatGPT Enterprise com tenant Brasil para 6 profissionais, contratação de plataforma de notas automáticas com hospedagem no Brasil para os 2 que faziam transcrição, redação de termo de consentimento específico com 4 modalidades de uso de IA, política escrita de retenção (5 anos mínimos CFP, criptografia AES-256, log de acesso), checklist de desidentificação por prompt, protocolo de deepfake com código de palavra. Em 6 meses, dois indicadores: zero incidentes reportados, 100% de adoção das ferramentas autorizadas, satisfação interna sobre clareza ética em IA em 9 de 10. Primeira revisão semestral em mês 6.

Erros frequentes

Tratar Posicionamento CFP 2025 como Resolução

O Posicionamento de 03/07/2025 anuncia grupo de trabalho — não é norma sancionatória. A norma vigente é Resolução 11/2018 sobre serviços psicológicos online + Código de Ética + Resolução 06/2019 sobre documentos. Quem confunde os textos cria falsa sensação de cobertura específica para IA.

Inserir dado identificado em modelo gratuito

ChatGPT, Claude, Gemini em planos gratuitos podem usar conteúdo de usuário para treinamento, salvo opt-out específico. Em dado psicológico — sensível sob LGPD Art. 11 — isso configura compartilhamento sem base legal. A barreira é contrato empresarial com cláusula de não treinamento, não cuidado pessoal de prompt.

Aceitar saída como segunda opinião clínica

Stade et al. (2024) e Hua et al. (2024) documentam que LLMs em saúde mental produzem respostas plausíveis com viés sistemático em apresentações culturais e socioeconômicas específicas. APA (2024) é firme: IA é apoio, não conselho. Quem delega decisão clínica à IA assume risco ético intransferível.

Ignorar transferência internacional de dados

LGPD Art. 33 exige base legal específica para transferência internacional de dados sensíveis. Modelos hospedados nos EUA sem contrato ANPD-adequado expõem o psicólogo a sanção administrativa. Hospedagem em Brasil ou Europa, ou contrato com cláusulas-padrão, é caminho mais defensável.

Cross-links internos

Recursos canônicos

Perguntas frequentes

Posso usar ChatGPT Enterprise para notas de sessão?

Sim, com proteções. ChatGPT Enterprise (OpenAI) e Claude for Business (Anthropic) têm cláusula contratual de não uso para treinamento e zero retenção opcional. Ainda assim, três regras: desidentifique antes do prompt (sem nome, número de prontuário, identificadores indiretos), revise toda saída antes de incorporar ao prontuário, documente o uso em log próprio. A nota final precisa refletir o juízo do psicólogo — não a saída literal do modelo.

Escuta passiva (Eleos, Lyssn) é permitida no Brasil?

Tecnicamente possível, eticamente exigente. A escuta passiva grava sessão e produz relatório de fidelidade — útil em supervisão e treinamento. Para uso ético no Brasil: consentimento informado específico do paciente, contrato com fornecedor cobrindo LGPD e retenção, preferência por hospedagem em Brasil ou Europa, política escrita de descarte. CFP 11/2018 cobre gravação em telessaúde; o Posicionamento de 2025 reforça responsabilidade. Eleos Health (eleos.health) é referência internacional, mas exige adaptação contratual.

IA pode substituir psicoterapia em casos leves?

A APA (Statement on AI in Mental Health Care, 2024) é cuidadosa. Chatbots de saúde mental (Woebot, Wysa) têm evidência em sintomas depressivos leves a moderados com seguimento curto. A meta-análise mais citada — Boucher et al. (2021) — relatou efeito modesto em sintomas depressivos em populações específicas. Para casos clínicos formais, a literatura é uniforme: profissional habilitado permanece como interlocutor central. IA é complemento, não substituição.

Como conectar isso à formação aplicada?

Decisões sobre IA em clínica e RH exigem fundamento técnico em ética em dados, LGPD aplicada, regulação CFP, viés algorítmico e governança. O MBA em Psicologia Organizacional e do Trabalho do IPOG aborda IA, people analytics e ética em dados em contexto profissional, em formato Ao Vivo síncrono com corpo docente nominal. Para grade vigente, consulte ipog.edu.br.

Síntese executiva

IA na clínica em 2026 é apoio com responsabilidade preservada — e documentação completa.

O uso ético começa pelo caso de uso clínico, avalia conformidade com CFP 11/2018 e Posicionamento 07/2025, redige consentimento específico para IA, aplica LGPD ao prontuário, desidentifica antes de prompt, escolhe modelo conforme localização, audita viés, estabelece protocolo contra deepfakes e documenta para fins periciais. Para profissional que conduz adoção de IA em clínica, em supervisão ou em consultoria de RH, o MBA em POT do IPOG aborda IA, people analytics e ética em dados em contexto profissional, em formato Ao Vivo síncrono com corpo docente nominal.

Ver MBA no IPOG