Resposta rápida
- O que você vai aprender: usar IA generativa em prática clínica com sigilo, LGPD, ferramenta contratada, consentimento e responsabilidade preservada.
- Pré-requisitos: registro CRP ativo, leitura prévia das resoluções CFP sobre IA, plataforma contratada com cláusula de não treinamento.
- Resultado esperado: rotina de uso defensável em 60 dias, com política escrita, consentimento atualizado e revisão semestral.
Tese contraintuitiva
A leitura comum sobre IA na clínica é estática: ou se proíbe tudo, ou se adota sem reservas. As duas posições falham. A APA (Statement on AI in clinical practice, 2024-2026) e o CFP (Resolução sobre IA, 2024) convergem em uma posição intermediária bem definida: a IA é ferramenta útil, com casos de uso permitidos e proibidos, e a responsabilidade profissional permanece intransferível. A pergunta não é "usar ou não usar". É "usar como, em quê, com que proteção".
A inversão prática: comece pela regulação, não pelo software. Mapeie risco de sigilo e LGPD antes do prompt. Defina casos de uso por escrito. Adote ferramenta contratada. Mantenha o juízo profissional como instância final. Revise política a cada 6 meses. Quem segue esse trajeto integra a IA à rotina como o consultório integrou outras tecnologias — com prudência e método.
Os 9 passos
Passo 1 · Conhecer o marco regulatório vigente
O ponto de partida não é o software. É a regra. O CFP (Resolução de 2024 sobre uso de IA em prática profissional) e a APA (Statement on AI in clinical practice, 2024-2026) estabelecem princípios consolidados: a IA é ferramenta de apoio, não substituta de juízo profissional; o psicólogo permanece responsável pelos atos; sigilo e proteção de dados são intransferíveis. Antes de digitar qualquer prompt, leia esses documentos.
Armadilha comum
Adotar IA na rotina sem ler a regulação específica do conselho. Você descobre o limite no processo ético, não antes.
Passo 2 · Mapear riscos de sigilo e LGPD
Inputs em ferramentas como ChatGPT, Claude, Gemini ou Copilot podem ser usados pelos provedores para treinamento de modelo, salvo em contratos empresariais específicos com opt-out de dados. A LGPD (Lei 13.709/2018) classifica dado de saúde como dado pessoal sensível, com proteção reforçada. Conclusão prática: nome de paciente, número de prontuário, identificadores diretos ou indiretos não entram em prompt de ferramenta não contratada com cláusula de não treinamento.
Armadilha comum
Colar trecho de prontuário "só para resumir" em chat público. Quebra de sigilo configurada, com pena prevista no CFP e exposição à ANPD.
Passo 3 · Definir casos de uso permitidos e proibidos
A APA (Statement 2024-2026) e a leitura técnica do CFP convergem em um padrão prático. Permitido: redação de comunicação geral, organização de literatura, esboço de psicoeducação, simulação de diálogo hipotético sem dado real, apoio administrativo (calendário, formulários). Proibido sem proteção adicional: análise de caso identificado, redação de laudo sobre paciente real, decisão diagnóstica delegada à IA, registro de prontuário em ferramenta pública. A linha divisória é a presença de dado sensível.
Armadilha comum
Tratar "anonimização leve" como suficiente. Re-identificação por triangulação é risco real quando há detalhes contextuais específicos.
Passo 4 · Adotar ferramenta com cláusula de não treinamento
Para uso profissional, opte por ferramenta com contrato empresarial e cláusula explícita de não uso dos dados para treinamento de modelo (ChatGPT Enterprise, Claude for Business, Microsoft 365 Copilot com tenant corporativo, Google Workspace com proteções específicas). Ainda assim, decisão clínica final permanece com o psicólogo. Plataformas gratuitas não são adequadas para conteúdo com dado sensível, mesmo com cuidado de anonimização.
Armadilha comum
Confiar na versão gratuita "porque é só um teste". Teste sem dado real é teste; teste com dado real é incidente.
Passo 5 · Documentar consentimento informado quando aplicável
Quando o uso de IA toca o cuidado direto — por exemplo, transcrição de sessão por ferramenta, análise textual de diários — o consentimento informado do paciente é exigência ética. O documento deve detalhar: qual ferramenta, qual finalidade, quais dados, qual janela de armazenamento, possibilidade de revogação. CFP (Resolução 06/2019 sobre documentos psicológicos) é referência útil sobre formalização.
Armadilha comum
Adotar ferramenta nova sem revisar termo de consentimento existente. Termo desatualizado não cobre uso superveniente.
Passo 6 · Avaliar viés algorítmico de cada saída
Modelos de linguagem refletem viés do corpus de treinamento. Estudos recentes (Bender et al., 2021; APA 2024-2026) apontam viés de gênero, raça, classe e cultura em saídas de modelos generalistas, com efeito sensível em contextos clínicos. A regra técnica: tratar saída da IA como rascunho de profissional júnior — útil, mas exige revisão crítica antes de adoção. Em apresentações culturais específicas, viés pode produzir leitura clinicamente errada.
Armadilha comum
Aceitar saída como se fosse parecer técnico. IA produz texto plausível, não verdade clínica.
Passo 7 · Manter responsabilidade profissional intransferível
CFP e APA convergem em um ponto inegociável: o psicólogo permanece responsável por qualquer ato profissional, independentemente da ferramenta usada. Se o laudo, prontuário, comunicação ou decisão clínica foi influenciada por IA, a responsabilidade segue do profissional. Não há defesa do tipo "a IA disse". Em processos éticos, essa defesa é tratada como ausência de juízo profissional.
Armadilha comum
Usar IA para tomar decisão clínica que o profissional não tem segurança técnica para tomar. A IA não resolve déficit de formação; oculta o déficit por mais tempo.
Passo 8 · Treinar a equipe e supervisionar adoção
Em clínica de mais de um profissional, a adoção de IA exige política interna escrita, treinamento estruturado e supervisão de uso. A política mínima cobre: ferramentas autorizadas, casos de uso, regras de sigilo e LGPD, consentimento, revisão periódica. Sem política, cada profissional adota por conta própria — e a clínica acumula risco invisível até o primeiro incidente.
Armadilha comum
Achar que adoção individual de IA não exige política coletiva. Em prática multiprofissional, o risco é compartilhado.
Passo 9 · Revisar política a cada 6 meses
O ritmo de evolução das ferramentas de IA é alto. Modelos, contratos, regulações e jurisprudência mudam em janelas curtas. A política interna precisa de revisão semestral, com leitura de atualizações do CFP, da APA, da ANPD e da literatura técnica. Política congelada vira política desatualizada — e desatualização é exposição em mudança regulatória.
Armadilha comum
Aprovar política e esquecer por dois anos. Em IA, dois anos é eternidade.
Checklist de execução
Implementação típica em 60 dias. Adapte ao tamanho da clínica e à complexidade da prática.
| Passo | Indicador | Quem executa | Quando | Status |
|---|---|---|---|---|
| 1 · Marco regulatório | Leitura CFP + APA | Profissional | Mês 0 | Pendente |
| 2 · Risco LGPD | Doc de mapeamento | Profissional | Mês 0 | Pendente |
| 3 · Casos de uso | Lista permitido/proibido | Profissional | Mês 1 | Pendente |
| 4 · Ferramenta contratada | Plano com não treinamento | Profissional | Mês 1 | Pendente |
| 5 · Consentimento | Termo atualizado | Profissional | Mês 1 | Pendente |
| 6 · Revisão de viés | Checklist de saída | Profissional | Por uso | Pendente |
| 7 · Responsabilidade | Registro de revisão humana | Profissional | Por uso | Pendente |
| 8 · Política e treinamento | Doc + treinamento equipe | Coordenação clínica | Mês 2 | Pendente |
| 9 · Revisão semestral | Calendário | Coordenação | Semestral | Pendente |
Mini-caso composto · ilustrativo
Clínica com 6 profissionais, política de IA em 8 semanas
Clínica de psicologia em capital do Sudeste, com 6 profissionais autônomos compartilhando estrutura, decidiu formalizar adoção de IA após constatar que 4 dos 6 já usavam ChatGPT gratuito em rotina informal. Auditoria interna identificou três incidentes potenciais: trecho de prontuário colado para "ajudar a redigir laudo", uso de transcritor automático sem consentimento, redação de comunicação geral em ferramenta sem contrato. Nenhum incidente havia sido reportado, mas o risco era real.
Em 8 semanas, a coordenação clínica implementou: leitura coletiva da Resolução CFP e do Statement da APA, contratação de planos com cláusula de não treinamento para todos os profissionais, política interna escrita com casos de uso permitidos e proibidos, atualização do termo de consentimento informado, treinamento de 4 horas com simulação de prompts, calendário de revisão semestral. Em 6 meses, três indicadores: zero incidentes reportados, 78% de adoção das ferramentas autorizadas, eNPS interno da equipe sobre clareza ética em IA em 9 de 10. Política viva, com primeira revisão em mês 6 incorporando atualizações da regulação.
Erros frequentes
Tratar IA como segunda opinião clínica
Modelos generalistas geram texto plausível, não diagnóstico técnico. APA (2024-2026) é firme: IA é apoio, não conselho clínico. Profissional que delega decisão à IA assume risco ético que não desaparece com nota de rodapé.
Colar dado identificado em ferramenta pública
É a falha mais comum. Mesmo em chat percebido como privado, sem contrato empresarial, dados podem ser usados para treinamento. Em dado de saúde, isso é violação de LGPD e quebra de sigilo. A barreira é ferramenta contratada, não cuidado pessoal.
Não revisar viés de saída
Estudos de Bender et al. (2021), e revisões da APA (2024-2026), apontam viés sistemático em modelos generalistas. Aceitar a primeira saída sem revisão crítica importa viés para o consultório — com efeitos especialmente sensíveis em apresentações culturais e de gênero específicas.
Adoção individual em clínica coletiva sem política
Cada profissional adotando ferramenta por conta própria cria exposição coletiva. Política interna, treinamento e supervisão de uso são prática mínima de prudência. Sem isso, a clínica acumula risco invisível até o primeiro incidente.
Recursos canônicos
Perguntas frequentes
Posso usar ChatGPT gratuito para redigir comunicação geral com paciente?
Para mensagens administrativas sem dado clínico sensível (lembrete de horário, política de cancelamento, texto institucional), o uso é geralmente aceitável. Para qualquer conteúdo que toque diagnóstico, plano clínico ou narrativa identificada, a recomendação é ferramenta com cláusula de não treinamento. A linha divisória prática é a presença de dado pessoal sensível, conforme LGPD (Brasil, 2018).
IA pode substituir psicoterapia em casos leves?
A APA (Statement on AI in clinical practice, 2024-2026) é cuidadosa: chatbots de saúde mental podem ter papel em psicoeducação e apoio entre sessões, mas não substituem psicoterapia conduzida por profissional habilitado. A evidência de efeito sustentado em quadros clínicos ainda é limitada, e há relatos preocupantes de respostas inadequadas em situações de risco. O psicólogo permanece como interlocutor central.
Como anonimizar caso para usar em consultoria com IA?
Anonimização robusta vai além de trocar nome. Inclui remoção de identificadores indiretos (idade exata, profissão específica, localização, datas precisas, detalhes singulares do caso). Mesmo com cuidado, a recomendação técnica é evitar inserção de caso real em ferramenta pública — preferir ferramenta contratada com cláusula de não treinamento e sigilo, e em casos de alta sensibilidade, abster-se do uso.
Como o MBA em POT do IPOG conecta a esse guia?
O MBA em POT aborda IA, people analytics e ética em dados em contexto organizacional — fundamento útil para profissional que vai conduzir adoção de IA em clínica ou consultoria. Formato Ao Vivo síncrono com corpo docente nominal. Para grade vigente, consulte ipog.edu.br. A discussão técnica e ética estruturada em ambiente acadêmico complementa a leitura da regulação isolada.
Síntese executiva
IA na clínica é apoio com responsabilidade preservada — não substituição.
O uso ético começa pela regulação, mapeia risco de sigilo e LGPD, define casos de uso por escrito, adota ferramenta contratada com cláusula de não treinamento, atualiza consentimento, revisa viés, mantém responsabilidade profissional e revisa política a cada 6 meses. Para profissional que conduz essa frente em clínica ou consultoria, o MBA em POT do IPOG oferece fundamento técnico e ético em IA, people analytics e dados em contexto profissional. Formato Ao Vivo síncrono com corpo docente nominal.
Ver MBA no IPOG