O Conselho Federal de Medicina (CFM) publicou a Resolução nº 2.454/2026, criando um marco regulatório específico para o uso de inteligência artificial na prática médica no Brasil. A norma estabelece direitos, deveres, critérios de risco e regras de governança para médicos e instituições que desenvolvem ou utilizam sistemas de IA.
A resolução não proíbe o uso de inteligência artificial na medicina. Ao contrário: reconhece formalmente seu papel como ferramenta legítima de apoio à prática clínica. O que o CFM estabelece é um marco de responsabilidade, transparência e governança, alinhado ao avanço tecnológico que já faz parte da rotina médica.
O texto deixa claro: a tecnologia pode auxiliar o raciocínio clínico, mas a autoridade final sobre diagnósticos, condutas e decisões terapêuticas permanece exclusivamente do médico. As novas regras entram em vigor em 180 dias e impactam diretamente a rotina assistencial, a documentação em prontuário, a proteção de dados e a adoção de copilotos clínicos no Brasil.
O que você vai encontrar no texto:
Este artigo explica, de forma objetiva, o que muda com a Resolução nº 2.454/2026 do Conselho Federal de Medicina sobre o uso de inteligência artificial na prática clínica no Brasil. O conteúdo apresenta o escopo da norma (uso de IA em decisões clínicas, gestão, pesquisa e educação médica), indica para quem a resolução se aplica (médicos, clínicas, hospitais e instituições que desenvolvem ou utilizam sistemas de IA) e mostra por que o tema é relevante: a nova regra define deveres, direitos, critérios de risco, obrigações de registro em prontuário, proteção de dados e limites éticos, impactando diretamente a rotina assistencial e a adoção de tecnologias na saúde.
Uma das principais exigências da resolução é o registro do uso de IA no prontuário sempre que ela for utilizada como apoio à decisão clínica. O objetivo é garantir transparência e rastreabilidade, deixando claro que a ferramenta atuou como suporte ao raciocínio médico.
Como registrar o uso de IA no prontuário
Ao finalizar o atendimento e gerar o documento pelo sistema da Voa, recomenda-se incluir no prontuário uma indicação clara de que houve apoio da IA. Você pode utilizar, por exemplo, a seguinte redação: “Uso da IA Charcot como apoio ao raciocínio clínico”. Ou outra formulação equivalente que deixe explícito que o copiloto foi utilizado como ferramenta auxiliar. Esse registro contribui para a conformidade com a resolução do CFM e reforça a transparência no cuidado.
Apoio de IA no atendimento sem afetar a relação com o paciente
A nova resolução do CFM define que o uso de modelos, sistemas e aplicações de IA não pode comprometer a relação entre médico e paciente, a escuta qualificada, a empatia, a confidencialidade e o respeito à dignidade da pessoa humana.
Além disso, o profissional não pode delegar para a IA a comunicação de diagnósticos, prognósticos ou decisões terapêuticas sem a devida supervisão humana. Outro dever do médico é manter-se atualizado em relação às capacidades, limitações, riscos e vieses conhecidos dos sistemas de IA utilizados nos atendimentos.
Ao fazer uso de IA, o médico precisa ainda zelar pela confidencialidade, integridade e segurança dos dados de saúde utilizados, assegurando que o compartilhamento de dados pessoais sensíveis de pacientes com ferramentas de IA ocorra de forma adequada. Segundo a norma, o médico deve respeitar a autonomia do paciente para recusar o uso de IA na consulta.
Quais são os deveres dos médicos no uso de IA?
- Responsabilidade final: Manter-se como o responsável último por todas as decisões diagnósticas e terapêuticas; a IA deve ser uma ferramenta de suporte.
- Julgamento crítico: Avaliar se as recomendações da IA são coerentes com o quadro clínico do paciente e com as evidências científicas.
- Atualização contínua: Manter-se informado sobre as capacidades, riscos e vieses conhecidos das ferramentas que utiliza.
- Registro e transparência: Registrar no prontuário do paciente o uso de IA no apoio à decisão.
- Preservação da relação médico-paciente: Garantir que a IA não prejudique a empatia, a escuta qualificada e a dignidade humana.
- Vedação de delegação: É proibido deixar que a IA comunique diagnósticos ou decisões terapêuticas sem a mediação direta do médico.
- Segurança de dados: Zelar pela confidencialidade e segurança dos dados dos pacientes, seguindo a LGPD e garantindo que o compartilhamento de informações sensíveis seja o mínimo necessário.
- Comunicação de falhas: Informar às instâncias competentes sobre eventuais riscos ou falhas graves no sistema de IA.
Resolução protege médicos contra falhas atribuíveis apenas à IA
A resolução prevê proteção ao médico contra responsabilização indevida por falhas atribuíveis exclusivamente ao sistema de IA, desde que demonstrado o uso diligente, crítico e ético da ferramenta. Isso reforça que a IA é um instrumento de apoio e não um substituto da responsabilidade profissional.
A resolução garante autonomia ao profissional, que não é obrigado a seguir, de maneira automática ou acrítica, recomendações geradas por sistemas de IA. A decisão final sobre diagnóstico, prescrições ou qualquer outro ato médico sempre caberá ao profissional, que tem o direito de não usar ou desligar qualquer IA que julgar inadequada durante o atendimento.
O documento também assegura ao médico o direito de ter acesso a informações claras, transparentes e compreensíveis sobre o funcionamento, as finalidades, as limitações, os riscos e o grau de evidência científica dos sistemas de IA utilizados.
Quais são os direitos dos médicos segundo o CFM
- Apoio à prática: Utilizar ferramentas de IA para auxiliar na decisão clínica, gestão, pesquisa e educação.
- Acesso à informação: Receber informações claras sobre o funcionamento, limitações, riscos e evidências científicas dos sistemas utilizados.
- Recusa de uso: O médico tem o direito de recusar sistemas sem validação científica ou que contrariem a ética médica. Ele também pode optar por desligar ou não utilizar ferramentas que considere inadequadas em situações específicas.
- Autonomia profissional: Não ser obrigado a seguir recomendações da IA de forma acrítica ou automática. O médico não será penalizado por não seguir uma orientação da IA, desde que sua conduta seja técnica e ética.
- Proteção de responsabilidade: Ser protegido contra responsabilização indevida por falhas exclusivas do sistema de IA, desde que comprovado seu uso diligente e ético.
Classificação de risco da IA na prática médica segundo o CFM
O Conselho Federal de Medicina definiu que as instituições médicas que desenvolverem ou utilizarem IA deverão realizar uma avaliação preliminar para definir o grau de risco da tecnologia. Para isso, a autarquia criou quatro graus de classificação:
- Risco baixo: causam somente atrasos ou inconvenientes administrativos, sem prejudicar a integridade física ou direitos de pacientes. Exemplos: agendamento de consultas, gestão de insumos hospitalares, chatbots para informações gerais de saúde, ferramentas de tradução de prontuários ou sumarização de literatura médica para uso interno.
- Risco médio: apresentam potencial de impacto adverso, mas contornável com supervisão humana e controles de segurança. Exemplos: ferramentas de apoio a decisões clínicas ou operacionais que não operam de forma autônoma.
- Risco alto: podem gerar danos físicos, psíquicos ou morais a pessoas, ou causar impactos significativos à saúde pública. Exemplos: IA que influencia diretamente decisões médicas críticas ou executa ações automatizadas com efeitos relevantes, especialmente em pacientes em estado vulnerável ou questões de vida ou morte.
- Risco inaceitável: categoria prevista pela resolução para soluções cujo potencial de dano seja incompatível com os princípios éticos e de segurança na medicina.
Segundo a nova resolução, a instituição ou o médico que desenvolver ou contratar uma IA deve criar processos internos de governança para garantir a segurança, a qualidade e a ética na adoção da ferramenta.
O texto também determina que os dados utilizados no desenvolvimento, treinamento e implementação de IA observem a Lei Geral de Proteção de Dados (LGPD) e as normas específicas de segurança da informação em saúde. A fiscalização do cumprimento da norma caberá aos Conselhos Regionais de Medicina (CRMs).
A Resolução nº 2.454/2026 consolida critérios objetivos para o uso de IA na medicina brasileira. A adoção de sistemas passa a exigir governança, rastreabilidade, classificação de risco e alinhamento à LGPD. Nesse cenário regulatório, a arquitetura da ferramenta deixa de ser um detalhe técnico e passa a integrar a segurança assistencial. A Voa foi estruturada com foco em autonomia médica, registro transparente de uso e proteção de dados, em conformidade com essas diretrizes.
Resolução do CFM sobre uso de IA na prática clínica: tudo o que você precisa saber