Nova resolução do CFM sobre Inteligência Artificial na medicina: guia prático para médicos (2026)
A Inteligência Artificial na medicina acaba de ganhar regras oficiais no Brasil.
A Resolução CFM nº 2.454/2026, publicada pelo Conselho Federal de Medicina, estabelece normas para o uso de IA na prática médica, incluindo critérios de segurança, responsabilidade profissional, proteção de dados e governança tecnológica.
Mais do que uma regulamentação técnica, o documento define como médicos, clínicas, hospitais e healthtechs deverão utilizar ferramentas de inteligência artificial a partir de agora.
A norma entra em vigor em 26 de agosto de 2026, mas já sinaliza o novo padrão esperado na prática clínica.
Neste guia, a bip explica de forma prática o que realmente muda para médicos e estudantes de medicina.
O que diz a nova resolução do CFM sobre IA na medicina
O ponto central da resolução é claro: a Inteligência Artificial é uma ferramenta de apoio, não substitui o médico.
O CFM reconhece oficialmente o uso de IA para:
- apoio à decisão clínica
- gestão em saúde
- pesquisa médica
- educação e atualização profissional
No entanto, a responsabilidade final por diagnóstico, tratamento e prognóstico permanece exclusivamente médica.
Na prática, a IA passa a ser regulamentada como instrumento clínico auxiliar, semelhante a exames complementares ou sistemas de apoio diagnóstico.
Registro do uso de IA no prontuário passa a ser essencial
Um dos pontos mais relevantes da resolução é a exigência de documentação.
Sempre que a Inteligência Artificial tiver participação relevante na tomada de decisão, o médico deverá registrar esse uso no prontuário.
- que houve avaliação crítica humana
- que a decisão foi compatível com evidências científicas
- que a IA foi utilizada apenas como suporte
Esse registro tende a se tornar um dos principais mecanismos de proteção ética e jurídica do profissional.
O que a IA NÃO pode fazer segundo o CFM
A resolução estabelece limites claros para preservar a relação médico-paciente.
A Inteligência Artificial não pode:
- comunicar diagnósticos diretamente ao paciente
- transmitir prognósticos sem mediação médica
- definir condutas terapêuticas de forma autônoma
- substituir escuta clínica, empatia e julgamento profissional
Mesmo com avanços tecnológicos, a comunicação clínica continua sendo considerada ato exclusivamente médico.
O paciente também deve ser informado quando a IA tiver papel relevante no cuidado e possui o direito de recusar seu uso.
Direitos do médico no uso de Inteligência Artificial
A regulamentação cria garantias importantes para o profissional.
- recusar sistemas sem validação científica adequada
- não seguir recomendações automatizadas obrigatoriamente
- receber informações claras sobre riscos e limitações da IA
- não ser responsabilizado por falhas exclusivamente atribuíveis ao sistema, quando houver uso diligente
Esse ponto reduz insegurança jurídica e reconhece oficialmente os limites tecnológicos das ferramentas.
Classificação de risco da IA na saúde
A resolução introduz um modelo de classificação semelhante ao adotado em regulações internacionais.
Baixo risco
Ferramentas administrativas ou informacionais, como agendamento automatizado e organização de dados clínicos.
Médio risco
Sistemas que apoiam decisões médicas com supervisão humana ativa.
Alto risco
Tecnologias que influenciam decisões clínicas críticas ou possuem potencial relevante de dano ao paciente.
Quanto maior o risco, maior a necessidade de auditoria, validação científica e monitoramento contínuo.
IA, LGPD e proteção de dados em saúde
A resolução conecta diretamente o uso de IA à Lei Geral de Proteção de Dados (LGPD).
- confidencialidade dos dados sensíveis de saúde
- uso baseado em finalidade legítima
- segurança contra acessos não autorizados
- proteção contra vazamentos e perdas de dados
O texto incorpora conceitos como privacy by design e privacy by default, indicando que a segurança deve existir desde a concepção da tecnologia.
Governança obrigatória para hospitais e healthtechs
Instituições que desenvolvem ou utilizam sistemas de IA passam a ter obrigações formais de governança.
- processos internos de supervisão
- monitoramento contínuo de desempenho e vieses algorítmicos
- relatórios de transparência em linguagem clara
- revisão periódica dos sistemas em produção
Hospitais que utilizarem IA própria deverão manter uma Comissão de IA e Telemedicina subordinada à diretoria técnica.
O que muda na prática para médicos
- avaliar o nível de risco da ferramenta antes do uso
- manter supervisão humana ativa
- registrar o uso de IA no prontuário
- informar o paciente quando houver participação relevante da tecnologia
- verificar validação científica e conformidade regulatória
- garantir segurança de dados alinhada à LGPD
Inteligência Artificial na medicina: um novo padrão regulatório
A Resolução CFM nº 2.454/2026 não restringe a inovação. Ela cria um modelo para integrar a Inteligência Artificial à medicina de forma ética e segura.
A IA pode ampliar a capacidade médica.
A decisão continua sendo humana.





Deixe seu comentário
Sua opinião é importante para a gente.