O Conselho Federal de Medicina (CFM) publicou, nesta sexta-feira (27), a primeira regulamentação oficial do país voltada para uso de Inteligência Artificial (IA) na Medicina, através da Resolução CFM nº 2.454/2026.
A medida estreia um marco histórico inédito no Brasil, estabelecendo normas para a pesquisa, desenvolvimento e uso responsável de sistemas e aplicações de IA na área médica. De acordo com a resolução, essa decisão tem como objetivo o desenvolvimento tecnológico e a eficiência dos serviços médicos com maior segurança.
A resolução traz diretrizes para médicos, hospitais, instituições de ensino e pesquisadores, passando a valer após 180 dias da data de publicação, prazo estabelecido para que instituições e médicos se adaptem às mudanças.
O avanço da IA na rotina clínica, desde o processo de imagens até a elaboração de relatórios, impulsionou a necessidade regras claras e objetivas sobre responsabilidade, ética e segurança. No art. 11, por exemplo, a resolução estabelece que qualquer uso de IA deve ser comunicada e explicada aos pacientes, reforçando que os sistemas não substituem a autoridade médica e servem como apoio ao profissional.
O uso da IA na Medicina não substitui o médico
A permanência de autoridade do profissional é um ponto indiscutível no texto do CFM, que afirma que a Inteligência Artificial deve atuar exclusivamente como auxiliadora e nunca como substituta do médico. A decisão final do diagnóstico deverá ser sempre humana.
Ou seja, o profissional não deve seguir as recomendações automatizadas como sendo obrigatórias e as instituições jamais poderão obrigar os profissionais a adotarem condutas baseadas unicamente nos algoritmos.
A resolução reafirma que “as soluções apresentadas pelos modelos de IA não são soberanas” e cabe ao médico avaliar a coerência das sugestões fornecidas pelos algoritmos, considerando o quadro clínico, as evidências científicas e os princípios éticos.
Mesmo utilizando IA para auxiliar na prática clínica, o profissional e a instituição continuam responsáveis pelas decisões tomadas com a Inteligência Artificial, não podendo atribuir possíveis erros ao uso da tecnologia.
Para estudantes, internos e residentes, essa diretriz sinaliza a necessidade de desenvolver novas competências: leitura crítica de outputs algorítmicos, conhecimento sobre vieses e compreensão de limitações técnicas das ferramentas de IA.

Hospitais terão que criar comissão de IA e telemedicina
Uma das maiores mudanças institucionais previstas pela resolução é a exigência de que hospitais, clínicas e unidades que utilizem ou desenvolvam soluções próprias de IA criem uma Comissão de IA e Telemedicina.
| A comissão deverá ser coordenada por um médico e subordinada à diretoria técnica, responsáveis por: |
| governança da tecnologia; |
| monitoramento contínuo; |
| auditoria especializada; e |
| garantia do uso ético e seguro. |
O objetivo é garantir que a implementação dessas ferramentas seja transparente, segura e orientada ao benefício do paciente, evitando adoção irrestrita de tecnologias sem avaliação adequada.
O paciente não é obrigado a aceitar o uso da IA na Medicina
A nova norma proíbe categoricamente o diagnóstico ou decisões terapêuticas pela IA. O CFM afirma, ainda, que é vedado o comunicado automatizado de resultados clínicos diretamente ao paciente, atribuindo essa competência exclusivamente ao médico.
Para que isso ocorra sem problemas, o paciente passa a ter garantias importantes: deve ser informado, em linguagem clara, sempre que modelos de IA forem utilizados em sua consulta, tendo garantido à ele o direito de recusar a tecnologia, sem prejuízo do tratamento.

Independente do cenário onde ocorra o uso da tecnologia (seja nas práticas de telemedicina, triagem automatizada ou análises por imagem), a transparência e consentimento passam a ser obrigatórios.
Proteção de dados, riscos e obrigações práticas para médicos e instituições
A resolução também estabelece diretrizes rígidas de proteção de dados, baseadas na Lei Geral de Proteção de Dados (LGPD).
Médicos e instituições devem assegurar confidencialidade, integridade e segurança das informações pessoais utilizadas em sistemas de IA, incluindo anonimização, controle de acesso e medidas de prevenção a vazamentos.
A norma cria, também, uma classificação de risco dos sistemas: baixo, médio, alto ou inaceitável. Essa categorização deverá orientar processos de monitoramento, auditoria e documentação.

Tecnologias de alto risco, como algoritmos que influenciam decisões críticas, exigirão validação rigorosa e acompanhamento contínuo. Já modelos considerados inaceitáveis não poderão ser adotados.
Além disso, passa a ser obrigatório registrar no prontuário toda vez que a IA for utilizada como apoio à decisão clínica. O registro fortalece a rastreabilidade, a transparência com o paciente e a prestação de contas em eventuais revisões éticas ou legais.
Impacto no ensino e na carreira médica
Com a nova norma, também são projetados efeitos diretos na formação das próximas gerações de médicos.
Agora, faculdades de Medicina e programas de residência tendem a incorporar, mais estruturalmente, conteúdos voltados para a ética digital, como uso de ferramentas baseadas em algoritmos e limites éticos do uso da IA.
Diante da resolução, a expectativa é que essas diferentes competências se integrem ao conjunto de habilidades necessárias para a prática profissional.
Em um ambiente cada vez mais mediado por dados e sistemas automatizados, entender os limites, riscos e potencialidades da Inteligência Artificial será parte essencial da formação e da responsabilidade profissional.
📲 As principais notícias do dia na sua caixa de entrada! Se inscreva na Newsletter da MEM









