C
20/30
Fair

Inteligência Artificial na Medicina: CFM publica marco regulatório para garantir ética e autonomia humana – CartaCapital

cartacapital.com.br By Toque Tec 2026-03-15 609 words
ToqueTec

Inteligência Artificial na Medicina: CFM publica marco regulatório para garantir ética e autonomia humana

O Conselho Federal de Medicina (CFM) publicou a Resolução nº 2.454/2026, estabelecendo as regras e os limites éticos para o uso da Inteligência Artificial na prática médica. A norma, que entra em vigor em agosto de 2026, surge em um momento de rápida expansão de […]

O Conselho Federal de Medicina (CFM) publicou a Resolução nº 2.454/2026, estabelecendo as regras e os limites éticos para o uso da Inteligência Artificial na prática médica. A norma, que entra em vigor em agosto de 2026, surge em um momento de rápida expansão de ferramentas automatizadas e busca preencher um vácuo regulatório que trazia incertezas tanto para médicos quanto para pacientes.

O pilar central da nova resolução é a preservação da autonomia profissional. O texto deixa claro que a IA deve atuar estritamente como uma ferramenta de apoio à decisão clínica, e nunca como substituta do julgamento humano. "A inteligência artificial não dá a notícia; o médico dá. É vedado delegar à máquina a comunicação de diagnósticos, prognósticos ou decisões terapêuticas sem mediação humana", cita o documento.

Leia também:

Na prática, isso significa que:

O médico tem o direito de recusar recomendações da IA caso não confie na validação científica do sistema.

Todo uso relevante de IA no atendimento deve ser registrado no prontuário do paciente.

O paciente deve ser informado de forma clara quando a tecnologia estiver sendo utilizada em seu cuidado.

Os Perigos do "Dr. Algoritmo" sem supervisão

Um dos pontos mais sensíveis abordados pela resolução e por especialistas da área é o perigo do uso cotidiano da IA de forma desassistida. Com a popularização das ferramentas de Inteligência Artificial generativas e aplicativos de saúde, o CFM alertou para riscos críticos:

Erros Factuais: Sistemas de IA podem gerar respostas que parecem convincentes, mas que são medicamente incorretas, levando a autodiagnósticos perigosos.

Vieses Algorítmicos: Algoritmos podem reproduzir preconceitos de raça ou gênero presentes em seus dados de treinamento, resultando em recomendações desiguais ou inadequadas para determinados grupos.

Quebra de Sigilo: O uso de ferramentas que não seguem padrões rígidos de criptografia pode expor dados sensíveis de saúde, violando a Lei Geral de Proteção de Dados (LGPD).

Hierarquia de Riscos e Governança

A Resolução 2.454/2026 também introduz uma classificação de risco para as tecnologias de IA, que varia de Baixo (como sistemas de agendamento e chatbots administrativos) até Alto ou Inaceitável (sistemas que influenciam decisões de vida ou morte sem transparência).

Instituições que utilizam IA deverão criar Comissões de IA e Telemedicina para auditar e monitorar continuamente o desempenho dessas ferramentas, garantindo que elas não "alucinem" ou percam acurácia com o tempo.

A posição oficial do CFM reafirma que, embora a inovação seja bem-vinda e possa acelerar a detecção de doenças complexas, ela não pode atropelar os princípios da beneficência e da não maleficência. A responsabilidade civil e ética pelo ato médico permanece integralmente sobre os ombros do profissional humano.

Este conteúdo foi criado com auxílio de inteligência artificial e supervisionado por um jornalista do ToqueTec

Apoie o jornalismo que chama as coisas pelo nome

Muita gente esqueceu o que escreveu, disse ou defendeu. Nós não. O compromisso de CartaCapital com os princípios do bom jornalismo permanece o mesmo.

O combate à desigualdade nos importa. A denúncia das injustiças importa. Importa uma democracia digna do nome. Importa o apego à verdade factual e a honestidade.

Estamos aqui, há mais de 30 anos, porque nos importamos. Como nossos fiéis leitores, CartaCapital segue atenta.

Se o bom jornalismo também importa para você, nos ajude a seguir lutando. Assine a edição semanal de CartaCapital ou contribua com o quanto puder.

Tap highlighted text for details

Source Quality
Perspective
Context
Neutrality
Transparency
Logic