Insights

Inteligência Artificial na medicina passa a ter regras específicas no Brasil

Nova resolução do CFM reforça governança, risco e proteção de dados em sistemas de IA

A Resolução CFM nº 2.454, de 2026, estabelece um marco relevante para o uso de Inteligência Artificial na medicina no Brasil, trazendo diretrizes claras sobre desenvolvimento, contratação e utilização dessas tecnologias no setor de saúde.

A norma define a aplicação de IA de forma ampla, abrangendo contextos assistenciais, diagnósticos, terapêuticos, administrativos e de pesquisa, sempre que houver impacto direto ou indireto na tomada de decisão médica ou nos resultados de saúde.

O alcance é significativo. A regulamentação impacta hospitais, clínicas, operadoras de saúde e médicos em atuação privada, exigindo a adoção de estruturas formais de governança.

O que muda na prática

A principal mudança é a obrigatoriedade de implementação de governança em Inteligência Artificial.

Antes da adoção de qualquer sistema, passa a ser exigida avaliação prévia de risco, considerando fatores como impacto nos direitos fundamentais, criticidade do uso, grau de autonomia do sistema e sensibilidade dos dados tratados.

A norma também estabelece obrigações claras de transparência. O uso de IA deve ser informado ao paciente e, quando utilizado como suporte à decisão médica, deve ser registrado em prontuário.

Instituições que desenvolvem soluções próprias devem criar uma Comissão de IA e Telemedicina, sob coordenação médica e vinculada à diretoria técnica.

A responsabilidade pela supervisão das práticas recai diretamente sobre o Diretor Técnico da instituição.

Riscos e implicações para empresas

O descumprimento das regras pode gerar sanções éticas, além de potenciais responsabilidades civis e penais.

A utilização de IA sem avaliação de risco estruturada pode ser interpretada como falha de governança.

O tratamento de dados de saúde, classificados como dados sensíveis, exige base legal adequada e medidas robustas de segurança.

A ausência de transparência no uso da tecnologia pode gerar questionamentos jurídicos e reputacionais.

Empresas que utilizam soluções de terceiros também assumem risco, especialmente na ausência de due diligence técnica e regulatória.

Recomendações estratégicas

É recomendável estruturar um modelo de governança em IA que envolva áreas de compliance, tecnologia, segurança da informação e proteção de dados.

A identificação e mapeamento dos sistemas de IA em uso é passo essencial para avaliação de riscos.

A classificação dos sistemas conforme níveis de risco deve orientar a adoção de controles proporcionais.

A definição de bases legais para tratamento de dados de saúde precisa ser cuidadosamente analisada.

Medidas técnicas de segurança devem ser implementadas para garantir integridade, confidencialidade e rastreabilidade.

A capacitação de médicos e colaboradores torna-se elemento central para uso responsável da tecnologia.

Reflexão institucional

A regulamentação do uso de Inteligência Artificial na medicina reforça um movimento global de responsabilização e governança tecnológica em setores críticos.

O tema deixa de ser apenas tecnológico e passa a ser jurídico, regulatório e estratégico.

Organizações que anteciparem a estruturação de governança em IA estarão mais preparadas para um ambiente de maior fiscalização e exigência ética.

O PDK Advogados acompanha a evolução regulatória envolvendo Inteligência Artificial, proteção de dados e setores altamente regulados. Em nossos canais institucionais analisamos como essas mudanças impactam modelos de negócio, governança corporativa e gestão de riscos.

Conteúdo relacionado

Contratos Empresariais como Instrumentos de Gestão de Risco, Eficiência Operacional e Geração de Valor

MEC desaconselha uso de reconhecimento facial nas escolas

TRT-10 anula dispositivos sobre atuação de médico do trabalho em defesa do empregador

MENU