A publicação da Resolução nº 2.454/2026 do Conselho Federal de Medicina estabelece um novo padrão para o uso da Inteligência Artificial na saúde. A norma delimita responsabilidades, critérios de risco e exigências de governança que impactam diretamente clínicas, hospitais e profissionais da saúde.
Este novo cenário exige uma mudança de abordagem: a adoção de IA deixa de ser apenas uma decisão tecnológica e passa a ser uma decisão jurídica, estratégica e institucional.
IA como apoio, não substituição da decisão médica
A norma estabelece uma diretriz central que orienta toda a sua aplicação: a decisão médica permanece, obrigatoriamente, humana. A Inteligência Artificial na saúde é reconhecida como ferramenta de apoio, mas não substitui o julgamento clínico, nem afasta a responsabilidade do profissional.
Esse ponto tem implicações relevantes na prática assistencial. O médico continua sendo o responsável final por diagnósticos, condutas terapêuticas e prognósticos, ainda que utilize sistemas de IA como suporte. Além disso, o uso dessas ferramentas passa a exigir rastreabilidade, o que inclui o registro no prontuário sempre que a tecnologia for empregada como apoio à decisão.
A norma também veda a comunicação automatizada de diagnósticos ou orientações clínicas sem mediação humana, preservando a centralidade da relação médico-paciente.
Na prática, isso implica:
-Manutenção da responsabilidade integral do médico sobre decisões clínicas, diagnósticas e terapêuticas;
-Obrigatoriedade de registro do uso da IA no prontuário do paciente;
-Vedação à comunicação automatizada de diagnósticos ou condutas sem mediação humana.
Esse ponto reforça não apenas um limite técnico, mas também um pilar ético e jurídico da relação médico-paciente.
Inteligência artificial da saúde: O impacto vai além do médico
A Resolução nº 2.454/2026 também projeta seus efeitos diretamente sobre clínicas e hospitais, que assumem papel estrutural na forma como a IA é implementada e utilizada. Isso ocorre porque é no ambiente institucional que se definem fluxos assistenciais, se contratam soluções tecnológicas e se realizam tratamentos de dados em larga escala. Assim, ainda que a responsabilidade clínica seja pessoal, há uma clara corresponsabilidade organizacional na governança e no controle do uso da tecnologia.
Nesse contexto, a adoção de Inteligência Artificial na saúde passa a exigir uma abordagem integrada, que envolve não apenas aspectos técnicos, mas também jurídicos e operacionais.
A implementação de sistemas de IA demanda validação prévia, definição de protocolos de uso, supervisão adequada e monitoramento contínuo de desempenho. Não se trata apenas de incorporar inovação, mas de garantir que essa inovação esteja alinhada a padrões de segurança, ética e conformidade.
Proteção de dados como eixo central da conformidade
Um dos eixos mais relevantes da Resolução é a introdução de uma lógica estruturada de classificação de riscos. Cada sistema de IA deverá ser analisado previamente e enquadrado em níveis que variam de baixo a inaceitável, considerando fatores como o impacto potencial sobre a saúde do paciente, o grau de autonomia do sistema, a criticidade do contexto de uso e a sensibilidade dos dados tratados. Essa abordagem desloca o foco da tecnologia em si para seus efeitos práticos, exigindo das instituições uma postura ativa na gestão de riscos.
Essa lógica regulatória dialoga diretamente com a Lei Geral de Proteção de Dados Pessoais, especialmente no que se refere ao tratamento de dados sensíveis. O setor da saúde opera, por natureza, com algumas das informações mais protegidas do ordenamento jurídico, como históricos clínicos, exames, diagnósticos, dados biométricos e genéticos, além de informações relacionadas à saúde mental e tratamentos. O uso desses dados em sistemas de IA potencializa riscos e, por isso, exige um nível elevado de proteção, tanto sob a perspectiva da segurança da informação quanto da prevenção de discriminação e uso indevido.
Diante desse cenário, a proteção de dados deixa de ser um elemento acessório e passa a ocupar posição central na estratégia de conformidade. A adoção de práticas como privacy by design e privacy by default, a implementação de controles de acesso, a rastreabilidade das operações e o monitoramento de vieses algorítmicos tornam-se indispensáveis. Ao mesmo tempo, a relação com fornecedores de tecnologia precisa ser revisitada, com contratos que estabeleçam de forma clara responsabilidades, limites de atuação e deveres de cooperação.
Outro aspecto relevante diz respeito à necessidade de estruturação de governança de Inteligência Artificial. A Resolução exige que as instituições deixem de tratar a IA como ferramenta isolada e passem a integrá-la a uma lógica organizacional mais ampla, com definição de responsabilidades, criação de políticas internas e articulação entre áreas técnicas, assistenciais e jurídicas.
A governança não apenas viabiliza a conformidade regulatória, mas também contribui para maior previsibilidade e segurança nas operações.
Prazo de adaptação e necessidade de ação imediata
A Resolução prevê um prazo de 180 dias para entrada em vigor. No entanto, considerando a complexidade das adequações necessárias, o processo de conformidade demanda planejamento antecipado.
A adequação envolve não apenas tecnologia, mas também:
-Revisão de processos internos;
-Capacitação de equipes;
-Adequação documental e contratual;
-Implementação de controles e políticas.
Instituições que estruturarem o uso da Inteligência Artificial com base em governança, segurança e conformidade tendem a fortalecer sua posição no mercado, ampliando a confiança de pacientes, parceiros e órgãos reguladores. Entre em contato com a nossa equipe e descubra como podemos ajudar.