Pular para o conteúdo

Inteligência Artificial na saúde: o que clínicas, hospitais e profissionais precisam estruturar com a Resolução nº 2.454/2026

Inteligência Artificial na Saúde
Inteligência Artificial na Saúde

A publicação da Resolução nº 2.454/2026 do Conselho Federal de Medicina estabelece um novo padrão para o uso da Inteligência Artificial na saúde. A norma delimita responsabilidades, critérios de risco e exigências de governança que impactam diretamente clínicas, hospitais e profissionais da saúde.

Este novo cenário exige uma mudança de abordagem: a adoção de IA deixa de ser apenas uma decisão tecnológica e passa a ser uma decisão jurídica, estratégica e institucional.

A norma estabelece uma diretriz central que orienta toda a sua aplicação: a decisão médica permanece, obrigatoriamente, humana. A Inteligência Artificial na saúde é reconhecida como ferramenta de apoio, mas não substitui o julgamento clínico, nem afasta a responsabilidade do profissional.

Esse ponto tem implicações relevantes na prática assistencial. O médico continua sendo o responsável final por diagnósticos, condutas terapêuticas e prognósticos, ainda que utilize sistemas de IA como suporte. Além disso, o uso dessas ferramentas passa a exigir rastreabilidade, o que inclui o registro no prontuário sempre que a tecnologia for empregada como apoio à decisão.

A norma também veda a comunicação automatizada de diagnósticos ou orientações clínicas sem mediação humana, preservando a centralidade da relação médico-paciente.

Na prática, isso implica:

-Manutenção da responsabilidade integral do médico sobre decisões clínicas, diagnósticas e terapêuticas;

-Obrigatoriedade de registro do uso da IA no prontuário do paciente;

-Vedação à comunicação automatizada de diagnósticos ou condutas sem mediação humana.

Esse ponto reforça não apenas um limite técnico, mas também um pilar ético e jurídico da relação médico-paciente.

Inteligência Artificial na saúde

A Resolução nº 2.454/2026 também projeta seus efeitos diretamente sobre clínicas e hospitais, que assumem papel estrutural na forma como a IA é implementada e utilizada. Isso ocorre porque é no ambiente institucional que se definem fluxos assistenciais, se contratam soluções tecnológicas e se realizam tratamentos de dados em larga escala. Assim, ainda que a responsabilidade clínica seja pessoal, há uma clara corresponsabilidade organizacional na governança e no controle do uso da tecnologia.

Nesse contexto, a adoção de Inteligência Artificial na saúde passa a exigir uma abordagem integrada, que envolve não apenas aspectos técnicos, mas também jurídicos e operacionais.

A implementação de sistemas de IA demanda validação prévia, definição de protocolos de uso, supervisão adequada e monitoramento contínuo de desempenho. Não se trata apenas de incorporar inovação, mas de garantir que essa inovação esteja alinhada a padrões de segurança, ética e conformidade.

Um dos eixos mais relevantes da Resolução é a introdução de uma lógica estruturada de classificação de riscos. Cada sistema de IA deverá ser analisado previamente e enquadrado em níveis que variam de baixo a inaceitável, considerando fatores como o impacto potencial sobre a saúde do paciente, o grau de autonomia do sistema, a criticidade do contexto de uso e a sensibilidade dos dados tratados. Essa abordagem desloca o foco da tecnologia em si para seus efeitos práticos, exigindo das instituições uma postura ativa na gestão de riscos.

Essa lógica regulatória dialoga diretamente com a Lei Geral de Proteção de Dados Pessoais, especialmente no que se refere ao tratamento de dados sensíveis. O setor da saúde opera, por natureza, com algumas das informações mais protegidas do ordenamento jurídico, como históricos clínicos, exames, diagnósticos, dados biométricos e genéticos, além de informações relacionadas à saúde mental e tratamentos. O uso desses dados em sistemas de IA potencializa riscos e, por isso, exige um nível elevado de proteção, tanto sob a perspectiva da segurança da informação quanto da prevenção de discriminação e uso indevido.

Diante desse cenário, a proteção de dados deixa de ser um elemento acessório e passa a ocupar posição central na estratégia de conformidade. A adoção de práticas como privacy by design e privacy by default, a implementação de controles de acesso, a rastreabilidade das operações e o monitoramento de vieses algorítmicos tornam-se indispensáveis. Ao mesmo tempo, a relação com fornecedores de tecnologia precisa ser revisitada, com contratos que estabeleçam de forma clara responsabilidades, limites de atuação e deveres de cooperação.

Outro aspecto relevante diz respeito à necessidade de estruturação de governança de Inteligência Artificial. A Resolução exige que as instituições deixem de tratar a IA como ferramenta isolada e passem a integrá-la a uma lógica organizacional mais ampla, com definição de responsabilidades, criação de políticas internas e articulação entre áreas técnicas, assistenciais e jurídicas.

A governança não apenas viabiliza a conformidade regulatória, mas também contribui para maior previsibilidade e segurança nas operações.

A Resolução prevê um prazo de 180 dias para entrada em vigor. No entanto, considerando a complexidade das adequações necessárias, o processo de conformidade demanda planejamento antecipado.

A adequação envolve não apenas tecnologia, mas também:

-Revisão de processos internos;
-Capacitação de equipes;
-Adequação documental e contratual;
-Implementação de controles e políticas.

Instituições que estruturarem o uso da Inteligência Artificial com base em governança, segurança e conformidade tendem a fortalecer sua posição no mercado, ampliando a confiança de pacientes, parceiros e órgãos reguladores. Entre em contato com a nossa equipe e descubra como podemos ajudar.

Time BL Consultoria
Time BL Consultoria
Time BL Consultoria Digital - Direito Digital e Análise Regulatória

Posts Relacionados

Fale Conosco

    Categorias

    Assine nossa Newsletter

    Open chat
    Olá, tudo bem? Como podemos te ajudar?
    Olá! Como podemos ajudar?