top of page

Inteligência Artificial no Diagnóstico: Quem responde pelo erro do algoritmo?

  • Foto do escritor: Alessandra Calisto Piloto
    Alessandra Calisto Piloto
  • há 5 horas
  • 3 min de leitura

A Inteligência Artificial deixou de ser promessa e já faz parte da rotina de clínicas, hospitais e laboratórios. Algoritmos auxiliam na leitura de exames de imagem, triagens clínicas, estratificação de risco e apoio à decisão médica.


Mas a pergunta que começa a aparecer nas mesas de diretoria e nos jurídicos é direta: quando a IA erra, quem responde?


Em 2025 fizemos grandes avanços. Em 2026, essa não será uma discussão teórica. Será um tema central de governança, compliance e gestão de riscos assistenciais.


IA não decide sozinha: o princípio do Human in the Loop

Tanto o Conselho Federal de Medicina quanto a Anvisa têm sido claros: não existe diagnóstico automatizado sem responsabilidade humana.


As diretrizes mais recentes reforçam o conceito de human in the loop, ou seja, a decisão final é sempre do profissional de saúde, ainda que baseada em sistemas inteligentes. Isso significa que:


  • o médico responde subjetivamente por falhas na validação do resultado;

  • a instituição responde solidariamente pelos danos causados ao paciente, nos termos do art. 14 do Código de Defesa do Consumidor;

  • erros atribuídos ao algoritmo não afastam, por si só, a responsabilidade assistencial.


Na prática, se o profissional valida um falso negativo gerado por IA — por viés do modelo, erro de treinamento ou limitação técnica — o risco jurídico recai sobre quem utilizou a ferramenta.


O problema da “caixa-preta” e o dever de informar o paciente

Outro ponto sensível está na transparência. A LGPD classifica dados de saúde como dados pessoais sensíveis (art. 11), exigindo consentimento específico e destacado para o uso em sistemas de Inteligência Artificial. Isso inclui:


  • deixar claro ao paciente que há uso de ferramentas automatizadas no apoio diagnóstico;

  • explicar limites, riscos e grau de autonomia da tecnologia;

  • atualizar termos de consentimento informado (TCLE) para contemplar o uso de IA.


Quando o paciente não é adequadamente informado, a falta de transparência ativa a responsabilidade civil e pode gerar indenizações relevantes, independentemente de culpa.


O uso de sistemas opacos — a chamada “caixa-preta algorítmica” — sem governança clara é hoje um dos principais pontos de atenção da fiscalização.


Validação tecnológica não é opcional

Do ponto de vista regulatório, a Anvisa já enquadra softwares médicos como SaMD (Software as a Medical Device). A RDC nº 657/2022 estabelece critérios de classificação por risco (classes I a IV) e exige:


  • registro ou notificação conforme o impacto clínico;

  • documentação técnica da arquitetura do sistema;

  • comprovação de segurança, desempenho e interoperabilidade;

  • validação antes da entrada em produção.


Ferramentas não homologadas, adquiridas de forma informal ou usadas “em caráter experimental” na assistência podem configurar infração sanitária.


Aqui, o papel do compliance se conecta diretamente à engenharia clínica, ao jurídico e à TI: inovação sem governança vira passivo oculto.


O erro não é da IA. É da falta de governança.

O grande equívoco das instituições é tratar a Inteligência Artificial como um problema apenas tecnológico. Ela é, na verdade, um tema de compliance regulatório, governança clínica, proteção de dados, responsabilidade civil e finalmente, gestão de riscos reputacionais.


Instituições que estruturam políticas claras de uso de IA, protocolos de validação humana, treinamentos específicos e revisão de consentimentos conseguem transformar a tecnologia em aliada.


Conclusão: IA como copiloto, nunca como piloto automático

A Inteligência Artificial pode elevar a qualidade assistencial, reduzir variabilidade clínica e apoiar decisões mais seguras. Mas apenas quando inserida em um programa de governança de dados robusto, alinhado à legislação, às normas éticas e à realidade da operação.


A pergunta não é mais se sua instituição usa IA. A pergunta é: ela está sendo usada com governança suficiente para resistir a uma auditoria, um processo judicial ou um incidente com o paciente?


Se a sua instituição ainda não possui uma política de uso de Inteligência Artificial, avaliação de riscos regulatórios ou governança digital estruturada, esse é o momento de agir. Nossa consultoria apoia clínicas, hospitais e empresas da saúde na construção de modelos seguros, éticos e juridicamente sustentáveis de inovação.


Agende uma conversa e transforme tecnologia em proteção — não em passivo



 
 
 

Posts recentes

Ver tudo

Comentários


bottom of page