Inteligência Artificial no Diagnóstico: Quem responde pelo erro do algoritmo?
- Alessandra Calisto Piloto

- há 5 horas
- 3 min de leitura
A Inteligência Artificial deixou de ser promessa e já faz parte da rotina de clínicas, hospitais e laboratórios. Algoritmos auxiliam na leitura de exames de imagem, triagens clínicas, estratificação de risco e apoio à decisão médica.
Mas a pergunta que começa a aparecer nas mesas de diretoria e nos jurídicos é direta: quando a IA erra, quem responde?
Em 2025 fizemos grandes avanços. Em 2026, essa não será uma discussão teórica. Será um tema central de governança, compliance e gestão de riscos assistenciais.
IA não decide sozinha: o princípio do Human in the Loop
Tanto o Conselho Federal de Medicina quanto a Anvisa têm sido claros: não existe diagnóstico automatizado sem responsabilidade humana.
As diretrizes mais recentes reforçam o conceito de human in the loop, ou seja, a decisão final é sempre do profissional de saúde, ainda que baseada em sistemas inteligentes. Isso significa que:
o médico responde subjetivamente por falhas na validação do resultado;
a instituição responde solidariamente pelos danos causados ao paciente, nos termos do art. 14 do Código de Defesa do Consumidor;
erros atribuídos ao algoritmo não afastam, por si só, a responsabilidade assistencial.
Na prática, se o profissional valida um falso negativo gerado por IA — por viés do modelo, erro de treinamento ou limitação técnica — o risco jurídico recai sobre quem utilizou a ferramenta.
O problema da “caixa-preta” e o dever de informar o paciente
Outro ponto sensível está na transparência. A LGPD classifica dados de saúde como dados pessoais sensíveis (art. 11), exigindo consentimento específico e destacado para o uso em sistemas de Inteligência Artificial. Isso inclui:
deixar claro ao paciente que há uso de ferramentas automatizadas no apoio diagnóstico;
explicar limites, riscos e grau de autonomia da tecnologia;
atualizar termos de consentimento informado (TCLE) para contemplar o uso de IA.
Quando o paciente não é adequadamente informado, a falta de transparência ativa a responsabilidade civil e pode gerar indenizações relevantes, independentemente de culpa.
O uso de sistemas opacos — a chamada “caixa-preta algorítmica” — sem governança clara é hoje um dos principais pontos de atenção da fiscalização.
Validação tecnológica não é opcional
Do ponto de vista regulatório, a Anvisa já enquadra softwares médicos como SaMD (Software as a Medical Device). A RDC nº 657/2022 estabelece critérios de classificação por risco (classes I a IV) e exige:
registro ou notificação conforme o impacto clínico;
documentação técnica da arquitetura do sistema;
comprovação de segurança, desempenho e interoperabilidade;
validação antes da entrada em produção.
Ferramentas não homologadas, adquiridas de forma informal ou usadas “em caráter experimental” na assistência podem configurar infração sanitária.
Aqui, o papel do compliance se conecta diretamente à engenharia clínica, ao jurídico e à TI: inovação sem governança vira passivo oculto.
O erro não é da IA. É da falta de governança.
O grande equívoco das instituições é tratar a Inteligência Artificial como um problema apenas tecnológico. Ela é, na verdade, um tema de compliance regulatório, governança clínica, proteção de dados, responsabilidade civil e finalmente, gestão de riscos reputacionais.
Instituições que estruturam políticas claras de uso de IA, protocolos de validação humana, treinamentos específicos e revisão de consentimentos conseguem transformar a tecnologia em aliada.
Conclusão: IA como copiloto, nunca como piloto automático
A Inteligência Artificial pode elevar a qualidade assistencial, reduzir variabilidade clínica e apoiar decisões mais seguras. Mas apenas quando inserida em um programa de governança de dados robusto, alinhado à legislação, às normas éticas e à realidade da operação.
A pergunta não é mais se sua instituição usa IA. A pergunta é: ela está sendo usada com governança suficiente para resistir a uma auditoria, um processo judicial ou um incidente com o paciente?
Se a sua instituição ainda não possui uma política de uso de Inteligência Artificial, avaliação de riscos regulatórios ou governança digital estruturada, esse é o momento de agir. Nossa consultoria apoia clínicas, hospitais e empresas da saúde na construção de modelos seguros, éticos e juridicamente sustentáveis de inovação.
Agende uma conversa e transforme tecnologia em proteção — não em passivo


Comentários