Cláudio Cordovil

IA e judicialização da saúde: entenda os perigos ocultos que podem afetar seu tratamento

Resumo da notícia

⚖️🤖 O CNJ e o Hospital das Clínicas da USP anunciaram o uso de inteligência artificial em decisões judiciais sobre saúde. A promessa é rapidez, mas os riscos para pacientes e famílias são altos.

  • Por que isso importa: decisões judiciais definem acesso a cirurgias, medicamentos e internações; se a IA errar, o impacto pode ser vida ou morte.

🧠 O que está acontecendo:

  • O acordo prevê ferramentas de IA para classificar processos, resumir documentos e apoiar magistrados.
  • O sistema usará bases como o e-NatJus para “aconselhar” juízes.

🔍 Nas entrelinhas:

  • Alucinações: modelos podem inventar fatos ou estudos.
  • Viés e desigualdade: dados históricos podem reproduzir injustiças.

🏃 Resumindo: a IA promete agilidade, mas sem regras claras pode gerar decisões opacas e perda de confiança na Justiça.

  • É essencial exigir fontes, datas de revisão e revisão humana real.
  • Pacientes podem recorrer à LGPD para contestar decisões automatizadas.

🖼️ O quadro geral: IA não é neutra nem mágica. Precisa de transparência, governança e salvaguardas fortes. O Judiciário deve publicar regras, métricas e relatórios, e a sociedade deve cobrar participação e fiscalização.

💭 Nossa opinião: sem controle social, a IA pode desequilibrar a balança da justiça e transformar um avanço tecnológico em retrocesso para os direitos em saúde.

Nas últimas semanas, o Conselho Nacional de Justiça (CNJ) firmou com o Hospital das Clínicas da Faculdade de Medicina da USP (HCFMUSP) um acordo para usar inteligência artificial (IA) no apoio a decisões judiciais em processos de saúde. As ferramentas prometem classificar automaticamente ações, resumir documentos e oferecer um “agente virtual” para consultar a base do e-NatJus. A ideia é agilizar e padronizar a análise de casos que podem decidir o acesso a exames, cirurgias, internações e medicamentos. A tecnologia pode, de fato, trazer ganhos. Mas, sem salvaguardas fortes, ela também pode aumentar injustiças, reduzir a transparência das decisões e colocar em risco a privacidade de pacientes e famílias. Este texto explica, em linguagem direta, por que a sociedade precisa prestar atenção agora e o que cada pessoa pode fazer para se proteger e cobrar o uso responsável dessas ferramentas.

Para começo de conversa, vale entender o que está em jogo.

IA no Direito Sanitário: 10 riscos que exigem atenção

  • Alucinações: modelos generativos podem inventar fatos, estudos ou recomendações inexistentes.
  • Viés e desigualdade: reprodução e amplificação de desigualdades regionais, raciais e socioeconômicas.
  • Desatualização científica: uso de notas técnicas ou diretrizes vencidas, levando a decisões erradas.
  • Opacidade: falta de explicabilidade impede contraditório e reduz confiança nas decisões.
  • Privacidade em risco: dados sensíveis de saúde podem vazar ou ser mal protegidos.
  • Automatização sem revisão humana: decisões influenciadas por IA sem checagem real de magistrados.
  • Classificação errada: processos colocados na fila incorreta, causando atrasos e distorções estatísticas.
  • Mudança de missão: sistemas criados para “apoio” migram para funções decisórias sem debate público.
  • Responsabilidade difusa: ausência de governança clara sobre quem responde por erros ou abusos.
  • Erosão da confiança pública: uso acrítico da IA pode comprometer a legitimidade da Justiça em saúde.

Quando se fala em IA no Judiciário, estamos falando de modelos que “aprendem” com dados do passado. Alguns são modelos de linguagem, capazes de ler e resumir textos; outros fazem buscas inteligentes e recuperam trechos relevantes de documentos — o chamado RAG, de “retrieval-augmented generation”, que significa “geração aumentada por recuperação”. O sistema vasculha notas técnicas, diretrizes e pareceres e apresenta um resumo com citações. Na teoria, isso ajuda juízes e juízas a lidarem com pilhas de processos e informações científicas complexas. Na prática, existem riscos concretos que precisam ser enfrentados com regras claras e fiscalização social.

Um primeiro risco é a “alucinação” dos modelos generativos. Esses sistemas podem escrever respostas com aparência muito convincente, mas que contêm erros ou até inventam estudos e referências. Em saúde, uma “alucinação” pode virar um parecer equivocado sobre um tratamento ou um exame essencial, e isso tem consequências diretas para a vida das pessoas. Por isso, toda resposta produzida por IA precisa vir acompanhada de fontes verificáveis — mostrando qual nota técnica foi usada, qual diretriz clínica embasou a conclusão e, sobretudo, a data da última atualização. Se não há fonte clara, a informação não deve sustentar uma decisão. É o básico para permitir que advogados, médicos, pacientes e o próprio Ministério Público possam verificar e, se preciso, contestar o conteúdo.

Outro risco é o viés. Como os modelos aprendem com dados históricos, eles podem repetir e piorar desigualdades já existentes. Se a base usada para treinar ou validar o sistema tiver mais casos de certas regiões do país, ou refletir barreiras de acesso relacionadas a raça/cor, gênero ou renda, o resultado pode ser um sistema que funciona bem para alguns e mal para outros. Isso não é teoria: há estudos mostrando que ferramentas de IA em saúde podem subestimar sintomas de grupos específicos, levando a decisões injustas. Para evitar esse problema, é indispensável testar o desempenho por subgrupos (sexo, raça/cor, idade, região, SUS versus saúde suplementar) e publicar relatórios periódicos com os resultados — não apenas um índice “médio”, que mascara desigualdades. A sociedade deve cobrar essa transparência.

A desatualização é um terceiro ponto crítico. A medicina muda rápido: novas evidências surgem, diretrizes são revistas, medicamentos entram e saem de protocolos. Se o sistema usa RAG para recuperar documentos, é obrigatório controlar versões, exibir a data de cada nota técnica e mostrar claramente quando uma informação foi revisada pela última vez. Um parecer que era adequado no ano passado pode estar desatualizado hoje. O mínimo aceitável é que toda saída do sistema traga, de forma visível, “data da última revisão” e “versão do documento”. Sem isso, fica impossível saber se o conteúdo está alinhado com o melhor conhecimento disponível.

Transparência e contraditório também precisam ser levados a sério. Se a IA influenciou uma decisão, a pessoa afetada tem direito de entender como. Isso significa mostrar quais trechos específicos foram recuperados pelo sistema, como eles foram combinados e qual foi o limite de atuação da máquina. Documentos como “model cards” (fichas do modelo) e “data cards” (sobre os dados) ajudam a explicar para que o sistema foi treinado, onde ele não deve ser usado e quais métricas de qualidade apresenta por tipo de caso (medicamento, transporte, cirurgia, internação, e assim por diante). Sem essas informações, o processo fica opaco e o direito de defesa fica prejudicado.

Privacidade é outro eixo sensível. Processos de saúde reúnem dados íntimos e delicados. Vazamentos podem ocorrer em vários pontos: nos bancos de dados, nos próprios “prompts” (as perguntas feitas ao sistema), nos registros de uso (logs) e em relatórios que circulam entre setores. A legislação brasileira protege esses dados e coloca limites ao seu uso, exigindo princípios de minimização, finalidade específica e segurança desde a concepção (“privacy by design”). Na prática, isso se traduz em anonimização antes de indexar documentos, criptografia forte, políticas de retenção curta (não guardar além do necessário), revisão de acessos e auditorias externas. Pacientes e advogados devem perguntar, por escrito, como essas medidas foram implementadas.

Há ainda o tema das decisões automatizadas. A lei brasileira assegura às pessoas o direito de solicitar revisão de decisões tomadas apenas por processamento automatizado. No Judiciário, isso tem uma consequência direta: a IA pode auxiliar, mas não pode substituir o discernimento do julgador. Precisa existir revisão humana real — e não apenas um “carimbo” automático. Isso inclui registrar quando a IA foi usada, quem revisou, quais foram as razões humanas para concordar ou divergir e qual é o caminho para a pessoa contestar a decisão. É um direito, não um favor.

Erros de classificação também merecem atenção. Modelos menores, mais “econômicos”, são muitas vezes usados para rotular processos e direcioná-los a filas específicas. Se a etiquetagem estiver errada — por exemplo, um pedido de procedimento cirúrgico classificado como “fornecimento de medicamento” — o processo pode ir para a fila errada, atrasar análises urgentes e distorcer estatísticas oficiais. O caminho responsável é definir metas de qualidade por classe (precisão, recall e F1), manter revisão humana obrigatória em categorias de alto impacto e monitorar a “deriva” do sistema ao longo do tempo, ajustando o modelo quando o desempenho cair.

Um risco mais silencioso é a “mudança de missão”, ou mission creep. O sistema começa como uma ferramenta de apoio e, aos poucos, sem novo debate público, passa a automatizar etapas críticas. Para evitar esse deslizamento, é preciso delimitar explicitamente o escopo de uso (“assistência, não decisão”), amarrar qualquer ampliação a uma avaliação de impacto e abrir consulta pública com especialistas independentes e entidades da sociedade civil. A regra é simples: quanto maior o risco social, mais fortes devem ser os freios e contrapesos.

Tudo isso exige governança clara e responsabilização. Acordos de cooperação envolvem parceiros técnicos, mas a responsabilidade final pelas decisões é do Estado. Por isso, é recomendável que o Judiciário institua um Comitê de Governança de IA com participação externa, publique atas e relatórios, documente incidentes e mantenha um plano de resposta para falhas. Sem uma instância independente e transparente, a sociedade fica sem um endereço claro para cobrar correções.

Por que falar disso agora? Porque o acordo CNJ–HCFMUSP coloca a IA dentro do coração da judicialização da saúde, que atinge milhares de famílias brasileiras. Com boa governança, a tecnologia pode ajudar a trazer mais consistência e velocidade às decisões. Sem governança, pode ampliar desigualdades, consolidar erros e enfraquecer a confiança nas instituições. Em assuntos que podem definir a vida de alguém, não existe “piloto automático” aceitável.

O que a cidadã e o cidadão podem fazer, então, quando se deparam com um caso em que suspeitam que a IA foi usada? Primeiro, perguntem por escrito se alguma ferramenta de IA subsidia a decisão e, em caso positivo, qual é ela. Exijam as fontes citadas, a data da última atualização e a versão dos documentos. Peçam revisão humana significativa quando a decisão parecer ter sido tomada com base apenas em processamento automatizado e invoquem o direito à revisão previsto em lei. Solicitem — ou pressionem para que sejam publicados — relatórios com métricas por tipo de caso e por subgrupos, para verificar se há diferenças injustas no desempenho. Perguntem como os dados foram protegidos: houve anonimização antes da indexação? Qual é a política de retenção? Houve auditoria externa? Reivindiquem o direito de ver os trechos exatos recuperados pelo sistema (quando RAG for utilizado) e questionem a validade de saídas que não apresentem fonte. Por fim, acompanhem mudanças de escopo: se a corte ampliar o uso da IA, cobrem consulta pública e estudo de impacto.

O que o Judiciário pode fazer?

Do lado do Judiciário, há um “mínimo indispensável” que pode ser implantado já: publicar regras claras de uso da IA, explicando para que serve, onde não deve ser usada e quem supervisiona; disponibilizar “model cards” e “data cards” que esclareçam os dados, as limitações e as métricas de qualidade; apresentar relatórios trimestrais com acurácia por tipo de ação e por subgrupos; manter o RAG com cadeia de custódia (controle de versões, carimbo de data, fontes confiáveis e registradas); adotar privacy by design com anonimização prévia, retenção mínima e auditorias independentes; criar um canal de contestação simples e acessível para a pessoa afetada; e instalar um comitê de governança com membros externos e atas públicas. Essas medidas seguem a direção indicada por órgãos internacionais quando falam de IA em saúde e no setor público.

Resumindo

IA não é mágica. É uma ferramenta poderosa que precisa de regras, transparência e pessoas preparadas para usá-la com responsabilidade. No contexto da judicialização da saúde, cada resposta automática pode significar dias a mais de espera, um tratamento negado ou concedido, uma vida salva ou um dano difícil de reverter. Como sociedade, temos o direito de saber quando e como a IA está sendo usada; exigir revisão humana real; e garantir que ninguém seja prejudicado por vieses escondidos em linhas de código. O acordo do CNJ com o HCFMUSP coloca esse debate no centro da vida de milhões de brasileiros. Se fizermos a lição de casa — com controle social, transparência e proteção de direitos — poderemos colher o melhor da tecnologia sem abrir mão da justiça e da dignidade.


Nota de Transparência: Este post foi inicialmente gerado com o auxílio de tecnologias avançadas de Inteligência Artificial (IA), visando otimizar o processo de pesquisa e escrita. No entanto, é importante destacar que todo o conteúdo foi rigorosamente revisado e editado pelo autor deste blog. Nosso compromisso com a precisão e a qualidade da informação permanece inabalável, e a supervisão humana qualificada é uma parte essencial desse processo. A utilização da IA é parte do nosso esforço contínuo para trazer informações atualizadas e relevantes, sempre alinhadas com os mais altos padrões éticos e científicos.

avatar do autor
Cláudio Cordovil Pesquisador em Saúde Pública
Jornalista profissional. Servidor Público. Pesquisador em Saúde Pública (ENSP/Fiocruz). Especializado em Doenças Raras, Saúde Pública e Farmacoeconomia . Mestre e Doutor em Comunicação e Cultura (Eco/UFRJ). Prêmio José Reis de Jornalismo Científico concedido pelo CNPq.

Deixe um comentário

error: Corta e cola, não!
Verified by MonsterInsights