Do laboratório ao consultório: a transformação da medicina pela inteligência artificial
Avanços da IA na saúde prometem eficiência, mas também levantam dilemas éticos e riscos de aprofundar desigualdades

Dispositivos que medem a glicose no sangue e liberam insulina automaticamente, algoritmos que analisam radiografias com precisão, programas que transcrevem consultas médicas, cruzam sintomas e indicam tratamentos. A inteligência artificial (IA) já deixou os laboratórios e começa a ocupar um lugar na rotina de médicos e pacientes.
No Brasil, essa revolução silenciosa vem ganhando força. Além das trends das redes sociais e respostas automatizadas para tarefas diárias, a IA é aplicada à saúde, especialmente na radiologia, dermatologia, exames laboratoriais, gestão hospitalar e até na elaboração de diagnósticos clínicos.
Mas junto das promessas, crescem os alertas. O entusiasmo com o avanço tecnológico precisa conviver com uma reflexão crítica sobre riscos, desigualdades e a ausência de regras claras para esse novo cenário.
O que a IA já faz pela saúde?
Os exemplos são concretos. O professor do departamento de Política, Gestão e Saúde da Faculdade de Saúde Pública da Universidade de São Paulo (FSP/USP) Fernando Aith explica que, nos Estados Unidos e Europa, o Scribe — um sistema de IA para a clínica médica — já transcreve toda a anamnese feita pelo médico, busca possibilidades terapêuticas, propõe hipóteses diagnósticas e até sugere protocolos de tratamento.
No Brasil, há avanços, apesar de esse tipo de aplicação ainda ser restrita pela falta de regulação específica.
O professor da divisão de Ciências das Imagens e Física Médica do Departamento de Imagens Médicas, Hematologia e Oncologia Clínica da Faculdade de Medicina de Ribeirão Preto (FMRP) da Universidade de São Paulo (USP) Paulo Marques aponta que a IA pode “melhorar a qualidade do atendimento diretamente no cuidado, utilizando ferramentas que facilitam o entendimento do profissional que está cuidando da pessoa”.
Na gestão pública, a IA também é promissora: pode organizar agendas, prever demandas, otimizar o fluxo de pacientes e orientar decisões de investimentos. Os ganhos possíveis são redução de filas, diagnósticos mais rápidos e até economia de recursos.
Um algoritmo pode ser injusto?
Apesar do potencial, a IA carrega um risco invisível: o viés algorítmico. Esses sistemas aprendem com dados históricos. Se esses registros forem incompletos ou desiguais, como frequentemente são, os algoritmos também serão.
"Já temos casos de IA treinada com imagens de pele branca, que falha ao avaliar pessoas negras. Ou algoritmos treinados com dados de homens, que não funcionam para mulheres", explica o diretor geral do Centro de Pesquisas em Direito Sanitário da USP, Fernando Aith.
Paulo Marques, membro do Comitê Gestor do Centro de Inteligência Artificial e Aprendizado de Máquina (CIAAM) da USP, reforça que "se o desenvolvimento da IA depender apenas do setor privado, há o risco de populações pobres ficarem fora dos modelos, simplesmente porque não têm representação nos dados".
Um estudo da Universidade Federal de Campina Grande, intitulado “Viés racial em modelos de inteligência artificial para classificação de melanomas”, mostrou que algoritmos usados para detectar câncer de pele (melanoma) tiveram desempenho inferior em tons de pele mais escuros. A acurácia caiu mais de 17 pontos percentuais entre os tons extremos da escala Monk.
De acordo com a Skin Cancer Foundation, pacientes negros com melanoma têm uma taxa de sobrevida de melanoma estimada em cinco anos de 70%, contra 94% para pacientes brancos. Essa diferença existe principalmente em decorrência do diagnóstico tardio em pacientes negros.
Há uma maior dificuldade em identificar lesões malignas em tons de pele mais escuros, e pouco conhecimento sobre as áreas mais adequadas para avaliação em peles pigmentadas, o que atrasa a detecção e o tratamento.
O desbalanceamento das bases de dados influencia diretamente o desenvolvimento de modelos de IA, gerando viés racial. Como a incidência de melanoma é maior em pessoas brancas, as bases de dados são predominantemente compostas por imagens de peles claras, levando os modelos a ter dificuldade em diagnosticar efetivamente lesões em pessoas com tons de pele mais escuros.
Além do desbalanceamento de dados, um estudo apresentado no ISIC Skin Image Analysis Workshop, na IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, em 2019, identificou um novo tipo de viés: os algoritmos de aprendizado profundo não aprendem a classificar apenas a lesão, mas também o contexto em que ela está inserida, ou seja, a pele do paciente.
Isso significa que o modelo pode classificar a imagem com base no tom de pele, mesmo que a lesão esteja coberta, resultando em diagnósticos equivocados.
Videocast Saúde e Bem-Estar: Inteligência artificial na saúde — inovação que transforma o cuidado
O preço da dependência: soberania e segurança digital
A maioria das soluções de IA hoje vem de fora, empresas dos Estados Unidos dominam o setor. O Brasil, muitas vezes, importa sistemas prontos, sem saber exatamente como eles foram feitos ou com quais critérios.
Para Fernando Aith, isso é preocupante. "É uma nova forma de colonização tecnológica. O produto vem pronto, com decisões embutidas que não foram feitas por nós. Isso sufoca o surgimento de soluções locais.”
Paulo Marques também destaca a necessidade de soberania: "Se amanhã uma empresa estrangeira decidir não fornecer mais uma solução, o sistema de saúde pode ficar refém".
Dados sensíveis, consentimento frágil
A Lei Geral de Proteção de Dados (LGPD) classifica dados de saúde como dados pessoais sensíveis. Sabem-se coisas íntimas: diagnósticos, histórico familiar, tratamentos, condições psicológicas. Para utilizá-los é necessário consentimento explícito.
Mas, como lembra Raquel Saraiva, presidente e fundadora do Instituto de Pesquisa em Direito e Tecnologia do Recife (IP.rec), "nem todo mundo sabe o que é um tratamento de dados, como ele funciona, quais são as etapas. E é justamente por isso que a lei fala em consentimento informado, porque a pessoa precisa ser informada especificamente para que os dados vão ser utilizados, por quanto tempo e como, inclusive, ela pode se opor a isso, porque ela pode também consentir no primeiro momento e depois retirar o consentimento”.
Além disso, os riscos de vazamento são altos. Marques ressalta: "Um vazamento de dados de saúde pode afetar planos de saúde, gerar discriminação, fraudes, ou mesmo violar a intimidade das pessoas".
Quem responde pelo erro da máquina?
E quando a IA erra? Um diagnóstico errado pode levar a um tratamento ineficaz, a sequelas ou até à morte. Mas quem é o responsável?
Aith explica: "Hoje, quem responde geralmente é o médico, mas isso é insuficiente. A responsabilidade precisa ser repartida ao longo da cadeia: desenvolvedor, empresa, hospital".
Raquel Saraiva também chama atenção para outro risco: "não é possível transformar as pessoas em ratinhos de laboratório de ferramentas de inteligência artificial. Se for um teste, isso precisa ser comunicado às pessoas”.
“Se as autoridades de saúde estão fazendo algum tipo de experimento sem comunicar às pessoas, isso precisa ser denunciado, porque não é possível transformar as pessoas em objeto de de experimento”, alerta.
Como regular sem sufocar?
A regulação brasileira ainda engatinha. A única área com alguma norma é a de dispositivos médicos. O restante — softwares, diagnósticos, aplicações clínicas — ainda está num vácuo jurídico.
No Congresso, tramita o Projeto de Lei 2338, que institui um marco legal para a inteligência artificial. A proposta já foi aprovada no Senado, mas segue parada na Câmara dos Deputados.
Fernando Aith defende uma regulação baseada em risco, como na União Europeia. "A IA na saúde deve ser considerada de alto risco, com exigências rigorosas para sua liberação e uso. E como ela aprende com o tempo, é preciso haver vigilância depois que ela entra no mercado — o que chamamos de regulação pós-mercado".
Essa lógica, parecida com a da farmacovigilância, exige uma reformulação das estruturas de fiscalização. "Hoje, a gente regula como se estivesse atirando num alvo fixo. Mas com IA, é um alvo móvel", completa Aith.
Democratizar o acesso à tecnologia
A inteligência artificial pode ser uma aliada da universalização da saúde, mas é necessário que seja pensada também como uma ferramenta de justiça social.
"Precisamos investir em letramento digital", diz Fernando Aith. "Profissionais e pacientes precisam entender o básico da IA para que possam interagir criticamente com essas tecnologias".
Raquel Saraiva acrescenta que é fundamental exigir transparência: "É preciso saber como a ferramenta foi construída, com quais dados, quais critérios são usados e se há intervenção humana na decisão".