Algoritmos enviesados decidem seu futuro
A tecnologia não é neutra. Ela reflete os valores e preconceitos de quem a cria e de quem decide como ela será usada. ...............................

Clique aqui e escute a matéria
Imagine descobrir que foi rejeitado em uma vaga de emprego não por falta de qualificação, mas porque um computador “aprendeu” que pessoas como você — mulheres, negros, moradores de periferias — são menos adequadas para o cargo. Parece ficção científica distópica, mas é a realidade de milhões de pessoas ao redor do mundo, vítimas do que especialistas chamam de viés algorítmico.
Os algoritmos, esses conjuntos de instruções que dizem aos computadores como tomar decisões, estão por toda parte. Eles decidem quais notícias você vê no Facebook, se você merece um empréstimo bancário, e até mesmo se um juiz deve considerar você perigoso demais para responder em liberdade. O problema é que esses sistemas, vendidos como neutros e objetivos, na verdade carregam os mesmos preconceitos que existem em nossa sociedade — só que agora com o poder de aplicá-los em escala industrial.
O caso mais chocante talvez seja o da Amazon, gigante do comércio eletrônico. Em 2018, a empresa descobriu que seu sistema de inteligência artificial para selecionar currículos estava sistematicamente descartando candidatas mulheres. O motivo? O programa foi treinado com dados de contratações anteriores da empresa, que historicamente privilegiavam homens. Assim, o algoritmo “aprendeu” que ser mulher era uma característica negativa para trabalhar na empresa. Currículos que mencionavam universidades femininas ou incluíam a palavra “mulher” eram automaticamente rebaixados.
Nos tribunais americanos, a situação é ainda mais grave. Um sistema chamado COMPAS, usado para prever se um réu voltará a cometer crimes, consistentemente classifica negros como de alto risco com frequência duas vezes maior que brancos, mesmo quando têm históricos criminais similares. Isso significa que pessoas negras têm maior probabilidade de ficar presas aguardando julgamento simplesmente porque um computador disse que elas são mais perigosas — reproduzindo digitalmente o racismo estrutural do sistema de justiça.
No setor financeiro, bancos que usam inteligência artificial para aprovar empréstimos rejeitam pedidos de pessoas negras e latinas com muito mais frequência do que de brancos com situação financeira similar. É como se décadas de discriminação bancária, que historicamente negou crédito a minorias, tivessem sido transformadas em uma fórmula matemática apresentada como ciência exata.
Por trás desses sistemas estão as chamadas Big Techs — Google, Meta (dona do Facebook e Instagram), Amazon, Apple e Microsoft. Essas empresas controlam não apenas como nos comunicamos e consumimos informação, mas cada vez mais como somos avaliados, classificados e julgados por sistemas automatizados.
O poder dessas corporações ficou evidente durante a discussão do Marco Legal da Inteligência Artificial no Brasil. Apesar de especialistas alertarem que os algoritmos de redes sociais moldam opiniões públicas e podem até influenciar eleições, o Senado brasileiro decidiu excluir esses sistemas da lista de tecnologias de alto risco que precisariam de maior controle. A justificativa? Que seria muito “genérico” regular essas plataformas e que isso poderia afetar a liberdade de expressão.
Traduzindo: o lobby das grandes empresas de tecnologia conseguiu convencer nossos legisladores de que é melhor deixar algoritmos opacos decidirem o que vemos e pensamos do que criar regras claras sobre como eles devem funcionar.
O problema começa com os dados usados para treinar esses sistemas. Se você ensina um algoritmo usando informações de uma sociedade desigual, ele aprende a reproduzir essas desigualdades. É como ensinar uma criança mostrando apenas exemplos ruins — ela vai achar que aquilo é normal.
Além disso, as equipes que criam esses algoritmos são majoritariamente compostas por homens brancos de classe alta, formados nas mesmas universidades de elite. Quando você tem um grupo homogêneo criando sistemas que tomarão decisões sobre toda a sociedade, é natural que os preconceitos e pontos cegos desse grupo sejam incorporados ao código.
O mais perverso é que esses sistemas operam como caixas-pretas. Ninguém sabe exatamente como eles tomam suas decisões — nem mesmo, muitas vezes, as empresas que os criaram. Quando você é rejeitado por um algoritmo, não há como saber se foi por causa da sua raça, gênero, CEP ou alguma combinação obscura de fatores que o sistema considerou relevante.
A União Europeia já mostrou que é possível regular essas tecnologias. Lá, empresas que violarem as regras sobre inteligência artificial podem pagar multas de até 35 milhões de euros ou 7% de seu faturamento global. Isso cria um incentivo real para que as empresas se preocupem com os impactos de seus sistemas.
No Brasil, precisamos de regras que exijam transparência. Se um algoritmo vai decidir se você merece um empréstimo ou uma vaga de emprego, você tem o direito de saber como essa decisão foi tomada e de contestá-la se necessário. Precisamos também de auditorias independentes desses sistemas, especialmente quando usados em áreas críticas como justiça criminal, saúde e educação.
As empresas de tecnologia precisam diversificar suas equipes. Não é apenas uma questão de justiça social — é uma necessidade prática. Equipes diversas criam produtos melhores e mais justos porque trazem perspectivas diferentes sobre os problemas.
O viés algorítmico não é um problema técnico que será resolvido apenas por programadores mais competentes. É uma questão política fundamental: vamos permitir que máquinas perpetuem e ampliem as injustiças de nossa sociedade, ou vamos exigir que a tecnologia seja usada para construir um mundo mais justo?
Quando aceitamos que algoritmos opacos tomem decisões importantes sobre nossas vidas sem questionamento, estamos essencialmente terceirizando escolhas políticas para empresas privadas. Estamos dizendo que está tudo bem se um computador discrimina, desde que pareça matemática e não preconceito explícito.
A tecnologia não é neutra. Ela reflete os valores e preconceitos de quem a cria e de quem decide como ela será usada. Se queremos algoritmos mais justos, precisamos de uma sociedade mais justa — e isso começa exigindo transparência, regulação e responsabilização das empresas que estão moldando nosso futuro digital.
A escolha é nossa: aceitar passivamente que máquinas reproduzam nossas piores características ou lutar por um futuro onde a tecnologia serve para nos libertar, não para nos aprisionar em caixas criadas por preconceitos do passado transformados em código.
Jorge Américo Pereira de Lira, desembargador do Tribunal de Justiça de Pernambuco e Diretor-Geral da Escola Judicial de Pernambuco - ESMAPE