Discriminação Algorítmica: o novo risco jurídico da era da IA — e por que as empresas precisam agir agora

Conteúdos
4 fev 2026 | Leitura: 3 min.

A Inteligência Artificial já influencia decisões que vão desde a concessão de crédito até a seleção de currículos, passando por triagem de riscos, priorização de atendimento e análise preditiva. Embora essas ferramentas tragam eficiência, também carregam um risco crescente: a discriminação algorítmica — quando um sistema automatizado reproduz ou amplifica vieses contra grupos ou indivíduos. 

O PL 2.338/2023 coloca esse problema no centro da agenda regulatória, e o texto torna explícito que sistemas de IA devem evitar impactos discriminatórios, exigindo avaliação de risco, supervisão humana, transparência e mecanismos de mitigação. Não se trata de mera diretriz técnica, mas de um dever jurídico que dialoga diretamente com a responsabilidade civil, os direitos da personalidade e a boa-fé objetiva. 

Mas como a discriminação algorítmica acontece? 

Mesmo modelos matematicamente sofisticados aprendem com dados históricos, e dados históricos carregam desigualdades reais. Isso pode levar a situações como exclusão de candidatos por padrões invisíveis; negativas de crédito baseadas em correlações injustificáveis; priorização desigual de atendimentos; recomendações ou perfis que reforçam estereótipos; impactos adversos sobre grupos vulneráveis, entre outras. 

O problema raramente nasce de má-fé, mas surge do uso de bases enviesadas, métricas mal calibradas ou falta de supervisão humana. Entretanto, a ausência de intenção não elimina a responsabilidade. 

E o que muda com o PL 2.338/2023? 

O projeto incorpora expressamente o dever de mitigação de vieses e impõe que agentes de IA que realizem avaliações de impacto sobre grupos vulneráveis; implementem supervisão humana significativa; mantenham documentação completa do ciclo de vida do sistema; adotem mecanismos para detectar e corrigir distorções; forneçam explicações compreensíveis sobre decisões automatizadas. 

Mais importante: quando houver dano e o lesado não tiver condições técnicas de comprovar a discriminação — o que é padrão em algoritmos complexos — o juiz poderá inverter o ônus da prova, transferindo à empresa a responsabilidade de demonstrar que o sistema era seguro e não discriminatório. 

Isso altera profundamente a lógica dos litígios envolvendo tecnologia. 

E por que isso importa para as empresas? 

A discriminação algorítmica está se tornando um dos temas mais sensíveis em governança tecnológica. Seus impactos incluem ações indenizatórias individuais e coletivas; danos morais de grande repercussão; riscos reputacionais imediatos; intervenção regulatória; nulidade de processos seletivos ou decisões automatizadas e necessidade de revisão ou suspensão de modelos usados no negócio. 

Empresas que utilizam IA — ainda que por meio de fornecedores — precisam mapear riscos, revisar contratos, auditar modelos e estabelecer políticas claras de IA responsável. 

A discriminação algorítmica não é mais um tema acadêmico: é um risco jurídico real e crescente. O PL 2.338/2023 consolidará a expectativa de que empresas atuem preventivamente para evitar vieses e garantir decisões justas e auditáveis. 

É o momento de estruturar governança, avaliar modelos e antecipar adequações. Na era da IA, a responsabilidade civil deixa de ser apenas reativa: torna-se estratégica. 

Conecte-se ao Lima Junior Castro Ferreira

O Lima Junior Castro Ferreira faz uma curadoria especial para que você possa ficar por dentro de tudo o que impacta o seu negócio.
Receba notícias, análises jurídicas, conteúdo setorial e conheça mais de nossas soluções.

    Conteúdos jurídicos com o LJCF

    REDUÇÃO LINEAR DE BENEFÍCIOS DA LC Nº 224/25 E OS IMPACTOS NA EFD-CONTRIBUIÇÕES

    A Receita Federal publicou a Nota Técnica nº 012/2026, com orientações aos contribuintes de PIS e Cofins sobre a escrituração, …

    Conteúdos

    O Acordo de Sócios na Sociedade Limitada: apontamentos práticos e estabelecimento de cláusula sucessória e valuation

    O Acordo de Sócios de Quotistas é um contrato apartado ao contrato social no qual os sócios estabelecem regras que …

    Conteúdos

    STJ afasta incidência de correção e juros superiores à Taxa SELIC sobre tributos Municipais

    No dia 24/02/2026 foi finalizado o julgamento do Tema Repercussão Geral nº 1.217 pelo Supremo Tribunal Federal em que foi …

    Conteúdos

    Empresas devem redobrar atenção com contribuições de terceiros após decisão do STJ no Tema nº 1.390

    O Superior Tribunal de Justiça julgou, em 11 de fevereiro de 2026, o Tema nº 1.390, fixando entendimento acerca da …

    Sem categoria

    Queremos te ajudar!

    Estamos prontos para te apoiar na evolução do seu negócio.

    FALE CONOSCO