Discriminação Algorítmica: o novo risco jurídico que já afeta empresas — e por que agir agora

Conteúdos
3 dez 2025 | Leitura: 2 min.

A Inteligência Artificial já influencia decisões de crédito, contratações, priorização de atendimento e análises preditivas. Mas junto com a eficiência vem um novo risco jurídico — crescente, silencioso e muitas vezes invisível: a discriminação algorítmica. 

O PL 2.338/2023 transforma esse risco em um dever jurídico explícito. 

O que é discriminação algorítmica? 

É quando um sistema de IA, treinado em dados históricos, aprende desigualdades reais e passa a reproduzi-las de forma automatizada. Isso gera situações como: 

  • exclusão de candidatos por padrões invisíveis; 
  • negativas de crédito sem justificativa objetiva; 
  • priorização desigual de atendimentos; 
  • reforço de estereótipos em segmentações; 
  • impactos adversos sobre grupos vulneráveis. 
  • Não há má intenção — mas há responsabilidade. 

O que muda com o PL 2.338/2023? 

O texto exige que agentes que utilizam IA adotem: 

  • avaliação de impacto sobre grupos vulneráveis; 
  • supervisão humana significativa; 
  • documentação completa do ciclo de vida do modelo; 
  • mecanismos para detectar e corrigir vieses; 
  • explicações compreensíveis sobre decisões automatizadas. 

E o ponto mais sensível: se houver dano, o juiz pode inverter o ônus da prova, ou seja: caberá à empresa demonstrar que o sistema era seguro e não discriminatório. Isso altera profundamente a lógica dos litígios envolvendo tecnologia. 

Por que isso importa para as empresas? 

Porque o risco é transversal e afeta: 

  • RH e recrutamento 
  • concessão de crédito 
  • atendimento ao consumidor 
  • marketing e segmentação 
  • produtos e serviços baseados em IA (inclusive de terceiros) 

Os impactos incluem: 

  • ações individuais e coletivas; 
  • danos morais; 
  • investigação regulatória; 
  • nulidade de decisões automatizadas; 
  • crises reputacionais; 
  • suspensão de modelos críticos ao negócio. 
  • Terceirizar a tecnologia não terceiriza a responsabilidade. 

O que as empresas precisam fazer agora? 

  • mapear riscos de IA; 
  • revisar contratos com fornecedores; 
  • estabelecer políticas internas de IA responsável; 
  • documentar o ciclo de vida dos modelos; 
  • treinar equipes; 
  • criar processos com supervisão humana real. 

A responsabilidade civil na era da IA deixou de ser reativa — ela se tornou estratégica. 

Conecte-se ao Lima Junior Castro Ferreira

O Lima Junior Castro Ferreira faz uma curadoria especial para que você possa ficar por dentro de tudo o que impacta o seu negócio.
Receba notícias, análises jurídicas, conteúdo setorial e conheça mais de nossas soluções.

    Conteúdos jurídicos com o LJCF

    Terço constitucional de férias: possibilidade de reaver os valores indevidamente recolhidos antes de 15/09/2020

    Para alguns contribuintes ainda existe a possibilidade de reaver os valores das contribuições previdenciárias e às terceiras entidades recolhidos sobre …

    Conteúdos

    Férias: o que toda empresa precisa saber

    A concessão de férias aos empregados é um tema que envolve não apenas o cumprimento da legislação, mas também planejamento …

    Conteúdos

    Mercado Imobiliário e reforma tributária: o que é o “imposto do aluguel” e os impactos no setor

    Com a reforma tributária, regulada pela Lei Complementar n. 214/2015, trazendo mudanças estruturais em diversos setores, poderá implicar também na …

    Conteúdos

    Reforma do Imposto de Renda: entenda o que muda a partir de 2026

    Recentemente, foi sancionada pela Presidência da República a Lei nº 15.270/2025, derivada do Projeto de Lei nº 1.087 de 2025, …

    Conteúdos

    Queremos te ajudar!

    Estamos prontos para te apoiar na evolução do seu negócio.

    FALE CONOSCO