A Inteligência Artificial já influencia decisões que vão desde a concessão de crédito até a seleção de currículos, passando por triagem de riscos, priorização de atendimento e análise preditiva. Embora essas ferramentas tragam eficiência, também carregam um risco crescente: a discriminação algorítmica — quando um sistema automatizado reproduz ou amplifica vieses contra grupos ou indivíduos.
O PL 2.338/2023 coloca esse problema no centro da agenda regulatória, e o texto torna explícito que sistemas de IA devem evitar impactos discriminatórios, exigindo avaliação de risco, supervisão humana, transparência e mecanismos de mitigação. Não se trata de mera diretriz técnica, mas de um dever jurídico que dialoga diretamente com a responsabilidade civil, os direitos da personalidade e a boa-fé objetiva.
Mas como a discriminação algorítmica acontece?
Mesmo modelos matematicamente sofisticados aprendem com dados históricos, e dados históricos carregam desigualdades reais. Isso pode levar a situações como exclusão de candidatos por padrões invisíveis; negativas de crédito baseadas em correlações injustificáveis; priorização desigual de atendimentos; recomendações ou perfis que reforçam estereótipos; impactos adversos sobre grupos vulneráveis, entre outras.
O problema raramente nasce de má-fé, mas surge do uso de bases enviesadas, métricas mal calibradas ou falta de supervisão humana. Entretanto, a ausência de intenção não elimina a responsabilidade.
E o que muda com o PL 2.338/2023?
O projeto incorpora expressamente o dever de mitigação de vieses e impõe que agentes de IA que realizem avaliações de impacto sobre grupos vulneráveis; implementem supervisão humana significativa; mantenham documentação completa do ciclo de vida do sistema; adotem mecanismos para detectar e corrigir distorções; forneçam explicações compreensíveis sobre decisões automatizadas.
Mais importante: quando houver dano e o lesado não tiver condições técnicas de comprovar a discriminação — o que é padrão em algoritmos complexos — o juiz poderá inverter o ônus da prova, transferindo à empresa a responsabilidade de demonstrar que o sistema era seguro e não discriminatório.
Isso altera profundamente a lógica dos litígios envolvendo tecnologia.
E por que isso importa para as empresas?
A discriminação algorítmica está se tornando um dos temas mais sensíveis em governança tecnológica. Seus impactos incluem ações indenizatórias individuais e coletivas; danos morais de grande repercussão; riscos reputacionais imediatos; intervenção regulatória; nulidade de processos seletivos ou decisões automatizadas e necessidade de revisão ou suspensão de modelos usados no negócio.
Empresas que utilizam IA — ainda que por meio de fornecedores — precisam mapear riscos, revisar contratos, auditar modelos e estabelecer políticas claras de IA responsável.
A discriminação algorítmica não é mais um tema acadêmico: é um risco jurídico real e crescente. O PL 2.338/2023 consolidará a expectativa de que empresas atuem preventivamente para evitar vieses e garantir decisões justas e auditáveis.
É o momento de estruturar governança, avaliar modelos e antecipar adequações. Na era da IA, a responsabilidade civil deixa de ser apenas reativa: torna-se estratégica.