A Inteligência Artificial já influencia decisões de crédito, contratações, priorização de atendimento e análises preditivas. Mas junto com a eficiência vem um novo risco jurídico — crescente, silencioso e muitas vezes invisível: a discriminação algorítmica.
O PL 2.338/2023 transforma esse risco em um dever jurídico explícito.
O que é discriminação algorítmica?
É quando um sistema de IA, treinado em dados históricos, aprende desigualdades reais e passa a reproduzi-las de forma automatizada. Isso gera situações como:
- exclusão de candidatos por padrões invisíveis;
- negativas de crédito sem justificativa objetiva;
- priorização desigual de atendimentos;
- reforço de estereótipos em segmentações;
- impactos adversos sobre grupos vulneráveis.
- Não há má intenção — mas há responsabilidade.
O que muda com o PL 2.338/2023?
O texto exige que agentes que utilizam IA adotem:
- avaliação de impacto sobre grupos vulneráveis;
- supervisão humana significativa;
- documentação completa do ciclo de vida do modelo;
- mecanismos para detectar e corrigir vieses;
- explicações compreensíveis sobre decisões automatizadas.
E o ponto mais sensível: se houver dano, o juiz pode inverter o ônus da prova, ou seja: caberá à empresa demonstrar que o sistema era seguro e não discriminatório. Isso altera profundamente a lógica dos litígios envolvendo tecnologia.
Por que isso importa para as empresas?
Porque o risco é transversal e afeta:
- RH e recrutamento
- concessão de crédito
- atendimento ao consumidor
- marketing e segmentação
- produtos e serviços baseados em IA (inclusive de terceiros)
Os impactos incluem:
- ações individuais e coletivas;
- danos morais;
- investigação regulatória;
- nulidade de decisões automatizadas;
- crises reputacionais;
- suspensão de modelos críticos ao negócio.
- Terceirizar a tecnologia não terceiriza a responsabilidade.
O que as empresas precisam fazer agora?
- mapear riscos de IA;
- revisar contratos com fornecedores;
- estabelecer políticas internas de IA responsável;
- documentar o ciclo de vida dos modelos;
- treinar equipes;
- criar processos com supervisão humana real.
A responsabilidade civil na era da IA deixou de ser reativa — ela se tornou estratégica.