
Discriminação algorítmica e viés em biometria aborda como tecnologias de reconhecimento facial e algoritmos de aprovação de moradores podem reproduzir discriminações. Em contextos de portaria e controle de acesso, falsos positivos/negativos do reconhecimento facial afetam desigualmente grupos raciais e perfis de trabalhadores (entregadores, diaristas). Plataformas imobiliárias e condominiais usam algoritmos para avaliar candidatos (crédito, histórico, redes sociais, padrões comportamentais) que podem reproduzir discriminações de raça, classe e origem de forma opaca e automatizada.
No Brasil, isso pode gerar constrangimento, barramento indevido e conflito, reforçando desigualdades. A tecnologia está sendo adotada em condomínios e plataformas imobiliárias, mas riscos de discriminação algorítmica precisam ser endereçados, especialmente relevante em contextos onde algoritmos tomam decisões que afetam acesso à moradia.
O sinal de mudança é o reconhecimento de que tecnologias algorítmicas precisam ser auditadas e transparentes, exigindo auditoria de performance, alternativas não biométricas, regras claras de exceção e correção, transparência algorítmica, direito de contestação e auditoria de vieses, especialmente relevante em contextos onde algoritmos podem reproduzir discriminações estruturais.
Follow us for weekly foresight in your inbox.