Algumas investigações recentes evidenciaram um fenómeno interessante: existe uma relação "bidirecional" entre os preconceitos presentes nos modelos de inteligência artificial e os do pensamento humano.
Esta interação cria um mecanismo que tende a amplificar as distorções cognitivas em ambas as direcções.
Esta investigação mostra que os sistemas de IA não só herdam os preconceitos humanos dos dados de treino, como, quando implementados, podem intensificá-los, influenciando, por sua vez, os processos de tomada de decisão das pessoas. Isto cria um ciclo que, se não for gerido corretamente, corre o risco de aumentar progressivamente os preconceitos iniciais.
Este fenómeno é particularmente evidente em sectores importantes, tais como:
- Cuidados de saúde e diagnóstico médico
- Processos de seleção de pessoal
- Sistemas de reconhecimento facial e análise de risco
Nestas áreas, pequenos enviesamentos iniciais podem amplificar-se através de interações repetidas entre operadores humanos e sistemas automatizados, transformando-se gradualmente em diferenças significativas nos resultados.
As origens do preconceito
No pensamento humano
A mente humana utiliza naturalmente "atalhos de pensamento" que podem introduzir erros sistemáticos nos nossos julgamentos. A teoria do "duplo pensamento" distingue entre:
- Pensamento rápido e intuitivo (propenso a estereótipos)
- Pensamento lento e reflexivo (capaz de corrigir preconceitos)
Por exemplo, no domínio da medicina, os médicos tendem a dar demasiado peso às hipóteses iniciais, negligenciando as provas contrárias. Este fenómeno, denominado "viés de confirmação", é reproduzido e amplificado por sistemas de IA treinados com base em dados históricos de diagnóstico.
Nos modelos de IA
Os modelos de aprendizagem automática perpetuam preconceitos principalmente através de três canais:
- Dados de formação desequilibrados que reflectem desigualdades históricas
- Seleção de caraterísticas que incorporam atributos protegidos (como o sexo ou a etnia)
- Circuitos de feedback resultantes de interações com decisões humanas já distorcidas
Um 2024 estudo da UCL mostrou que os sistemas de reconhecimento facial treinados em julgamentos emocionais feitos por pessoas herdaram uma tendência de 4,7% para rotular os rostos como "tristes", tendo depois ampliado esta tendência para 11,3% em interações subsequentes com os utilizadores.
Como se amplificam mutuamente
A análise de dados das plataformas de recrutamento mostra que cada ciclo de colaboração humano-algoritmo aumenta o enviesamento de género em 8-14% através de mecanismos de feedback que se reforçam mutuamente.
Quando os profissionais de RH recebem da IA listas de candidatos já influenciadas por preconceitos históricos, as suas interações subsequentes (como a escolha de perguntas para entrevistas ou avaliações de desempenho) reforçam representações distorcidas do modelo.
Uma meta-análise de 2025 de 47 estudos concluiu que três rondas de colaboração entre humanos e IA aumentaram as disparidades demográficas em 1,7-2,3 vezes em domínios como os cuidados de saúde, o crédito e a educação.
Estratégias para medir e atenuar os preconceitos
Quantificação através da aprendizagem automática
O quadro de medição dos enviesamentos proposto por Dong et al. (2024) permite a deteção de enviesamentos sem a necessidade de rótulos de "verdade absoluta", analisando as discrepâncias nos padrões de tomada de decisão entre grupos protegidos.
Intervenções cognitivas
A técnica do "espelho algorítmico" desenvolvida pelos investigadores da UCL reduziu em 41% os preconceitos de género nas decisões de promoção, mostrando aos gestores como seriam as suas escolhas históricas se fossem feitas por um sistema de IA.
Os protocolos de formação que alternam entre a assistência à AI e a tomada de decisão autónoma revelam-se particularmente promissores, reduzindo os efeitos da transferência de preconceitos de 17% para 6% em estudos de diagnóstico clínico.
Implicações para a sociedade
As organizações que implementam sistemas de IA sem ter em conta as interações com preconceitos humanos enfrentam riscos jurídicos e operacionais acrescidos.
Uma análise de casos de discriminação no emprego mostra que os processos de recrutamento assistidos por IA aumentam as taxas de sucesso dos queixosos em 28% em comparação com os casos tradicionais conduzidos por humanos, uma vez que os vestígios de decisões algorítmicas fornecem provas mais claras de um impacto díspar.
Para uma inteligência artificial que respeite a liberdade e a eficácia
A correlação entre distorções algorítmicas e restrições à liberdade de escolha obriga-nos a repensar o desenvolvimento tecnológico numa perspetiva de responsabilidade individual e de salvaguarda da eficiência do mercado. É crucial garantir que a IA se torne uma ferramenta para expandir as oportunidades e não para as restringir.
As direcções promissoras incluem:
- Soluções de mercado que incentivem o desenvolvimento de algoritmos imparciais
- Maior transparência nos processos automatizados de tomada de decisões
- Desregulamentação que favorece a concorrência entre diferentes soluções tecnológicas
Só através de uma autorregulação responsável da indústria, combinada com a liberdade de escolha dos utilizadores, poderemos garantir que a inovação tecnológica continua a ser um motor de prosperidade e de oportunidades para todos aqueles que estão dispostos a pôr à prova as suas capacidades.