Newsletter

Máquinas que aprendem (também) com os nossos erros O efeito boomerang: ensinamos à IA os nossos erros e ela devolve-nos esses erros... multiplicados!

A IA herda os nossos preconceitos - e depois amplifica-os. Nós vemos os resultados tendenciosos - e reforçamo-los. Um ciclo que se auto-alimenta. Um estudo da UCL: um preconceito de 4,7% no reconhecimento facial aumentou para 11,3% após interações entre humanos e IA. Nos RH, cada ciclo aumenta o preconceito de género em 8-14%. As boas notícias? A técnica do "espelho algorítmico" - que mostra aos gestores como seriam as suas escolhas se fossem feitas por uma IA - reduz o preconceito em 41%.

Algumas investigações recentes evidenciaram um fenómeno interessante: existe uma relação "bidirecional" entre os preconceitos presentes nos modelos de inteligência artificial e os do pensamento humano.

Esta interação cria um mecanismo que tende a amplificar as distorções cognitivas em ambas as direcções.

Esta investigação mostra que os sistemas de IA não só herdam os preconceitos humanos dos dados de treino, como, quando implementados, podem intensificá-los, influenciando, por sua vez, os processos de tomada de decisão das pessoas. Isto cria um ciclo que, se não for gerido corretamente, corre o risco de aumentar progressivamente os preconceitos iniciais.

Este fenómeno é particularmente evidente em sectores importantes, tais como:

Nestas áreas, pequenos enviesamentos iniciais podem amplificar-se através de interações repetidas entre operadores humanos e sistemas automatizados, transformando-se gradualmente em diferenças significativas nos resultados.

As origens do preconceito

No pensamento humano

A mente humana utiliza naturalmente "atalhos de pensamento" que podem introduzir erros sistemáticos nos nossos julgamentos. A teoria do "duplo pensamento" distingue entre:

  • Pensamento rápido e intuitivo (propenso a estereótipos)
  • Pensamento lento e reflexivo (capaz de corrigir preconceitos)

Por exemplo, no domínio da medicina, os médicos tendem a dar demasiado peso às hipóteses iniciais, negligenciando as provas contrárias. Este fenómeno, denominado "viés de confirmação", é reproduzido e amplificado por sistemas de IA treinados com base em dados históricos de diagnóstico.

Nos modelos de IA

Os modelos de aprendizagem automática perpetuam preconceitos principalmente através de três canais:

  1. Dados de formação desequilibrados que reflectem desigualdades históricas
  2. Seleção de caraterísticas que incorporam atributos protegidos (como o sexo ou a etnia)
  3. Circuitos de feedback resultantes de interações com decisões humanas já distorcidas

Um 2024 estudo da UCL mostrou que os sistemas de reconhecimento facial treinados em julgamentos emocionais feitos por pessoas herdaram uma tendência de 4,7% para rotular os rostos como "tristes", tendo depois ampliado esta tendência para 11,3% em interações subsequentes com os utilizadores.

Como se amplificam mutuamente

A análise de dados das plataformas de recrutamento mostra que cada ciclo de colaboração humano-algoritmo aumenta o enviesamento de género em 8-14% através de mecanismos de feedback que se reforçam mutuamente.

Quando os profissionais de RH recebem da IA listas de candidatos já influenciadas por preconceitos históricos, as suas interações subsequentes (como a escolha de perguntas para entrevistas ou avaliações de desempenho) reforçam as representações tendenciosas do modelo.

Uma meta-análise de 2025 de 47 estudos concluiu que três rondas de colaboração entre humanos e IA aumentaram as disparidades demográficas em 1,7-2,3 vezes em domínios como os cuidados de saúde, o crédito e a educação.

Estratégias para medir e atenuar os preconceitos

Quantificação através da aprendizagem automática

O quadro de medição dos enviesamentos proposto por Dong et al. (2024) permite a deteção de enviesamentos sem a necessidade de rótulos de "verdade absoluta", analisando as discrepâncias nos padrões de tomada de decisão entre grupos protegidos.

Intervenções cognitivas

A técnica do "espelho algorítmico" desenvolvida pelos investigadores da UCL reduziu em 41% os preconceitos de género nas decisões de promoção, mostrando aos gestores como seriam as suas escolhas históricas se fossem feitas por um sistema de IA.

Os protocolos de formação que alternam entre a assistência à AI e a tomada de decisão autónoma revelam-se particularmente promissores, reduzindo os efeitos da transferência de preconceitos de 17% para 6% em estudos de diagnóstico clínico.

Implicações para a sociedade

As organizações que implementam sistemas de IA sem ter em conta as interações com preconceitos humanos enfrentam riscos jurídicos e operacionais acrescidos.

Uma análise de casos de discriminação no emprego mostra que os processos de recrutamento assistidos por IA aumentam as taxas de sucesso dos queixosos em 28% em comparação com os casos tradicionais conduzidos por humanos, uma vez que os vestígios de decisões algorítmicas fornecem provas mais claras de um impacto díspar.

Para uma inteligência artificial que respeite a liberdade e a eficácia

A correlação entre distorções algorítmicas e restrições à liberdade de escolha obriga-nos a repensar o desenvolvimento tecnológico numa perspetiva de responsabilidade individual e de salvaguarda da eficiência do mercado. É crucial garantir que a IA se torne uma ferramenta para expandir as oportunidades e não para as restringir.

As direcções promissoras incluem:

  • Soluções de mercado que incentivem o desenvolvimento de algoritmos imparciais
  • Maior transparência nos processos automatizados de tomada de decisões
  • Desregulamentação que favorece a concorrência entre diferentes soluções tecnológicas

Só através de uma autorregulação responsável da indústria, combinada com a liberdade de escolha dos utilizadores, poderemos garantir que a inovação tecnológica continua a ser um motor de prosperidade e de oportunidades para todos aqueles que estão dispostos a pôr à prova as suas capacidades.

Recursos para o crescimento das empresas

9 de novembro de 2025

Regulamentação da IA para aplicações de consumo: como se preparar para os novos regulamentos de 2025

2025 marca o fim da era do "Oeste Selvagem" da IA: AI Act EU operacional a partir de agosto de 2024 com obrigações de literacia em IA a partir de 2 de fevereiro de 2025, governação e GPAI a partir de 2 de agosto. A Califórnia é pioneira com o SB 243 (nascido após o suicídio de Sewell Setzer, um jovem de 14 anos que desenvolveu uma relação emocional com um chatbot), que impõe a proibição de sistemas de recompensa compulsivos, a deteção de ideação suicida, a lembrança de 3 em 3 horas de que "não sou humano", auditorias públicas independentes, sanções de 1000 dólares por infração. SB 420 exige avaliações de impacto para "decisões automatizadas de alto risco" com direitos de recurso de revisão humana. Aplicação efectiva: Noom citou 2022 por causa de bots que se faziam passar por treinadores humanos, acordo de 56 milhões de dólares. Tendência nacional: Alabama, Havaí, Illinois, Maine, Massachusetts classificam a falha em notificar chatbots de IA como violação do UDAP. Abordagem de sistemas críticos de risco de três níveis (cuidados de saúde/transporte/energia) certificação de pré-implantação, divulgação transparente virada para o consumidor, registo de uso geral + testes de segurança. Mosaico regulamentar sem preempção federal: as empresas multi-estatais têm de navegar por requisitos variáveis. UE a partir de agosto de 2026: informar os utilizadores sobre a interação com a IA, a menos que seja óbvio, e os conteúdos gerados por IA devem ser rotulados como legíveis por máquinas.
9 de novembro de 2025

Regulamentar o que não é criado: a Europa arrisca-se a ser irrelevante do ponto de vista tecnológico?

A Europa atrai apenas um décimo do investimento mundial em inteligência artificial, mas pretende ditar as regras mundiais. Este é o "Efeito Bruxelas" - impor regras à escala planetária através do poder de mercado sem impulsionar a inovação. A Lei da IA entra em vigor num calendário escalonado até 2027, mas as empresas multinacionais de tecnologia respondem com estratégias criativas de evasão: invocando segredos comerciais para evitar revelar dados de formação, produzindo resumos tecnicamente conformes mas incompreensíveis, utilizando a autoavaliação para rebaixar os sistemas de "alto risco" para "risco mínimo", escolhendo os Estados-Membros com controlos menos rigorosos. O paradoxo dos direitos de autor extraterritoriais: a UE exige que a OpenAI cumpra as leis europeias, mesmo no caso de formação fora da Europa - um princípio nunca antes visto no direito internacional. Surge o "modelo duplo": versões europeias limitadas versus versões mundiais avançadas dos mesmos produtos de IA. Risco real: a Europa torna-se uma "fortaleza digital" isolada da inovação mundial, com os cidadãos europeus a acederem a tecnologias inferiores. O Tribunal de Justiça, no processo relativo à pontuação de crédito, já rejeitou a defesa dos "segredos comerciais", mas a incerteza interpretativa continua a ser enorme - o que significa exatamente "resumo suficientemente pormenorizado"? Ninguém sabe. Última pergunta sem resposta: estará a UE a criar uma terceira via ética entre o capitalismo americano e o controlo estatal chinês, ou simplesmente a exportar burocracia para uma área em que não compete? Para já: líder mundial na regulação da IA, marginal no seu desenvolvimento. Vasto programa.
9 de novembro de 2025

Outliers: onde a ciência dos dados encontra histórias de sucesso

A ciência dos dados inverteu o paradigma: os valores atípicos já não são "erros a eliminar", mas sim informações valiosas a compreender. Um único outlier pode distorcer completamente um modelo de regressão linear - alterar o declive de 2 para 10 - mas eliminá-lo pode significar perder o sinal mais importante do conjunto de dados. A aprendizagem automática introduz ferramentas sofisticadas: O Isolation Forest isola os valores atípicos através da construção de árvores de decisão aleatórias, o Local Outlier Fator analisa a densidade local, os Autoencoders reconstroem dados normais e comunicam o que não conseguem reproduzir. Existem valores anómalos globais (temperatura de -10°C nos trópicos), valores anómalos contextuais (gastar 1000 euros num bairro pobre), valores anómalos colectivos (picos de tráfego de rede sincronizados que indicam um ataque). Paralelismo com Gladwell: a "regra das 10.000 horas" é contestada - Paul McCartney dixit "muitas bandas fizeram 10.000 horas em Hamburgo sem sucesso, a teoria não é infalível". O sucesso matemático asiático não é genético mas cultural: o sistema numérico chinês é mais intuitivo, o cultivo do arroz exige um aperfeiçoamento constante, ao contrário da expansão territorial da agricultura ocidental. Aplicações reais: os bancos britânicos recuperam 18% de perdas potenciais através da deteção de anomalias em tempo real, a indústria transformadora detecta defeitos microscópicos que a inspeção humana não detectaria, os cuidados de saúde validam dados de ensaios clínicos com uma sensibilidade de deteção de anomalias superior a 85%. Lição final: à medida que a ciência dos dados passa da eliminação de anomalias para a sua compreensão, temos de encarar as carreiras não convencionais não como anomalias a corrigir, mas como trajectórias valiosas a estudar.