A inteligência artificial prometia decisões objetivas. Em vez disso, está a reproduzir e amplificar décadas de discriminação contra mulheres — no emprego, no crédito, na saúde e até na forma como somos descritos por uma máquina.
Introdução: A objetividade que nunca existiu
Há uma narrativa persistente sobre a inteligência artificial: a de que os algoritmos, por serem máquinas, decidem sem preconceitos. Livres das emoções, dos estereótipos e dos vieses inconscientes que contaminam as decisões humanas, os sistemas de IA seriam, por definição, mais justos. É uma narrativa reconfortante. É também profundamente errada.
A investigação científica dos últimos anos demonstrou, de forma inequívoca, que os sistemas de inteligência artificial não apenas reproduzem as desigualdades de género existentes na sociedade, como as amplificam. Desde ferramentas de recrutamento que penalizam currículos de mulheres até algoritmos de crédito que atribuem limites inferiores a mulheres com melhores scores financeiros, passando por modelos de linguagem que associam sistematicamente as mulheres a papéis domésticos e os homens a carreiras de prestígio, o viés algorítmico de género é hoje um dos desafios mais urgentes na interseção entre tecnologia, direito e direitos fundamentais.
Neste 8 de Março, Dia Internacional da Mulher, importa analisar como isto acontece, o que dizem os casos concretos, o que prevê o enquadramento regulatório europeu e, sobretudo, o que significa para os advogados portugueses que já utilizam, ou aconselham clientes que utilizam, ferramentas baseadas em IA.
1. Os casos que abalaram a narrativa da neutralidade algorítmica
Amazon: quando o algoritmo aprendeu a descartar mulheres
O caso mais emblemático de discriminação algorítmica de género no recrutamento remonta a 2014, quando a Amazon desenvolveu uma ferramenta de IA para automatizar a triagem de currículos. O sistema foi treinado com base nos currículos recebidos pela empresa ao longo de dez anos. Uma década em que a esmagadora maioria dos candidatos a funções técnicas eram homens.
O resultado foi previsível em retrospectiva, mas devastador na prática: o algoritmo aprendeu que o perfil de sucesso era masculino. Currículos que continham a palavra “women’s”, como em “women’s rugby team” ou “women’s chess club captain”, eram penalizados. Candidatas que tinham frequentado universidades exclusivamente femininas eram desclassificadas. O sistema favorecia ainda verbos tipicamente encontrados em currículos masculinos de engenharia, como “executed” (executaram) e “captured” (capturaram).
O que aconteceu
A Amazon tentou corrigir o sistema, neutralizando termos diretamente ligados ao género. Mas perdeu confiança de que o algoritmo fosse verdadeiramente neutro em todas as dimensões e abandonou o projecto em 2015. O caso só se tornou público em 2018, quando a Reuters o reportou, e transformou-se rapidamente num exemplo típico de como os dados históricos enviesados contaminam as decisões automatizadas.
A explicação da investigadora
Como explicou a investigadora Sandra Wachter, da Universidade de Oxford, ao Business Insider: “You ask the question who has been the most successful candidates in the past […] and the common trait will be somebody that is more likely to be a man and white.” (“Perguntas quem foram os melhores candidatos do passado […] e o traço comum será alguém que tem maior probailidade de ser masculino e branco.”)
O algoritmo não inventou um preconceito: absorveu o que encontrou nos dados e sistematizou-o com uma eficiência que nenhum recrutador humano conseguiria igualar.
Business Insider, 13 de Outubro de 2018.
Apple Card: crédito 20 vezes inferior para a mulher com melhor score
Em Novembro de 2019, o programador David Heinemeier Hansson publicou no Twitter (agora X) que o Apple Card, o cartão de crédito da Apple, gerido pelo Goldman Sachs, lhe havia concedido um limite de crédito 20 vezes superior ao da sua mulher. Os dois partilhavam activos, apresentavam declarações fiscais conjuntas e, detalhe crucial, ela tinha um score de crédito superior ao dele.
O caso tornou-se viral quando Steve Wozniak, co-fundador da Apple, confirmou uma situação semelhante: o seu limite era 10 vezes superior ao da mulher, apesar de o casal não ter contas nem ativos separados.
Limite de crédito superior
Concedido ao marido face à mulher com score mais elevado
Caso Wozniak
Limite do co-fundador da Apple face ao da sua mulher
Ano do escândalo
Novembro de 2019, quando o caso se tornou público e viral
A investigação do NYDFS e a discriminação indireta
A investigação subsequente do New York Department of Financial Services (NYDFS) revelou que, embora o Goldman Sachs não utilizasse o género como variável direta no algoritmo de decisão de crédito, os factores utilizados (como o historial de crédito individual) tendiam a desfavorecer mulheres cujos cartões anteriores eram suplementares às contas dos maridos. O resultado prático era discriminação indireta: o algoritmo não “sabia” o género do requerente, mas as variáveis que utilizava funcionavam como substitutos do género.
Os algoritmos não têm imunidade face à discriminação. Quer a intenção exista ou não, o impacto desproporcionado é ilegal.
— Linda Lacewell, Superintendente do NYDFS. (Paráfrase)
Esta frase deveria estar afixada em todos os departamentos de compliance.
Saúde: o viés que pode custar vidas
A discriminação algorítmica contra mulheres na saúde é particularmente insidiosa porque as suas consequências podem ser fatais. Algoritmos de diagnóstico treinados com dados historicamente enviesados — resultantes de décadas de exclusão ou sub-representação de mulheres em ensaios clínicos — podem falhar na identificação de sintomas que se manifestam de forma diferente em mulheres.
A investigação tem demonstrado que algoritmos de triagem médica podem subestimar a gravidade de condições cardiovasculares em mulheres, precisamente porque os dados de treino reflectem um modelo de doença calibrado para o corpo masculino.
Dados enviesados
Décadas de exclusão ou sub-representação de mulheres em ensaios clínicos contaminam os dados de treino dos algoritmos de diagnóstico.
Sintomas invisíveis
Algoritmos podem falhar na identificação de sintomas que se manifestam de forma diferente em mulheres.
Risco cardiovascular
Algoritmos de triagem médica podem subestimar a gravidade de condições cardiovasculares em mulheres.
O estudo mais influente sobre viés algorítmico na saúde — Obermeyer et al., publicado na Science em 2019 — demonstrou que um algoritmo utilizado para gerir a saúde de populações nos EUA, e que afetava milhões de pacientes, discriminava sistematicamente pacientes negros ao utilizar custos de saúde como proxy de necessidades clínicas. O mecanismo (a utilização de variáveis proxy que refletem desigualdades estruturais) é transversal e afeta igualmente o viés de género: décadas de exclusão ou subrepresentação de mulheres em ensaios clínicos contaminam os dados de treino de algoritmos de diagnóstico, com consequências potencialmente fatais.
LLMs: quando a linguagem é o viés
Se os casos do recrutamento e do crédito envolvem decisões concretas com impacto material, a discriminação nos grandes modelos de linguagem (LLMs) opera a um nível mais subtil mas igualmente consequente: o da perceção, da representação e da formação de expectativas.
Um estudo da UNESCO publicado em Março de 2024, intitulado Challenging Systematic Prejudices: An Investigation into Bias Against Women and Girls in Large Language Models, examinou os modelos GPT-3.5, GPT-2 e Llama 2. Os resultados são inequívocos:
Nomes femininos associados a:
“família”, “filhos”, “marido”
Nomes masculinos associados a:
“carreira”, “executivo”, “salário”, “empresa”
Narrativas masculinas vs. femininas nos LLMs
Narrativas masculinas
Quando se pediu ao Llama 2 que gerasse histórias sobre homens e mulheres, as narrativas masculinas eram dominadas por palavras como “treasure”, “woods”, “sea” e “adventurous”.
Narrativas femininas
As femininas gravitavam em torno de “garden”, “love”, “gentle” e “husband”. Mulheres foram descritas em papéis domésticos quatro vezes mais frequentemente do que homens.
Mais alarmante ainda: em cerca de 20% dos casos em que o Llama 2 foi solicitado a completar frases começando com uma referência ao género feminino, o modelo gerou conteúdo sexista ou misógino.
Quando foram solicitados a associar profissões a géneros, os LLMs de código aberto tendiam a atribuir aos homens profissões diversificadas e de alto estatuto — engenheiro, médico, professor — enquanto relegavam as mulheres para funções tradicionalmente desvalorizadas ou estigmatizadas: empregada doméstica, cozinheira e, num dado que deveria chocar qualquer leitor, “prostituta”.
O ciclo vicioso da discriminação algorítmica
Um estudo publicado na Nature (Guilbeault et al., 2025) demonstrou que as pesquisas de imagens do Google pelo termo “person” em diferentes países refletem o grau de desigualdade de género existente nessa sociedade e que a exposição a esses resultados enviesados influencia os utilizadores a pensar e agir de formas que reforçam essa desigualdade.
Estamos perante um ciclo vicioso: a sociedade gera dados enviesados, os algoritmos aprendem e amplificam esses vieses, os utilizadores absorvem as representações enviesadas e reforçam os padrões que alimentam os dados. O algoritmo não quebra o ciclo da discriminação — acelera-o.
2. As fontes do viés: não é um problema, são vários
A discriminação algorítmica de género não tem uma causa única. Resulta da convergência de múltiplos fatores que se reforçam mutuamente.
Dados de treino enviesados
É a causa mais frequentemente citada e a mais intuitiva. Se um sistema de IA é treinado com dados que refletem décadas de desigualdade — CVs de uma indústria dominada por homens, decisões de crédito tomadas em contextos patriarcais, textos escritos maioritariamente por homens — o modelo aprenderá que o padrão de “sucesso” ou de “normalidade” é masculino. Não é um erro técnico; é uma reprodução fiel de uma realidade injusta.
Equipas de desenvolvimento homogéneas
O problema
Segundo o World Economic Forum, as mulheres representam apenas 29% dos trabalhadores em STEM. Equipas compostas predominantemente por homens têm maior probabilidade de não detetar vieses que afetam mulheres, simplesmente porque esses vieses são invisíveis para quem não os experimenta.
O reconhecimento regulatório
O Considerando 165 do EU AI Act reconhece expressamente esta realidade ao recomendar que as equipas de desenvolvimento de IA sejam equilibradas em termos de género.
Mulheres em STEM
Percentagem de trabalhadoras femininas no setor, segundo o World Economic Forum
Homens em STEM
Maioria que domina as equipas de desenvolvimento de IA a nível global
Word embeddings e associações semânticas
Os LLMs aprendem a linguagem através de representações vetoriais (word embeddings) que capturam as associações estatísticas entre palavras em milhões de textos. Se, nesses textos, “enfermeira” aparece mais frequentemente associada a mulheres e “cirurgião” a homens, o modelo internalizará essa associação como se fosse um facto objetivo, e não um reflexo de estereótipos.
“Enfermeira”
Associada sistematicamente a mulheres nos textos de treino — o modelo aprende e reproduz esta associação como facto.
“Cirurgião”
Associado sistematicamente a homens nos textos de treino — perpetuando estereótipos profissionais de género.
O modelo internalizará estas associações como se fossem factos objetivos, e não reflexos de estereótipos históricos e sociais.
Variáveis proxy
Mesmo quando o género é excluído como variável direta – como no caso do Apple Card – outras variáveis podem funcionar como substitutos indirectos:
Código postal
Zonas geográficas podem correlacionar-se com o género e funcionar como proxy discriminatório.
Tipo de emprego
Setores de atividade com predominância feminina podem ser penalizados indiretamente.
Períodos de inatividade
Frequentemente associados a licenças de maternidade, penalizando mulheres de forma indireta.
Cartões suplementares
A titularidade de cartões suplementares às contas dos maridos desfavorece mulheres no historial de crédito.
O algoritmo não precisa de “saber” o género de alguém para discriminar com base nele.
Feedback loops (ciclos de retroalimentação)
Quando um algoritmo enviesado toma decisões — tais como rejeitar candidatas, conceder menos crédito a mulheres, apresentar-lhes anúncios para profissões menos bem pagas — essas decisões geram novos dados que confirmam e reforçam o viés original. A discriminação torna-se auto-sustentável.
A discriminação algorítmica não é estática — alimenta-se a si própria, tornando-se progressivamente mais enraizada e difícil de detetar e corrigir.
3. O que diz o direito europeu: AI Act, RGPD e as lacunas que persistem
O EU AI Act e a questão do género
O Regulamento (UE) 2024/1689, EU AI Act – Regulamento Inteligência Artificial – é o primeiro quadro regulatório abrangente sobre inteligência artificial a nível mundial. Embora o seu objetivo principal não seja especificamente a igualdade de género, o texto contém disposições relevantes.
Referências a “bias” ou “biases”
O termo “vieses” aparece 17 vezes no Regulamento EU AI Act
Referências a “gender equality”
“Igualdade de género” é mencionada 4 vezes no texto do Regulamento
O Considerando 165 recomenda que as equipas de desenvolvimento de IA sejam equilibradas em termos de género. O art. 68.º, n.º 2, parte final, exige que a composição do AI Office respeite o equilíbrio de género.
As disposições substantivas do AI Act
Art. 10.º – Governação de dados
Estabelece requisitos de governação de dados para sistemas de IA de alto risco, exigindo que os dados de treino, validação e teste sejam “relevant, representative, free of errors and complete” (art. 10.º, n.º 3). O art. 10.º, n.º 5 permite o tratamento de categorias especiais de dados pessoais — incluindo dados que revelam o género — quando estritamente necessário para efeitos de monitorização, deteção e correção de vieses em sistemas de IA de alto risco.
Art. 9.º – Gestão de riscos
Impõe um sistema de gestão de riscos que deve identificar e avaliar riscos para os direitos fundamentais, incluindo riscos de discriminação.
Art. 14.º – Supervisão humana
Exige supervisão humana para sistemas de risco elevado. Uma proteção que, em teoria, permite a deteção de vieses antes que produzam efeitos.
As insuficiências reconhecidas
A doutrina tem identificado várias lacunas relevantes no EU AI Act:
Não impõe auditorias de género interseccionais obrigatórias (art. 17.º).
Não prevê mecanismos de reparação individual robustos para vítimas de discriminação algorítmica.
Está mais orientado para a conformidade dos fornecedores do que para a proteção dos utilizadores.
Não garante diversidade nos dados de treino; apenas a exige de forma genérica.
Não fornece soluções técnicas concretas para o cumprimento das suas disposições, o que pode dificultar a tradução das normas em práticas efetivas.
O Parlamento Europeu, através das comissões LIBE e FEMM, tentou reforçar as dimensões anti-discriminação durante a negociação legislativa, mas o resultado final é, como a doutrina tem sublinhado, mais orientado para compliance do que para a justiça algorítmica.
A tensão com o RGPD
Existe uma tensão entre o AI Act e o RGPD que afecta directamente a capacidade de detetar e corrigir vieses de género. Para verificar se um algoritmo discrimina mulheres, é necessário tratar dados sobre o género das pessoas — dados que o art. 9.º do RGPD classifica como dados pessoais protegidos.
O dilema das organizações
Não testar os algoritmos para viés de género pode violar o AI Act; testar pode implicar tratar dados que o RGPD restringe.
Uma interpretação promissora
Em Setembro de 2024, a Autoridade de Proteção de Dados belga, na sua brochura Artificial Intelligence Systems and the GDPR – A Data Protection Perspective*, sublinhou que a correção de vieses nos dados de treino é consistente com o princípio do tratamento leal de dados consagrado no RGPD
O art. 10.º, n.º 5 do AI Act tenta resolver esta tensão ao permitir o tratamento de categorias especiais de dados para efeitos de monitorização de vieses, mas a articulação concreta com o RGPD permanece incerta.
O Conselho da Europa e a FRA
Em Janeiro de 2026, o Conselho da Europa publicou dois documentos relevantes:
Relatório sobre proteção jurídica
Um relatório sobre a proteção jurídica contra a discriminação algorítmica na Europa, identificando lacunas nos quadros legais existentes — disponível em português.
Orientações para organismos nacionais
Orientações para organismos nacionais de igualdade sobre como abordar a discriminação por IA — também disponíveis em português.
Relatório da FRA
A Agência dos Direitos Fundamentais da UE (FRA) publicou igualmente um relatório sobre viés algorítmico que demonstra como os algoritmos de detecção de discurso de ódio contêm viés significativo com base no género, origem étnica, religião e orientação sexual.
4. O que isto significa para os advogados portugueses
Due diligence tecnológica como dever profissional
Para os advogados portugueses, a discriminação algorítmica de género não é um tema abstrato ou meramente académico. É uma realidade que exige atuação concreta em pelo menos três dimensões:
Na utilização das suas próprias ferramentas
Quando um escritório de advocacia utiliza ferramentas de IA para triagem de candidatos, análise de contratos, ou pesquisa jurisprudencial, tem o dever de compreender os riscos de viés dessas ferramentas. A utilização acrítica de uma ferramenta de IA que produza resultados enviesados pode constituir violação do dever de diligência profissional.
No aconselhamento a clientes
Empresas que utilizam sistemas de IA em processos de recrutamento, concessão de crédito, seguros ou saúde precisam de aconselhamento jurídico sobre as obrigações decorrentes do AI Act.
No contencioso
A discriminação algorítmica poderá dar origem a acções judiciais ao abrigo do quadro jurídico português de igualdade e não discriminação.
Dimensões do aconselhamento jurídico
Empresas que utilizam sistemas de IA em processos de recrutamento, concessão de crédito, seguros ou saúde precisam de aconselhamento jurídico sobre as obrigações decorrentes do AI Act, nomeadamente:
Art. 27.º
Avaliações de impacto nos direitos fundamentais
Art. 9.º
Gestão de riscos
Art. 10.º
Governação de dados
O advogado que não conheça estes requisitos não estará em condições de prestar esse aconselhamento.
No contencioso, a discriminação algorítmica poderá dar origem a acções judiciais ao abrigo do quadro jurídico português de igualdade e não discriminação, incluindo o Código do Trabalho (arts. 23.º a 32.º), a Lei n.º 93/2017 (que transpõe as diretivas europeias anti-discriminação), e o próprio RGPD. A prova de discriminação algorítmica levanta desafios específicos, nomeadamente o acesso ao código e aos dados de treino, que exigem preparação técnica adequada.
Ações concretas para advogados portugueses
Recomendações práticas para advogados portugueses neste contexto:
Documentar a due diligence
Documentar a due diligence realizada sobre qualquer ferramenta de IA utilizada no escritório ou recomendada a clientes.
Exigir informação aos fornecedores
Exigir informação sobre medidas de mitigação de viés adotadas pelos fornecedores.
Acompanhar o AI Act em Portugal
Estar atento à implementação faseada do AI Act em Portugal e à eventual criação de uma autoridade nacional de supervisão.
Seguir a jurisprudência europeia
Acompanhar a jurisprudência europeia emergente sobre discriminação algorítmica.
Incluir cláusulas contratuais
Incluir cláusulas de auditoria e responsabilidade por viés algorítmico nos contratos de aquisição ou licenciamento de ferramentas de IA.
Conclusão: O algoritmo não é neutro e a responsabilidade é humana
A ideia de que a inteligência artificial decide sem preconceitos é um mito perigoso. Os algoritmos aprendem com dados gerados por uma sociedade com milénios de desigualdade de género. Sem intervenção deliberada, consciente e regulamentada, a IA não corrige essas desigualdades. Sistematiza-as, escala-as e confere-lhes uma aparência de objetividade que as torna mais difíceis de contestar.
Neste 8 de março, a mensagem é clara: a luta pela igualdade de género tem agora uma frente digital. E os advogados e advogadas, como garantes dos direitos fundamentais, têm nela um papel insubstituível.
Referências e Fontes
UNESCO/IRCAI, Challenging Systematic Prejudices: An Investigation into Bias Against Women and Girls in Large Language Models, Março 2024 — IRCAI | UNESCO Digital Library | PDF
Dastin, J., “Amazon Scraps Secret AI Recruiting Tool That Showed Bias Against Women”, Reuters, 10 de Outubro de 2018 — Reuters (via Euronews)
Goodman, R., “Why Amazon’s Automated Hiring Tool Discriminated Against Women”, ACLU, 12 de Outubro de 2018 — ACLU
NYDFS, Report on Apple Card Investigation, Março 2021 — Comunicado NYDFS | Relatório PDF
Guilbeault, D., Delecourt, S. & Srinivasa Desikan, B., “Age and Gender Distortion in Online Media and Large Language Models”, Nature, vol. 646, pp. 1129–1137, Outubro 2025 — Nature / PMC | Stanford GSB | Berkeley Haas
Kay, M., Matuszek, C. & Munson, S., “Unequal Representation and Gender Stereotypes in Image Search Results for Occupations”, Proceedings of the 33rd ACM CHI Conference on Human Factors in Computing Systems (CHI ’15), pp. 3819–3828, Abril 2015 — ACM Digital Library | PDF UMBC
Berkeley Haas Center for Equity, Gender and Leadership (Geena Davis Institute / SSIR), “When Good Algorithms Go Sexist: Why and How to Advance AI Gender Equity”, Stanford Social Innovation Review, 2022 — SSIR | EGAL Resources
Regulamento (UE) 2024/1689 (EU AI Act) Regulamento Inteligência Artificial — EUR-Lex
Conselho da Europa, Legal Protection Against Algorithmic Discrimination in Europe: Current Frameworks and Remaining Gaps, Janeiro 2026 — Conselho da Europa | PDF
FRA — Agência dos Direitos Fundamentais da UE, Bias in Algorithms — Artificial Intelligence and Discrimination, Dezembro 2022 — FRA | PDF
Lütz, F., “The AI Act, Gender Equality and Non-Discrimination: What Role for the AI Office?”, ERA Forum, vol. 25, pp. 79–95, 2024 — Springer
Lütz, F., “Gender Equality and Artificial Intelligence in Europe — Addressing Direct and Indirect Impacts of Algorithms on Gender-Based Discrimination”, ERA Forum, vol. 23, pp. 33–52, 2022 — Springer
Autoridade de Proteção de Dados Belga —autoriteprotectiondonnees.be
Relatório do Parlamento Europeu sobre Discriminação Algorítmica — PDF

