Os assistentes de voz com inteligência artificial (IA) são agora onipresentes, com mais de 8 bilhões ativos em todo o mundo – mais de um por pessoa no planeta. Apesar da sua conveniência, estes sistemas optam esmagadoramente por personas femininas, perpetuando estereótipos de género prejudiciais e normalizando interacções prejudiciais. Esta não é uma mera questão de marca; é uma escolha de design fundamental com consequências no mundo real.
O design de gênero dos assistentes de IA
A natureza de género dos assistentes de IA é evidente nos seus nomes e vozes. A Siri da Apple, derivada de um nome feminino escandinavo que significa “bela mulher que leva você à vitória”, exemplifica essa tendência. Compare isto com o Watson for Oncology da IBM, lançado com uma voz masculina – um sinal claro de que as mulheres servem, enquanto os homens instruem.
Este desenho reforça as expectativas da sociedade sobre os papéis de género, onde as mulheres são posicionadas como prestativas e submissas, enquanto os homens são autoritários. As implicações vão além do simbolismo; normaliza a subordinação baseada no género e aumenta o risco de abuso.
A realidade perturbadora do abuso
A pesquisa revela a extensão das interações prejudiciais com a IA feminizada. Estudos mostram que até 50% das trocas homem-máquina contêm conteúdo verbalmente abusivo, incluindo linguagem sexualmente explícita. Apesar disso, muitos desenvolvedores ainda dependem de respostas pré-codificadas ao abuso (“Hmm, não tenho certeza do que você quis dizer com essa pergunta”) em vez de mudanças sistêmicas.
Esse comportamento pode se espalhar para interações do mundo real. Experimentos mostram que 18% das interações com agentes encarnados em mulheres concentram-se no sexo, em comparação com 10% para encarnações masculinas e 2% para robôs sem gênero. O banco Bradesco do Brasil relatou 95.000 mensagens de assédio sexual enviadas ao seu chatbot feminizado em um único ano.
A rápida escalada do abuso é alarmante. O chatbot Tay da Microsoft foi manipulado para vomitar insultos racistas e misóginos 16 horas após o lançamento. Na Coreia, Luda foi coagida a responder a pedidos sexuais como uma “escrava sexual” obediente, com alguns vendo isso como um “crime sem vítima”. Estes casos demonstram como as escolhas de design criam um ambiente permissivo para a agressão de género.
Lacunas regulatórias e questões sistêmicas
A regulação luta para acompanhar esse crescimento. A discriminação baseada no género raramente é considerada de alto risco e as leis actuais muitas vezes não conseguem resolver o problema. A Lei de IA da União Europeia, embora exija avaliações de risco, não classificará a maioria dos assistentes de IA como de “alto risco”, o que significa que os estereótipos de género ou a normalização do abuso não desencadearão automaticamente a proibição.
O Canadá exige avaliações de impacto baseadas no género para os sistemas governamentais, mas o sector privado continua não regulamentado. A Austrália planeia confiar nos quadros existentes em vez de elaborar regras específicas para a IA. Este vácuo regulatório é perigoso porque a IA aprende com cada interação, potencialmente codificando a misoginia em resultados futuros.
A necessidade de mudança sistêmica
A questão não é apenas sobre Siri ou Alexa; é sistêmico. As mulheres representam apenas 22% dos profissionais de IA a nível mundial, o que significa que estas tecnologias são construídas com base em perspetivas estreitas. Um inquérito de 2015 concluiu que 65% das mulheres seniores em Silicon Valley tinham sofrido investidas sexuais indesejadas por parte dos supervisores, realçando a cultura profundamente desigual que molda o desenvolvimento da IA.
As diretrizes éticas voluntárias não são suficientes. A legislação deve reconhecer os danos de género como de alto risco, exigir avaliações de impacto baseadas no género e responsabilizar as empresas quando não conseguem minimizar os danos. As penalidades devem ser aplicadas. A educação também é crucial, especialmente no setor tecnológico, para compreender o impacto das inadimplências de género nos assistentes de voz.
Estas ferramentas são um produto de escolhas humanas, e essas escolhas perpetuam um mundo onde as mulheres – reais ou virtuais – são consideradas servis, submissas ou silenciosas.





























