Stemassistenten op het gebied van kunstmatige intelligentie (AI) zijn nu alomtegenwoordig, met ruim 8 miljard actieve stemassistenten wereldwijd – meer dan één per persoon op de planeet. Ondanks hun gemak blijven deze systemen grotendeels vasthouden aan vrouwelijke persona’s, waardoor schadelijke genderstereotypen in stand worden gehouden en schadelijke interacties worden genormaliseerd. Dit is niet louter een merkkwestie; het is een fundamentele ontwerpkeuze met gevolgen voor de praktijk.
Het gendergerelateerde ontwerp van AI-assistenten
Het gendergebonden karakter van AI-assistenten komt duidelijk tot uiting in hun namen en stemmen. Siri van Apple, afgeleid van een Scandinavische vrouwelijke naam die ‘mooie vrouw die je naar de overwinning leidt’ betekent, is een voorbeeld van deze trend. Vergelijk dit eens met IBM’s Watson for Oncology, gelanceerd met een mannenstem – een duidelijk signaal dat vrouwen dienen, terwijl mannen instrueren.
Dit ontwerp versterkt de maatschappelijke verwachtingen over genderrollen, waarbij vrouwen worden gepositioneerd als behulpzaam en onderdanig, terwijl mannen gezaghebbend zijn. De implicaties reiken verder dan symboliek; het normaliseert de op gender gebaseerde ondergeschiktheid en vergroot het risico op misbruik.
De verontrustende realiteit van misbruik
Onderzoek onthult de omvang van schadelijke interacties met gefeminiseerde AI. Uit onderzoek blijkt dat tot 50% van de uitwisselingen tussen mens en machine verbaal beledigende inhoud bevat, inclusief seksueel expliciet taalgebruik. Desondanks vertrouwen veel ontwikkelaars nog steeds op voorgecodeerde reacties op misbruik (“Hmm, ik weet niet zeker wat je bedoelde met die vraag”) in plaats van op systemische veranderingen.
Dit gedrag kan overgaan in interacties in de echte wereld. Uit experimenten blijkt dat 18% van de interacties met vrouwelijke belichaamde agenten gericht zijn op seks, vergeleken met 10% voor mannelijke belichamingen en 2% voor niet-geslachtsgebonden robots. De Braziliaanse Bradesco-bank rapporteerde in één jaar tijd 95.000 seksueel intimiderende berichten die naar haar gefeminiseerde chatbot waren verzonden.
De snelle escalatie van misbruik is alarmerend. De Tay-chatbot van Microsoft werd binnen 16 uur na de lancering gemanipuleerd om racistische en vrouwonvriendelijke opmerkingen te uiten. In Korea werd Luda gedwongen om als gehoorzame ‘seksslaaf’ op seksuele verzoeken te reageren, waarbij sommigen dit als een ‘misdaad zonder slachtoffer’ beschouwden. Deze cases laten zien hoe ontwerpkeuzes een tolerante omgeving creëren voor gendergerelateerde agressie.
Leemten in de regelgeving en systemische problemen
De regelgeving heeft moeite om gelijke tred te houden met deze groei. Discriminatie op grond van geslacht wordt zelden als een risicovol beschouwd, en de huidige wetten schieten vaak tekort in het aanpakken van het probleem. De AI-wet van de Europese Unie vereist weliswaar risicobeoordelingen, maar classificeert de meeste AI-assistenten niet als ‘hoog risico’, wat betekent dat genderstereotypen of het normaliseren van misbruik niet automatisch tot een verbod zullen leiden.
Canada schrijft gendergebaseerde effectbeoordelingen voor overheidssystemen voor, maar de particuliere sector blijft ongereguleerd. Australië is van plan te vertrouwen op bestaande raamwerken in plaats van AI-specifieke regels op te stellen. Dit regelgevingsvacuüm is gevaarlijk omdat AI leert van elke interactie, waardoor misogynie mogelijk in toekomstige resultaten wordt vastgelegd.
De noodzaak van systemische verandering
Het probleem gaat niet alleen over Siri of Alexa; het is systemisch. Wereldwijd vormen vrouwen slechts 22% van de AI-professionals, wat betekent dat deze technologieën vanuit beperkte perspectieven zijn gebouwd. Uit een onderzoek uit 2015 bleek dat 65% van de oudere vrouwen in Silicon Valley ongewenste seksuele avances van leidinggevenden had ervaren, wat de zeer ongelijke cultuur benadrukt die de ontwikkeling van AI vormgeeft.
Vrijwillige ethische richtlijnen zijn niet voldoende. De wetgeving moet gendergerelateerde schade erkennen als een hoog risico, gendergebaseerde effectbeoordelingen verplicht stellen en bedrijven verantwoordelijk houden als ze er niet in slagen de schade te minimaliseren. Straffen moeten worden uitgevoerd. Onderwijs is ook van cruciaal belang, vooral binnen de technologiesector, om de impact van gendergerelateerde standaarden in stemassistenten te begrijpen.
Deze instrumenten zijn een product van menselijke keuzes, en die keuzes bestendigen een wereld waarin vrouwen – reëel of virtueel – worden neergezet als dienstbaar, onderdanig of stil.
