Gli assistenti vocali di intelligenza artificiale (AI) sono ormai onnipresenti, con oltre 8 miliardi attivi in tutto il mondo, più di uno per persona sul pianeta. Nonostante la loro comodità, questi sistemi si basano prevalentemente su personaggi femminili, perpetuando stereotipi di genere dannosi e normalizzando le interazioni dannose. Questo non è un semplice problema di branding; è una scelta progettuale fondamentale con conseguenze nel mondo reale.
La progettazione di genere degli assistenti IA
La natura di genere degli assistenti IA è evidente nei loro nomi e nelle loro voci. Siri di Apple, derivato da un nome femminile scandinavo che significa “bella donna che ti guida alla vittoria”, esemplifica questa tendenza. Confrontatelo con Watson for Oncology di IBM, lanciato con una voce maschile – un chiaro segnale che le donne servono, mentre gli uomini istruiscono.
Questo disegno rafforza le aspettative della società sui ruoli di genere, in cui le donne sono posizionate come disponibili e sottomesse, mentre gli uomini sono autorevoli. Le implicazioni vanno oltre il simbolismo; normalizza la subordinazione basata sul genere e aumenta il rischio di abusi.
La realtà inquietante degli abusi
La ricerca rivela l’entità delle interazioni dannose con l’IA femminilizzata. Gli studi dimostrano che fino al 50% degli scambi uomo-macchina contengono contenuti verbalmente offensivi, incluso linguaggio sessualmente esplicito. Nonostante ciò, molti sviluppatori si affidano ancora a risposte precodificate agli abusi (“Hmm, non sono sicuro di cosa intendessi con quella domanda”) piuttosto che a cambiamenti sistemici.
Questo comportamento può estendersi alle interazioni del mondo reale. Gli esperimenti mostrano che il 18% delle interazioni con agenti con corpo femminile si concentra sul sesso, rispetto al 10% per le incarnazioni maschili e al 2% per i robot senza genere. La banca brasiliana Bradesco ha segnalato 95.000 messaggi di molestie sessuali inviati al suo chatbot femminilizzato in un solo anno.
La rapida escalation degli abusi è allarmante. Il chatbot Tay di Microsoft è stato manipolato per lanciare insulti razzisti e misogini entro 16 ore dal lancio. In Corea, Luda è stata costretta a rispondere alle richieste sessuali come un’obbediente “schiava del sesso”, e alcuni lo consideravano un “crimine senza vittime”. Questi casi dimostrano come le scelte progettuali creino un ambiente permissivo per l’aggressione di genere.
Lacune normative e problemi sistemici
La regolamentazione fatica a tenere il passo con questa crescita. La discriminazione basata sul genere è raramente considerata ad alto rischio e le leggi attuali spesso non riescono ad affrontare il problema. La legge sull’intelligenza artificiale dell’Unione Europea, pur richiedendo valutazioni del rischio, non classificherà la maggior parte degli assistenti di intelligenza artificiale come “ad alto rischio”, il che significa che gli stereotipi di genere o la normalizzazione degli abusi non faranno scattare automaticamente il divieto.
Il Canada impone valutazioni d’impatto basate sul genere per i sistemi governativi, ma il settore privato rimane non regolamentato. L’Australia prevede di fare affidamento sui quadri esistenti invece di elaborare regole specifiche per l’IA. Questo vuoto normativo è pericoloso perché l’intelligenza artificiale impara da ogni interazione, potenzialmente codificando la misoginia nei risultati futuri.
La necessità di un cambiamento sistemico
La questione non riguarda semplicemente Siri o Alexa; è sistemico. Le donne rappresentano solo il 22% dei professionisti dell’intelligenza artificiale a livello globale, il che significa che queste tecnologie si basano su prospettive ristrette. Un sondaggio del 2015 ha rilevato che il 65% delle donne anziane nella Silicon Valley ha subito avance sessuali indesiderate da parte dei supervisori, evidenziando la cultura profondamente diseguale che modella lo sviluppo dell’intelligenza artificiale.
Le linee guida etiche volontarie non sono sufficienti. La legislazione deve riconoscere i danni di genere come ad alto rischio, imporre valutazioni d’impatto basate sul genere e ritenere le aziende responsabili quando non riescono a minimizzare i danni. Le sanzioni devono essere applicate. Anche l’istruzione è fondamentale, soprattutto nel settore tecnologico, per comprendere l’impatto delle impostazioni predefinite di genere negli assistenti vocali.
Questi strumenti sono il prodotto delle scelte umane e tali scelte perpetuano un mondo in cui le donne – reali o virtuali – sono considerate servili, sottomesse o silenziose.
