Hlasoví asistenti umělé inteligence (AI) se stali všudypřítomnými s více než 8 miliardami aktivních uživatelů po celém světě – více než jeden na každého člověka na planetě. Navzdory své pohodlnosti jsou tyto systémy v drtivé většině výchozí pro ženské obrazy, čímž udržují škodlivé genderové stereotypy a normalizují škodlivé interakce. Není to jen otázka brandingu; je to základní designová volba se skutečnými důsledky.
Genderový design asistentů AI
Genderová povaha asistentů AI je patrná z jejich jmen a hlasů. Apple Siri, jejíž jméno pochází ze jména skandinávské dívky, které znamená „krásná žena, která vás vede k vítězství“, je ukázkovým příkladem tohoto trendu. Naproti tomu, IBM Watson pro onkologii zahájilo mužský hlas – jasný signál, že ženy slouží a muži vedou.
Tento design posiluje společenská očekávání ohledně genderových rolí, kde jsou ženy umístěny jako užitečné a submisivní a muži jako autoritativní. Důsledky přesahují symboliku: normalizuje podřízenost pohlaví a zvyšuje riziko zneužití.
Znepokojivá realita zneužívání
Výzkum ukazuje rozsah škodlivých interakcí s feminizovanou AI. Výzkum ukazuje, že až 50 % výměn mezi lidmi a stroji obsahuje verbálně urážlivý obsah, včetně sexuálně explicitního jazyka. Navzdory tomu mnoho vývojářů stále spoléhá na předem naprogramované reakce na urážky („Hmm, nejsem si jistý, co jsi tou otázkou myslel“) namísto systémových změn.
Toto chování se může přenést do interakcí v reálném životě. Experimenty ukazují, že 18 % interakcí s ženskými agenty se zaměřuje na sex, ve srovnání s 10 % u mužských agentů a 2 % u negenderovaných robotů. Brazilská banka Bradesco ohlásila 95 000 sexuálně obtěžujících zpráv odeslaných jejímu feminizovanému chatbotovi za jeden rok.
Rychlá eskalace zneužívání je alarmující. Chatbot společnosti Microsoft Tay byl náchylný k pronášení rasistických a misogynních nadávek do 16 hodin od spuštění. V Koreji byla Luda nucena reagovat na sexuální žádosti jako poslušná „sexuální otrokyně“, přičemž někteří to považovali za „zločin bez oběti“. Tyto případy ukazují, jak rozhodnutí o designu vytváří prostředí umožňující genderově podmíněnou agresi.
Regulační mezery a systémové problémy
Regulace nedržela krok s tímto růstem. Diskriminace na základě pohlaví je zřídka vnímána jako vysoké riziko a současná legislativa často tento problém neřeší. Právní předpisy EU týkající se umělé inteligence, které vyžadují hodnocení rizik, neklasifikují většinu asistentů umělé inteligence jako „vysoce rizikové“, což znamená, že genderové stereotypy nebo normalizační zneužívání nepovedou automaticky k zákazu.
Kanada vyžaduje pro vládní systémy posouzení dopadu na pohlaví, ale soukromý sektor zůstává neregulovaný. Austrálie plánuje spoléhat na stávající rámce namísto vývoje pravidel specifických pro umělou inteligenci. Toto regulační vakuum je nebezpečné, protože umělá inteligence se učí z každé interakce a potenciálně udržuje misogynii v budoucích výsledcích.
Potřeba systémové změny
Problém není jen Siri nebo Alexa; je to systémové. Ženy tvoří pouze 22 % profesionálů v oblasti umělé inteligence po celém světě, což znamená, že tyto technologie jsou vyvíjeny z úzké perspektivy. Průzkum z roku 2015 zjistil, že 65 % seniorek v Silicon Valley zažilo nechtěné sexuální návrhy ze strany vedoucích pracovníků, což poukazuje na hluboce nerovnou kulturu formující vývoj AI.
Dobrovolné etické zásady nestačí. Legislativa by měla uznat újmu na základě pohlaví jako vysoce rizikovou, nařídit posouzení dopadu na pohlaví a pohnat společnosti k odpovědnosti, pokud škody neminimalizují. Musí platit sankce. Vzdělání je také velmi důležité, zejména v technologickém sektoru, abychom pochopili důsledky výchozího nastavení pohlaví u hlasových asistentů.
Tyto nástroje jsou produktem lidské volby a tyto volby udržují svět, ve kterém jsou ženy – skutečné nebo virtuální – zobrazovány jako užitečné, submisivní nebo tiché.
