Asystenci AI i uprzedzenia związane z płcią: dlaczego „grzeczne” technologie utrwalają szkodliwe stereotypy

20

Asystenci głosowi ze sztuczną inteligencją (AI) stali się wszechobecni – na całym świecie ma ponad 8 miliardów aktywnych użytkowników, czyli więcej niż jeden na każdą osobę na planecie. Pomimo wygody systemy te w przeważającej mierze domyślnie opierają się na wizerunkach kobiet, utrwalając szkodliwe stereotypy dotyczące płci i normalizując szkodliwe interakcje. To nie jest tylko kwestia marki; to podstawowy wybór projektowy mający realne konsekwencje.

Projektowanie płci asystentów AI

Płeć charakteru asystentów AI jest widoczna w ich imionach i głosach. Siri firmy Apple, której nazwa pochodzi od imienia skandynawskiej dziewczynki oznaczającego „piękna kobieta prowadząca do zwycięstwa”, jest doskonałym przykładem tego trendu. Z kolei IBM Watson dla onkologii wystartował męskim głosem – wyraźnym sygnałem, że kobiety służą, a mężczyźni przewodzą.

Projekt ten wzmacnia oczekiwania społeczne dotyczące ról płciowych, w których kobiety są postrzegane jako pomocne i uległe, a mężczyźni jako autorytatywni. Konsekwencje wykraczają poza symbolikę: normalizuje ona podporządkowanie płci i zwiększa ryzyko nadużyć.

Niepokojąca rzeczywistość przemocy

Badania pokazują zakres szkodliwych interakcji z feminizowaną sztuczną inteligencją. Badania pokazują, że aż 50% wymian między ludźmi a maszynami zawiera treści werbalnie obraźliwe, w tym języki o charakterze jednoznacznie seksualnym. Mimo to wielu programistów nadal polega na zaprogramowanych reakcjach na obelgi („Hmm, nie jestem pewien, co miałeś na myśli, mówiąc to pytanie”) zamiast na zmianach systemowych.

To zachowanie może przenieść się na interakcje w prawdziwym życiu. Eksperymenty pokazują, że 18% interakcji z agentkami koncentruje się na seksie, w porównaniu z 10% w przypadku agentów płci męskiej i 2% w przypadku robotów niepłciowych. Brazylijski bank Bradesco zgłosił, że w ciągu jednego roku do jego feminizowanego chatbota wysłano 95 000 wiadomości o charakterze molestowania seksualnego.

Szybka eskalacja nadużyć jest niepokojąca. Chatbot Tay firmy Microsoft miał skłonność do wypowiadania rasistowskich i mizoginistycznych obelg w ciągu 16 godzin od uruchomienia. W Korei Luda była zmuszona odpowiadać na prośby o charakterze seksualnym jako posłuszna „niewolnica seksualna”, co niektórzy postrzegali jako „przestępstwo bez ofiary”. Przypadki te pokazują, jak decyzje projektowe tworzą sprzyjające środowisko dla agresji ze względu na płeć.

Luki regulacyjne i problemy systemowe

Regulacje nie nadążają za tym wzrostem. Dyskryminacja ze względu na płeć rzadko jest postrzegana jako ryzyko wysokiego ryzyka, a obecne przepisy często nie rozwiązują tego problemu. Prawo UE dotyczące sztucznej inteligencji, które wymaga oceny ryzyka, nie klasyfikuje większości asystentów AI jako „wysokiego ryzyka”, co oznacza, że ​​stereotypy dotyczące płci lub normalizacja nadużyć nie będą automatycznie prowadzić do zakazu.

Kanada wymaga ocen wpływu płci na systemy rządowe, ale sektor prywatny pozostaje nieuregulowany. Australia planuje oprzeć się na istniejących ramach, zamiast opracowywać przepisy dotyczące sztucznej inteligencji. Ta próżnia regulacyjna jest niebezpieczna, ponieważ sztuczna inteligencja uczy się na podstawie każdej interakcji, co może utrwalić mizoginię w przyszłych wynikach.

Potrzeba zmian systemowych

Problemem nie jest tylko Siri i Alexa; to jest systemowe. Kobiety stanowią zaledwie 22% specjalistów w dziedzinie sztucznej inteligencji na całym świecie, co oznacza, że ​​technologie te są opracowywane z wąskiej perspektywy. Badanie przeprowadzone w 2015 roku wykazało, że 65% starszych kobiet w Dolinie Krzemowej doświadczyło niechcianych zalotów seksualnych ze strony kadry kierowniczej, co podkreśla głęboko nierówne traktowanie kulturowe kształtujące rozwój sztucznej inteligencji.

Dobrowolne zasady etyczne nie są wystarczające. Prawodawstwo powinno uznawać szkody związane z płcią za ryzyko wysokiego, nakładać obowiązek przeprowadzania ocen wpływu na płeć i pociągać firmy do odpowiedzialności, jeśli nie uda im się zminimalizować szkód. Należy zastosować kary. Edukacja jest również kluczowa, szczególnie w sektorze technologii, aby zrozumieć konsekwencje domyślnych ustawień płci w asystentach głosowych.

Narzędzia te są produktem ludzkich wyborów, a te wybory utrwalają świat, w którym kobiety – prawdziwe lub wirtualne – są przedstawiane jako pomocne, uległe lub milczące.