ШІ-помічники та гендерні упередження: чому «ввічливі» технології увічнюють шкідливі стереотипи

4

Голосові помічники зі штучним інтелектом (ШІ) стали всюдисущими, з понад 8 мільярдами активних користувачів у всьому світі — більше ніж по одному на кожну людину на планеті. Незважаючи на їхню зручність, ці системи переважно використовують за замовчуванням жіночі зображення, увічнюючи шкідливі гендерні стереотипи та нормалізуючи шкідливі взаємодії. Це не просто питання брендингу; це фундаментальний вибір дизайну з реальними наслідками.

Гендерний дизайн помічників ШІ

Гендерна природа помічників ШІ очевидна в їхніх іменах і голосах. Siri від Apple, назва якої походить від імені скандинавської дівчини, що означає «красива жінка, яка веде вас до перемоги», є яскравим прикладом цієї тенденції. На противагу цьому Watson для онкології IBM був запущений чоловічим голосом — чіткий сигнал, що жінки служать, а чоловіки очолюють.

Цей дизайн посилює суспільні очікування щодо гендерних ролей, де жінки позиціонуються як корисні та покірні, а чоловіки як авторитетні. Наслідки виходять за рамки символізму: це нормалізує гендерну субординацію та підвищує ризик насильства.

Тривожна реальність насильства

Дослідження показують ступінь шкідливої взаємодії з фемінізованим ШІ. Дослідження показують, що до 50% обміну між людиною та машиною містять словесно образливий вміст, у тому числі відверті сексуальні висловлювання. Незважаючи на це, багато розробників досі покладаються на заздалегідь запрограмовані відповіді на образи («Хм, я не впевнений, що ви мали на увазі під цим запитанням») замість системних змін.

Така поведінка може перенестись на взаємодію в реальному житті. Експерименти показують, що 18% взаємодії з жінками-агентами зосереджені на сексі, порівняно з 10% для чоловіків-агентів і 2% для негендерних роботів. Бразильський банк Bradesco повідомив про 95 000 повідомлень сексуального характеру, надісланих його фемінізованому чат-боту за один рік.

Швидка ескалація зловживань викликає тривогу. Чат-бот Microsoft Tay був схильний висловлювати расистські та женоненависницькі образи протягом 16 годин після запуску. У Кореї Люда була змушена реагувати на сексуальні запити як слухняна «сексуальна рабиня», дехто розглядав це як «злочин без жертв». Ці випадки демонструють, як дизайнерські рішення створюють сприятливе середовище для гендерної агресії.

Регуляторні прогалини та системні проблеми

Регулювання не встигає за цим зростанням. Ґендерна дискримінація рідко розглядається як високий ризик, і чинне законодавство часто не враховує цю проблему. Закон ЄС щодо штучного інтелекту, який вимагає оцінки ризиків, не класифікує більшість помічників штучного інтелекту як «високий ризик», тобто гендерні стереотипи чи нормальне зловживання не призведуть автоматично до заборони.

Канада вимагає оцінки гендерного впливу для державних систем, але приватний сектор залишається нерегульованим. Австралія планує покладатися на існуючі фреймворки замість того, щоб розробляти спеціальні правила ШІ. Цей регуляторний вакуум небезпечний, оскільки штучний інтелект вчиться на кожній взаємодії, потенційно зберігаючи мізогінію в майбутніх результатах.

Необхідність системних змін

Проблема не лише в Siri чи Alexa; це системно. Жінки становлять лише 22% професіоналів штучного інтелекту в усьому світі, тобто ці технології розробляються з вузької точки зору. Опитування 2015 року показало, що 65% жінок старшого віку в Кремнієвій долині стикалися з небажаними сексуальними прихильностями з боку керівників, що підкреслює глибоку нерівну культуру, яка формує розвиток ШІ.

Добровільних етичних принципів недостатньо. Законодавство має визнавати шкоду, зумовлену статтю, високим ризиком, передбачати обов’язкову оцінку гендерного впливу та притягувати компанії до відповідальності, якщо вони не зводять до мінімуму шкоду. Повинні застосовуватися штрафні санкції. Освіта також має вирішальне значення, особливо в технологічному секторі, щоб зрозуміти наслідки налаштувань статі за замовчуванням у голосових помічниках.

Ці інструменти є продуктом людського вибору, і ці вибори увічнюють світ, у якому жінок — реальних чи віртуальних — зображують як корисних, покірних або мовчазних.