Голосовые помощники на основе искусственного интеллекта (ИИ) стали повсеместными: их насчитывается более 8 миллиардов активных пользователей по всему миру – больше одного на человека на планете. Несмотря на удобство, эти системы подавляюще часто выбирают женские образы по умолчанию, увековечивая разрушительные гендерные стереотипы и нормализуя вредное взаимодействие. Это не просто вопрос брендинга; это фундаментальный дизайнерский выбор с реальными последствиями.
Гендерный дизайн ИИ-помощников
Гендерная природа ИИ-помощников очевидна в их именах и голосах. Siri от Apple, название которого происходит от скандинавского женского имени, означающего «красивая женщина, ведущая тебя к победе», является ярким примером этой тенденции. В отличие от этого, Watson от IBM для онкологии был запущен с мужским голосом – явный сигнал о том, что женщины служат, а мужчины руководят.
Этот дизайн закрепляет общественные ожидания относительно гендерных ролей, где женщины позиционируются как услужливые и покорные, а мужчины – как авторитетные. Последствия выходят за рамки символизма: это нормализует гендерное подчинение и увеличивает риск жестокого обращения.
Тревожная реальность жестокого обращения
Исследования показывают масштабы вредного взаимодействия с феминизированным ИИ. Исследования показывают, что до 50% обменов между человеком и машиной содержат словесное оскорбительное содержание, включая сексуально откровенные высказывания. Несмотря на это, многие разработчики по-прежнему полагаются на заранее запрограммированные ответы на оскорбления («Хм, я не уверен, что вы имели в виду этим вопросом») вместо системных изменений.
Это поведение может перенестись в реальные взаимодействия. Эксперименты показывают, что 18% взаимодействий с агентами, воплощенными в женской форме, сосредоточены на сексе, по сравнению с 10% для агентов мужской формы и 2% для негендерных роботов. Бразильский банк Bradesco сообщил о 95 000 сексуально домогающихся сообщений, отправленных его феминизированному чат-боту за один год.
Быстрая эскалация жестокого обращения вызывает тревогу. Чат-бот Tay от Microsoft был склонен к произнесению расистских и женоненавистнических оскорблений в течение 16 часов после запуска. В Корее Луду заставили отвечать на сексуальные просьбы как послушную «секс-рабку», причем некоторые рассматривали это как «преступление без жертвы». Эти случаи демонстрируют, как дизайнерские решения создают благоприятную среду для гендерной агрессии.
Регуляторные лакуны и системные проблемы
Регулирование не успевает за этим ростом. Гендерная дискриминация редко рассматривается как высокорисковая, и действующее законодательство часто не решает эту проблему. Закон ЕС об ИИ, требующий оценки рисков, не классифицирует большинство ИИ-помощников как «высокорисковые», что означает, что гендерные стереотипы или нормализация жестокого обращения не приведет автоматически к запрету.
Канада требует оценки гендерного воздействия для государственных систем, но частный сектор остается нерегулируемым. Австралия планирует полагаться на существующие рамки вместо разработки правил, специфичных для ИИ. Этот регуляторный вакуум опасен, потому что ИИ учится на каждом взаимодействии, потенциально закрепляя женоненавистничество в будущих результатах.
Необходимость системных изменений
Проблема не только в Siri или Alexa; она системная. Женщины составляют лишь 22% специалистов по ИИ во всем мире, что означает, что эти технологии разрабатываются с узких перспектив. Опрос 2015 года показал, что 65% старших женщин в Кремниевой долине столкнулись с нежелательными сексуальными домогательствами со стороны руководителей, что подчеркивает глубоко неравную культуру, формирующую разработку ИИ.
Добровольные этические принципы недостаточны. Законодательство должно признавать гендерный вред как высокорисковый, предписывать оценки гендерного воздействия и привлекать компании к ответственности, если они не минимизируют вред. Штрафы должны применяться. Образование также имеет решающее значение, особенно в технологическом секторе, для понимания последствий гендерных настроек по умолчанию в голосовых помощниках.
Эти инструменты являются продуктом человеческого выбора, и этот выбор увековечивает мир, в котором женщины – реальные или виртуальные – изображаются как услужливые, покорные или молчащие.




























