KI-Assistenten und Geschlechtervoreingenommenheit: Warum „höfliche“ Technologie schädliche Stereotypen verstärkt

15

Sprachassistenten mit künstlicher Intelligenz (KI) sind mittlerweile allgegenwärtig. Weltweit sind über 8 Milliarden Menschen aktiv – mehr als einer pro Person auf dem Planeten. Trotz ihrer Bequemlichkeit verwenden diese Systeme überwiegend weibliche Rollen, wodurch schädliche Geschlechterstereotypen aufrechterhalten und schädliche Interaktionen normalisiert werden. Dabei handelt es sich nicht nur um ein Markenproblem. Es handelt sich um eine grundlegende Designentscheidung mit Konsequenzen für die reale Welt.

Das geschlechtsspezifische Design von KI-Assistenten

Der geschlechtsspezifische Charakter von KI-Assistenten zeigt sich in ihren Namen und Stimmen. Apples Siri, abgeleitet von einem skandinavischen Frauennamen, der „schöne Frau, die Sie zum Sieg führt“ bedeutet, ist ein Beispiel für diesen Trend. Vergleichen Sie dies mit Watson for Oncology von IBM, das mit einer männlichen Stimme eingeführt wurde – ein klares Signal, dass Frauen dienen, während Männer anleiten.

Dieses Design verstärkt die gesellschaftlichen Erwartungen an Geschlechterrollen, bei denen Frauen als hilfsbereit und unterwürfig positioniert werden, während Männer autoritär sind. Die Implikationen gehen über die Symbolik hinaus; Es normalisiert die geschlechtsspezifische Unterordnung und erhöht das Missbrauchsrisiko.

Die beunruhigende Realität des Missbrauchs

Untersuchungen zeigen das Ausmaß schädlicher Interaktionen mit feminisierter KI. Studien zeigen, dass bis zu 50 % des Austauschs zwischen Mensch und Maschine verbal beleidigende Inhalte, einschließlich sexuell expliziter Sprache, enthalten. Trotzdem verlassen sich viele Entwickler immer noch auf vorcodierte Antworten auf Missbrauch („Hmm, ich bin mir nicht sicher, was Sie mit dieser Frage gemeint haben“) und nicht auf systemische Änderungen.

Dieses Verhalten kann sich auf Interaktionen in der realen Welt auswirken. Experimente zeigen, dass sich 18 % der Interaktionen mit weiblich verkörperten Agenten auf Sex konzentrieren, verglichen mit 10 % bei männlichen Verkörperungen und 2 % bei nicht geschlechtsspezifischen Robotern. Die brasilianische Bank Bradesco meldete, dass in einem einzigen Jahr 95.000 sexuell belästigende Nachrichten an ihren feminisierten Chatbot gesendet wurden.

Die rasante Eskalation des Missbrauchs ist alarmierend. Der Tay-Chatbot von Microsoft wurde innerhalb von 16 Stunden nach dem Start so manipuliert, dass er rassistische und frauenfeindliche Beleidigungen verbreitete. In Korea wurde Luda gezwungen, als gehorsame „Sexsklavin“ auf sexuelle Anfragen zu reagieren, was einige als „Verbrechen ohne Opfer“ betrachteten. Diese Fälle zeigen, wie Designentscheidungen ein freizügiges Umfeld für geschlechtsspezifische Aggression schaffen.

Regulierungslücken und systemische Probleme

Die Regulierung hat Mühe, mit diesem Wachstum Schritt zu halten. Geschlechtsspezifische Diskriminierung wird selten als hochriskant angesehen, und die aktuellen Gesetze reichen oft nicht aus, um das Problem anzugehen. Das KI-Gesetz der Europäischen Union verlangt zwar Risikobewertungen, stuft die meisten KI-Assistenten jedoch nicht als „hohes Risiko“ ein, was bedeutet, dass Geschlechterstereotypisierung oder normalisierender Missbrauch nicht automatisch ein Verbot auslösen.

Kanada schreibt geschlechtsspezifische Folgenabschätzungen für Regierungssysteme vor, der Privatsektor bleibt jedoch unreguliert. Australien plant, sich auf bestehende Rahmenwerke zu verlassen, anstatt KI-spezifische Regeln zu erarbeiten. Dieses Regulierungsvakuum ist gefährlich, da KI aus jeder Interaktion lernt und möglicherweise Frauenfeindlichkeit in zukünftige Ergebnisse fest kodiert.

Die Notwendigkeit eines systemischen Wandels

Es geht nicht nur um Siri oder Alexa; es ist systemisch. Frauen machen weltweit nur 22 % der KI-Fachkräfte aus, was bedeutet, dass diese Technologien auf engen Perspektiven basieren. Eine Umfrage aus dem Jahr 2015 ergab, dass 65 % der älteren Frauen im Silicon Valley unerwünschte sexuelle Annäherungsversuche von Vorgesetzten erlebt hatten, was die zutiefst ungleiche Kultur verdeutlicht, die die KI-Entwicklung prägt.

Freiwillige Ethikrichtlinien reichen nicht aus. Die Gesetzgebung muss geschlechtsspezifischen Schaden als hochriskant anerkennen, geschlechtsspezifische Folgenabschätzungen vorschreiben und Unternehmen zur Rechenschaft ziehen, wenn sie den Schaden nicht minimieren. Strafen müssen durchgesetzt werden. Auch Bildung ist, insbesondere im Technologiesektor, von entscheidender Bedeutung, um die Auswirkungen geschlechtsspezifischer Vorgaben bei Sprachassistenten zu verstehen.

Diese Werkzeuge sind ein Produkt menschlicher Entscheidungen, und diese Entscheidungen halten eine Welt aufrecht, in der Frauen – real oder virtuell – als unterwürfig, unterwürfig oder still dargestellt werden.