додому Berita dan Artikel Terbaru Asisten AI dan Bias Gender: Mengapa Teknologi “Sopan” Memperkuat Stereotip yang Berbahaya

Asisten AI dan Bias Gender: Mengapa Teknologi “Sopan” Memperkuat Stereotip yang Berbahaya

Asisten AI dan Bias Gender: Mengapa Teknologi “Sopan” Memperkuat Stereotip yang Berbahaya

Asisten suara dengan kecerdasan buatan (AI) kini ada di mana-mana, dengan lebih dari 8 miliar orang aktif di seluruh dunia – lebih dari satu asisten suara per orang di planet ini. Terlepas dari kemudahannya, sistem ini sebagian besar menggunakan persona feminin, sehingga melanggengkan stereotip gender yang merusak dan menormalisasi interaksi yang merugikan. Ini bukan sekedar masalah branding; ini adalah pilihan desain mendasar dengan konsekuensi dunia nyata.

Desain Asisten AI Berdasarkan Gender

Sifat gender dari asisten AI terlihat jelas dalam nama dan suara mereka. Siri dari Apple, berasal dari nama feminin Skandinavia yang berarti “wanita cantik yang membawa Anda menuju kemenangan”, merupakan contoh tren ini. Bandingkan hal ini dengan Watson for Oncology dari IBM, yang diluncurkan dengan suara laki-laki – sebuah sinyal yang jelas bahwa perempuan melayani, sementara laki-laki mengajar.

Desain ini memperkuat ekspektasi masyarakat terhadap peran gender, dimana perempuan diposisikan sebagai orang yang suka membantu dan patuh, sedangkan laki-laki adalah orang yang berwibawa. Implikasinya melampaui simbolisme; hal ini menormalkan subordinasi berbasis gender dan meningkatkan risiko pelecehan.

Realitas Pelecehan yang Mengganggu

Penelitian mengungkapkan sejauh mana interaksi berbahaya dengan AI yang bersifat feminin. Studi menunjukkan bahwa hingga 50% pertukaran manusia-mesin berisi konten yang kasar secara verbal, termasuk bahasa seksual eksplisit. Meskipun demikian, banyak pengembang masih mengandalkan tanggapan yang telah dikodekan sebelumnya terhadap penyalahgunaan (“Hmm, saya tidak yakin apa yang Anda maksud dengan pertanyaan itu”) daripada perubahan sistem.

Perilaku ini dapat meluas ke interaksi dunia nyata. Eksperimen menunjukkan 18% interaksi dengan agen yang berwujud perempuan berfokus pada seks, dibandingkan dengan 10% untuk perwujudan laki-laki dan 2% untuk robot non-gender. Bank Bradesco di Brazil melaporkan 95.000 pesan pelecehan seksual dikirim ke chatbot femininnya dalam satu tahun.

Meningkatnya kekerasan secara cepat sungguh mengkhawatirkan. Chatbot Tay dari Microsoft dimanipulasi untuk melontarkan cercaan rasis dan misoginis dalam waktu 16 jam setelah peluncuran. Di Korea, Luda dipaksa untuk menanggapi permintaan seksual sebagai “budak seks” yang patuh, dan beberapa orang memandangnya sebagai “kejahatan tanpa korban”. Kasus-kasus ini menunjukkan bagaimana pilihan desain menciptakan lingkungan yang permisif terhadap agresi gender.

Kesenjangan Peraturan dan Masalah Sistemik

Regulasi kesulitan untuk mengimbangi pertumbuhan ini. Diskriminasi berbasis gender jarang dianggap berisiko tinggi, dan undang-undang yang ada sering kali tidak mampu mengatasi permasalahan tersebut. Undang-undang AI Uni Eropa, meskipun memerlukan penilaian risiko, tidak akan mengklasifikasikan sebagian besar asisten AI sebagai “berisiko tinggi,” yang berarti stereotip gender atau normalisasi penyalahgunaan tidak akan secara otomatis memicu pelarangan.

Kanada mengamanatkan penilaian dampak berbasis gender untuk sistem pemerintahan, namun sektor swasta masih belum diatur. Australia berencana untuk mengandalkan kerangka kerja yang sudah ada dibandingkan menyusun aturan khusus AI. Kekosongan peraturan ini berbahaya karena AI belajar dari setiap interaksi, sehingga berpotensi memasukkan misogini ke dalam keluaran di masa depan.

Perlunya Perubahan Sistemik

Masalahnya bukan hanya tentang Siri atau Alexa; itu sistemik. Perempuan hanya merupakan 22% dari profesional AI di seluruh dunia, yang berarti teknologi ini dibangun berdasarkan perspektif yang sempit. Sebuah survei pada tahun 2015 menemukan bahwa 65% perempuan lanjut usia di Silicon Valley pernah mengalami rayuan seksual yang tidak diinginkan dari atasan mereka. Hal ini menunjukkan adanya budaya yang sangat tidak setara yang membentuk pengembangan AI.

Pedoman etika sukarela saja tidak cukup. Perundang-undangan harus mengakui dampak buruk gender sebagai hal yang berisiko tinggi, mengamanatkan penilaian dampak berbasis gender, dan meminta pertanggungjawaban perusahaan ketika mereka gagal meminimalkan dampak buruk. Hukuman harus ditegakkan. Pendidikan juga penting, terutama di sektor teknologi, untuk memahami dampak dari default gender pada asisten suara.

Alat-alat ini merupakan hasil pilihan manusia, dan pilihan-pilihan tersebut melanggengkan dunia di mana perempuan – baik secara nyata maupun virtual – berperan sebagai pelayan, penurut, atau pendiam.

Exit mobile version