Teknologi | Artificial Intelligence

Apakah AI Bias terhadap Kesetaraan Gender?

Fathin Difa / Amelinda Pandu 3 Okt 2022. 5 min.

Pada Oktober 2022, Facebook telah meluncurkan chatbot bernama BlenderBot 3 yang disebut-sebut sebagai AI tercanggih karena bisa berbicara dengan hampir semua orang di internet dengan kemampuannya dalam menyesuaikan kepribadian, empati, pengetahuan, dan memori jangka panjang. 

Hadirnya kekuatan besar disertai juga dengan datang nya tanggung jawab besar. Kalimat tersebut tepat ditujukan untuk perancang Artificial Intelligence (AI) yang makin hari makin canggih dalam perkembangannya. Kecanggihan AI dalam mempelajari jutaan data memungkinkan AI dapat memiliki kemampuan yang melebihi manusia di beberapa bidang. 

Artinya, kekuatan besar AI memiliki kerentanan dan resiko yang besar jika dipegang oleh pihak yang tidak bertanggung jawab. Permasalahan ini bukan hal baru di AI, seperti pada tahun 2016 Tay, AI buatan Microsoft, membutuhkan waktu kurang dari 24 jam untuk berubah menjadi fanatik sayap kanan di Twitter dengan memposting tweet rasis dan memuji Adolf Hitler.[1]

Bias dalam perancangan AI ini juga bisa jadi mengarah kepada isu kesetaraan gender yang masih cukup rentan di beberapa negara. Direktur European Institute for Gender Equality, Charlien Scheele, mengatakan bahwa AI memiliki representasi terbatas sehingga mengarah pada pembuatan kumpulan data dengan bias kesetaraan gender yang dapat melanggengkan stereotip tentang gender.

Hal tersebut meningkatkan kekhawatiran bahwa algoritma yang digunakan oleh sistem AI modern menghasilkan keluaran yang diskriminatif karena mereka dilatih pada data di mana bias sosial tertanam. 

Bias Kesetaraan Gender pada AI Mengikuti Stereotip Masyarakat

Pencarian internet yang bias gender berdampak pada mempromosikan bias gender pula pada pengguna. Laporan dari Washington Post menunjukkan hasil eksperimen bahwa robot yang dilatih oleh AI hasilnya secara konsisten mengaitkan istilah seperti "petugas kebersihan" dan "ibu rumah tangga" dengan gambar orang kulit berwarna gelap dan wanita.[2]

Bagaimana ini bisa terjadi? Penelitian di Proceedings of the National Academy of Sciences mengungkap bagaimana  bias di dalam output algoritma dipengaruhi oleh tingkat ketidaksetaraan dalam suatu masyarakat. Mereka menganalisis beberapa kata kunci yang bisa memeriksa probabilitas pada kedua gender dari data ketimpangan gender di 150 negara pada tahun 2020.[3] Tujuannya adalah menilai kemungkinan bias gender dalam hasil pencarian, atau keluaran algoritmanya. 

Pelacakan dilakukan di beberapa negara. Hasilnya menunjukkan bahwa gambaran laki-laki yang dihasilkan dari pencarian pada kata kunci, lebih tinggi di negara-negara yang secara gender tidak setara. Temuan itu mengungkap bahwa bias gender mengikuti ketidaksetaraan gender sosial di dunia nyata.

AI memiliki representasi terbatas sehingga berpotensi mengarah pada pembuatan kumpulan data dengan bias kesetaraan gender yang dapat melanggengkan stereotip tentang gender. Hal tersebut meningkatkan kekhawatiran bahwa algoritma yang digunakan oleh sistem AI modern menghasilkan keluaran yang diskriminatif karena mereka dilatih pada data di mana bias sosial tertanam. 

Pekerja AI Didominasi oleh Laki-laki

Bias gender dari AI tidak terlepas dari perancang AI yang didominasi oleh laki-laki. Laporan mengenai gender gap global 2020 oleh World Economic Forum mengungkap proporsi perempuan dalam klaster pekerjaan berbasis teknologi masih rendah ketimbang laki-laki. Porsi karyawan perempuan di bidang data dan AI yang jumlahnya baru 26 persen dan di bidang pengembangan produk masih 35 persen.[4]

Begitu juga dengan persentase perempuan yang bekerja di bidang cloud computing baru 12 persen dibanding laki-laki. Sementara porsi pekerja perempuan di bidang engineering masih 15 persen dibanding laki-laki.  Padahal dengan hadirnya teknologi ini memunculkan banyak peluang pekerjaan baru. Menurut riset The Future of Jobs Report 2020 yang digelar World Economic Forum menyebutkan bahwa teknologi memunculkan 97 juta peran baru. Misalnya dalam bidang cloud computing, data dan kecerdasan buatan, engineering, pengembangan produk, dan lain-lain.

Dua Tantangan Sekaligus

Terdapat dua tantangan perlu ditangani, jangka pendek untuk  mendesak segera agar mengurangi bias dalam AI, dan masalah jangka panjang tentang bagaimana perempuan bersaing di angkatan kerja bidang AI.

Untuk melawan bias AI bisa dibuat aturan yang dapat mengatur bias AI. Seperti European Union (EU) yang telah mengusulkan undang-undang baru dalam bentuk Undang-Undang Kecerdasan Buatan, yang salah satu ketentuannya menunjukkan bahwa sistem AI yang digunakan untuk membantu mempekerjakan, mempromosikan, atau mengevaluasi pekerja harus dianggap "berisiko tinggi" sehingga harus menjadi perhatian serius khususnya bagi pekerja gender perempuan. 

Untuk jangka panjang adalah mendukung perempuan dalam pendidikan sains, teknologi, teknik dan matematika sehingga dapat melawan stereotip perempuan yang malas dan kontraproduktif. Dengan banyaknya perempuan yang memiliki kemampuan tinggi maka perempuan dapat berpeluang untuk ikut merancang AI sehingga dapat meminimalisir terjadinya bias gender AI di kemudian hari. 

Referensi

[1] Amodio, David dan Madalina Vlasceanu. (2022, July 12). Propagation of societal gender inequality by internet search algorithms. Proceedings of the National Academy of Sciences. https://www.pnas.org/doi/10.1073/pnas.2204529119 

[2] World Economic Forum.(2019, December 19). Global Gender Gap Report 2020. World Economic Forum.org. https://www.weforum.org/reports/gender-gap-2020-report-100-years-pay-equality/ 

[3] Nolan, Sean. (2022, September 5). Artificial intelligence suffers from some very human flaws. Gender bias is one. govinsider.asia. https://govinsider.asia/ai/artificial-intelligence-suffers-from-some-very-human-flaws-gender-bias-is-one/ 

[4] Verma, Pranshu. (2022, July 16 ). These robots were trained on AI: They became racist and sexist. washingtonpost.com. https://www.washingtonpost.com/technology/2022/07/16/racist-robots-ai/

Bias GenderArtificial IntelligenceStereotipBudaya

Bagikan artikel ini:

← Kembali ke semua artikel

Artikel Terbaru