Pada Oktober 2022, Facebook telah meluncurkan chatbot bernama BlenderBot 3 yang disebut-sebut sebagai AI tercanggih karena bisa berbicara dengan hampir semua orang di internet dengan kemampuannya dalam menyesuaikan kepribadian, empati, pengetahuan, dan memori jangka panjang.
Hadirnya kekuatan besar disertai juga dengan datang nya tanggung jawab besar. Kalimat tersebut tepat ditujukan untuk perancang Artificial Intelligence (AI) yang makin hari makin canggih dalam perkembangannya. Kecanggihan AI dalam mempelajari jutaan data memungkinkan AI dapat memiliki kemampuan yang melebihi manusia di beberapa bidang.
Artinya, kekuatan besar AI memiliki kerentanan dan resiko yang besar jika dipegang oleh pihak yang tidak bertanggung jawab. Permasalahan ini bukan hal baru di AI, seperti pada tahun 2016 Tay, AI buatan Microsoft, membutuhkan waktu kurang dari 24 jam untuk berubah menjadi fanatik sayap kanan di Twitter dengan memposting tweet rasis dan memuji Adolf Hitler.[1]
Bias dalam perancangan AI ini juga bisa jadi mengarah kepada isu kesetaraan gender yang masih cukup rentan di beberapa negara. Direktur European Institute for Gender Equality, Charlien Scheele, mengatakan bahwa AI memiliki representasi terbatas sehingga mengarah pada pembuatan kumpulan data dengan bias kesetaraan gender yang dapat melanggengkan stereotip tentang gender.
Hal tersebut meningkatkan kekhawatiran bahwa algoritma yang digunakan oleh sistem AI modern menghasilkan keluaran yang diskriminatif karena mereka dilatih pada data di mana bias sosial tertanam.
Bias Kesetaraan Gender pada AI Mengikuti Stereotip Masyarakat
Pencarian internet yang bias gender berdampak pada mempromosikan bias gender pula pada pengguna. Laporan dari Washington Post menunjukkan hasil eksperimen bahwa robot yang dilatih oleh AI hasilnya secara konsisten mengaitkan istilah seperti "petugas kebersihan" dan "ibu rumah tangga" dengan gambar orang kulit berwarna gelap dan wanita.[2]
Bagaimana ini bisa terjadi? Penelitian di Proceedings of the National Academy of Sciences mengungkap bagaimana bias di dalam output algoritma dipengaruhi oleh tingkat ketidaksetaraan dalam suatu masyarakat. Mereka menganalisis beberapa kata kunci yang bisa memeriksa probabilitas pada kedua gender dari data ketimpangan gender di 150 negara pada tahun 2020.[3] Tujuannya adalah menilai kemungkinan bias gender dalam hasil pencarian, atau keluaran algoritmanya.
Pelacakan dilakukan di beberapa negara. Hasilnya menunjukkan bahwa gambaran laki-laki yang dihasilkan dari pencarian pada kata kunci, lebih tinggi di negara-negara yang secara gender tidak setara. Temuan itu mengungkap bahwa bias gender mengikuti ketidaksetaraan gender sosial di dunia nyata.