Teknologi | Artificial Intelligence

Aequitas: Solusi Peningkatan Inklusivitas AI

Mukti Tama P. / Amelinda Pandu 2 Jan 2023. 4 min.

Artificial Intelligence (AI) diciptakan untuk meniru manusia.  Sayangnya sejauh ini, AI tidak hanya meniru keahlian manusia, tetapi juga bias-bias yang dimiliki. Salah satu contoh yaitu kasus AI milik Amazon yang dianggap melakukan tindakan diskriminatif. Pada tahun 2018 silam, spesialis machine learning Amazon menyampaikan bahwa AI yang digunakan Amazon untuk merekrut pegawai baru ternyata diskriminatif terhadap kandidat perempuan. AI yang sudah digunakan Amazon sejak tahun 2014 menolak kandidat yang mencantumkan kata ‘perempuan’ di curriculum vitae mereka.

Tentunya, AI tidak bisa sepenuhnya disalahkan atas perilaku diskriminatif ini, dikarenakan AI diciptakan hanya untuk meniru. Sejatinya, perilaku diskriminatif AI merupakan tindakan pengulangan sebelum AI diterapkan di Amazon. Teknologi AI Amazon dilatih dengan informasi dan pola penerimaan karyawan Amazon selama sepuluh tahun kebelakang yang memang didominasi laki-laki.[1]

Selain misoginis, AI juga memiliki kecenderungan untuk bersikap rasis. AI yang difungsikan untuk memprediksi kemunculan tindak kriminal kerap tidak adil menandai orang kulit hitam dan latin sebagai pelaku kriminal. Padahal, mereka yang ditandai tidak pernah melakukan tindak kriminal dalam bentuk apapun. Dalam sebuah eksperimen, para ilmuwan meminta AI untuk melakukan pemindaian wajah dan meletakkan beberapa wajah yang dianggap pelaku kriminal ke dalam kotak. Hasil eksperimen menunjukkan bahwa sebagian besar wajah yang dimasukkan ke dalam kotak adalah wajah orang-orang kulit hitam.[2]

Apabila tindakan misoginis dan rasis tidak segera ditangani, hal ini dapat melanggengkan dampak buruk yang diterima oleh kaum perempuan dan kelompok minoritas. Pada tahun 2020, Sage Group melaporkan bahwa 56% manajer perusahaan menggunakan AI untuk proses rekrutmen.[3] Bahkan, 72% curriculum vitae yang masuk ke akun surel Divisi Sumber Daya Manusia (SDM) perusahaan sudah ditolak sebelum dilihat oleh manusia.[4]

Berdasarkan tren tersebut, pengabaian tindakan misoginis  pada AI akan menyebabkan perempuan semakin sulit mendapatkan pekerjaan. Pada konteks tindakan rasis yang dilakukan oleh  AI, sistem penyelidikan menggunakan AI yang dilakukan oleh polisi di Boston kerap melakukan salah tangkap terhadap warga kulit hitam.[5] Oleh karena itu, lembaga negara, perusahaan, atau organisasi perlu memeriksa kembali tindakan bias yang dilakukan oleh AI, agar tercipta AI yang lebih inklusif. Pemeriksaan ini baik dilakukan sebelum dan sesuai solusi AI diterapkan.

Gambar Contoh Laporan Bias yang Dibuat Aequitas

Gambar Contoh Laporan Bias yang Dibuat Aequitas

Aequitas sebagai Alat Audit Bias AI

Salah satu alat yang bisa digunakan untuk mengukur dan memitigasi tindakan bias yang dimiliki AI adalah Aequitas. Aequitas dikembangkan oleh peneliti data science di Universitas Chicago dan dapat diakses oleh publik secara gratis melalui situs http://aequitas.dssg.io/. Alat ini mampu memberikan laporan kepada pengguna mengenai taraf bias yang dimiliki dan digunakan oleh solusi AI, serta memberitahu kepada siapa tindakan bias tersebut ditujukan. 

Untuk mendapatkan laporan dari Aequitas, pengguna harus melalui tiga tahapan. Pertama, unggah data. Pengguna diminta untuk mengunggah kolam data yang mereka gunakan untuk melatih solusi AI mereka dalam membuat sebuah prediksi. Kolam data diunggah dalam bentuk dokumen dengan format CSV.

Kedua, penentuan reference group dan protected group. Reference group merujuk kepada kelompok yang paling mungkin menerima bias perlakuan baik dari AI. Sebaliknya, protected group merujuk kepada kelompok yang paling mungkin menerima bias perlakuan buruk dari AI. Pada kasus rekrutmen pekerja Amazon yang dijelaskan sebelumnya, ditemukan bahwa reference group dari AI Amazon adalah laki-laki, sedangkan perempuan sebagai protected group

Ketiga, penentuan jenis pengukuran yang akan menjadi basis metode laporan. Terdapat enam jenis pengukuran, yaitu Equal Parity, Proportional Parity, False Positive Rate Parity, False Discovery Rate Parity, False Negative Rate Parity, dan, False Omission Rate Parity. Mengingat tujuan pemeriksaan  bias ini adalah untuk menjadikan AI  lebih adil, pemilihan jenis pengukuran didasarkan pada bentuk keadilan yang ingin dicapai oleh pengguna solusi AI. Nantinya, AI akan melihat seberapa jauh penerapan solusi AI dalam menerapkan keadilan di setiap prediksinya. 

Equal Parity dipilih oleh pengguna yang menginginkan AI mereka memiliki jumlah representasi yang sama antar setiap kelompok yang ada dalam kolam data. Proportional Parity dipilih oleh pengguna yang menginginkan jumlah representasi yang proporsional terhadap jumlah kelompok yang ada dalam kolam data. False Omission Rate Parity dipilih oleh pengguna yang ingin meningkatkan keuntungan untuk protected group dengan jumlah sangat kecil dibanding total populasi dalam kolam data.

Sedangkan, False Negative Rate Parity dipilih untuk meningkatkan keuntungan protected group dengan jumlah lebih besar. Bagi pengguna yang ingin menghindarkan protected group dari perlakuan diskriminatif, pengguna dapat memilih False Discovery Rate Parity apabila jumlah protected group-nya sangat kecil atau memilih False Positive Rate Parity apabila jumlah protected group-nya lebih besar. 

Pemeriksaan bias AI merupakan upaya penting dalam menjadikan AI lebih inklusif. Laporan yang disampaikan Aequitas dapat menjadi dasar untuk mengubah metode pelatihan AI dalam membuat prediksi yang kerap diskriminatif terhadap kelompok tertentu. Dikarenakan data yang menjadi dasar prediksi AI terus berubah, maka pemeriksaan bias AI perlu dilakukan secara rutin. Maka dari itu, pemeriksaan bias AI disarankan tidak dilakukan dengan jarak waktu pelaksanaan yang terlalu jauh antar periode atau bahkan hanya dilakukan sekali sebelum AI beroperasi.

Referensi

[1] Dastin, J. (2018, October 10). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. Retrieved from https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G 

[2] Verma, P. (2022, July 16). Robots trained on AI exhibited racist and sexist behavior. The Washington Post. Retrieved from https://www.washingtonpost.com/technology/2022/07/16/racist-robots-ai/ 

[3] McIntosh, S. (2020, January 18). The changing face of HR: A research report for HR and People leaders. Sage. Retrieved from https://www.sage.com/en-gb/blog/the-changing-face-of-hr/  

[4] O'Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Press.

[5] Milakovich, M. (2021). Digital governance: Applying digital technology to improve public services. Routledge.

Artificial IntelligenceMachine LearningDigital trustInklusi Transformasi DigitalInklusif

Bagikan artikel ini:

← Kembali ke semua artikel

Artikel Terbaru