Artificial Intelligence (AI) diciptakan untuk meniru manusia. Sayangnya sejauh ini, AI tidak hanya meniru keahlian manusia, tetapi juga bias-bias yang dimiliki. Salah satu contoh yaitu kasus AI milik Amazon yang dianggap melakukan tindakan diskriminatif. Pada tahun 2018 silam, spesialis machine learning Amazon menyampaikan bahwa AI yang digunakan Amazon untuk merekrut pegawai baru ternyata diskriminatif terhadap kandidat perempuan. AI yang sudah digunakan Amazon sejak tahun 2014 menolak kandidat yang mencantumkan kata ‘perempuan’ di curriculum vitae mereka.
Tentunya, AI tidak bisa sepenuhnya disalahkan atas perilaku diskriminatif ini, dikarenakan AI diciptakan hanya untuk meniru. Sejatinya, perilaku diskriminatif AI merupakan tindakan pengulangan sebelum AI diterapkan di Amazon. Teknologi AI Amazon dilatih dengan informasi dan pola penerimaan karyawan Amazon selama sepuluh tahun kebelakang yang memang didominasi laki-laki.[1]
Selain misoginis, AI juga memiliki kecenderungan untuk bersikap rasis. AI yang difungsikan untuk memprediksi kemunculan tindak kriminal kerap tidak adil menandai orang kulit hitam dan latin sebagai pelaku kriminal. Padahal, mereka yang ditandai tidak pernah melakukan tindak kriminal dalam bentuk apapun. Dalam sebuah eksperimen, para ilmuwan meminta AI untuk melakukan pemindaian wajah dan meletakkan beberapa wajah yang dianggap pelaku kriminal ke dalam kotak. Hasil eksperimen menunjukkan bahwa sebagian besar wajah yang dimasukkan ke dalam kotak adalah wajah orang-orang kulit hitam.[2]
Apabila tindakan misoginis dan rasis tidak segera ditangani, hal ini dapat melanggengkan dampak buruk yang diterima oleh kaum perempuan dan kelompok minoritas. Pada tahun 2020, Sage Group melaporkan bahwa 56% manajer perusahaan menggunakan AI untuk proses rekrutmen.[3] Bahkan, 72% curriculum vitae yang masuk ke akun surel Divisi Sumber Daya Manusia (SDM) perusahaan sudah ditolak sebelum dilihat oleh manusia.[4]
Berdasarkan tren tersebut, pengabaian tindakan misoginis pada AI akan menyebabkan perempuan semakin sulit mendapatkan pekerjaan. Pada konteks tindakan rasis yang dilakukan oleh AI, sistem penyelidikan menggunakan AI yang dilakukan oleh polisi di Boston kerap melakukan salah tangkap terhadap warga kulit hitam.[5] Oleh karena itu, lembaga negara, perusahaan, atau organisasi perlu memeriksa kembali tindakan bias yang dilakukan oleh AI, agar tercipta AI yang lebih inklusif. Pemeriksaan ini baik dilakukan sebelum dan sesuai solusi AI diterapkan.