Analisis Kecerdasan Buatan Bisa Berdampak Rasialis?

Saat ini banyak pekerjaan manusia yang digantikan oleh kecerdasan buatan atau AI.

Flickr
Kecerdasan buatan (Ilustrasi)
Red: Dwi Murdaningsih

REPUBLIKA.CO.ID, JAKARTA -- Inteligensia artifisial jadikan wawancara kerja objektif. Begitu janji para pengembang tool. Namun, sebuah analisis mengungkap, piranti lunak itu rugikan perempuan dan rasialis.

Baca Juga

Kompetisi kecantikan "beauty.ai" menjanjikan objektifitas dalam memilih orang berparas paling menawan di bumi. Kompetisi itu digelar dengan bantuan inteligensia buatan atau artificial inteligence, yang biasa disingkat AI.

Lebih dari 6.000 selfi sudah diserahkan, dari berbagai bagian dunia. Namun, hampir semua pemenang berkulit putih. 

Masalahnya: inteligensia buatan dilatih memberikan penilaian dengan data-data wajah orang dari Eropa Tengah. Sedangkan wajah orang dari kawasan dunia lain tidak dikenali dengan baik. 

Keputusan AI berdampak pada hidup manusia

Salah seorang peneliti inteligensia buatan, Joy Buolamwini, juga mengeluhkan kerugian besar lain akibat inteligensia buatan. "Kita harus semakin menyadari adanya algoritme destruktif misterius yang menyebar luas dan semakin digunakan untuk mengambil keputusan yang berdampak pada hidup kita.“

Buolamwini menjelaskan lebih lanjut, misalnya dalam hal siapa yang dapat pekerjaan, siapa yang dipecat. Apa orang ini dapat pinjaman atau tidak, dapat asuransi, atau dapat tempat kuliah yang diinginkan.

Banyak piranti lunak yang digunakan perusahaan untuk memilih pekerja baru menggunakan kecerdasan buatan. Piranti lunak ini menganalisa bahasa tubuh atau kata-kata yang digunakan.

Pembuat piranti lunak seperti HireVue menjanjikan objektifitas lebih tinggi sehingga katanya keanekaragaman dan keadilan gender bisa tercapai. 

Pakar seperti Lorena Jaume-Palasí meragukan itu. Ia menganalisis 38 piranti lunak untuk proses penerimaan pegawai yang digunakan Pemerintah Jerman.

 

AI mematuhi ide usang Big Five

"Banyak dari piranti lunak ini berlandaskan teori yang dalam berbagai ilmu sosial, sosiologi juga psikologi dianggap kontroversial, atau sudah lama usang,“ kata Jaume-Palasí.

Di dalamnya tercakup ide-ide yang disebut Big Five. Big Five dalam piranti lunak adalah: sikap terbuka, bertanggungjawab, menerima ide baru, punya empati dan keyakinan diri. Inteligensia artifisial menempatkan orang pada ibaratnya laci-laci ini, dan menarik kesimpulan tentang kelayakan seseorang. 

Misalnya, empati tidak termasuk dalam kategori yang dicari untuk posisi pemimpin. Sementara empati diasosiasikan dengan perempuan. Akhirnya piranti lunak berinterpretasi: perempuan tidak cocok jadi pemimpin!  

Masalah lainnya: Big Five adalah nilai-nilai yang berlaku dalam masyarakat Eropa. Jika kita memandang Asia misalnya, bisa dilihat, sikap rajin punya bobot sangat tinggi. Dan itu sama sekali tidak diperhitungkan "tool" yang biasanya digunakan perusahaan besar.

Teknologi yang digunakan untuk evaluasi orang

Uni Eropa juga menggunakan piranti lunak seperti itu untuk proses pencarian pegawai baru. Namanya Cammio. Tapi sekarang fungsi inteligensia buatan yang ada di piranti lunak itu belum mulai digunakan. 

Lorena Jaume-Palasí yang juga jadi penasehat pemerintah dalam hal intelegensia artifisial mengatakan, "Saya rasa, kita harus memikirkan dulu, apakah teknologi seperti ini bisa digunakan dalam berbagai hal, yang tujuannya memberikan nilai dan mengevaluasi orang.“

Penyebabnya, karena teknologi ini sebenarnya tidak etis dan tidak sesuai dengan ilmu pengetahuan, dan tidak layak dilempar ke pasaran. Begitu ditekankan Jaume-Palasí yang juga pendiri organisasi non profit Ethical Tech Society 

Namun demikian, di seluruh dunia, semakin banyak sistem kecerdasan buatan yang digunakan.  

Manusia butuh program yang inklusif

"Kita harus mulai memikirkan bagaimana caranya menciptakan program yang bersifat lebih inklusif dan mengikutsertakan praktik lebih inklusif pula. Ini harus dimulai manusia,“ kata Joy Buolamwini.

Peneliti intelegensia artifisial itu mengemukakan sejumlah hal yang harus dipertimbangkan. Apakah kita menciptakan tim dengan individu beraneka ragam, dan bisa saling melengkapi? Dari segi teknis, apakah kita memperhitungkan keadilan jika mengembangkan sistem?

Kita sekarang punya kesempatan untuk mencapai persamaan dan keadilan, jika kita menjadikan perubahan sosial sebagai prioritas, dan bukan hal sampingan. Demikian ditambahkan Joy Buolamwini.

Menilai orang secara adil, berkaitan dengan tantangan lebih besar. Dan itu menuntut biaya tambahan dari pembuat program inteligensia artifisial. 

 

 

sumber: https://www.dw.com/id/inteligensia-buatan-bisa-rasis/a-59600669

 
Berita Terpopuler