Software pengenal wajah bias terhadap pria kulit putih, menurut peneliti





Penelitian baru dari MIT Media Lab menggarisbawahi apa yang dilaporkan oleh para ahli lain atau setidaknya dicurigai sebelumnya: teknologi pengenalan wajah tunduk pada bias berdasarkan kumpulan data yang tersedia dan kondisi di mana algoritma diciptakan.

Joy Buolamwini, seorang peneliti di MIT Media Lab, baru-baru ini membangun kumpulan data dari 1.270 wajah, menggunakan wajah politisi, dipilih berdasarkan peringkat negara mereka untuk paritas gender (dengan kata lain, memiliki lebih banyak perempuan di kantor). Buolamwini kemudian menguji keakuratan tiga sistem pengenalan wajah: yang dibuat oleh Microsoft, IBM, dan Megvii dari China. Hasilnya, yang awalnya dilaporkan di The New York Times, menunjukkan ketidakakuratan dalam identifikasi gender tergantung pada warna kulit seseorang.

Jenis kelamin salah diidentifikasi kurang dari satu persen pria berkulit terang; sampai tujuh persen betina berkulit ringan; sampai 12 persen laki-laki berkulit gelap; dan sampai 35 persen pada betina yang lebih gelap.

"Secara keseluruhan, subjek laki-laki lebih akurat dibandingkan subyek perempuan yang mereplikasi temuan sebelumnya (Ngan et al., 2015), dan subjek yang lebih ringan lebih tepat diklasifikasikan daripada individu yang lebih gelap," tulis Buolamwini dalam sebuah makalah tentang temuannya, yang merupakan co -diperoleh oleh Timnit Gebru, seorang peneliti Microsoft. "Perincian titik-temu menunjukkan bahwa semua pengklasifikasi tampil terburuk pada subyek wanita yang lebih gelap."

Ini bukan pertama kalinya teknologi pengenalan wajah telah terbukti tidak akurat, namun semakin banyak bukti menunjukkan kebutuhan akan rangkaian data yang beragam, serta keragaman di antara orang-orang yang menciptakan dan menerapkan teknologi ini, agar algoritma tersebut dapat mengenali secara akurat individu terlepas atau ras atau pengenal lainnya.

Kembali pada tahun 2015, Google dipanggil oleh seorang insinyur perangkat lunak karena secara keliru mengidentifikasi teman-temannya yang hitam sebagai "gorila" di aplikasi Foto-fotonya, sesuatu yang dijanjikan perusahaannya perbaiki (padahal kenyataannya hanya bisa menghapus kata "gorila" dari indeks hasil pencarian di app).

Dua tahun yang lalu, The Atlantic melaporkan tentang bagaimana teknologi pengenalan wajah yang digunakan untuk tujuan penegakan hukum dapat "secara tidak proporsional melibatkan orang-orang Amerika Afrika." Ini adalah salah satu kekhawatiran yang lebih besar seputar teknologi yang baru muncul ini - orang-orang yang tidak bersalah dapat menjadi tersangka dalam kejahatan karena teknologi yang tidak akurat - dan sesuatu yang Buolamwini dan Gebru juga mencakup dalam makalah mereka, dengan mengutip sebuah penyelidikan selama setahun di 100 departemen kepolisian yang mengungkapkan bahwa "individu Afrika-Amerika lebih mungkin dihentikan oleh penegak hukum dan dikenai penyelidikan pengenalan wajah daripada individu dari orang lain. etnisitas. "

Dan, seperti yang ditunjukkan oleh kisah The Atlantic, kelompok lain telah menemukan di masa lalu bahwa algoritma pengenalan wajah yang dikembangkan di Asia lebih mungkin untuk secara akurat mengidentifikasi orang Asia daripada orang kulit putih; sementara algoritma yang dikembangkan di beberapa bagian Eropa dan AS mampu mengidentifikasi wajah putih dengan lebih baik.

Algoritma tidak secara sengaja bias, namun penelitian lebih banyak mendukung gagasan bahwa lebih banyak pekerjaan perlu dilakukan untuk membatasi bias ini. "Karena teknologi penglihatan komputer sedang digunakan di sektor dengan tingkat tinggi seperti perawatan kesehatan dan penegakan hukum, masih banyak pekerjaan yang harus dilakukan dalam membandingkan algoritma penglihatan untuk berbagai kelompok demografis dan fenotipik," tulis Buolamwini.

sumber : https://www.theverge.com/2018/2/11/17001218/facial-recognition-software-accuracy-technology-mit-white-men-black-women-error

Click to comment