halaman drm #2
Hello World, Hello IA: Sisi Gelap Teknologi
Dwi R. Muhtaman
Pada suatu pagi Joy Buolamwini penasaran. Dia menemukan sesuatu yang ganjil. Aplikasi face recognition (pengenalan wajah) yang dipasang di kamera dan bertengger di atas monitor komputernya tidak mempu mendeteksi wajahnya. Joy adalah seorang African American. Wajahnya gelap. Apakah karena berwajah gelap maka mesin face recognition tidak berfungsi sama sekali? Ia penasaran mencari tahu. Maka dia membeli topeng berwarna putih. Ketika topeng itu dikenakan pada wajahnya barulah mesin itu berfungsi. Mengapa bisa begitu? Apakah itu sebuah diskriminasi atas orang-orang hitam? Mengapa mesin cerdas seperti itu bisa melakukannya? Rasa penasaran itu menjadi awal perjalanan untuk membongkar sisi gelap teknologi face recognition–sebuah teknologi yang dirintis pertama kali oleh Woodrow Wilson Bledsoe pada 1960-an ini untuk mengenali seseorang dan mengungkap identitasnya melalui pengenalan wajah secara digital. Bledsoe menciptakan sistem yang dapat mengatur foto wajah dengan tangan menggunakan perangkat yang dapat digunakan orang untuk memasukkan koordinat vertikal dan horizontal pada kisi dengan bantuan stylus yang melepaskan pulsa elektromagnetik. Orang-orang menggunakan sistem itu untuk secara manual merekam area koordinat fitur wajah seperti mata, hidung, mulut, dan garis rambut.
“Pengenalan wajah” mengacu pada sekelompok teknologi yang berkemampuan mengidentifikasi identitas dan bahkan emosi melalui wajah manusia. Pengenalan wajah mengandalkan kecerdasan buatan (artificial intelligence/AI) untuk mempelajari pola wajah manusia. Sistem AI menggunakan model pembelajaran mesin (machine learning model) untuk belajar wajah dari kumpulan data wajah manusia. Kumpulan data ini dapat dikompilasi menggunakan data yang diambil dari platform media sosial dan jutaan situs web lain dan dapat mencakup beberapa ribu hingga miliaran gambar.
Teknologi pengenalan wajah dapat digunakan oleh pemerintah dan sektor swasta dengan berbagai cara. Prosesnya dimulai dengan menangkap gambar wajah. Wajah Anda dapat ditangkap/direkam hampir dimana saja – termasuk dengan kamera di tempat umum dan pribadi (gedung perkantoran, lampu jalan, lampu lalu lintas, pompa bensin, restoran). Wajah kita adalah bagian tubuh yang paling terlihat. Tidak seperti sidik jari atau tes DNA, pengenalan wajah tidak memerlukan kontak fisik untuk mengidentifikasi seseorang.
Joy Buolamwini, yang pada waktu itu sebagai PhD candidate pada MIT Media Lab, merasa ada diskriminasi. Teman-teman MIT dengan warna kulit lebih cerah tidak mengalami masalah yang sama. Joy mencoba menggambar wajah di telapak tangannya yang lebih cerah. Mesin segera mengenalinya. Namun tetap saja, dengan wajah aslinya perangkat lunak itu gagal. Dia bisa mengatasi pengkodean itu hanya dengan topeng putih menutupi wajahnya agar dapat dideteksi.
Pada Januari 2020 pengguna ponsel di Indonesia mencapai 338,2 juta (jumlah penduduk 272,1 juta). Pengguna internet 175,4 juta dan pengguna sosial media mencapai 160 juta. Tetapi penggunaan pengenal wajah masih sangat terbatas. Ponsel terbaru ada yang telah mempunyai fitur ini. Dan para pengguna di Indonesia barangkali dengan bangga dan sukacita menggunakannya tanpa menyadari konsekwensi yang dihadapi. Pengalaman pengenalan wajah yang diskriminatif akan membawa konsekuensi dunia nyata yang berarti. Kesalahan atau kesulitan perangkat lunak analisis wajah mendeteksi wajah Joy lebih dari sekadar kesalahan teknis. Dia tahu hal ini. Sebagai langkah untuk mengetahui lebih lanjut Joy lalu membentuk Algorithmic Justice League (AJL). AJL adalah organisasi advokasi digital yang berbasis di Cambridge, Massachusetts. Didirikan oleh Joy Buolamwini pada tahun 2016, ilmuwan komputer dan juga penyair, AJL bertujuan untuk meningkatkan kesadaran implikasi sosial dari kecerdasan buatan melalui seni dan penelitian. Lembaga non-profit ini berdedikasi untuk mengaudit sistem AI yang penelitian dan penerapannya terus melaju pesat. AJL ingin memastikan sistem tersebut bebas dari bias rasial, gender, dan jenis bias lainnya. AJL didirikan untuk melawan bias terprogram. Aktivisme AJL ditampilkan dalam film dokumenter: Coded Bias (2020).
Film ini mengungkap bias rasial dan gender dalam sistem AI yang dijual oleh perusahaan teknologi besar. Dia memulai perjalanan bersama para wanita perintis yang menyuarakan peringatan tentang bahaya kecerdasan buatan yang tidak terkendali yang memengaruhi kita semua. Melalui transformasi Joy dari ilmuwan menjadi pendukung setia dan cerita tentang orang-orang biasa yang mengalami kerugian teknis, Coded Bias menjelaskan ancaman AI pada hak-hak sipil dan demokrasi, dan bagaimana orang dapat dirugikan oleh teknologi.
Berdasarkan penelitian awal yang dilakukan Joy terungkap bagaimana algoritma pengenalan wajah dari perusahaan teknologi top secara signifikan mendeteksi wajah pria berkulit terang dengan lebih baik dibandingkan dengan wajah wanita berkulit gelap. Advokasi AJL telah membantu meyakinkan raksasa seperti Amazon, IBM, dan Microsoft untuk menunda pengembangan algoritma pengenalan wajah hingga ada regulasi yang memadai. Coded Bias ditayangkan perdana di Sundance pada awal tahun 2020. FastCompany menobatkan AJL menjadi salah satu organisasi yang mengubah dunia.
Pada masa-masa awal, Joy dan tim AJL melakukan penelitian “unmasking bias” dalam teknologi pengenalan wajah. Ditemukan bias gender, ras, dan warna kulit yang besar dalam produk yang dijual secara komersial dari perusahaan terkemuka termasuk Amazon, IBM, dan Microsoft. Mereka kemudian mendapat dukungan dari ratusan peneliti lain untuk mengadvokasi teknologi yang lebih adil dan akuntabel. Pengecualian dan diskriminasi ini telah melampaui teknologi pengenalan wajah dan memengaruhi banyak hal mulai dari perawatan kesehatan dan layanan keuangan hingga pekerjaan dan peradilan pidana.
Semakin dalam digali, semakin banyak kecurigaan yang akan di temukan dalam teknologi kita. Literasi digital yang rendah, pengguna teknologi yang tidak kritis adalah sasaran empuk bagi pihak pengembang teknologi untuk bercokol.
AJL terus bergerak. Isu yang diusung telah menjadi gerakan hak-hak sipil untuk kesetaraan. Mengungkap kepalsuan dalam asumsi netralitas mesin. Mesin pengenalan wajah bukan mesin yang netral karena algoritma dibuat oleh orang-orang yang bias dan bahkan punya kepentingan eksploitatif.
Contoh sistem otomatis yang diskriminatif sehari-hari mudah ditemukan. Di Amerika Serikat, algoritma perawatan kesehatan yang banyak digunakan, secara keliru menyimpulkan bahwa pasien kulit hitam lebih sehat daripada pasien kulit putih dengan penyakit yang sama. AI yang digunakan untuk menentukan keputusan perekrutan telah terbukti memperkuat diskriminasi gender yang ada. Lembaga penegak hukum dengan cepat mengadopsi tindakan prediktif dan teknologi penilaian risiko yang memperkuat pola diskriminasi rasial yang tidak adil dalam sistem peradilan pidana. Sistem AI membentuk informasi yang kita lihat di media sosial dan dapat mengabadikan disinformasi ketika dioptimalkan untuk memprioritaskan konten yang menarik perhatian.
Menurut AJL kita perlu berhenti menerima sistem begitu saja. Meskipun teknologi dapat memberi kita konektivitas, kenyamanan, dan akses, kita perlu mempertahankan kekuatan untuk membuat keputusan sendiri. Apakah kita memasrahkan gerak gerik kita untuk diperdagangkan? Kita harus memiliki suara dan pilihan tentang bagaimana AI digunakan.
Di Amerika Serikat, tim yang merancang semua sistem tidak inklusif. Kurang dari 20% orang di bidang teknologi adalah wanita dan kurang dari 2% adalah orang kulit berwarna. Selain itu, satu dari dua orang dewasa (lebih dari 130 juta orang) memiliki wajah dalam jaringan pengenalan wajah. Basis data tersebut dapat dicari dan dianalisis dengan algoritma yang tidak diaudit dan tanpa pengawasan apa pun, dan implikasinya sangat besar.
Selain praktik inklusif dan etis dalam merancang dan membangun algoritma, kita perlu menuntut transparansi lebih saat sistem digunakan. Kita perlu mengetahui data apa saja yang jadi asupan dan bagaimana mendapatkan data itu, bagaimana kinerja diukur, pedoman untuk pengujian, dan implikasi potensial, risiko, dan kekurangan ketika menerapkannya pada situasi kehidupan nyata. Ini bukan preferensi privasi. Ini adalah pelanggaran kebebasan sipil kita, di mana perusahaan menghasilkan uang dari wajah orang dan kehidupan orang berada dalam bahaya tanpa persetujuan mereka.
“Inilah wajah kolonialisme modern,” kicauan Christopher Wylie, sang whistle-blower yang menyingkap skandal Facebook/Cambridge Analytica, yang memalukan dan mengejutkan, pada bulan Maret 2018. Wylie merujuk pada rencana Cambridge Analytica untuk memperluas operasinya di India dan negara lain menggunakan media sosial dengan target memengaruhi proses politik di sana. Apakah itu sebuah kolonialisasi data? Bagi Nick Couldry and Ulises A. Mejias dalam bukunya, The Costs of Connection: How Data is Colonizing Human Life and Appropriating It for Capitalism (2019), skala dan ruang lingkup kolonialisme data jauh lebih luas daripada sekedar penyimpangan beberapa penjaja data bersama psikolog in-house mereka yang kelewat bersemangat. Ia bahkan melampaui praktik ekstraksi data dan lisensi data normal Facebook yang menyingkap skandal itu.
Menurut Couldry dan Mejias, Data Kolonialisme, pada dasarnya, adalah tatanan yang muncul untuk perampasan kehidupan manusia sehingga data dapat diekstraksi terus menerus untuk tujuan mencari keuntungan. Ekstraksi ini dioperasikan melalui hubungan data, cara berinteraksi satu sama lain dan dengan dunia yang difasilitasi oleh alat digital. Melalui keterhubungan data, kehidupan manusia tidak hanya dicaplok oleh kapitalisme tetapi juga menjadi subyek pemantauan dan pengawasan terus menerus. Hasilnya adalah melemahkan otonomi kehidupan manusia secara fundamental yang mengancam hak-hak dasar kebebasan, yang justru merupakan nilai yang digembar-gemborkan oleh kejayaan pendukung kapitalisme.
Dalam kasus penggunaan algoritma pengenalan wajah yang bias Cathy O’Neil, seorang data scientist, PhD dalam matematika dari Harvard, mengatakan inilah matematika yang disalahgunakan. Cathy dalam bukunya “Weapons of Math Destruction (2016)” menulis bahwa
“..aplikasi yang digerakkan matematika, yang mendukung ekonomi data ,didasarkan pada pilihan yang dibuat oleh manusia yang bisa salah. Beberapa dari pilihan ini tidak diragukan lagi dibuat dengan niat terbaik. Namun demikian, banyak dari model ini menyandikan prasangka manusia, kesalahpahaman, dan bias ke dalam sistem perangkat lunak yang semakin mengatur kehidupan kita. Seperti dewa, model matematika ini tidak tembus pandang, cara kerjanya tidak terlihat oleh semua kecuali elit tertinggi di domain mereka: ahli matematika dan ilmuwan komputer. Putusan mereka, bahkan ketika salah atau berbahaya, tidak dapat disengketakan atau naik banding. Dan mereka cenderung menghukum orang miskin dan tertindas dalam masyarakat kita, sambil membuat orang kaya semakin kaya.”
Teknologi selalu serupa pedang bermata dua. Brian Kernighan and Dennis Ritchie, programmer yang bekerja pada Bell Labs, sebuah think tank dari modern computer science, mungkin tidak terpikir atas implikasi negatif dari The C Programming Language yang menciptakan “Hello, world” (Meredith Broussard. “Artificial Unintelligence: How Computers Misunderstand the World.” 2018). Dan kini kita menciptakan dunia baru “Hello, AI” sebuah dunia penuh tanya: ‘Can machines think?
Betul kata Joy dalam sajaknya: poet of code, “Sometimes respecting people means making sure your systems are inclusive such as in the case of using AI for precision medicine. At times it means respecting people’s privacy by not collecting any data. And it always means respecting the dignity of an individual.” Terkadang menghormati orang berarti memastikan sistem Anda inklusif seperti dalam kasus penggunaan AI untuk pengobatan presisi. Terkadang itu berarti menghormati privasi orang lain dengan tidak mengumpulkan data apa pun. Dan itu selalu berarti menghormati martabat individu.
Cirebon, 20 Mei 2021