Rubarubu #81
How to stay smart in a smart world:
Mengebalkan Kecurigaan yang Sehat
Kisah dari Ruang Sidang
Pada suatu pagi di tahun 2019, di sebuah ruang sidang di London, seorang hakim mengajukan pertanyaan mendasar kepada seorang eksekutif teknologi tinggi: “Apakah Anda memahami bagaimana algoritma perusahaan Anda bekerja?” Eksekutif itu menjawab dengan jujur, “Tidak sepenuhnya.” Kejadian ini, yang dikisahkan oleh Gerd Gigerenzer dalam bukunya, How to Stay Smart in a Smart World (2022), bukanlah kelalaian individu, melainkan gejala dari dunia baru kita: sebuah dunia di mana algoritma yang seringkali “tidak transparan” mengatur segalanya, dari pinjaman bank hingga keputusan perekrutan, sementara pencipta dan penggunanya sendiri sering kali hanya memahami cara kerjanya secara samar. Gigerenzer, seorang psikolog terkemuka, tidak menyeru kita untuk menjadi anti-teknologi, melainkan mengajak kita untuk merayakan dan mempertajam kecerdasan manusia yang unik—intuisi, pengertian kontekstual, dan akal sehat—yang masih mengungguli algoritma dalam banyak hal yang benar-benar penting.
Inilah kontestasi kecerdasan manusia vs. dunia algoritmik. Buku Gigerenzer berangkat dari premis yang menantang narasi umum tentang kecerdasan buatan (AI). Ia berargumen bahwa kekuatan algoritma sering dibesar-besarkan, sementara kelemahan fundamentalnya—seperti ketergantungan pada data masa lalu yang bias, ketidakmampuan memahami konteks, dan kerapuhan terhadap perubahan lingkungan—sering diabaikan. Dunia “pintar” kita, klaimnya, justru dipenuhi oleh “ilusi kecerdasan” di mana kita mengaitkan kepintaran kepada sistem yang sebenarnya hanya melakukan kalkulasi statistik rumit tanpa pemahaman.
Gigerenzer membedah mitos-mitos seputar AI dengan contoh-contoh nyata. Ia menunjukkan bagaimana algoritma rekomendasi, seperti yang digunakan oleh Netflix atau YouTube, sebenarnya menciptakan “penjara filter” yang mempersempit wawasan kita, bukannya memperluasnya. Sistem ini, katanya, “tidak dirancang untuk membuat Anda bahagia atau terinformasi, tetapi untuk membuat Anda tetap berada di platform” (Gigerenzer, 2022, p. 89). Dalam hal keamanan, ia mengkritik kepercayaan buta pada teknologi prediktif, seperti yang digunakan dalam predictive policing, yang justru dapat memperkuat bias rasial karena dilatih dengan data historis yang sudah bias. Di sini, Gigerenzer menyitir bahaya “pengambilan keputusan tanpa pertimbangan,” di mana otoritas diserahkan sepenuhnya kepada mesin.
Kekuatan utama manusia, menurut Gigerenzer, terletak pada apa yang tidak dimiliki algoritma: pengertian kontekstual, intuisi yang terasah dari pengalaman, dan kemampuan untuk berpikir di luar data masa lalu. Seorang dokter ahli, misalnya, dapat menangkap nuansa ketidaknyamanan pasien yang tidak tertera dalam data medis; seorang nelayan tradisional memahami tanda-tanda alam yang tidak akan pernah tertangkap oleh algoritma prediksi cuaca paling canggih sekalipun. Inilah yang disebut Gigerenzer sebagai “kecerdasan tubuh” (embodied intelligence)—pengetahuan yang melekat dalam pengalaman hidup manusia. Ia mengutip filsuf dan ilmuwan Michael Polanyi dengan konsep “pengetahuan tacit”-nya: “Kita dapat mengetahui lebih banyak daripada yang dapat kita ucapkan” (Polanyi, 1966). Pengetahuan tacit inilah yang menjadi benteng terakhir manusia di hadapan mesin.
Pemikir lain juga telah memperingatkan akan reduksi kehidupan manusia menjadi sekadar data. Penyair dan aktivis sosial asal Amerika, Maya Angelou, pernah berkata, “Kita lebih dari sekadar jumlah dari pengalaman-pengalaman kita. Kita lebih dari apa yang telah kita lakukan.” Pernya-taan ini sangat relevan dengan kritik Gigerenzer terhadap algoritma yang justru mendefinisikan kita semata-mata melalui data masa lalu kita. Dari kalangan intelektual Muslim, seorang filsuf dan ilmuwan abad ke-11, Al-Ghazali, dalam karya Ihya’ Ulum al-Din, menekankan pentingnya `aql (akal) dan qalb (hati) yang bersinergi untuk mencapai pemahaman yang sejati—sebuah bentuk kecerdasan holistik yang sangat kontras dengan kalkulasi mekanistik algoritma. Al-Ghazali menulis, “Pengetahuan bukanlah sekadar informasi yang terkumpul, melainkan cahaya yang diletakkan Tuhan ke dalam hati.” Hal ini menggemakan pesan Gigerenzer bahwa kecerdas-an sejati melibatkan pertimbangan nilai, etika, dan kebijaksanaan yang tidak dapat dikodekan.
Lalu, bagaimana kita “tetap pintar”? Gigerenzer tidak mengajak kita untuk menyabotase teknologi, melainkan untuk menjadi pengguna yang melek digital dan skeptis. Ia menganjurkan untuk selalu bertanya: Siapa yang diuntungkan dari algoritma ini? Apa batasannya? Bisakah saya menolaknya? Ia mendorong pendidikan yang tidak hanya fokus pada cara mengguna-kan teknologi, tetapi juga cara memahaminya secara kritis, termasuk ketidakpastian dan bias yang melekat di dalamnya. Dalam dunia yang semakin algoritmik, kemampuan untuk bertahan justru terletak pada keberanian untuk mempertahankan penilaian manusia, intuisi yang terinformasi, dan interaksi sosial langsung yang tidak terfilter. “Banyak sistem yang kita sebut ‘pintar’ sebenarnya tidak memiliki pemahaman. Mereka adalah mesin pengenalan pola yang canggih, tetapi pola bukanlah pemahaman.” (Gigerenzer, 2022, p. 45). Sedangkan sebenarnya, “Otak manusia adalah mesin inferensi yang hebat dalam menghadapi ketidakpastian, jauh melampaui algoritma apa pun yang kita miliki saat ini ketika datang kepada situasi baru yang tidak terduga.” (Gigerenzer, 2022, p. 132). Karena itu, “Risiko terbesar bukanlah bahwa mesin menjadi lebih pintar dari kita, tetapi bahwa kita terlalu banyak berpikir, mempercayai mereka dalam hal-hal yang seharusnya tidak kita percayai.” (Gigerenzer, 2022, p. 201)
Pengaruh Mesin pada Cara Kita Berpikir
Bayangkan seorang anak abad ke-21 yang tumbuh dengan berkata, “Ayo tanya Google” atau “Apa kata Alexa?” Gigerenzer membawa kita menyelami fenomena ini dengan tajam: kita tak hanya menggunakan mesin pintar, tetapi secara halus, mesin-mesin itu sedang membentuk ulang definisi kita tentang apa itu “pintar” itu sendiri. Bab ini berkisah tentang pergeseran persepsi yang berbahaya. Kita mulai menganggap kecerdasan sebagai kemampuan untuk mengakses dan memproses informasi dengan cepat dan akurat—sesuatu yang sangat dikuasai komputer—sambil secara perlahan meremehkan bentuk kecerdasan manusia yang lebih dalam, seperti kebijaksanaan, kreativitas kontekstual, atau kemampuan membuat pertanyaan yang tepat. Kita terpesona pada “kecerdasan” mesin yang bermain catur atau Go, lalu lupa bahwa kecerdasan itu sempit, khusus, dan tanpa pemahaman. Seperti seorang tukang yang hanya memiliki palu, lalu melihat segala masalah sebagai paku, kita menjadi bangsa yang melihat setiap masalah sebagai masalah komputasi. Gigerenzer memperingatkan: jika kita membiarkan mesin mendikte makna kecerdasan, maka perlahan-lahan kita akan kehilangan kepercayaan pada alat kognitif terhebat yang kita miliki—pikiran dan intuisi manusia sendiri.
Di sinilah Gigerenzer menancapkan pembedanya. Bab ini (Bab 5: Akal Sehat dan AI) adalah medan tempur di mana “akal sehat” manusia yang lentur dan kontekstual berhadapan dengan logika kaku algoritma. Ia menggambarkan akal sehat bukan sebagai sesuatu yang naif, melainkan sebagai perangkat kognitif canggih hasil evolusi yang memungkinkan kita menavigasi dunia yang penuh ketidakpastian dengan aturan praktis (heuristics) yang elegan. Sebaliknya, AI, betapapun hebatnya, adalah “idiot savant”—jenius dalam satu bidang sempit tetapi sama sekali buta terhadap konteks yang lebih luas. Gigerenzer memberikan contoh-contoh lucu sekaligus mengerikan: mobil otonom yang bingung dengan sticker “STOP” di punggung truk pickup, atau sistem pengenalan wajah yang gagal karena perubahan cahaya. Masalahnya, katanya, adalah bahwa dunia nyata tidak rapi dan tidak dapat sepenuhnya dikodekan. Akal sehat manusia mampu memahami nuansa, menangkap ironi, dan membaca situasi sosial—sesuatu yang mustahil bagi AI yang hanya bermain dengan pola data. Filsuf Hannah Arendt pernah memperingatkan tentang “banalitas kejahatan” yang lahir dari ketidakmampuan berpikir kritis. Dalam konteks ini, Gigerenzer seolah berkata: “banalitas kebodohan” bisa lahir dari delegasi buta kita pada AI untuk hal-hal yang membutuhkan akal sehat.
Di era pesta pora Big Data, bab ini bagai segelas air dingin yang menyegarkan. Meski judulnya sangat provokatif: Satu Titik Data Dapat Mengalahkan Big Data. Gigerenzer menantang dogma bahwa “lebih banyak data selalu lebih baik.” Dengan narasi yang meyakinkan, ia menunjukkan bahwa dalam banyak situasi keputusan penting, satu titik data yang tepat justru lebih menentukan daripada gunungan data yang berisik. Ambil contoh diagnosis medis. Seorang dokter ahli mungkin hanya membutuhkan satu atau dua gejala kunci (cue) yang spesifik—yang didapatkannya dari wawancara dan pemeriksaan fisik yang mendalam—untuk mengarahkan diagnosis ke suatu penyakit langka, sementara algoritma yang mencerna ribuan data pasien mungkin kewalahan oleh korelasi-korelasi statistik yang tidak relevan. Ini adalah pujian bagi “kecerdasan bertubuh” (embodied intelligence).
Pengetahuan tacit seorang nelayan tua tentang satu tanda alam tertentu (warna langit, perilaku burung) bisa lebih akurat memprediksi badai daripada model cuaca superkomputer yang mengolah miliaran data titik. Pesan Gigerenzer revolusioner: jangan terkecoh oleh kuantitas. Kualitas informasi, dipadukan dengan intuisi dan keahlian manusia yang terasah, seringkali adalah senjata yang lebih ampuh. Ini mengingatkan pada puisi penyair Indonesia, Sapardi Djoko Damono: “Pada satu titik kamu akan mengerti bahwa yang paling penting bukanlah yang terumit, melainkan yang tersederhana.”
Ini adalah tantangan sejati kecerdasan dalam dunia yang diprogram. Di jantung diskusi tentang kecerdasan buatan (AI) sering kali tersembunyi asumsi yang keliru: bahwa kecerdasan manusia dapat direduksi menjadi sekumpulan data dan aturan permainan yang terdefinisi dengan rapi. Gerd Gigerenzer, dalam bukunya, membongkar ilusi ini dengan membawa kita pada pertanyaan mendasar: bagaimana mesin justru membentuk ulang pemahaman kita sendiri tentang apa itu “cerdas”?
Gigerenzer membuka wawasan dengan sebuah paradoks. Stuart Russell, seorang pionir AI, mengingatkan bahwa kita sering terjebak dalam “pemujaan” pada kecerdasan mesin yang semu. Kemenangan AI dalam catur atau Go, sebagaimana diulas dalam bab sebelumnya, menciptakan narasi bahwa mesin akan segera melampaui manusia dalam segala hal. Namun, narasi ini mengabaikan sebuah realitas krusial: kecerdasan yang sesungguhnya bukan hanya tentang mengolah informasi dalam lingkungan yang tertutup dan stabil. Dunia nyata penuh dengan ambiguitas, konteks yang berubah, dan ketidakpastian di mana “akal sehat” (common sense) menjadi pengarah yang tak tergantikan.
Di sinilah Gary Marcus, seorang kritikus vokal terhadap pendekatan AI berbasis data besar (big data), memberikan pencerahan tajam. Marcus berargumen bahwa mesin yang paling canggih pun masih sangat bodoh dalam hal yang bagi manusia adalah hal sepele. Sebuah mobil self-driving mungkin dapat memetakan setiap jalan dengan sempurna, tetapi ia akan kebingungan saat menghadapi situasi yang belum terprogram—seperti seorang petugas polisi yang memberikan isyarat tangan yang tidak standar, atau anak kecil yang tiba-tiba mengejar bola ke tengah jalan. Kecerdasan mesin, tanpa dilandasi pemahaman sebab-akibat dan pengetahuan dunia yang mendasar, rapuh dalam menghadapi hal-hal tak terduga. Inilah inti dari bab tentang mobil self-driving: jalan menuju kendaraan otonom yang benar-benar aman masih sangat panjang, bukan karena masalah teknis komputasi semata, melainkan karena tantangan mendasar dalam mereplikasi akal sehat dan intuisi manusia di belakang kemudi.
Pandangan Marcus ini beresonansi dengan pembahasan mengenai “Satu Titik Data yang Mengalahkan Big Data”. Gigerenzer mengilustrasikan bahwa dalam banyak situasi kritis—seperti diagnosa medis darurat atau keputusan di bawah tekanan—sebuah insight tunggal dari seorang ahli yang berpengalaman (satu titik data yang bermakna) sering kali lebih bernilai dan akurat daripada hasil olahan statistik dari gunungan data masa lalu. Daniel Kahneman, peraih Nobel yang karyanya banyak dikutip, mungkin akan menyetujui bahwa intuisi ahli yang terbentuk dari pengalaman bertahun-tahun adalah bentuk heuristik yang canggih, sesuatu yang sulit ditangkap oleh algoritma. Sementara itu, Alison Gopnik, pakar perkembangan kognitif anak, memberikan perspektif lain: kecerdasan manusia yang paling luwes dan kreatif justru dipelajari melalui eksplorasi, trial and error, dan interaksi sosial yang kaya konteks—proses yang jauh dari mekanisme pelatihan data yang diawasi (supervised learning) pada mesin.
Dengan demikian, keempat narasumber—Russell, Marcus, Kahneman (yang pemikirannya menjadi fondasi), dan Gopnik—bersepakat dalam satu garis besar, meski dengan penekanan berbeda. Russell memperingatkan tentang tujuan yang salah arah dalam pengembangan AI. Marcus menekankan kekurangan mendasar AI dalam penalaran dan akal sehat. Kahneman (melalui lensa karya-karyanya) mengingatkan superioritas intuisi ahli dalam ketidakpastian. Gopnik menunjukkan bahwa kecerdasan manusia tumbuh dari cara belajar yang berbeda sama sekali dari mesin.
Bab-bab ini bukanlah penolakan terhadap teknologi, melainkan seruan untuk kearifan. AI adalah alat yang hebat untuk dunia yang stabil dan terdefinisi, tetapi kita keliru jika mengira kecerdasannya setara dengan milik kita. Dengan memahami batasan mesin—bahwa mereka tidak memiliki akal sehat, sangat bergantung pada data masa lalu, dan gagap dalam meng-hadapi kejutan—kita justru dapat mengarahkan pengembangannya ke jalur yang lebih bertanggung jawab. Masa depan yang cerdas (smart) bukanlah saat mesin berpikir seperti manusia, tetapi ketika manusia menjadi semakin cerdas dalam memahami kapan harus mempercayai algoritma, dan kapan harus mengandalkan kebijaksanaan, akal sehat, dan titik data krusial yang hanya dimiliki oleh pengalaman manusia yang otentik. Mobil self-driving mungkin suatu hari akan melaju di jalan raya, tetapi jalan menuju AI yang benar-benar memahami kompleksitas kehidupan manusia masih sangat berliku dan penuh tanjakan yang membutuhkan lebih dari sekarat daya komputasi.
Teknologi yang begitu pesat saat ini barangkali tidak membuat Gigerenzer tidur nyenyak. Ia memberi gambaran suram tentang bagaimana kita, dengan sukarela dan sering tanpa sadar, melangkah masuk ke dalam sangkar pengawasan digital yang nyaman. Seperti kita berjalan dalam tidur ke dunia pengawasan. Gigerenzer tidak menggambarkannya sebagai konspirasi jahat, melainkan sebagai proses “peniduran” yang bertahap. Kita menyerahkan data lokasi untuk kemudahan navigasi, data kesehatan untuk saran kebugaran, data suara untuk asisten virtual, dan data wajah untuk membuka ponsel. Satu per satu, fragmen privasi kita terkelupas dengan imbalan kenyamanan dan rasa aman semu. Masalahnya, ia memaparkan, bukan hanya pada pengumpulan data, tetapi pada apa yang kemudian bisa dilakukan oleh sistem algoritmik dengan data itu.
Data yang tampaknya tidak berbahaya dapat digabungkan untuk membuat profil psikografis yang mampu memprediksi perilaku, kerentanan, bahkan kecenderungan politik kita lebih baik daripada yang kita pahami sendiri. Gigerenzer mengajak kita membayang-kan dunia di mana asuransi kita naik karena algoritma mendeteksi pola menyetir “berisiko” dari data mobil, atau pinjaman ditolak karena profil jejak digital kita dianggap “tidak stabil.” Kita, ujarnya, seperti katak dalam panci yang dipanaskan perlahan-lahan. Peringatannya beresonansi dengan ucapan aktivis privasi Edward Snowden: “Mengatakan bahwa Anda tidak peduli dengan privasi karena Anda tidak memiliki sesuatu untuk disembunyikan sama seperti mengatakan Anda tidak peduli dengan kebebasan berbicara karena Anda tidak memiliki sesuatu untuk dikatakan.”
Mari kita masuk ke dalam “dapur” industri perhatian yang secara psikologi membuat pengguna kecanduan. Bab ini adalah eksposisi tentang bagaimana platform digital dirancang bukan untuk kebaikan kita, tetapi untuk menjebak perhatian kita. Gigerenzer, dengan latar belakang psikologinya, membedah trik-trik yang digunakan: notifikasi yang dirancang untuk memicu kecemasan (FOMO), infinite scroll yang menghilangkan titik berhenti alami, dan algoritma rekomendasi yang memanfaatkan bias emosional kita (konten yang membuat marah atau takut lebih viral). Ini bukan kecelakaan desain, melainkan arsitektur keputusan yang sengaja memanipulasi. Tujuannya sederhana: membuat kita tetap “terhubung” (atau lebih tepatnya, terikat) selama mungkin, karena waktu mata itulah yang dijual kepada pengiklan. Bab ini menggambarkan kita bukan sebagai pengguna, melainkan sebagai produk yang perilakunya dipanen dan diperdagangkan.
Gigerenzer mengingatkan bahwa ini adalah pertarungan yang tidak seimbang: tim insinyur dan psikolog terbaik di dunia dibayar mahal untuk mengikis kemampuan pengendalian diri kita. Ia mengajak pembaca untuk menyadari bahwa setiap like, share, dan detik yang kita habiskan adalah sebuah pilihan yang telah dirancang untuk kita. Ini adalah bentuk penjajahan pikiran modern, yang disadari oleh pemikir Muslim kontemporer seperti Abdal Hakim Murad (Timothy Winter), yang menyoroti bahaya “kesibukan yang tidak substansial” yang membuat kita lalai dari refleksi yang mendalam.
Di bab penutup yang relevan ini, Bab 11: Fakta atau Palsu? Gigerenzer menyerahkan senjata kepada pembaca untuk bertahan di tengah banjir informasi dan misinformasi. Ia tidak hanya berbicara tentang fake news, tetapi tentang ekosistem informasi yang telah direkayasa oleh algoritma. Problem utamanya adalah bahwa algoritma platform media sosial tidak dirancang untuk menyaring kebenaran, melainkan untuk memaksimalkan keterlibatan (engagement). Hasilnya adalah ruang gema (echo chambers) dan banjir informasi yang menegaskan bias kita sendiri, membuat informasi yang provokatif tapi palsu menyebar lebih cepat daripada kebenaran yang kompleks.
Solusi Gigerenzer bukanlah teknologi yang lebih canggih, melainkan “kekebalan” kognitif pada diri manusia. Ia menganjurkan kita untuk melatih “kecurigaan yang sehat”: memeriksa sumber, mencari informasi yang bertentangan (deliberately seek disconfirming evidence), dan memahami bahwa jika sebuah berita membuat kita sangat marah atau sangat setuju, itulah saatnya untuk paling kritis. Ini adalah seruan untuk mengembalikan tanggung jawab kebenaran kepada individu. Seperti kata filsuf ilmu pengetahuan, Karl Popper, “Kebodohan bukanlah ketidaktahuan, tetapi kepalsuan pengetahuan.”Gigerenzer menambahkan: di dunia algoritmik, kepalsuan itu sering disajikan dalam kemasan yang sangat personal dan menarik. Kunci untuk tetap pintar adalah dengan tidak menyerahkan otoritas penilaian kebenaran kita sepenuhnya kepada mesin pencari atau linimasa, tetapi dengan mengasah lagi naluri penyelidik dan keingintahuan kritis kita yang manusiawi.
Ayah, ketika kamu masih muda, sebelum ada komputer, bagaimana cara kamu masuk ke internet?
— Seorang anak berusia tujuh tahun di Boston
Jika robot melakukan segalanya, lalu apa yang akan kita lakukan?
— Seorang anak berusia lima tahun di taman kanak-kanak di Beijing, dikutip dalam Lee, Superpowers
Bayangkan asisten digital yang melakukan segalanya lebih baik darimu. Apa pun yang kamu katakan, ia tahu lebih baik. Apa pun yang kamu putuskan, ia akan membetulkan. Ketika kamu merencanakan sesuatu untuk tahun depan, ia sudah punya rencana yang lebih unggul. Pada titik tertentu, kamu mungkin menyerah untuk membuat keputusan pribadi sendiri. Kini AI-lah yang menjalankan keuanganmu dengan efisien, menulis pesanmu, memilih pasangan romantismu, dan merencanakan kapan waktu terbaik untuk punya anak. Paket-paket akan diantarkan ke pintumu berisi produk yang bahkan tidak kamu sadari kamu butuhkan. Seorang pekerja sosial mungkin muncul karena asisten digital memprediksi bahwa anakmu berisiko depresi berat. Dan sebelum kamu membuang waktu bergulat memikirkan kandidat politik mana yang kamu dukung, asistenmu sudah tahu dan akan memberikan suaramu. Hanya soal waktu hingga perusahaan teknologi menjalani hidupmu, dan asisten setia itu berubah menjadi kecerdasan super yang maha kuasa. Seperti kawanan domba, cucu-cucu kita akan bersorak atau gemetar dalam kagum terhadap tuan baru mereka.
Dalam beberapa tahun terakhir, saya telah berbicara di banyak acara kecerdasan buatan (AI) populer dan berulang kali terkejut betapa luasnya kepercayaan tanpa syarat pada algoritma kompleks yang tampaknya ada. Tidak peduli apa topiknya, perwakilan perusahaan teknologi meyakinkan pendengar bahwa mesin akan melakukan pekerjaan lebih akurat, lebih cepat, dan lebih murah. Lebih dari itu, mengganti orang dengan perangkat lunak mungkin akan membuat dunia lebih baik. Dalam nada yang sama, kita mendengar bahwa Google mengenal kita lebih baik daripada kita mengenal diri sendiri dan bahwa AI dapat memprediksi perilaku kita hampir sempurna, atau segera akan mampu melakukannya. Perusahaan teknologi menyatakan kemampuan ini ketika mereka menawarkan layanan mereka kepada pengiklan, perusahaan asuransi, atau pengecer. Kita pun cenderung mempercayainya. Bahkan penulis-penulis populer yang melukiskan gambaran kiamat tentang robot merobek perut manusia mengasumsikan kemaha-tahuan AI yang sudah dekat, seperti juga beberapa kritikus paling vokal dari industri teknologi, yang mencap bisnis ini sebagai kapitalisme pengawasan yang jahat dan khawatir akan kebebasan dan martabat kita.¹ Keyakinan inilah yang membuat banyak orang mengkhawatirkan Facebook (kini berganti nama Meta) sebagai mesin pengawasan Orwellian yang menakutkan. Kebocoran data dan skandal Cambridge Analytica telah menguatkan kekhawatiran ini menjadi kekaguman yang penuh ketakutan. Berdasarkan kepercayaan atau ketakutan, alur ceritanya tetap sama. Bunyinya seperti ini:
AI telah mengalahkan manusia terbaik dalam catur dan Go.
Daya komputasi berlipat ganda setiap beberapa tahun.
Oleh karena itu, mesin akan segera melakukan segalanya lebih baik daripada manusia.
Mari kita sebut argumen AI-mengalahkan-manusia. Argumen ini meramalkan bahwa kecerdasan super mesin sudah dekat. Dua premisnya benar, tetapi kesimpulannya salah.
Alasannya adalah bahwa daya komputasi sangat membantu untuk beberapa jenis masalah tetapi tidak untuk yang lain. Sampai saat ini, kemenangan menakjubkan AI terjadi dalam permainan yang terdefinisi dengan baik dengan aturan tetap, seperti catur dan Go, dengan kesuksesan serupa untuk pengenalan wajah dan suara dalam kondisi yang relatif tidak berubah. Ketika lingkungan stabil, AI dapat melampaui manusia. Jika masa depan seperti masa lalu, data dalam jumlah besar bermanfaat. Namun, jika kejutan terjadi, big data—yang selalu data dari masa lalu—dapat menyesatkan kita tentang masa depan. Algoritma big data melewatkan krisis keuangan 2008 dan memprediksi kemenangan Hillary Clinton dengan margin besar pada 2016.
Faktanya, banyak masalah yang kita hadapi bukanlah permainan yang terdefinisi dengan baik tetapi situasi di mana ketidakpastian berlimpah, baik itu menemukan cinta sejati, memprediksi siapa yang akan melakukan kejahatan, atau bereaksi dalam situasi darurat yang tak terduga. Di sini, daya komputasi yang lebih besar dan data yang lebih besar hanya membantu secara terbatas. Manusia adalah sumber ketidakpastian utama. Bayangkan betapa lebih sulitnya catur jika raja dapat melanggar aturan sesuka hati dan ratu dapat meninggalkan papan dengan protes setelah membakar benteng. Dengan melibatkan orang-orang, kepercayaan pada algoritma kompleks dapat menyebabkan ilusi kepastian yang menjadi resep bencana.
Catatan Akhir: Kedai Kopi Gratis
Bayangkan sebuah kedai kopi yang telah melenyapkan semua pesaing di kota dengan menawar-kan kopi gratis, membuatmu tidak punya pilihan selain pergi ke sana untuk bertemu teman-temanmu.
Sementara kamu menikmati berjam-jam yang kamu habiskan di sana mengobrol dengan teman -temanmu, bug dan kamera yang terpasang di meja dan dinding mengawasi percakapan-mu dengan cermat dan merekam dengan siapa kamu duduk. Ruangan itu juga dipenuhi oleh tenaga penjual yang membayar kopimu dan terus-menerus mengganggumu untuk menawarkan produk dan layanan pribadi mereka yang dijual. Pelanggan di kedai kopi ini pada dasarnya adalah tenaga penjual, bukan kamu dan teman-temanmu. Ini pada dasarnya adalah cara platform seperti Facebook berfungsi.
Platform media sosial dapat berfungsi dengan cara yang lebih sehat jika mereka didasarkan pada model bisnis kedai kopi sungguhan atau TV, radio, dan layanan lainnya di mana kamu sebagai pelanggan membayar fasilitas yang kamu inginkan. Faktanya, pada tahun 1998, Sergey Brin dan Larry Page, pendiri muda Google, mengkritik mesin pencari berbasis iklan karena secara inheren bias terhadap kebutuhan pengiklan, bukan konsumen. Namun di bawah tekanan investor ventura, mereka segera menyerah dan membangun model iklan terper-sonalisasi paling sukses yang ada. Dalam model bisnis ini, perhatianmu adalah produk yang dijual. Pelanggan sebenarnya adalah perusahaan yang menempatkan iklan di situs-situs tersebut. Semakin sering orang melihat iklan mereka, semakin banyak pengiklan membayar, menyebabkan pemasar media sosial melakukan eksperimen demi eksperimen untuk me-maksimalkan waktu yang kamu habiskan di situs mereka dan membuatmu ingin kembali secepat mungkin. Dorongan untuk mengambil ponselmu saat mengemudi adalah contohnya. Singkatnya, intisari model bisnis ini adalah menangkap waktu dan perhatian pengguna sebanyak mungkin.
Untuk melayani pengiklan, perusahaan teknologi mengumpulkan data menit demi menit tentang di mana kamu berada, apa yang kamu lakukan, dan apa yang kamu lihat. Berdasarkan kebiasaanmu, mereka membuat semacam avatar darimu. Ketika seorang pengiklan menempat-kan iklan, katakanlah untuk senjata tangan terbaru atau lipstik mahal, iklan itu ditunjukkan kepada mereka yang paling mungkin mengkliknya. Biasanya, pengiklan membayar perusahaan teknologi setiap kali pengguna mengklik iklan, atau untuk setiap tayangan. Oleh karena itu, untuk meningkatkan kemungkinan kamu mengklik iklan, atau hanya melihatnya, segala cara dilakukan untuk mempengaruhimu agar tetap di halaman selama mungkin. Suka, notifikasi, dan trik psikologis lainnya bekerja sama untuk membuatmu ketergantungan—siang dan malam. Jadi, bukan datamu yang dijual, melainkan perhatianmu, waktumu, dan tidurmu. Jika Google dan Facebook memiliki model biaya-layanan, semua itu tidak akan diperlukan. Pasukan insinyur dan psikolog yang menjalankan eksperimen tentang cara membuatmu tetap terpaku pada ponsel pintarmu dapat bekerja pada inovasi teknologi yang lebih berguna.
Perusahaan media sosial masih harus mengumpulkan data spesifik untuk meningkatkan rekomendasi guna memenuhi kebutuhan spesifikmu, tetapi mereka tidak akan lagi termotivasi untuk mengumpulkan data pribadi lain yang berlebihan—seperti data yang mungkin meng-indikasikan bahwa kamu depresi, menderita kanker, atau hamil. Motivasi utama di balik pengumpulan data ini tentang dirimu—iklan terpersonalisasi—akan hilang. Netflix adalah contoh baik dari perusahaan yang telah menerapkan model biaya-layanan ini.¹⁴ Dari perspektif pengguna, kerugian kecilnya adalah bahwa kita semua harus membayar beberapa dolar setiap bulan untuk menggunakan media sosial. Namun, bagi perusahaan media sosial, keuntungan besar dari rencana bayar-dengan-datamu yang lebih menguntungkan adalah bahwa para pria—ya, hampir semua pria—di puncak tangga sekarang termasuk di antara orang-orang terkaya dan paling berkuasa di bumi.
Bogor, 7 Januari 2026
Dwi Rahmad Muhtaman
Sumber Utama:
Gigerenzer, G. (2022). How to stay smart in a smart world: Why human intelligence still beats algorithms. The MIT Press.
Referensi Kutipan dari Pemikir Lain:
- Polanyi, M. (1966). The Tacit Dimension. Doubleday. (Kutipan tentang “Knowing more than we can tell”).
- Angelou, M. (1993). Wouldn’t Take Nothing for My Journey Now. Random House. (Kutipan tentang “We are more than…”).
- Al-Ghazali, A. H. (ca. 1100). Ihya’ Ulum al-Din [The Revival of the Religious Sciences]. (Kutipan tentang ilmu sebagai cahaya di hati).






