Transformasi fundamental dalam tata kelola global saat ini ditandai dengan pergeseran otoritas dari diskresi manusia menuju determinasi algoritmik. Di balik janji efisiensi dan objektivitas teknologi, muncul sebuah fenomena yang mengakar secara sosiologis namun tersembunyi dalam barisan kode: rasialisasi algoritmik. Ini bukan sekadar bias teknis, melainkan proses di mana sistem kecerdasan buatan (AI) secara aktif merekonstruksi kategori rasial berdasarkan data historis, pola perilaku, dan variabel geografis. Dalam konteks ini, AI tidak hanya mereplikasi rasisme tradisional, tetapi juga menciptakan bentuk-bentuk subordinasi baru yang beroperasi di bawah radar hukum konvensional, mengubah cara masyarakat memahami identitas dan nasib individu.
Arsitektur New Jim Code: Teknologi sebagai Alat Stratifikasi
Dasar teoretis dari rasialisasi digital ini berakar pada konsep “New Jim Code,” sebuah istilah yang menggambarkan bagaimana teknologi baru mereproduksi ketimpangan rasial sambil tetap terlihat netral secara teknis. Ruha Benjamin berpendapat bahwa ras itu sendiri adalah sebuah teknologi—suatu sistem yang dirancang untuk menstratifikasi dan mensucikan ketidakadilan sosial dalam arsitektur kehidupan sehari-hari. Ketika sistem AI dilatih menggunakan data yang mencerminkan bias historis, ia tidak sekadar belajar dari masa lalu; ia mengotomatisasi masa lalu tersebut ke dalam prediksi masa depan.
Ketidaknetralan teknologi ini sering kali luput dari pengamatan karena sifatnya yang “objektif” dan ilmiah. Program-program yang menentukan profil risiko keamanan di bandara atau kelayakan kredit di bank sering kali menyamarkan diskriminasi melalui penggunaan variabel proksi. Proksi ini adalah titik data yang, meskipun tidak secara eksplisit menyebutkan ras, berkorelasi kuat dengan identitas etnis atau status ekonomi tertentu.
| Jenis Proksi Algoritmik | Data yang Digunakan | Dampak Rasialisasi |
| Proksi Geografis | Kode pos, lokasi GPS, pola komuter | Mencerminkan sejarah segregasi dan “redlining” fisik. |
| Proksi Kultural | Pola nama, dialek suara, pilihan kata dalam wawancara | Mengidentifikasi latar belakang etnis tanpa input ras eksplisit. |
| Proksi Konsumsi | Riwayat belanja, penggunaan aplikasi, jenis browser | Mengelompokkan individu berdasarkan kelas sosial yang sering kali bersifat rasial. |
| Proksi Institusional | Riwayat sekolah, asuransi, catatan kesehatan | Mereplikasi ketimpangan akses terhadap layanan publik berkualitas. |
Penggunaan proksi ini memungkinkan diskriminasi untuk beroperasi tanpa rasisme eksplisit dari pembuat kodenya. Algoritma tidak perlu “membenci” untuk merugikan; ia hanya perlu mengoptimalkan akurasi berdasarkan data yang sudah tercemar oleh rasisme sistemik selama berabad-abad.
Saat Perilaku Menjadi Identitas: Penciptaan Ras Statistik
Sisi unik dan paling kontroversial dari rasialisasi algoritmik adalah kemampuannya untuk menciptakan “ras baru” berdasarkan statistik perilaku. Di bawah pandangan mesin, identitas seseorang tidak lagi didefinisikan oleh biologi atau budaya, melainkan oleh korelasi data yang sebenarnya merupakan cerminan dari kemiskinan atau lokasi geografis. Jika sebuah algoritma menemukan bahwa individu yang tinggal di wilayah tertentu, bekerja di sektor tertentu, dan memiliki pola belanja tertentu cenderung gagal membayar pinjaman, ia akan menciptakan profil risiko kolektif bagi kelompok tersebut.
Kelompok ini mungkin terdiri dari individu dengan latar belakang etnis yang beragam, namun karena mereka berbagi kondisi sosiokultural yang dipicu oleh marginalisasi sistemik, AI memperlakukan mereka sebagai satu entitas biologis-statistik yang seragam. Inilah yang disebut sebagai rasialisasi digital: proses di mana kategori sosial-ekonomi diubah menjadi identitas teknis yang bersifat deterministik. Seseorang tidak lagi dinilai berdasarkan tindakan individunya, tetapi berdasarkan “opini” mesin tentang probabilitas perilakunya yang ditarik dari kelompok statistik di mana ia diposisikan.
Kelayakan Kredit dan Redlining Digital: Penjara Tanpa Batas
Dalam sektor keuangan, penggunaan AI untuk menilai kelayakan kredit telah membawa kembali praktik “redlining” ke dalam format digital yang lebih canggih. Redlining tradisional melibatkan bank yang secara eksplisit menolak pinjaman di lingkungan minoritas. Saat ini, “redlining digital” terjadi ketika algoritma AI secara otomatis memberikan skor rendah kepada individu dari latar belakang tertentu berdasarkan variabel yang tampaknya netral.
Analisis terhadap data Home Mortgage Disclosure Act (HMDA) tahun 2023 menunjukkan disparitas yang mencolok dalam tingkat penolakan pinjaman perumahan di Amerika Serikat.
| Ras/Etnis Pemohon (2023) | Tingkat Penolakan Total | Penolakan Pinjaman Pembelian | Penolakan Refinancing (Cash-out) |
| Kulit Putih | 13,4% | 7,9% | 29,8% |
| Kulit Hitam | 27,2% | 18,8% | 42,1% |
| Latinx | 19,9% | 14,2% | 38,3% |
| Disparitas | Pemohon Kulit Hitam 2x lebih mungkin ditolak | Kesenjangan signifikan dalam akses aset | Hambatan dalam ekstraksi kekayaan. |
AI dalam perbankan sering kali beroperasi sebagai “kotak hitam” (black box), di mana logika penolakannya tidak dapat diakses oleh publik maupun regulator. Perusahaan teknologi finansial (fintech) sering mengklaim bahwa otomatisasi mereka mengurangi bias manusia yang terjadi dalam interaksi tatap muka. Namun, studi dari UC Berkeley menemukan bahwa peminjam dari kelompok minoritas tetap dikenakan suku bunga yang lebih tinggi sekitar 5 basis poin dibandingkan pemohon kulit putih dengan profil kredit yang setara. Secara kolektif, beban tambahan ini mencapai $450 juta per tahun, sebuah pajak digital atas ras yang dipicu oleh algoritma penetapan harga yang mendeteksi bahwa konsumen di wilayah tertentu kurang memiliki akses untuk membandingkan harga (shopping around).
Predictive Policing: Lingkaran Setan Kriminalisasi Otomatis
Kebijakan penggunaan AI dalam kepolisian, yang dikenal sebagai predictive policing, merupakan salah satu area yang paling sarat dengan kontroversi hukum dan etika. Program seperti Geolitica (sebelumnya PredPol) menggunakan data kriminalitas historis untuk memprediksi “titik panas” di mana kejahatan kemungkinan besar akan terjadi. Masalah mendasarnya adalah bahwa data historis ini mencerminkan bias manusia; jika polisi di masa lalu lebih sering berpatroli dan menangkap orang di lingkungan minoritas, maka algoritma akan terus mengarahkan polisi ke lingkungan tersebut.
Hal ini menciptakan lingkaran setan: kehadiran polisi yang meningkat di wilayah yang “diprediksi” berbahaya menghasilkan lebih banyak penangkapan untuk pelanggaran kecil, yang kemudian dimasukkan kembali ke dalam algoritma sebagai data yang memvalidasi prediksi awal. Investigasi oleh The Markup terhadap penggunaan perangkat lunak Geolitica di Plainfield, New Jersey, mengungkapkan kegagalan akurasi yang mengejutkan, yang menegaskan bahwa teknologi ini lebih berfungsi sebagai alat pengawasan daripada pencegahan kejahatan yang efektif.
| Kategori Prediksi Kriminalitas | Tingkat Keberhasilan (Akurasi) | Volume Prediksi (Plainfield) |
| Prediksi Keseluruhan | < 0,5% | 23.631 prediksi dalam 10 bulan |
| Perampokan / Penyerangan Berat | 0,6% | – |
| Pencurian | 0,1% | – |
| Rata-rata Prediksi Harian | ~80 prediksi | vs maksimal 22 kejahatan nyata |
Rendahnya tingkat akurasi ini menunjukkan bahwa algoritma tersebut sering kali “menebak” kejahatan di tempat-tempat yang sudah ditargetkan secara sosial. Bagi komunitas yang terdampak, ini berarti pengawasan yang tidak pernah berakhir dan hilangnya hak atas privasi serta praduga tak bersalah. Kriminalisasi digital ini sulit diputus secara hukum karena keputusan polisi didasarkan pada “data” yang dianggap objektif, padahal data tersebut hanyalah cerminan dari prasangka masa lalu yang diformalkan secara matematis.
Biometrik Perbatasan: Wajah sebagai Penentu Nasib
Di bandara dan titik lintas batas internasional, AI menjadi penentu “risiko keamanan” melalui teknologi pengenalan wajah (Facial Recognition Technology/FRT). Meskipun dipasarkan sebagai alat untuk mempercepat mobilitas, FRT menunjukkan disparitas kinerja yang signifikan berdasarkan kelompok demografis. Studi “Gender Shades” yang dilakukan oleh Joy Buolamwini dan Timnit Gebru menemukan bahwa tingkat kesalahan algoritma jauh lebih tinggi bagi individu dengan kulit gelap dan perempuan.
| Kelompok Demografis | Tingkat Kesalahan FRT | Akar Penyebab Teknis |
| Pria Kulit Terang | ~0,8% | Representasi berlebih dalam set data pelatihan. |
| Perempuan Kulit Terang | ~7,0% | Kesenjangan gender dalam data wajah. |
| Pria Kulit Gelap | ~12,0% | Kurangnya variasi pencahayaan dan representasi data. |
| Perempuan Kulit Gelap | ~34,7% | Interseksionalitas bias gender dan ras. |
Dampaknya di dunia nyata sangat mengerikan. Migran dari Afrika dan Haiti di perbatasan AS-Meksiko sering kali tidak dapat menggunakan aplikasi CBP One karena sistem tidak dapat mengenali wajah mereka, sehingga menghambat proses pencarian suaka. Di bandara, kesalahan pengenalan wajah dapat menyebabkan pemeriksaan keamanan yang menguras martabat atau bahkan penangkapan yang salah. Meskipun TSA mengklaim sistem CAT-2 mereka berfungsi dengan baik, laporan audit menunjukkan bahwa kesalahan algoritma 10 hingga 100 kali lebih mungkin terjadi pada wajah orang Asia dan Afrika dibandingkan orang kulit putih.
Neuroteknologi: Batas Akhir Rasialisasi Mental
Perkembangan AI kini telah merambah ke dalam aktivitas saraf manusia melalui neuroteknologi. Alat yang dapat membaca dan menafsirkan sinyal otak kini digunakan tidak hanya untuk tujuan medis, tetapi juga untuk pemasaran (neuromarketing) dan pemantauan produktivitas kerja. Hal ini menimbulkan kekhawatiran baru tentang “rasialisasi mental,” di mana data saraf seseorang digunakan untuk membuat asumsi tentang potensi perilaku, ketaatan, atau kecenderungan kriminal mereka.
Munculnya gerakan untuk “hak-hak saraf” (neurorights) dipelopori oleh para ilmuwan dan pengacara hak asasi manusia untuk melindungi integritas mental individu dari intervensi teknologi. Chili menjadi pelopor dunia dengan mengamandemen konstitusinya pada tahun 2021 untuk melindungi aktivitas otak dan informasi yang berasal darinya.
| Prinsip Hak-Hak Saraf (Neurorights) | Deskripsi Perlindungan |
| Privasi Mental | Hak untuk mencegah data saraf dibaca atau dijual tanpa persetujuan eksplisit. |
| Identitas Pribadi | Perlindungan agar teknologi tidak mengubah kesadaran atau rasa diri individu. |
| Kehendak Bebas | Menjamin kontrol atas pengambilan keputusan tanpa manipulasi algoritmik. |
| Akses Adil | Memastikan teknologi peningkatan mental tidak hanya tersedia bagi kelompok elit. |
| Perlindungan dari Bias | Jaminan bahwa algoritma neuroteknologi tidak mengandung prasangka rasial atau sosial. |
Kebutuhan akan neurorights muncul setelah kasus hukum terhadap perusahaan Emotiv di Chili, yang mengumpulkan data otak pengguna tanpa standar privasi yang memadai. Tanpa regulasi yang ketat, data saraf yang sangat intim ini dapat dikomodifikasi dan digunakan untuk profil risiko baru yang lebih dalam daripada biometrik wajah, menciptakan bentuk kasta digital berdasarkan fungsi kognitif.
Evolusi Hukum dan Tantangan Masa Depan
Tahun 2025 dan 2026 menjadi periode krusial dalam perlawanan hukum terhadap rasialisasi algoritmik. Berbagai negara dan wilayah mulai mengimplementasikan kerangka kerja regulasi yang menargetkan bias AI secara spesifik.
Undang-Undang AI Uni Eropa (EU AI Act)
EU AI Act adalah regulasi AI komprehensif pertama di dunia yang secara tegas melarang praktik AI tertentu yang dianggap “berisiko tidak dapat diterima.” Pasal 5 dari undang-undang ini melarang sistem skor sosial (social scoring) dan penggunaan AI untuk profil kriminalitas yang hanya didasarkan pada karakteristik pribadi. Meskipun demikian, kritik tetap ada mengenai pengecualian untuk keamanan nasional yang dapat disalahgunakan untuk pengawasan rasial di perbatasan.
Regulasi California dan MIND Act AS
Di Amerika Serikat, negara bagian California memimpin dengan peraturan ketat yang mulai berlaku pada Oktober 2025. Peraturan ini melarang penggunaan Sistem Keputusan Otomatis (ADS) dalam ketenagakerjaan yang menyebabkan dampak diskriminatif berdasarkan ras atau karakteristik yang dilindungi lainnya. Secara federal, “MIND Act of 2025” telah diperkenalkan untuk mengatur tata kelola data saraf dan melindungi konsumen dari eksploitasi data otak oleh perusahaan teknologi.
Rekomendasi UNESCO dan Standar Global
UNESCO mengadopsi kerangka kerja global pertama tentang etika neuroteknologi pada November 2025. Meskipun tidak mengikat secara hukum, standar ini menetapkan batas-batas etis bagi negara anggota untuk memastikan bahwa AI dan neuroteknologi digunakan untuk kepentingan umum, bukan untuk kontrol sosial atau manipulasi perilaku yang bersifat diskriminatif.
Menuju Keadilan Algoritmik: Upaya Mitigasi dan Perubahan Paradigma
Mengatasi rasialisasi algoritmik memerlukan pendekatan yang lebih dalam daripada sekadar perbaikan teknis pada kode. Hal ini membutuhkan perubahan paradigma dalam cara kita memandang hubungan antara manusia dan mesin.
Teknik Machine Learning Sadar Keadilan
Para peneliti telah mengembangkan metode untuk mendeteksi dan mengurangi bias dalam siklus hidup AI. Strategi ini mencakup:
- Pra-pemrosesan: Mengubah set data pelatihan untuk menyeimbangkan representasi kelompok minoritas dan menghapus korelasi historis yang bias.
- Dalam-pemrosesan: Memasukkan batasan keadilan (fairness constraints) langsung ke dalam fungsi tujuan algoritma selama pelatihan.
- Pasca-pemrosesan: Menyesuaikan hasil prediksi akhir untuk memastikan paritas statistik atau peluang yang setara bagi semua kelompok demografis.
Namun, solusi teknis ini sering kali menghadapi dilema “akurasi vs keadilan.” Pengembang sering berargumen bahwa memaksakan keadilan dapat mengurangi akurasi sistem secara keseluruhan. Pertanyaannya adalah: apakah kita lebih menghargai sistem yang “akurat” dalam mereplikasi rasisme dunia nyata, atau sistem yang “adil” dalam mencoba memperbaikinya?
Membangun Dunia Berbasis Agensi Manusia
Ruha Benjamin menekankan pentingnya membangun “alat abolisionis” untuk melawan New Jim Code. Ini berarti menciptakan teknologi yang secara aktif membongkar, bukan sekadar mengelola, ketimpangan rasial. Contohnya adalah penggunaan AI untuk memetakan kejahatan kerah putih atau sistem peringatan dini untuk rasisme institusional di rumah sakit.
Perjuangan melawan rasialisasi algoritmik pada akhirnya adalah perjuangan untuk mempertahankan agensi manusia. Kita sedang membangun dunia di mana algoritma memiliki kekuatan untuk menentukan siapa yang mendapatkan pinjaman, siapa yang dianggap mencurigakan di bandara, dan siapa yang pantas mendapatkan promosi kerja. Jika kita membiarkan mesin menjadi penentu identitas rasial dan status sosial tanpa pengawasan yang radikal, kita berisiko menciptakan masyarakat kasta digital di mana nasib seseorang ditentukan oleh “opini” sebuah mesin yang belajar dari masa lalu yang paling kelam.
Kesimpulan: Merebut Kembali Narasi Digital
Rasialisasi algoritmik adalah realitas yang saat ini sedang tertanam dalam infrastruktur masyarakat modern. Dari kegagalan pengenalan wajah di bandara hingga algoritma kepolisian yang bias, teknologi ini tidak hanya mereproduksi rasisme, tetapi juga memperdalamnya melalui selubung objektivitas teknis. Penciptaan “ras baru” berbasis statistik perilaku merupakan ancaman terhadap martabat manusia, karena ia mereduksi kompleksitas individu menjadi sekadar titik data yang deterministik.
Meskipun regulasi seperti EU AI Act dan neurorights di Chili menawarkan harapan, tantangannya tetap besar karena sifat teknologi yang terus berevolusi dan dominasi sektor swasta yang sering mengutamakan profit daripada keadilan sosial. Kita harus menuntut transparansi radikal atas “kotak hitam” algoritmik dan memastikan bahwa sistem AI tunduk pada standar hak asasi manusia yang tidak bisa dinegosiasikan. Masa depan tidak seharusnya ditentukan oleh probabilitas mesin tentang masa lalu kita, melainkan oleh komitmen kolektif kita untuk menciptakan dunia di mana teknologi melayani kemanusiaan, bukan menstratifikasinya.
