Konteks krisis global saat ini ditandai oleh peningkatan frekuensi dan kompleksitas bencana serta konflik, yang menuntut mekanisme respons yang jauh lebih cepat, berskala besar, dan efisien. Menghadapi kebutuhan yang mendesak ini, organisasi kemanusiaan, termasuk Non-Governmental Organizations (NGO) dan Perserikatan Bangsa-Bangsa (PBB), semakin mengadopsi teknologi otonom dan berbasis data, seperti drone dan Artificial Intelligence (AI).
Pengawasan kemanusiaan (humanitarian surveillance) dalam konteks ini didefinisikan sebagai proses pengumpulan, analisis, dan penyebaran data yang cepat mengenai populasi yang terkena dampak untuk memandu respons dan mengalokasikan sumber daya secara optimal. Namun, praktik ini menciptakan ketegangan etika yang fundamental. Meskipun teknologi canggih ini menawarkan peluang yang signifikan untuk meningkatkan resiliensi dan efisiensi , penggunaannya secara inheren membawa risiko etika mendasar, termasuk masalah privasi data, potensi bias algoritma, dan masalah ketidaksetaraan akses. Inti dari analisis ini terletak pada upaya untuk menavigasi garis tipis antara kebutuhan untuk mengetahui (melacak kebutuhan bantuan) dan kewajiban untuk melindungi (menghormati privasi dan martabat korban).
Definisi Teknologi Kunci dan Relevansinya
Dua teknologi utama berada di pusat revolusi respons kemanusiaan ini:
- Drone: Teknologi drone telah berevolusi dari perangkat yang dikendalikan secara manual menjadi sistem yang otonom, cerdas, dan efisien dalam menjalankan misi yang kompleks. Didukung oleh Kecerdasan Buatan (AI), termasuk computer vision dan machine learning, drone digunakan untuk pengawasan area yang luas dengan efisiensi tinggi, mengurangi intervensi manusia, dan mampu beroperasi dalam kondisi sulit. Ini sangat penting untuk pemetaan kebutuhan yang cepat dan pemantauan situasi secara real-time.
- Artificial Intelligence (AI): AI mencakup teknologi seperti machine learning, deep learning, dan natural language processing. Dalam konteks kemanusiaan, AI memungkinkan sistem data untuk menganalisis pola perpindahan, mengoptimalkan logistik, dan bahkan mengambil keputusan prediktif. Organisasi kemanusiaan di Suriah, misalnya, telah menggunakan model prediktif berbasis AI untuk mengantisipasi pola perpindahan dan memandu alokasi sumber daya.
Dualitas Etika: Efisiensi Bantuan vs. Hak Asasi Manusia (HAM)
Penggabungan AI dan drone secara inheren dirancang untuk kecepatan dan otonomi. Kecepatan operasional ini sangat diperlukan dalam lingkungan krisis yang mendesak. Namun, kecepatan adopsi ini secara langsung mengurangi waktu yang tersedia untuk proses peninjauan etika tradisional, seperti peninjauan dewan etika penelitian atau proses persetujuan yang terperinci, sehingga menciptakan gesekan etika (ethical friction).
Jika organisasi kemanusiaan (NGO/PBB) tidak memiliki kerangka kebijakan AI yang terpadu , adopsi teknologi yang cepat ini dapat secara otomatis mengorbankan perlindungan hak asasi manusia, mengubah teknologi bantuan menjadi alat pengawasan yang tidak disengaja. Lebih lanjut, terdapat implikasi yang lebih luas dan serius. Laporan menunjukkan bahwa model prediktif berbasis AI yang digunakan oleh organisasi kemanusiaan—misalnya, untuk mengantisipasi pola perpindahan di wilayah konflik seperti Suriah—secara tidak langsung “menginformasikan pengembangan sistem senjata berkemampuan AI”. Operasi kemanusiaan dapat secara tidak sengaja berfungsi sebagai testbed atau lahan uji coba bagi teknologi yang pada akhirnya dapat digunakan dalam konteks militer atau keamanan, menghadirkan dilema etika yang mendalam mengenai netralitas dan independensi aksi kemanusiaan.
Potensi Inovasi Teknologi dalam Memetakan dan Melacak Bantuan (The ‘Helping’ Mandate)
Drone dan Data Spasial: Peningkatan Akurasi dan Kecepatan Pemetaan Kebutuhan
Penggunaan drone telah merevolusi kemampuan organisasi kemanusiaan untuk mendapatkan situational awareness dalam situasi darurat. Drone memungkinkan pemetaan wilayah rawan, inspeksi infrastruktur kritis seperti jalan dan jembatan, dan mitigasi bencana dengan akurasi dan kecepatan yang jauh lebih tinggi dibandingkan metode tradisional.
Manfaat operasional dari teknologi drone sangat jelas. Mereka mengurangi kebutuhan akan personel manusia di lapangan, menjauhkan pekerja kemanusiaan dari situasi yang berpotensi berbahaya. Data spasial yang dikumpulkan oleh drone dapat diintegrasikan dengan Sistem Informasi Geografis (GIS), memungkinkan pengambilan keputusan yang berbasis data untuk tata ruang, mitigasi bencana, dan alokasi sumber daya strategis. Data real-time yang dihasilkan memastikan informasi yang kritis dan akurat tersedia secara instan untuk pengambilan keputusan yang lebih baik.
Kecerdasan Buatan (AI) dan Analisis Data Cepat
AI menawarkan kemampuan analitis yang melampaui kemampuan manusia dalam memproses volume data besar selama krisis.
- Prediksi dan Peringatan Dini: AI digunakan untuk memprediksi bencana alam atau pola perpindahan (disasters and displacement patterns) populasi, memungkinkan organisasi untuk mengalokasikan sumber daya secara proaktif alih-alih hanya reaktif.
- Optimasi Logistik: Algoritma machine learning mampu mengoptimalkan rantai pasok bantuan, memastikan sumber daya mencapai populasi yang membutuhkan dengan lebih cepat dan efisien.
- Dukungan Kesehatan Mental: Teknologi AI, khususnya melalui alat sentiment analysis berbasis data, dapat memantau komunikasi darurat dan media sosial untuk menilai dampak kesehatan mental pasca-bencana secara real-time. Ini memungkinkan identifikasi cepat komunitas yang membutuhkan intervensi psikososial spesifik.
- Strategi PBB: PBB secara aktif mengerahkan teknologi baru, seperti platform UNITE AWARE, sebagai bagian dari strategi untuk memaksimalkan potensi teknologi baru dalam mendeteksi, menganalisis, dan mengatasi ancaman terhadap warga sipil dan misi kemanusiaan secara terpadu.
Akuntabilitas dan Transparansi Melalui Data Terstruktur
Data terstruktur yang dikumpulkan melalui sistem AI/Drone juga memiliki manfaat implisit dalam meningkatkan akuntabilitas. Data yang lebih baik dan terverifikasi secara spasial meningkatkan akuntabilitas publik dan memastikan bahwa bantuan dapat dilacak dari sumbernya hingga penerima akhir. AI juga dapat membantu organisasi dengan cepat menilai kebutuhan selama wabah penyakit atau krisis di mana survei tradisional tidak mungkin dilakukan. Manfaat ini sangat penting karena memungkinkan respons yang cepat di lingkungan “kekosongan data” (data void), membenarkan penggunaannya, asalkan teknologi tersebut dilengkapi dengan pengamanan etika yang kuat.
Namun, terdapat risiko bahwa adopsi teknologi dapat memperburuk ketidaksetaraan yang sudah ada. Meskipun AI menawarkan efisiensi tinggi, keberhasilannya bergantung pada akses infrastruktur digital yang stabil. Penggunaan AI untuk telemedicine atau komunikasi akan gagal di daerah dengan access inequities atau infrastruktur yang hancur, yang merupakan ciri khas lingkungan krisis. Oleh karena itu, adopsi teknologi harus disandingkan dengan investasi dalam infrastruktur dasar dan strategi yang memastikan populasi yang tidak memiliki koneksi (offline) tetap dilayani.
Dualitas antara peningkatan efisiensi operasional dan risiko etika yang menyertainya dapat diringkas sebagai berikut:
Table I. Analisis Dualitas Teknologi Kemanusiaan: Manfaat vs. Risiko Etika
| Domain Teknologi | Manfaat Kemanusiaan (Membantu) | Risiko Etika Kritis (Melanggar) |
| Drone (Visual, Pemetaan) | Pemetaan cepat wilayah bencana; efisiensi logistik; mengurangi risiko personel. | Pengawasan yang melanggar privasi individu; potensi penyalahgunaan untuk tujuan non-kemanusiaan (Function Creep). |
| AI (Machine Learning, Data Analysis) | Prediksi kebutuhan dan pola perpindahan; optimasi alokasi sumber daya; analisis kesehatan mental real-time. | Bias Algoritma; eksklusi kelompok rentan; sistematisasi diskriminasi. |
| Biometrik (Pengenalan Wajah/Data Identitas) | Verifikasi identitas yang akurat untuk distribusi bantuan; mencegah penipuan. | Risiko kebocoran data sensitif; kesalahan identifikasi dengan konsekuensi hukum serius; penyalahgunaan pihak ketiga. |
Risiko Etika dan Hukum: Ancaman terhadap Korban yang Rentan (The ‘Violating’ Risk)
Ancaman Privasi dan Pelanggaran Data Sensitif
Pengumpulan data pribadi, terutama data biometrik (seperti pengenalan wajah atau sidik jari) dalam upaya mengidentifikasi korban atau penerima bantuan, merupakan isu yang sangat sensitif. Data biometrik, meskipun menawarkan akurasi dalam verifikasi identitas, menyimpan risiko yang serius. Kebocoran atau penggunaan yang tidak tepat oleh pihak yang tidak bertanggung jawab dapat menimbulkan konsekuensi serius bagi individu, termasuk kesalahan identifikasi yang dapat membawa dampak hukum.
Risiko kebocoran data tidak hanya merugikan individu, tetapi juga menghancurkan reputasi lembaga yang bertanggung jawab, menyebabkan hilangnya kepercayaan publik. Oleh karena itu, penerapan praktik tata kelola data yang ketat sangat penting, terutama untuk sistem AI berisiko tinggi yang mengolah data pelatihan, validasi, dan pengujian. Dalam yurisdiksi nasional seperti Indonesia, Undang-Undang Nomor 27 Tahun 2022 tentang Perlindungan Data Pribadi (UU PDP) memberikan payung hukum yang menuntut Pengendali Data Pribadi memiliki dasar pemrosesan data yang sah (Pasal 20). Kepatuhan terhadap undang-undang ini adalah keharusan yang terkait langsung dengan perlindungan hak privasi individu di tengah krisis.
Mission Creep dan Function Creep: Pergeseran Tujuan Pengawasan
Ancaman terbesar yang dihadapi teknologi kemanusiaan adalah Function Creep—fenomena di mana fungsi teknologi yang awalnya diperkenalkan untuk tujuan kemanusiaan tertentu diperluas, baik secara tidak sengaja maupun sengaja, ke fungsi lain yang tidak diinginkan, seperti pengawasan jangka panjang atau penegakan hukum. Function Creep seringkali dimulai sebagai perubahan yang awalnya tidak terdeteksi, tetapi dapat memiliki efek yang tidak diinginkan, termasuk pelanggaran hak privasi.
Perluasan fungsional ini, atau Mission Creep , berpotensi menghasilkan dampak eksternal negatif yang signifikan. Misalnya, drone yang digunakan untuk pemetaan kerusakan dapat dengan mudah dialihkan untuk tujuan intelijen non-kemanusiaan. Ini merusak netralitas dan independensi organisasi kemanusiaan, menghancurkan kepercayaan komunitas yang dilayani, dan mengubah alat bantuan menjadi alat kontrol.
Selain itu, ketergantungan berlebihan pada teknologi pengawasan (misalnya, pengenalan wajah) dapat menyebabkan koordinator bantuan mengabaikan metode investigasi atau penilaian kebutuhan tradisional yang membutuhkan interaksi manusia. Hal ini meningkatkan risiko kesalahan—seperti kesalahan identifikasi biometrik —dan kegagalan kontekstualisasi, di mana keputusan berbasis data mengabaikan realitas lapangan yang hanya dapat dipahami melalui keterlibatan langsung.
Tantangan Informed Consent (Persetujuan Sukarela) dalam Lingkungan Krisis
Mendapatkan persetujuan yang bermakna (meaningful informed consent) dari populasi yang rentan di lingkungan krisis adalah salah satu tantangan etika terbesar. Prinsip dasar mensyaratkan bahwa persetujuan harus diberikan secara sukarela. Namun, konteks krisis mengaburkan konsep “sukarela” karena adanya dinamika kekuasaan yang tidak seimbang.
- Dinamika Kekuasaan (Power Differential): Anggota tim riset atau bantuan sering kali berada dalam posisi kekuasaan yang signifikan atas korban dalam hal keselamatan, stabilitas ekonomi, atau ketergantungan pada bantuan. Perbedaan kekuasaan ini menciptakan risiko koersi, di mana korban merasa tidak mampu untuk menanyakan atau menolak pengumpulan data karena khawatir kehilangan akses ke bantuan esensial.
- Therapeutic Misconception dan Koersi Ekonomi: Populasi rentan memiliki kerentanan yang lebih tinggi terhadap koersi. Korban mungkin percaya bahwa partisipasi dalam pengumpulan data adalah prasyarat untuk menerima bantuan kemanusiaan (therapeutic misconception). Lebih jauh lagi, iming-iming imbalan uang tunai dapat mengeksploitasi kerentanan ekstrim korban. Meskipun secara teknis bukan paksaan fisik, ini merupakan koersi etika yang didorong oleh kebutuhan mendesak, sehingga menuntut definisi ulang yang cermat mengenai apa itu “sukarela” di zona krisis.
- Kapasitas yang Berkurang dan Kebutuhan Adaptasi: Stres, trauma, dan kekacauan dalam kondisi darurat dapat mengurangi kapasitas individu untuk sepenuhnya memahami informasi dan memberikan persetujuan yang sah. Persetujuan harus disesuaikan agar sesuai dengan bahasa lokal, konteks budaya, dan, dalam kasus anak-anak, disesuaikan dengan usia dan kompetensi mereka.
- Re-evaluation Persetujuan Berkelanjutan: Situasi di lingkungan darurat berubah dengan cepat. Oleh karena itu, persetujuan awal tidak cukup. Proses informed consent mungkin perlu diulang atau dievaluasi kembali seiring berjalannya waktu untuk memastikan bahwa persetujuan selalu didasarkan pada kondisi terkini dan pemahaman penuh dari penerima bantuan.
Tantangan utama yang membatasi informed consent di lingkungan kemanusiaan diringkas dalam tabel berikut:
Table II. Tantangan Kunci dalam Memperoleh Informed Consent di Lingkungan Krisis
| Tantangan | Deskripsi dan Implikasi Etika | Sumber Referensi |
| Dinamika Kekuasaan (Power Differential) | Ketergantungan korban pada bantuan menciptakan risiko koersi; korban takut menolak karena takut kehilangan akses bantuan. | C7: Power differential |
| Therapeutic Misconception | Korban menganggap partisipasi dalam pengumpulan data adalah syarat mutlak untuk menerima bantuan vital. | C2: Therapeutic misconception |
| Kapasitas yang Berkurang | Stres krisis dan trauma mengurangi kemampuan korban untuk memberikan persetujuan yang terinformasi dan bermakna. | C4: Reduced capacity |
| Kurangnya Kepercayaan | Keraguan terhadap tim penelitian/bantuan akibat insiden masa lalu atau sensitivitas konflik. | C1: Lack of trust |
Analisis Keadilan Algoritma: Bias dan Eksklusi dalam Distribusi Bantuan
Definisi dan Sumber Bias Algoritma
Penggunaan AI untuk alokasi sumber daya memunculkan isu kritis mengenai Algorithmic Bias (Bias Algoritma). Bias Algoritma merujuk pada kesalahan yang sistematis dan berulang dalam keluaran sistem AI atau machine learning yang menghasilkan hasil yang tidak adil, diskriminatif, atau berprasangka. Masalah ini menjadi perhatian mendalam karena AI sering kali mencerminkan atau bahkan memperburuk ketidaksetaraan sosial yang sudah ada.
Bias dapat berasal dari tiga sumber utama: data pelatihan yang tidak representatif (data-driven bias), di mana kelompok manusia tertentu secara historis absen atau kurang terwakili dalam dataset biomedis atau sosial; desain algoritma yang cacat; atau prasangka manusia yang disuntikkan ke dalam sistem.
Dampak Bias pada Populasi Rentan dan Eksklusi Sistematis
Jika AI digunakan untuk mengoptimalkan alokasi bantuan dan data pelatihan yang digunakan tidak representatif (misalnya, mengabaikan kelompok minoritas tertentu, gender, atau disabilitas), algoritma tersebut akan memperkuat bias yang ada. Dampaknya adalah terjadinya exclusion errors (kesalahan eksklusi) atau misallocation (kesalahan alokasi), di mana kelompok yang secara inheren paling rentan secara sistematis tidak menerima bantuan yang mereka butuhkan. Hal ini secara langsung melanggar prinsip keadilan distributif yang mendasari aksi kemanusiaan.
Paradoks yang timbul adalah bahwa AI bertujuan untuk meningkatkan efisiensi. Namun, jika AI dilatih pada data yang bias (misalnya, data yang secara historis mengabaikan komunitas terpencil atau kamp pengungsi kecil), algoritma akan mencapai tujuan utamanya—efisiensi—dengan cara yang justru efisien dan sistematis mengabaikan atau mengeksklusi kelompok tersebut. Kecepatan dan skala AI, dalam konteks ini, menjadi alat yang memperkuat ketidakadilan. Dalam konteks medis, bias AI dapat mengakibatkan misdiagnosis pada kelompok pasien tertentu yang kurang terwakili dalam data, yang memiliki konsekuensi fatal.
Memelihara Agensi Kemanusiaan: Menghindari Penggantian Realitas Korban
Inovasi teknologi, meskipun memiliki janji efisiensi, membawa risiko yang berpotensi menjauhkan pengambil keputusan dari realitas hidup populasi yang terkena krisis (lived realities). Meskipun alat AI dapat digunakan untuk membantu petugas kemanusiaan mempersiapkan diri dengan simulasi, terdapat bahaya bahwa solusi teknologi, seperti AI personas, akan menggantikan atau meredupkan suara korban yang sebenarnya.
Penting untuk diingat bahwa pengungsi dan korban krisis “sangat mampu berbicara untuk diri mereka sendiri”. Penggunaan teknologi harus bersifat human-centric dan bertujuan untuk memperkuat agensi dan martabat korban, bukan menggantikannya. Tata kelola AI yang bertanggung jawab menuntut transparansi total; dokumentasi yang jelas mengenai sumber data, proses analitis, dan cara sistem menghasilkan respons sangat penting untuk membangun kembali kepercayaan. Solusi etika harus berfokus pada participatory science dan standar data inklusif untuk mengatasi bias pada akar permasalahannya.
Kerangka Tata Kelola dan Kepatuhan (Governance and Compliance Framework)
Tanggung Jawab Hukum dan Etika Internasional
Responsibilitas penggunaan teknologi di sektor kemanusiaan tidak hanya diatur oleh kebijakan internal, tetapi juga oleh kerangka hukum dan etika yang lebih luas. PBB, meskipun belum mengadopsi kebijakan AI yang tunggal dan mengikat , telah mengeluarkan panduan strategis yang mendorong penggunaan teknologi yang bertanggung jawab melalui pengembangan prinsip yang jelas dan pelaksanaan human rights due diligence.
Selain itu, Komite Palang Merah Internasional (ICRC) memberikan panduan spesifik mengenai perlindungan data dalam aksi kemanusiaan. NGO dan PBB yang beroperasi secara lintas batas harus mematuhi standar perlindungan data tertinggi di semua yurisdiksi terkait. Di Indonesia, ini berarti kepatuhan wajib terhadap UU PDP 2022, yang menjamin hak masyarakat untuk memiliki kendali penuh atas data pribadi mereka dan menuntut mekanisme untuk mencegah kebocoran data.
Regulasi seperti UU PDP harus dipandang bukan hanya sebagai beban kepatuhan, tetapi sebagai alat kemanusiaan yang penting. Dalam lingkungan krisis, di mana korban adalah populasi paling rentan, payung hukum yang kuat menjamin hak mereka untuk mengontrol data, melawan penyalahgunaan, dan melindungi martabat mereka.
Model Pengawasan yang Bertanggung Jawab (Responsible Oversight)
Model pengawasan yang bertanggung jawab harus menjadi tulang punggung dari setiap adopsi AI/Drone.
- Prinsip Human-in-the-Loop (HITL): Model ini sangat penting untuk memastikan bahwa teknologi tetap melayani manusia, bukan sebaliknya. Analisis otomatis yang dihasilkan oleh AI harus selalu diverifikasi dan dikontekstualisasikan oleh analis manusia terlatih untuk memastikan bahwa keputusan yang diambil sensitif terhadap perlindungan dan etika.
- Akuntabilitas Manusia: Akuntabilitas tidak dapat didelegasikan kepada sistem otomatis. Manusia—bukan algoritma—yang harus memikul tanggung jawab akhir atas bagaimana AI memengaruhi keputusan kemanusiaan, terutama yang berkaitan dengan alokasi bantuan dan identifikasi risiko.
- Kesiapan Kelembagaan: Banyak organisasi kemanusiaan menghadapi kesenjangan karena kecepatan adopsi teknologi melampaui pengembangan kerangka etika dan kebijakan AI formal. Kesenjangan kebijakan ini menciptakan risiko operasional dan reputasi yang besar. Kegagalan tata kelola yang cepat ini berpotensi menghancurkan modal kepercayaan yang merupakan mata uang utama dalam operasi kemanusiaan. Oleh karena itu, investasi yang ditargetkan dalam pelatihan etika digital, pengembangan kebijakan, dan pendanaan khusus untuk pengawasan etika adalah wajib.
Strategi Mitigasi Risiko di Lapangan
Untuk memastikan teknologi berpihak pada manusia dan bukan menggantikannya , NGO dan PBB harus menerapkan strategi mitigasi risiko berikut:
- Tata Kelola Data yang Ketat: Sistem AI berisiko tinggi harus mematuhi persyaratan khusus, seperti mengadopsi praktik tata kelola data yang ketat untuk memastikan bahwa data pelatihan, validasi, dan pengujian memenuhi kriteria kualitas tertentu dan bebas dari bias yang diketahui.
- Keterlibatan Komunitas yang Bermakna: Pendekatan yang berpusat pada manusia (human-centric) harus menjamin bahwa komunitas yang terkena dampak memiliki otoritas nyata dan mekanisme umpan balik yang kuat atas bagaimana data mereka direpresentasikan dan digunakan.
- Literasi Digital: Peningkatan kampanye edukasi literasi digital bagi masyarakat rentan diperlukan agar mereka memahami potensi risiko yang mungkin timbul dari teknologi, khususnya terkait dengan iming-iming imbalan uang tunai yang dapat mengeksploitasi kerentanan mereka.
- Function Creep Guardrails: Harus ada mekanisme pengawasan yang ketat dan transparan untuk mencegah perluasan fungsi teknologi pengawasan di luar mandat kemanusiaan murni.
Table III. Prinsip Tata Kelola Data Responsif untuk NGO dan PBB
| Prinsip Tata Kelola | Aksi yang Diperlukan | Relevansi |
| Human-in-the-Loop (HITL) | Memastikan verifikasi manusia dan kontekstualisasi data dari AI untuk setiap keputusan bantuan. | Mitigasi bias, menjamin kepekaan perlindungan. |
| Transparansi dan Auditabilitas | Dokumentasi yang jelas mengenai sumber data, cara algoritma bekerja, dan mekanisme pengambilan keputusan. | Membangun kepercayaan, memungkinkan akuntabilitas manusia. |
| Kepatuhan Hukum & Etika | Mengikuti panduan perlindungan data internasional (ICRC) dan mematuhi UU PDP nasional (misalnya Indonesia). | Kepatuhan mutlak, terutama untuk data biometrik sensitif. |
| Function Creep Guardrails | Menetapkan batasan fungsional yang ketat dan mekanisme pengawasan untuk mencegah pergeseran tujuan teknologi. | Memastikan teknologi tetap melayani tujuan kemanusiaan murni. |
Kesimpulan
Teknologi canggih seperti drone dan AI adalah alat yang tak ternilai harganya dalam aksi kemanusiaan modern, menawarkan peningkatan dramatis dalam hal kecepatan, skala, dan kesadaran situasional. Kemampuannya untuk memprediksi pola krisis dan mengoptimalkan logistik telah terbukti secara signifikan dapat meningkatkan efisiensi bantuan. Namun, potensi pelanggarannya bersifat sistematis dan mendalam, mengancam martabat korban melalui risiko Function Creep, sistematisasi diskriminasi melalui bias algoritma, dan erosi fundamental terhadap prinsip informed consent akibat dinamika kekuasaan di lingkungan krisis. Mengatasi krisis nilai kemanusiaan di era digital hanya dapat dicapai dengan menempatkan prinsip human-centric sebagai inti dari setiap pengembangan dan penerapan teknologi.
Berdasarkan analisis etika, operasional, dan hukum yang mendalam, laporan ini menggarisbawahi 10 rekomendasi kebijakan strategis yang harus segera diadopsi oleh organisasi kemanusiaan global dan nasional:
- Mandat Human-in-the-Loop (HITL) sebagai Wajib: Menerapkan model HITL sebagai kebijakan wajib untuk semua sistem AI yang memengaruhi pengambilan keputusan kritis terkait alokasi sumber daya, memastikan verifikasi manusia yang terlatih dan kontekstualisasi data lapangan.
- Audit Etika dan Dampak Kemanusiaan Wajib: Melakukan audit etika independen dan penilaian dampak hak asasi manusia secara ketat sebelum deployment teknologi baru, khususnya yang melibatkan data biometrik dan sistem prediktif.
- Kebijakan Function Creep Nol Toleransi: Menyusun protokol yang secara ketat melarang perluasan fungsi teknologi pengawasan di luar tujuan kemanusiaan yang disetujui, dan secara tegas menolak penggunaan data atau platform untuk tujuan militer, penegakan hukum, atau intelijen.
- Standar Data Inklusif dan Participant-Centered: Mengembangkan standar data terbuka (open science) yang inklusif untuk melatih AI. Standar ini harus berfokus pada representasi yang adil dan participant-centered untuk memerangi bias dan representasi yang salah, terutama terhadap kelompok yang kurang terwakili secara historis.
- Protokol Informed Consent Adaptif dan Berulang: Mengembangkan kerangka persetujuan yang secara eksplisit mengakui dan memitigasi dinamika kekuasaan dan kerentanan. Organisasi harus menjamin bahwa persetujuan harus diulang (re-evaluation) secara berkala, dan penolakan untuk berpartisipasi tidak akan memengaruhi akses ke bantuan esensial.
- Investasi Kesiapan Kelembagaan: Mengalokasikan dana khusus untuk pelatihan etika digital, literasi data bagi staf lapangan, dan pengembangan kebijakan AI internal yang formal. Investasi ini harus diperlakukan sebagai prasyarat operasional, bukan sekadar pelengkap.
- Transparansi Algoritma: Mewajibkan dokumentasi publik yang mudah diakses mengenai cara kerja algoritma yang digunakan dalam pengambilan keputusan kritis (misalnya, kriteria penentuan kelayakan bantuan) untuk membangun kepercayaan.
- Kepatuhan Multinasional Paling Ketat: Ketika beroperasi secara lintas batas, organisasi harus selalu mematuhi standar perlindungan data tertinggi di antara semua yurisdiksi terkait, menjamin hak individu atas data mereka melebihi kewajiban minimal yang ditetapkan.
- Keterlibatan Agensi Korban: Memastikan komunitas yang terkena dampak memiliki mekanisme umpan balik yang kuat dan wewenang nyata atas bagaimana data mereka direpresentasikan dan digunakan, memperkuat suara mereka alih-alih menggantinya dengan model prediktif.
- Pengamanan Data Biometrik Ekstrim: Jika penggunaan data biometrik mutlak diperlukan untuk verifikasi, data harus dienkripsi, disimpan secara terdesentralisasi, dan dimusnahkan segera setelah tujuan kemanusiaan tercapai, sesuai dengan hak kendali individu.
