En bref
- PBB menempatkan AI dan Keamanan Digital sebagai isu perdamaian dan stabilitas, bukan sekadar urusan inovasi.
- Sidang terbuka Dewan Keamanan pada 24 September 2025 menegaskan pertanyaan kunci: bagaimana membentuk dampak Kecerdasan Buatan agar bertanggung jawab.
- Rencana Global Dialogue on AI Governance dan panel ilmiah 40 pakar membuka jalur Kerjasama Internasional yang lebih inklusif.
- Risiko yang mengemuka: Keamanan Siber, deepfake politik, senjata otonom, hingga ancaman pada Privasi Data.
- Tantangan terbesar: fragmentasi aturan antarblok dan kesenjangan kapasitas negara berkembang; sebagian besar negara belum punya strategi AI.
- Seruan “garis merah” sebelum akhir 2026 menekan negara agar melarang praktik paling berbahaya, dari pengawasan massal sampai kendali AI atas senjata nuklir.
Di ruang-ruang PBB, percakapan tentang Teknologi biasanya bergerak lambat—tetapi gelombang Kecerdasan Buatan memaksa ritme berubah. Setelah bertahun-tahun AI dibahas sebagai janji produktivitas dan efisiensi, Dewan Keamanan kembali menaruhnya di meja sebagai faktor yang dapat mengubah kalkulasi perang, propaganda, dan perlindungan warga sipil. Dalam sidang terbuka pada 24 September 2025, nada yang paling kuat bukan sekadar kekaguman pada kemampuan mesin, melainkan kesadaran bahwa “aturan main” belum menyusul. Sementara model generatif melompat dari chatbot ke sistem yang menulis kode kompleks, membuat video realistis, hingga mempercepat riset obat, risiko menyebar secepat manfaatnya: manipulasi informasi, serangan siber otomatis, dan pemakaian AI dalam operasi militer.
Di tengah kemajuan itu, Sekretaris Jenderal António Guterres menekankan bahwa pertanyaan utama bukan lagi apakah AI akan memengaruhi perdamaian dan keamanan internasional, melainkan bagaimana dunia membentuk pengaruhnya. Dari sinilah wacana Regulasi Global menemukan urgensinya: bukan untuk menghambat inovasi, melainkan menciptakan pagar pengaman yang bisa ditegakkan lintas batas. Ketika 2,6 miliar orang masih belum terhubung ke internet dan mayoritas negara belum punya kebijakan AI, “ketertinggalan” berubah menjadi isu geopolitik. Maka pembahasan PBB tidak hanya menyentuh standar teknis dan Etika AI, tetapi juga soal keadilan akses, pembiayaan, dan kedaulatan data—fondasi yang menentukan siapa yang menikmati manfaat AI dan siapa yang menanggung biayanya.
PBB Bahas Regulasi Global AI: Dari Retorika “Pedang Bermata Dua” ke Arsitektur Tata Kelola
Dalam sidang terbuka Dewan Keamanan PBB pada 24 September 2025, AI kembali diposisikan sebagai “pedang bermata dua”: mampu membantu pencegahan krisis sekaligus berpotensi menjadi senjata baru. Metafora ini berulang sejak 2023, ketika Dewan Keamanan pertama kali menggelar debat khusus AI, dan ketika Sekretaris Jenderal melaporkan ke Majelis Umum bahwa AI dapat memperkuat kesejahteraan manusia namun juga mengancam keselamatan. Masalahnya, retorika sering lebih cepat daripada kesepakatan. Pernyataan bersama dari KTT-KTT AI di berbagai kota dunia menghasilkan komitmen moral, tetapi banyak yang tidak mengikat, sehingga implementasinya bergantung pada kemauan politik masing-masing negara.
Namun, ada pergeseran penting yang membuat periode 2025–2026 berbeda: Majelis Umum pada Agustus 2025 mengesahkan resolusi pembentukan dua perangkat baru—forum dialog global dan panel ilmiah independen—untuk mengawal tata kelola AI internasional. Ini bukan “hukum dunia” yang langsung memaksa, tetapi ia menciptakan jalur institusional: tempat negara berselisih, bernegosiasi, lalu menyepakati standar minimum. Dalam praktik diplomasi, wadah yang konsisten sering menjadi prasyarat lahirnya norma yang kemudian mengeras menjadi aturan.
Forum Global Dialogue on AI Governance: Mengapa Geneva dan New York menjadi panggung kunci
Guterres menjadwalkan peluncuran Global Dialogue on AI Governance pada 25 September 2025, dengan rencana sidang resmi di Geneva pada tahun berikutnya dan di New York pada 2027. Dua kota itu tidak dipilih secara kebetulan. Geneva menjadi rumah bagi banyak lembaga teknis PBB dan badan standar—tempat “bahasa teknis” lebih mudah diterjemahkan menjadi pedoman. New York, sebaliknya, adalah arena politik tingkat tinggi, tempat norma yang sudah “matang” bisa didorong menjadi resolusi atau kerangka kerja lebih luas.
Bayangkan sebuah studi kasus hipotetis: “Negara A” ingin melarang deepfake politik, sementara “Negara B” menolak karena khawatir pembatasan ekspresi. Di Geneva, diskusi dapat dimulai dari definisi teknis: apa yang disebut deepfake, bagaimana watermarking bekerja, apa ambang batas deteksi, dan bagaimana audit dilakukan. Setelah itu, New York bisa menjadi tempat untuk menegosiasikan prinsip hak asasi: kapan pembatasan sah, bagaimana mekanisme keberatan, dan bagaimana Privasi Data pemilih dilindungi.
Panel ilmiah 40 pakar: Meniru pola IPCC untuk memperkecil jurang “teknologi vs kebijakan”
Proses seleksi panel ilmiah beranggotakan 40 pakar—dengan dua ketua bersama dari negara maju dan berkembang—sering dibandingkan dengan IPCC dan ritme konferensi tahunan seperti COP. Analogi ini penting karena IPCC bukan regulator, tetapi otoritas pengetahuan yang menyatukan bukti ilmiah, mengurangi “perdebatan palsu”, dan memberi fondasi bagi keputusan politik. Dalam konteks AI, panel ilmiah dapat menyaring klaim vendor, menguji risiko sistemik (misalnya kegagalan model dalam konteks bahasa minoritas), dan mengkaji dampak Keamanan Digital pada layanan publik.
Jika panel itu bekerja efektif, negara dengan kapasitas terbatas tidak harus “menebak” risiko sendiri. Mereka bisa merujuk pada ringkasan temuan, pedoman evaluasi, dan katalog praktik terbaik. Insight akhirnya jelas: tanpa jembatan pengetahuan, Regulasi Global akan selalu kalah cepat dari inovasi.

Keamanan Digital dan Keamanan Siber: Risiko Nyata yang Membuat PBB Bergerak
Alasan PBB membawa AI ke ranah keamanan bukan semata karena teknologi ini “canggih”, melainkan karena ia mengubah skala dan kecepatan serangan. Keamanan Siber kini tidak hanya tentang peretas yang menulis skrip manual. Dengan AI generatif, aktor jahat dapat mempercepat phishing yang dipersonalisasi, membuat malware yang lebih adaptif, atau menjalankan kampanye disinformasi multi-bahasa yang meniru gaya bicara tokoh lokal. Ketika serangan menjadi murah dan otomatis, negara dengan pertahanan digital rapuh akan menjadi target empuk.
Contoh yang relevan datang dari dinamika pemilu. Pada Pemilu 2024 di sejumlah negara, deepfake digunakan untuk memelintir pernyataan kandidat, memprovokasi polarisasi, atau menurunkan kepercayaan pada penyelenggara. Di 2026, tantangannya bukan sekadar “video palsu”, tetapi ekosistem konten: potongan audio, siaran langsung sintetis, sampai bot yang mampu berdebat di kolom komentar seperti manusia. Pertanyaannya: ketika publik tidak lagi yakin mana yang asli, bagaimana legitimasi demokrasi dipertahankan?
Dari disinformasi ke eskalasi konflik: jalur cepat yang sering diremehkan
Dalam konteks konflik, informasi palsu dapat menjadi percikan. Bayangkan sebuah insiden perbatasan kecil: satu video yang “terlihat nyata” menampilkan kekejaman bisa mendorong mobilisasi massa, memicu respons militer, lalu memperluas ketegangan. AI memperpendek waktu verifikasi: keputusan politik diambil sebelum klarifikasi tersedia. Di sinilah Etika AI bertemu kepentingan keamanan: perusahaan platform, pengembang model, dan pemerintah dituntut punya prosedur tanggap cepat, bukan sekadar kebijakan di atas kertas.
Privasi Data sebagai fondasi Keamanan Digital
Privasi Data tidak lagi sekadar isu konsumen; ia berpengaruh langsung pada keamanan nasional. Data bocor dapat dipakai untuk memeras pejabat, menargetkan tentara, atau memetakan infrastruktur vital. Ketika AI mampu menghubungkan potongan data kecil menjadi profil yang utuh, kebocoran yang dulu dianggap “ringan” bisa berubah menjadi ancaman besar.
Dalam diskusi Regulasi Global, ada kebutuhan menyatukan prinsip minimal: pembatasan pengumpulan data, kewajiban keamanan penyimpanan, pelaporan insiden lintas batas, dan audit pihak ketiga. Banyak negara juga mulai melihat pentingnya kesiapan infrastruktur cloud dan tata kelola industri. Misalnya, pembacaan tentang pasar cloud dan AI di Indonesia dapat membantu memahami tekanan kapasitas dan kebutuhan standar keamanan: peta pasar cloud dan AI Indonesia.
Daftar risiko prioritas yang sering muncul dalam perdebatan PBB
Untuk membuat diskusi konkret, para diplomat dan pakar kerap merinci jenis ancaman yang perlu ditangani lebih dulu. Berikut daftar yang paling sering dianggap “berdampak tinggi dan mendesak” dalam kerangka Keamanan Digital:
- Serangan siber berbantuan AI (phishing adaptif, eksploitasi otomatis, dan rekayasa sosial berskala besar).
- Deepfake dan manipulasi informasi untuk pemilu, konflik, atau pemerasan.
- Penyalahgunaan pengawasan massal yang menggerus kebebasan sipil dan memicu represi.
- Social scoring yang diskriminatif dan memperkuat ketidaksetaraan.
- Otonomisasi penggunaan kekuatan melalui sistem senjata mematikan tanpa kontrol manusia yang bermakna.
- Kerapuhan rantai pasok model (dataset tercemar, backdoor, atau model yang disusupi).
Insight penutupnya: bila Teknologi mempercepat ancaman, maka tata kelola harus mempercepat koordinasi—kalau tidak, negara akan bereaksi setelah kerusakan terjadi.
Etika AI dan “Garis Merah” Global: Dari Surat Terbuka Ilmuwan ke Aturan yang Bisa Ditegakkan
Di luar ruang negosiasi formal, tekanan moral datang dari komunitas ilmiah dan tokoh publik. Lebih dari 200 figur terkemuka—termasuk peraih Nobel, politisi, dan peneliti dari perusahaan AI besar—mendorong semua negara menetapkan “garis merah” yang tidak boleh dilanggar sebelum akhir 2026. Pesannya sederhana: jangan menunggu tragedi. Jika keselamatan penerbangan diatur sebelum pesawat jatuh, mengapa keselamatan AI menunggu bencana?
Gagasan “garis merah” membantu memecah kebuntuan diplomatik. Negara bisa berbeda pendapat soal detail lisensi model atau pajak komputasi, tetapi masih dapat sepakat bahwa ada praktik yang terlalu berbahaya. Dalam perdebatan Etika AI, daftar larangan sering mencakup kendali AI atas senjata nuklir, sistem senjata otonom mematikan, pengawasan massal, social scoring, serangan siber ofensif berbasis AI, dan AI yang menyamar sebagai manusia untuk memanipulasi pengguna. Poin terakhir terdengar remeh, tetapi dampaknya luas: ketika penipuan customer service, “pacar virtual” predator, atau broker finansial palsu menjadi meyakinkan, korban akan meningkat.
Regulasi “sebelum diaktifkan”: menggeser beban pembuktian kepada pengembang
Profesor Stuart Russell, dalam refleksi yang banyak dikutip di forum kebijakan, mendorong logika regulasi yang tidak reaktif. Ia menekankan kebutuhan merancang keselamatan sejak awal: bukan memperbaiki setelah sistem dilepas dan menimbulkan kerusakan. Dalam konteks kebijakan, ini berarti pengembang wajib menunjukkan mitigasi risiko, pengujian ketahanan, dan prosedur penghentian darurat sebelum model digunakan di sektor sensitif.
Analoginya mudah: obat baru tidak boleh langsung dijual hanya karena “berpotensi menyembuhkan”; ia melewati uji klinis, pelabelan, dan pengawasan pasca-edar. Untuk AI, “uji klinis” bisa berupa red-teaming independen, evaluasi bias, uji kebocoran data, dan simulasi penyalahgunaan.
Meniru ICAO: konvensi kerangka yang fleksibel untuk AI
Russell juga mengusulkan agar tata kelola AI meniru International Civil Aviation Organization (ICAO): koordinasi keselamatan lintas negara dengan standar yang dapat diperbarui. Ini menjawab masalah terbesar AI: kecepatannya. Bila aturan terlalu kaku, ia cepat usang. Jika terlalu longgar, ia tak berguna. Konvensi kerangka memungkinkan pembaruan berkala: misalnya, ketika teknik model baru muncul (agen otonom, multimodal real-time), standar audit dan pelaporan dapat diperbarui tanpa menunggu negosiasi ulang dari nol.
Tabel: contoh “garis merah” dan alasan kebijakan (perspektif keamanan dan hak)
Garis merah (contoh) |
Risiko utama |
Prinsip kebijakan yang relevan |
Contoh langkah mitigasi |
|---|---|---|---|
Kendali AI atas sistem nuklir |
Eskalasi tak terkendali, kesalahan deteksi, keputusan fatal tanpa konteks |
Kontrol manusia bermakna, akuntabilitas berlapis |
Larangan eksplisit, audit rantai komando, verifikasi manual |
Senjata otonom mematikan |
Salah sasaran, pelanggaran hukum humaniter, perlombaan senjata |
Proporsionalitas, pembedaan kombatan-sipil |
Moratorium, kewajiban human-in-the-loop |
Pengawasan massal berbasis AI |
Pelanggaran Privasi Data, represi politik, diskriminasi |
Hak asasi, legalitas, kebutuhan dan proporsionalitas |
Batasan penggunaan, izin pengadilan, transparansi publik |
AI menyamar sebagai manusia |
Penipuan, manipulasi psikologis, runtuhnya kepercayaan |
Transparansi, persetujuan yang diinformasikan |
Kewajiban pelabelan, watermark, sanksi penyamaran |
Insight akhirnya: “garis merah” hanya berguna bila ada mekanisme pembuktian, audit, dan sanksi—kalau tidak, ia menjadi slogan yang mudah dilanggar.
Kerjasama Internasional vs Fragmentasi: Mengapa Aturan yang Terpecah Membuat Dunia Lebih Rentan
Salah satu peringatan paling tajam datang dari Doreen Bogdan-Martin, Sekretaris Jenderal ITU yang berbasis di Geneva. Ia menilai pendekatan yang terpecah antara Amerika Serikat, Uni Eropa, dan China tidak akan menyelesaikan masalah. Pada titik tertentu, fragmentasi justru memperlemah Keamanan Digital: penjahat siber memanfaatkan perbedaan standar, perusahaan memilih yurisdiksi paling longgar, dan negara berkembang kebingungan mengikuti “tiga buku aturan” sekaligus.
Data yang sering dikutip dalam forum internasional menyebut sekitar 85% negara belum memiliki strategi atau kebijakan AI yang memadai. Ditambah fakta bahwa sekitar 2,6 miliar orang masih belum memiliki akses internet, ketimpangan bukan sekadar isu moral; ia memengaruhi kemampuan deteksi ancaman, respons insiden, dan kesiapan melindungi Privasi Data. Ketika sebagian dunia berdebat tentang audit model paling mutakhir, sebagian lain masih berjuang membangun CERT (Computer Emergency Response Team) yang berfungsi.
Kecemasan “kolonialisme digital” dan kedaulatan aturan
Presiden Somalia, Hassan Sheikh Mohamud, memperingatkan bahaya kolonialisme digital: ketika data dan nilai ekonomi mengalir satu arah, sementara risiko sosial ditanggung di negara yang menjadi pasar. Menteri Luar Negeri Aljazair Ahmed Attaf menyoroti bahwa hanya sebagian kecil negara di Uni Afrika memiliki regulasi TI yang memadai, yang berarti fondasi hukum untuk melindungi warga dan bisnis belum kokoh. Dalam kondisi seperti ini, adopsi AI tanpa pagar akan memperlebar ketergantungan pada vendor asing, termasuk untuk infrastruktur kritis.
Di sinilah Regulasi Global harus diartikan sebagai “standar minimum bersama” yang membantu negara membangun kapasitas, bukan menggantikan kedaulatan. Misalnya, standar pelaporan kebocoran data lintas batas dapat dibuat seragam, tetapi detail penegakan (sanksi, proses hukum) tetap mengikuti sistem nasional.
Skema dukungan: dana, jejaring, dan kantor AI di Sekretariat PBB
Laporan penasihat tingkat tinggi PBB “Governing AI for Humanity” (diluncurkan September 2024) memuat tujuh rekomendasi: panel ilmiah independen, dialog kebijakan antarnegara, pertukaran standar lintas batas, jejaring global, dana internasional untuk negara berkembang, kerangka tata kelola data yang adil, serta kantor AI di dalam Sekretariat PBB. Dalam praktik, paket ini membentuk “rantai dukungan”: pengetahuan (panel), negosiasi (forum), kapasitas (dana dan jejaring), serta koordinasi internal (kantor AI).
Kritiknya juga nyata. Sejumlah pakar menyebut arsitektur ini bisa menjadi kemenangan simbolis bila tidak disertai mandat yang mengikat. Isabella Wilkinson dari Chatham House, misalnya, menilai mekanisme PBB paling inklusif secara global, tetapi berisiko tidak berdaya tanpa aturan yang dapat ditegakkan. Ini membuat pertanyaan retoris menjadi penting: apakah dunia ingin sekadar “selaras dalam kata-kata”, atau benar-benar selaras dalam prosedur dan konsekuensi?
Contoh kebutuhan harmonisasi: standar cloud, audit model, dan tata kelola data
Agar Kerjasama Internasional tidak berhenti di forum, isu-isu teknis harus diterjemahkan ke standar yang dapat dipakai regulator dan industri. Tiga area yang kerap jadi prioritas adalah: keamanan cloud (termasuk lokasi dan enkripsi), audit model (pengujian bias, ketahanan, kebocoran), serta tata kelola data (legalitas pengumpulan, hak subjek data, dan transfer lintas batas). Di Indonesia dan kawasan, diskusi ini beririsan dengan pertumbuhan industri AI. Salah satu bacaan yang membantu menempatkan konteks ekonomi-digital tersebut adalah kontribusi AI pada ekonomi digital.
Insight penutupnya: fragmentasi aturan membuat biaya kepatuhan naik dan keamanan turun—sebuah kombinasi yang menguntungkan pelaku jahat, bukan warga.

Dampak bagi Indonesia dan Negara Berkembang: Menyiapkan Sikap Diplomasi Teknologi dan Kapasitas Keamanan Digital
Ketika PBB membahas Regulasi Global untuk AI, implikasinya bagi negara berkembang tidak berhenti di meja diplomasi. Aturan yang lahir akan memengaruhi standar keamanan data, kepatuhan industri, akses pembiayaan, hingga posisi tawar dalam rantai pasok Teknologi. Bagi Indonesia, tantangannya ganda: membangun ekosistem inovasi yang kompetitif sekaligus memastikan Keamanan Digital dan Privasi Data tidak tertinggal.
Ambil contoh cerita hipotetis yang dekat dengan realitas: sebuah startup layanan kesehatan di Jakarta mengembangkan sistem AI untuk membantu rumah sakit memilah prioritas pasien dan menganalisis ringkasan medis. Di satu sisi, ini mempercepat layanan. Di sisi lain, ia menyimpan data sensitif, bergantung pada cloud, dan berisiko bias bila dataset tidak mewakili populasi. Jika standar global mewajibkan audit model dan pelaporan insiden, startup itu harus siap sejak awal—atau ia akan kalah bersaing di pasar lintas negara. Narasi pertumbuhan startup yang cepat juga menuntut kedewasaan tata kelola, sebagaimana tercermin dalam ekosistem lokal: pertumbuhan startup AI di Jakarta.
Diplomasi teknologi: mengamankan kepentingan tanpa menjadi pengikut
Forum PBB yang baru memberi peluang bagi Asia Tenggara untuk bersuara tentang kebutuhan khas kawasan: keberagaman bahasa, infrastruktur yang tidak merata, dan ancaman disinformasi lintas platform. Strategi diplomasi teknologi yang efektif biasanya memadukan tiga hal. Pertama, kejelasan posisi: Indonesia ingin standar yang melindungi warga dan mendukung inovasi. Kedua, koalisi: bekerja dengan negara yang menghadapi masalah serupa—misalnya soal kesenjangan akses dan literasi digital. Ketiga, bukti: membawa studi kasus insiden, dampak ekonomi, dan kebutuhan kapasitas Keamanan Siber agar negosiasi tidak abstrak.
Kesiapan domestik: dari strategi nasional AI sampai ketahanan siber sektor publik
Karena sebagian besar negara masih belum punya strategi AI, kesempatan ada pada mereka yang bergerak lebih cepat menyusun peta jalan. Peta jalan yang baik bukan sekadar daftar proyek, melainkan menyatukan: standar keamanan, pedoman Etika AI, tata kelola data, dan mekanisme pengadaan pemerintah. Pemerintah dapat mensyaratkan audit keamanan dan privasi untuk vendor AI yang menang tender. Sektor kesehatan, pendidikan, dan bantuan sosial perlu protokol khusus karena data yang dikelola sangat sensitif.
Di sisi lain, kesenjangan akses internet—yang masih menyentuh miliaran orang di dunia—mengingatkan bahwa manfaat AI hanya akan merata jika infrastruktur digital membaik. Bagi Indonesia, pemerataan jaringan dan kualitas konektivitas akan menentukan apakah AI menjadi alat produktivitas nasional atau hanya dinikmati kantong-kantong tertentu. Diskusi infrastruktur ini sejalan dengan agenda pemerataan konektivitas: pemerataan jaringan 5G di Indonesia.
Mengubah prinsip global menjadi praktik: contoh langkah yang bisa diterapkan lembaga dan perusahaan
Agar pembahasan PBB tidak berhenti sebagai wacana, organisasi di tingkat nasional dapat menerjemahkannya menjadi prosedur. Berikut contoh yang realistis untuk kementerian, pemda, BUMN, dan perusahaan digital:
- Membuat inventaris sistem AI: siapa memakai apa, untuk keputusan apa, dan data apa yang diproses.
- Mewajibkan penilaian dampak untuk sistem berisiko tinggi (kesehatan, rekrutmen, bantuan sosial, penegakan hukum).
- Melakukan red-teaming berkala untuk menguji penyalahgunaan, kebocoran, dan ketahanan terhadap prompt injection.
- Menetapkan aturan transparansi: pelabelan konten sintetis, pemberitahuan saat pengguna berinteraksi dengan bot, dan log keputusan.
- Rencana respons insiden yang mencakup pelaporan cepat, koordinasi lintas lembaga, serta pemulihan layanan.
Di penghujungnya, insight yang paling penting: bila Indonesia dan negara berkembang mampu menyelaraskan kesiapan domestik dengan arus Kerjasama Internasional, maka Regulasi Global bukan beban—melainkan pengungkit daya saing dan perlindungan warga sekaligus.