En bref
- OJK di Jakarta memperkuat pemantauan penggunaan AI dan kecerdasan buatan di sektor keuangan untuk menekan potensi risiko sistemik.
- Fokus utama: tata kelola sepanjang AI life cycle, transparansi keputusan algoritmik, dan pengawasan manusia untuk keputusan kritis.
- Kerangka kebijakan mengacu pada praktik global (mis. AI Act Uni Eropa, panduan BCBS) dan selaras dengan regulasi nasional termasuk UU Perlindungan Data Pribadi.
- Area rawan: keamanan finansial, serangan siber, bias data, serta penipuan berbasis deepfake/otomasi.
- Panduan OJK melengkapi cetak biru digital perbankan, aturan TI bank, dan pedoman ketahanan siber serta resiliensi digital.
Di Jakarta, laju adopsi AI di bank dan lembaga jasa keuangan bergerak lebih cepat daripada siklus pembaruan kebijakan. Chatbot semakin pintar, mesin deteksi fraud kian agresif, dan sistem penetapan harga kredit makin bergantung pada pola data yang rumit. Di sisi lain, satu kesalahan model—misalnya data pelatihan yang bias atau kebocoran data—dapat menjalar menjadi masalah kepercayaan publik, memicu penarikan dana, hingga mengganggu stabilitas. Karena itu, OJK menempatkan pemantauan penggunaan AI sebagai agenda yang bukan sekadar “mendukung inovasi”, melainkan memastikan inovasi tidak menciptakan risiko sistemik baru.
Kerangka yang dibangun menekankan bahwa kecerdasan buatan harus dipahami sebagai sistem yang hidup: dirancang, diuji, digunakan, diawasi, lalu ditingkatkan dengan disiplin. Perspektif ini membuat diskusi tidak berhenti pada “boleh atau tidak”, tetapi pada bagaimana bank membuktikan keputusan algoritmik tetap adil, dapat dijelaskan, dan aman. Di tengah meningkatnya penipuan digital dan kompetisi layanan serba instan, tuntutan nasabah juga berubah: mereka ingin layanan cepat sekaligus kepastian bahwa datanya tidak disalahgunakan. Maka, ketika OJK di Jakarta memperketat pengawasan, industri pada dasarnya sedang didorong untuk membangun AI yang bisa dipercaya—bukan hanya AI yang canggih.
OJK di Jakarta dan pemantauan AI di sektor keuangan untuk menekan risiko sistemik
Di pusat aktivitas ekonomi nasional, OJK di Jakarta memposisikan pemantauan AI sebagai bentuk “penjagaan pagar” agar transformasi digital tidak memunculkan kejutan besar. Logikanya sederhana: ketika semakin banyak proses inti perbankan—mulai dari onboarding nasabah, penilaian kredit, hingga deteksi transaksi anomali—ditopang oleh model, maka kegagalan model tidak lagi berdampak lokal. Ia bisa memengaruhi banyak institusi sekaligus, apalagi jika bank memakai vendor yang sama, data yang serupa, atau metode yang sejenis. Inilah pintu masuk risiko sistemik.
Bayangkan contoh hipotetis: Bank fiktif “Bank Nusantara Raya” mengadopsi sistem AI untuk menyetujui pinjaman mikro dalam hitungan menit. Dalam tiga bulan, portofolio tumbuh pesat karena persetujuan cepat menaikkan akuisisi. Namun ternyata, data pelatihan terlalu berat pada wilayah urban. Akibatnya, model menilai pelaku UMKM di pinggiran Jakarta lebih berisiko daripada kenyataan. Dalam skala kecil, ini “hanya” masalah ketidakadilan. Dalam skala besar, salah alokasi kredit mengganggu kualitas aset dan memicu pengetatan mendadak, menurunkan konsumsi, lalu merambat ke sektor lain.
Di titik ini, pengawasan tidak bisa berhenti pada laporan kepatuhan tahunan. OJK mendorong bank menyiapkan metrik yang bisa dipantau rutin: drift data (pergeseran pola data), perubahan performa model, serta pemicu eskalasi ketika keputusan AI mulai menyimpang. Topik “pemantauan berkelanjutan” juga semakin relevan karena AI generatif mempercepat produksi konten palsu. Kasus penipuan yang memanfaatkan suara sintetis eksekutif atau video palsu bisa memanipulasi proses otorisasi. Ilustrasi risikonya dapat dibaca dalam konteks maraknya modus baru yang disorot pada laporan penipuan berbasis AI di perbankan Jakarta, yang memperlihatkan bagaimana celah prosedur dan teknologi bisa saling memperkuat.
Dalam praktik, OJK menempatkan stabilitas sebagai sasaran bersama: bank boleh agresif berinovasi, tetapi harus membuktikan ketahanan operasionalnya. Penguatan ini selaras dengan arah pembaruan regulasi keamanan AI di Jakarta yang menekankan standar kontrol, audit, dan respons insiden. Ketika industri memahami bahwa AI adalah bagian dari infrastruktur kritikal, bukan sekadar fitur aplikasi, maka “cepat” tidak lagi menjadi satu-satunya ukuran keberhasilan. Insight akhirnya: AI yang aman adalah AI yang dipantau seperti sistem keuangan itu sendiri—ketat, disiplin, dan terukur.

Kerangka regulasi dan prinsip tata kelola kecerdasan buatan: dari UU PDP hingga praktik global
Penguatan regulasi AI di sektor keuangan tidak berdiri sendiri. OJK menautkannya pada payung hukum yang lebih luas, terutama perlindungan data pribadi. Ketika bank memproses data transaksi, lokasi, perangkat, dan kebiasaan belanja untuk memprediksi risiko, maka batas antara “analitik yang sah” dan “intrusi” menjadi tipis. UU Perlindungan Data Pribadi menjadi rambu agar inovasi tidak mengorbankan hak nasabah. Dalam konteks ini, OJK mendorong bank mengatur basis pemrosesan data, retensi, serta hak akses dan koreksi yang jelas.
Di sisi tata kelola, prinsip yang ditekankan berulang kali adalah keandalan, akuntabilitas, dan pengawasan manusia. Keandalan berarti model bekerja konsisten pada kondisi normal dan tetap aman pada kondisi ekstrem. Akuntabilitas memastikan ada pihak yang bertanggung jawab ketika model salah, bukan menyalahkan “algoritma”. Pengawasan manusia menegaskan keputusan penting—misalnya penolakan kredit, penutupan rekening, atau pelaporan transaksi mencurigakan—tidak boleh sepenuhnya otomatis tanpa kontrol dan hak banding yang masuk akal.
Menariknya, OJK juga melakukan benchmarking ke praktik internasional, seperti pendekatan yang sejalan dengan AI Act Uni Eropa dan pedoman pengawasan perbankan lintas negara (mis. BCBS). Tujuannya bukan menyalin mentah-mentah, melainkan memastikan standar Indonesia kompatibel dengan ekosistem global: bank domestik memiliki korespondensi internasional, transaksi lintas batas, dan ketergantungan pada penyedia cloud global. Dalam lanskap 2026 yang semakin terhubung, kompatibilitas ini menjadi bagian dari keamanan finansial, karena gangguan di satu titik dapat menular cepat.
POJK inovasi teknologi sektor keuangan dan penguatan transparansi algoritmik
Dalam peraturan terkait inovasi teknologi sektor keuangan, OJK memperjelas ekspektasi: lembaga keuangan perlu mampu menjelaskan bagaimana sistem membuat keputusan. Ini tidak berarti membuka rahasia dagang secara penuh, melainkan menyediakan penjelasan yang cukup bagi auditor, regulator, dan nasabah untuk memahami logika dasar keputusan. Misalnya, untuk penilaian kredit: variabel utama apa yang berpengaruh, bagaimana model mengurangi bias, dan bagaimana nasabah bisa mengajukan peninjauan ulang.
Transparansi juga terkait kualitas data. Data yang “kotor” membuat model tampak akurat di laboratorium tetapi rapuh di lapangan. Karena itu, OJK menekankan proses validasi data, kontrol perubahan, serta dokumentasi versi model. Agar lebih operasional, banyak bank mulai membentuk komite model risiko yang melibatkan unit kepatuhan, TI, risk management, dan bisnis.
Konteks regulasi yang lebih luas di Indonesia juga bergerak; pembaruan norma hukum digital dan sanksi dapat memengaruhi cara lembaga keuangan membangun kontrol internal. Diskusi publik mengenai norma penegakan dan kepatuhan di era baru dapat dilihat dalam lanskap kebijakan yang mengemuka menjelang pemberlakuan KUHP baru 2026, yang secara tidak langsung mendorong institusi memperjelas prosedur, pembuktian, dan jejak audit. Insight akhirnya: regulasi yang baik tidak mematikan inovasi—ia membuat inovasi dapat dipertanggungjawabkan.
Peralihan dari prinsip ke praktik menuntut alat ukur yang jelas, dan di situlah pengelolaan sepanjang siklus hidup AI menjadi jembatan menuju mitigasi risiko yang nyata.
AI life cycle di perbankan: pemantauan dari desain hingga penghentian sistem
OJK menekankan bahwa tata kelola kecerdasan buatan harus mencakup seluruh AI life cycle. Artinya, bank tidak cukup membeli solusi dari vendor lalu menganggap pekerjaan selesai. Justru, risiko terbesar sering muncul setelah implementasi: model mulai “menua”, pola perilaku nasabah berubah, penipu menguji celah, dan lingkungan makro berfluktuasi. Di sinilah pemantauan berkala menjadi mekanisme pencegah risiko sistemik.
Ambil contoh proses deteksi fraud kartu. Pada fase desain, bank menentukan tujuan: menurunkan kerugian tanpa terlalu banyak false positive yang mengganggu nasabah. Pada fase pelatihan, data transaksi historis dipilih dan dilabeli. Pada fase pengujian, model diuji terhadap skenario baru. Namun setelah produksi, fraudster akan belajar. Mereka mengubah pola transaksi agar tampak normal. Tanpa monitoring drift dan retraining yang disiplin, model yang dulu efektif menjadi tumpul.
Kontrol penting di tiap tahap siklus: dari data hingga audit
Untuk membuatnya konkret, bank biasanya memecah kontrol menjadi beberapa lapisan. Pertama, tata kelola data: sumber data harus legal, relevan, dan minim bias. Kedua, tata kelola model: dokumentasi, penilaian risiko, dan prosedur perubahan (change management). Ketiga, tata kelola operasional: siapa yang memantau alarm, bagaimana eskalasi dilakukan, dan bagaimana bank memulihkan layanan jika sistem bermasalah. Keempat, tata kelola vendor: bank harus bisa menilai risiko pihak ketiga, termasuk akses data dan ketahanan siber.
Berikut daftar praktik yang sering dipakai agar pengawasan tidak hanya formalitas:
- Model registry untuk mencatat versi model, data pelatihan, metrik, dan pemilik bisnisnya.
- Threshold eskalasi ketika akurasi turun, bias meningkat, atau muncul pola transaksi anomali baru.
- Human-in-the-loop untuk keputusan sensitif, seperti penolakan kredit atau pemblokiran transaksi bernilai besar.
- Red teaming untuk menguji ketahanan terhadap prompt injection, manipulasi input, dan serangan adversarial.
- Audit trail yang dapat ditelusuri, agar investigasi cepat saat insiden.
Dalam konteks perbankan Indonesia, tata kelola ini juga melengkapi aturan teknologi informasi dan ketahanan siber yang lebih dulu ada. Ketika bank menyatukan kontrol AI dengan kontrol keamanan TI, hasilnya lebih utuh: AI tidak berdiri sendiri, melainkan bagian dari sistem operasional bank yang diawasi.
Untuk memperjelas hubungan tahapan dan risikonya, tabel berikut memberi gambaran ringkas yang bisa menjadi “checklist” eksekutif:
Tahap AI life cycle |
Risiko utama |
Kontrol yang disarankan |
Indikator pemantauan |
|---|---|---|---|
Desain & penetapan tujuan |
Tujuan bisnis mendorong keputusan tidak adil |
Penilaian dampak, definisi batas keputusan otomatis |
Dokumen tujuan, daftar use-case berisiko tinggi |
Pengumpulan & persiapan data |
Kualitas data buruk, pelanggaran privasi |
Validasi data, pemetaan persetujuan, minimisasi data |
Skor kualitas data, temuan kepatuhan UU PDP |
Pelatihan & pengujian model |
Overfitting, bias, model tidak robust |
Uji fairness, stress test, dokumentasi metrik |
Metrik bias, performa pada data out-of-sample |
Implementasi (production) |
Serangan siber, integrasi gagal, kesalahan konfigurasi |
Hardening, kontrol akses, review konfigurasi |
Log keamanan, tingkat error, waktu respons |
Pemantauan & pemeliharaan |
Drift, penipu beradaptasi, degradasi akurasi |
Monitoring drift, retraining terjadwal, red teaming |
Drift score, tren false positive/negative |
Pensiun/retirement |
Model lama tetap dipakai, data tertinggal |
Prosedur penghentian, arsip aman, migrasi kontrol |
Status model, audit kepatuhan penghentian |
Jika seluruh siklus dipegang, bank lebih siap menghadapi kejutan. Insight akhirnya: risiko AI paling sering lahir dari “celah antar tahap”, dan pemantauan menutup celah itu.
Ketika tata kelola sudah rapi, tantangan berikutnya adalah ancaman eksternal: serangan siber, penipuan berbasis AI generatif, dan dampaknya pada stabilitas.

Keamanan finansial, ancaman siber, dan penipuan berbasis AI: dari deepfake hingga prompt injection
Di ranah operasional, kekhawatiran paling nyata dari penggunaan AI adalah pada keamanan finansial. Bukan hanya karena bank menyimpan uang, tetapi karena bank menyimpan identitas digital dan pola perilaku yang dapat dieksploitasi. AI generatif mempercepat produksi phishing yang rapi, membuat call scam dengan suara sintetis, dan membantu pelaku melakukan rekayasa sosial dengan presisi. Jika skala penipuan membesar, kepercayaan publik ikut terkikis—dan pada titik tertentu, ini bisa menyentuh risiko sistemik.
Ilustrasi yang semakin sering dibahas adalah deepfake untuk otorisasi transaksi. Misalnya, seorang staf treasury menerima panggilan video yang tampak seperti CFO. Karena situasi mendesak, staf mengeksekusi transfer besar. Di masa lalu, modus ini sulit karena meniru wajah dan suara membutuhkan sumber daya tinggi. Kini, alatnya semakin mudah. Karena itu, OJK mendorong kontrol berlapis: bukan hanya “percaya wajah”, melainkan verifikasi out-of-band, multi-approval, dan deteksi liveness.
Manajemen risiko siber yang menyatu dengan tata kelola AI
OJK selama beberapa tahun terakhir menekankan ketahanan siber perbankan, dan kini kontrol tersebut harus menyatu dengan sistem AI. Jika bank memakai AI untuk layanan nasabah (misalnya chatbot), risikonya mencakup kebocoran data lewat prompt, atau jawaban model yang mendorong nasabah melakukan tindakan salah. Jika AI dipakai untuk internal (misalnya ringkasan laporan risiko), risikonya berupa data sensitif yang tersimpan di tempat tidak tepat atau diproses oleh pihak ketiga tanpa kontrol memadai.
Pemantauan efektif biasanya memadukan indikator keamanan TI dan indikator kualitas model. Contohnya: lonjakan permintaan API yang tidak wajar (indikasi scraping atau serangan), peningkatan transaksi yang diblokir (indikasi fraud campaign), serta penurunan kualitas keputusan (indikasi drift atau data poisoning). Pada titik ini, peran SOC (Security Operation Center) dan tim model risk management perlu dipertemukan—bukan berjalan di dua dunia berbeda.
Ekosistem regulasi juga berkembang: dorongan untuk memperjelas standar keamanan AI di Jakarta tercermin dalam wacana kebijakan publik dan industri, salah satunya terkait kerangka keamanan AI yang kian dipertegas. Di saat yang sama, penguatan ekonomi dan investasi digital turut memberi tekanan agar bank tidak tertinggal. Diskusi makro mengenai arah ekonomi dapat menjadi konteks mengapa modernisasi ini terus berjalan, misalnya melalui pandangan Menkeu Purbaya tentang ekonomi 2026 yang menekankan daya tahan dan akselerasi, dua hal yang menuntut sistem keuangan lebih adaptif.
Namun adaptif bukan berarti longgar. Bank yang kuat adalah bank yang mampu bergerak cepat tanpa kehilangan kontrol. Insight akhirnya: di era penipuan berbasis AI, keamanan bukan fitur—ia adalah budaya operasional yang diukur setiap hari.
Ancaman operasional biasanya terasa paling dekat, tetapi pencegahan risiko sistemik menuntut lensa lebih lebar: keterkaitan antar institusi, vendor, dan konsentrasi teknologi.
Risiko sistemik dari konsentrasi model, vendor, dan data: mengapa OJK menekankan pengawasan yang adaptif
Risiko sistemik tidak selalu muncul dari satu bank yang gagal. Ia bisa muncul dari keseragaman: banyak bank menggunakan model serupa, sumber data serupa, dan penyedia teknologi serupa. Ketika sebuah vendor mengalami gangguan layanan cloud, atau ketika sebuah pembaruan model populer mengandung bug, dampaknya bisa menyebar. Di sinilah OJK menaruh perhatian pada pengawasan yang adaptif: regulasi yang cukup kokoh untuk menjaga standar, namun cukup fleksibel untuk mengimbangi evolusi teknologi.
Contoh yang mudah dipahami adalah “model monoculture”. Jika bank-bank besar menggunakan metode scoring yang mirip, mereka cenderung bereaksi sama terhadap gejolak: menurunkan limit kredit bersamaan, mengetatkan syarat pinjaman bersamaan, atau memblokir kategori transaksi tertentu bersamaan. Reaksi serempak ini dapat memperkuat siklus pengetatan likuiditas di ekonomi riil. Bahkan jika tiap bank merasa keputusannya rasional, dampak kolektifnya bisa menimbulkan tekanan sistemik.
Peran konsolidasi, investasi, dan biaya tata kelola AI
OJK juga mengingatkan bahwa kemampuan bersaing bank akan bergantung pada kemampuan mengelola teknologi, dan itu membutuhkan biaya besar. Bagi bank kecil, membangun tim data, keamanan siber, audit model, dan kepatuhan bukan perkara ringan. Karena itu, langkah strategis seperti konsolidasi, kemitraan yang sehat, atau shared utilities (misalnya platform bersama untuk verifikasi identitas) sering muncul sebagai opsi untuk meningkatkan daya tahan.
Dalam praktik sehari-hari, pengawasan OJK mendorong bank menjawab pertanyaan yang konkret: Apakah ada peta ketergantungan vendor? Apakah ada rencana keluar (exit plan) jika vendor gagal? Apakah ada pemisahan lingkungan data agar risiko pihak ketiga tidak meluas? Bagaimana bank memastikan model tidak merugikan kelompok tertentu? Dan ketika terjadi insiden, seberapa cepat bank dapat memulihkan layanan?
Di Jakarta, isu ketergantungan teknologi juga bersinggungan dengan transformasi sektor lain—dari administrasi publik hingga logistik—yang memperkuat argumen mengapa standar tata kelola harus seragam dan tegas. Untuk melihat bagaimana AI merembes ke layanan pemerintahan dan mempengaruhi ekspektasi masyarakat, konteksnya bisa ditautkan dengan pemanfaatan AI dalam administrasi publik Jakarta. Ketika warga terbiasa dengan layanan instan, bank terdorong melakukan hal serupa; pengawasan memastikan percepatan itu tidak mengorbankan kehati-hatian.
Sebagai jembatan ke stabilitas jangka panjang, penguatan pengawasan AI juga sejalan dengan agenda ekonomi hijau dan pasar baru. Konektivitas kebijakan OJK di berbagai area dapat dilihat lewat pembahasan tentang arah pasar modal dan ekonomi hijau serta dinamika pengembangan pasar karbon di bawah pengawasan OJK. Semakin kompleks produk keuangan, semakin penting model yang dipakai untuk penilaian risiko, pricing, dan pelaporan tidak menimbulkan distorsi.
Insight akhirnya: pencegahan risiko sistemik di era AI bukan hanya soal model yang “benar”, tetapi ekosistem yang tidak rapuh karena ketergantungan yang berlebihan.