Bessent dan Powell Peringatkan CEO Bank soal Risiko Model Anthropic

Oleh VOXBLICK

Sabtu, 11 April 2026 - 15.15 WIB
Bessent dan Powell Peringatkan CEO Bank soal Risiko Model Anthropic
Bessent Powell peringatkan risiko (Foto oleh Engin Akyurt)

VOXBLICK.COM - Pertemuan mendesak antara Scott Bessent dan Jerome Powell dengan para CEO bank memusatkan perhatian pada satu isu yang semakin sering muncul dalam kebijakan teknologi: risiko model AI milik Anthropic. Fokus pembahasan bukan pada “kemampuan” model secara umum, melainkan pada aspek keamanan, tata kelola, dan kepatuhantiga pilar yang menentukan apakah penggunaan model AI di sektor perbankan bisa dilakukan secara aman dan sesuai regulasi.

Menurut ringkasan informasi yang beredar, Bessent dan Powell mengundang para pimpinan bank untuk memastikan bahwa penerapan model Anthropic, atau sistem yang mengandalkan model tersebut, memiliki kontrol yang memadai.

Langkah ini penting karena lembaga keuangan AS beroperasi dalam ekosistem risiko yang ketat: kesalahan sistematis (misalnya bias atau halusinasi), kebocoran data, hingga potensi penyalahgunaan oleh aktor jahat dapat berdampak langsung pada stabilitas operasional dan kepercayaan publik.

Bessent dan Powell Peringatkan CEO Bank soal Risiko Model Anthropic
Bessent dan Powell Peringatkan CEO Bank soal Risiko Model Anthropic (Foto oleh Vlada Karpovich)

Pihak yang terlibat dalam pertemuan iniScott Bessent dan Jerome Powellmewakili kepentingan kebijakan makro dan stabilitas sistem keuangan.

Sementara itu, CEO bank menjadi penerima pesan langsung karena merekalah yang menentukan desain kontrol internal, arsitektur integrasi AI, serta standar kepatuhan terhadap praktik tata kelola data dan keamanan siber. Dengan demikian, pertemuan tersebut berfungsi sebagai “jembatan” antara regulator dan operator industri.

Apa yang dibahas: risiko model Anthropic dan kontrol di bank

Walau detail teknis spesifik tidak dipublikasikan secara luas, inti pertemuan dapat dipahami melalui kerangka risiko yang lazim digunakan regulator sektor keuangan untuk sistem berbasis AI.

Dalam konteks model Anthropic, perhatian biasanya mengarah pada beberapa jenis risiko berikut:

  • Keamanan siber dan perlindungan data: bagaimana model diakses (API, integrasi internal, atau layanan pihak ketiga), jenis data apa yang boleh dikirim, serta mekanisme enkripsi dan pemisahan akses.
  • Risiko kepatuhan (compliance): kesesuaian dengan kewajiban perlindungan data, auditabilitas keputusan sistem, serta dokumentasi penggunaan model.
  • Reliabilitas dan kualitas output AI: potensi “halusinasi”, ketidakakuratan jawaban, atau inkonsistensi yang dapat memengaruhi proses layanan pelanggan maupun keputusan yang berdampak finansial.
  • Governance dan manajemen model: siapa yang bertanggung jawab atas penerapan, bagaimana monitoring dilakukan, serta bagaimana perubahan model (versi/parameter) dikelola.
  • Risiko penyalahgunaan: kemungkinan prompt injection, data exfiltration melalui interaksi pengguna, atau penggunaan yang tidak sesuai kebijakan internal.

Dengan mengumpulkan CEO bank, Bessent dan Powell mendorong agar isu-isu tersebut tidak berhenti pada level “uji coba” atau pilot, tetapi ditransformasikan menjadi kontrol operasional yang terukur.

Artinya, bank diharapkan memiliki prosedur untuk memastikan sistem AI yang menggunakan model Anthropic dapat diuji, diawasi, dan ditangani saat terjadi insiden.

Siapa Scott Bessent dan Jerome Powell dalam konteks ini

Scott Bessent dikenal sebagai figur kebijakan ekonomi yang berfokus pada stabilitas dan pengelolaan risiko sistem keuangan.

Jerome Powell, sebagai Ketua Federal Reserve, memiliki peran sentral dalam menjaga stabilitas moneter dan, dalam praktiknya, memengaruhi standar kehati-hatian pengawasan sektor perbankan. Ketika keduanya mengangkat isu risiko model Anthropic ke tingkat CEO, pesan yang tersampaikan adalah: AI bukan sekadar inovasi teknologi, melainkan komponen yang harus masuk dalam kerangka manajemen risiko bank.

Bagi CEO bank, pertemuan seperti ini biasanya menuntut tindak lanjut berupa evaluasi internal: apakah model AI digunakan untuk layanan pelanggan, penilaian risiko, automasi back-office, atau analitik kepatuhan.

Pada tiap skenario, besarnya dampak kesalahan dan tingkat sensitivitas data berbeda, sehingga kontrol yang diperlukan juga tidak seragam.

Mengapa peringatan ini penting untuk pembaca

Isu risiko model Anthropic mungkin terdengar teknis, tetapi dampaknya nyata pada kehidupan sehari-hari. Bank memproses data nasabah, menentukan akses layanan, dan menjalankan proses kepatuhan yang memengaruhi transaksi finansial.

Jika sistem AI yang terintegrasi tidak memiliki kontrol memadai, potensi dampaknya meliputi:

  • Kesalahan layanan atau penolakan yang tidak semestinya: misalnya informasi keliru yang memengaruhi keputusan nasabah.
  • Gangguan operasional saat terjadi insiden: termasuk kebocoran data atau respons yang tidak sesuai kebijakan.
  • Risiko reputasi dan kepercayaan: ketika publik menilai bank gagal melindungi data atau tidak transparan.
  • Konsekuensi regulasi: jika audit menunjukkan lemahnya governance atau dokumentasi.

Dengan kata lain, peringatan Bessent dan Powell bukan hanya urusan internal bank. Pembacabaik mahasiswa, profesional, maupun pengambil keputusanperlu memahami bahwa tata kelola AI sedang berubah menjadi bagian dari infrastruktur risiko keuangan.

Dampak dan implikasi lebih luas bagi industri, regulasi, dan teknologi

Langkah peringatan tingkat tinggi terhadap model Anthropic mengindikasikan arah kebijakan yang lebih ketat untuk penggunaan AI di sektor keuangan. Implikasi yang paling relevan dapat dilihat pada beberapa aspek berikut.

  • Industri akan bergerak dari “adopsi cepat” ke “adopsi terukur”. Bank cenderung menuntut bukti uji keamanan, audit model, dan dokumentasi integrasi sebelum skala penuh. Ini meningkatkan standar vendor dan mitra teknologi.
  • Regulasi dan pengawasan akan semakin menekankan governance. Tidak cukup hanya menggunakan model yang “terkenal” yang dinilai adalah bagaimana model dikendalikan: monitoring performa, manajemen perubahan, serta respons saat terjadi anomali.
  • Praktik keamanan siber akan memasukkan skenario AI. Ancaman modern seperti prompt injection dan data leakage melalui interaksi pengguna membuat kontrol keamanan tradisional perlu diperluas menjadi kontrol “AI-aware”.
  • Teknologi AI akan terdorong ke arah auditabilitas. Pengembang dan penyedia model kemungkinan harus menyediakan informasi tentang batasan, mekanisme mitigasi, dan indikator kualitas yang dapat diverifikasi oleh pihak ketiga.
  • Ekonomi biaya kepatuhan meningkat, tetapi menurunkan risiko jangka panjang. Biaya untuk compliance, pengujian, dan monitoring bisa naik, namun tujuan utamanya adalah mengurangi probabilitas insiden besar yang dapat memicu kerugian finansial dan gangguan sistemik.

Yang penting, implikasi ini bersifat edukatif: publik perlu melihat bahwa AI di sektor keuangan tidak hanya soal “apakah model pintar”, melainkan “apakah model bisa dikendalikan”.

Kerangka kontrol yang kuat akan memengaruhi kualitas layanan, keamanan data, dan kepatuhan banktiga hal yang saling terkait.

Tindak lanjut yang lazim dilakukan bank setelah peringatan regulator

Dalam situasi seperti ini, bank biasanya menempuh langkah-langkah yang dapat diukur. Beberapa tindak lanjut yang lazim dilakukan meliputi:

  • Inventarisasi penggunaan model: memetakan fungsi AI di seluruh unit bisnis (front office, back office, kepatuhan, analitik risiko).
  • Penilaian risiko berbasis skenario: menilai dampak kesalahan output, potensi kebocoran, dan risiko penyalahgunaan.
  • Uji keamanan dan red-teaming: menguji ketahanan terhadap serangan berbasis prompt dan upaya ekstraksi data.
  • Penguatan kebijakan data: menentukan data apa yang boleh diproses, bagaimana anonimisasi dilakukan, dan siapa yang berwenang.
  • Monitoring dan audit: menetapkan metrik kualitas, pelacakan performa, serta mekanisme audit untuk kebutuhan regulator.

Dengan pendekatan seperti ini, pesan Bessent dan Powell dapat diterjemahkan menjadi kontrol nyata di lapanganbukan sekadar pernyataan kewaspadaan.

Peringatan Scott Bessent dan Jerome Powell kepada CEO bank soal risiko model Anthropic menandai meningkatnya perhatian regulator terhadap tata kelola AI di sektor keuangan AS.

Pertemuan tersebut menekankan bahwa keamanan siber, governance model, dan kepatuhan bukan pelengkap, melainkan prasyarat. Bagi pembaca, perkembangan ini relevan karena menentukan bagaimana bank menggunakan AI dalam layanan dan proses yang memengaruhi data serta keputusan finansial nasabah. Ketika kontrol menjadi standar, industri memperoleh panduan yang lebih jelas tentang cara mengadopsi teknologi tanpa mengorbankan keandalan dan kepercayaan publik.

Apa Reaksi Anda?

Suka Suka 0
Tidak Suka Tidak Suka 0
Cinta Cinta 0
Lucu Lucu 0
Marah Marah 0
Sedih Sedih 0
Wow Wow 0