Polisi Essex Tunda Pengenalan Wajah Setelah Studi Ungkap Bias Rasial
VOXBLICK.COM - Kepolisian Essex telah mengumumkan penundaan sementara penggunaan teknologi pengenalan wajah langsung (Live Facial Recognition/LFR) di wilayahnya. Keputusan ini diambil menyusul sebuah studi internal yang mengungkapkan bias rasial signifikan dalam akurasi sistem, memicu kembali perdebatan nasional mengenai etika kecerdasan buatan (AI) dalam pengawasan publik dan implikasinya terhadap keadilan sosial. Langkah ini menyoroti tantangan krusial dalam implementasi teknologi canggih di lembaga penegak hukum.
Penundaan ini berlaku efektif segera, dengan Kepolisian Essex menyatakan perlunya evaluasi ulang menyeluruh terhadap sistem LFR mereka.
Chief Constable Ben-Julian Harrington mengonfirmasi bahwa penangguhan akan berlanjut hingga semua kekhawatiran yang diangkat oleh studi ditangani dan solusi yang adil serta akurat dapat dijamin. Teknologi pengenalan wajah langsung, yang memungkinkan identifikasi individu secara real-time di keramaian, telah menjadi alat kontroversial di Inggris, dengan beberapa kepolisian lain seperti Kepolisian Metropolitan London dan Kepolisian South Wales telah menggunakannya, meskipun dengan pengawasan ketat.
Studi internal yang dipimpin oleh tim analisis data Kepolisian Essex menemukan bahwa sistem pengenalan wajah menunjukkan tingkat kesalahan yang lebih tinggi saat mengidentifikasi individu dari kelompok etnis minoritas dibandingkan dengan individu
berkulit putih. Meskipun rincian spesifik mengenai metrik bias belum sepenuhnya dipublikasikan, temuan awal mengindikasikan perbedaan yang mencolok dalam tingkat positif palsu dan negatif palsu di antara kelompok ras yang berbeda. Fenomena bias algoritmik ini bukanlah hal baru dalam pengembangan AI, seringkali disebabkan oleh data pelatihan yang tidak representatif atau algoritma yang tidak dioptimalkan untuk keragaman demografi.
Keputusan Kepolisian Essex menambah daftar panjang kekhawatiran yang telah disuarakan oleh berbagai organisasi hak sipil dan privasi, termasuk Liberty dan Big Brother Watch.
Mereka secara konsisten menentang penggunaan LFR, berargumen bahwa teknologi ini melanggar hak privasi, berpotensi menciptakan masyarakat pengawasan massal, dan memperburuk diskriminasi rasial yang sudah ada dalam sistem peradilan pidana. Sebelumnya, Pengadilan Banding Inggris pada tahun 2020 memutuskan bahwa penggunaan LFR oleh Kepolisian South Wales adalah melanggar hukum dalam kasus yang diajukan oleh pegiat hak sipil Ed Bridges, meskipun keputusan itu kemudian dibatalkan oleh Mahkamah Agung pada tahun 2021 yang menyatakan penggunaannya sah tetapi dengan peringatan ketat mengenai perlunya kerangka hukum yang jelas.
Organisasi seperti Liberty menyambut baik penundaan oleh Kepolisian Essex, menyebutnya sebagai langkah yang tepat dan mendesak semua kepolisian lain untuk mengikuti jejak yang sama. "Pengenalan wajah adalah teknologi yang berbahaya dan diskriminatif.
Keputusan Essex menunjukkan bahwa kepolisian tidak dapat mengabaikan bukti bias yang jelas," kata seorang juru bicara Liberty. Di sisi lain, beberapa pihak dalam kepolisian berpendapat bahwa LFR adalah alat yang berpotensi efektif dalam memerangi kejahatan serius dan terorisme, asalkan digunakan dengan benar dan etis. Perdebatan ini menggarisbawahi ketegangan antara efisiensi penegakan hukum dan perlindungan hak-hak fundamental warga negara.
Dampak dan Implikasi Lebih Luas dari Penundaan Pengenalan Wajah
Penundaan ini memiliki implikasi signifikan terhadap perdebatan global mengenai etika AI dan batas-batas pengawasan.
Kejadian di Essex memperkuat argumen bahwa teknologi AI, terutama yang digunakan dalam konteks penegakan hukum, tidak boleh diterapkan tanpa pengujian ketat dan pemahaman mendalam tentang potensi efek sampingnya. Ini mendorong diskusi tentang kebutuhan akan audit algoritmik independen dan kerangka regulasi yang lebih kuat untuk memastikan bahwa sistem AI dirancang dan digunakan secara bertanggung jawab, meminimalkan risiko diskriminasi dan penyalahgunaan kekuasaan.
Aspek keadilan sosial menjadi inti dari penundaan ini. Bias rasial dalam sistem pengenalan wajah berpotensi memperburuk ketidakadilan yang sudah ada dalam masyarakat, khususnya terhadap komunitas minoritas.
Jika individu dari kelompok etnis tertentu lebih sering salah diidentifikasi atau menjadi target pengawasan yang tidak proporsional, hal ini dapat mengikis kepercayaan publik terhadap lembaga penegak hukum dan memperkuat siklus diskriminasi. Studi kasus Essex menekankan urgensi untuk mengatasi "diskriminasi algoritma" sebagai prioritas dalam pengembangan dan penerapan teknologi masa depan.
Keputusan Kepolisian Essex kemungkinan akan memengaruhi pengembangan kebijakan dan regulasi teknologi pengenalan wajah di Inggris dan mungkin di seluruh Eropa.
Ada dorongan yang semakin besar untuk moratorium atau bahkan larangan total terhadap penggunaan LFR oleh penegak hukum, setidaknya sampai teknologi dapat dibuktikan tidak bias dan kerangka hukum yang kuat tersedia untuk melindungi hak-hak individu. Uni Eropa sendiri sedang dalam proses merancang regulasi AI yang komprehensif, dan insiden semacam ini akan menjadi masukan penting dalam pembentukan aturan tersebut, terutama terkait dengan "risiko tinggi" aplikasi AI.
Tindakan Kepolisian Essex, meskipun menunda penggunaan, juga dapat dilihat sebagai langkah proaktif dalam membangun kembali atau mempertahankan kepercayaan publik.
Dengan mengakui adanya masalah dan mengambil tindakan korektif, kepolisian menunjukkan kesediaan untuk bertanggung jawab atas dampak teknologi yang mereka gunakan. Ini adalah pelajaran penting bagi lembaga lain yang mempertimbangkan atau sudah menggunakan teknologi serupa: transparansi dan akuntabilitas adalah kunci untuk mempertahankan legitimasi di mata masyarakat.
Penundaan pengenalan wajah oleh Kepolisian Essex merupakan momen penting dalam narasi yang lebih luas tentang etika AI dan pengawasan.
Ini bukan hanya tentang satu teknologi di satu wilayah, melainkan cerminan dari tantangan universal dalam menyeimbangkan inovasi teknologi dengan perlindungan hak asasi manusia dan keadilan sosial. Keputusan ini menggarisbawahi bahwa kemajuan teknologi harus selalu disertai dengan pertimbangan etis yang mendalam, memastikan bahwa alat-alat baru tidak secara tidak sengaja memperkuat bias yang ada atau menciptakan bentuk diskriminasi baru. Masa depan pengawasan berbasis AI akan sangat bergantung pada kemampuan kita untuk mengatasi bias-bias ini dan membangun sistem yang benar-benar adil dan dapat dipertanggungjawabkan.
Apa Reaksi Anda?
Suka
0
Tidak Suka
0
Cinta
0
Lucu
0
Marah
0
Sedih
0
Wow
0