Algoritma keamanan dengan autentikasi muka rawan dengan pembajakan

Diperlukan lebih banyak penelitian tentang algoritma komputer karena mereka dapat memiliki bias gender atau ras, pemerintah telah memperingatkan. Pihaknya mengumumkan pengawas independen Pusat Etika dan Inovasi Data (CDEI) akan menyelidiki algoritma yang digunakan dalam sistem peradilan dan keuangan.

Tetapi layanan yang menggunakan kecerdasan buatan, seperti kepolisian prediktif, akan terus berlanjut. Kelompok hak asasi manusia Liberty mengatakan tidak masuk akal untuk mengakui risiko dan tidak menghentikan program saat ini.

“Dalam meluncurkan penyelidikan ini, pemerintah telah mengakui risiko bias nyata ketika mengandalkan program kepolisian yang diprediksi yang didukung oleh algoritma. Jadi mengapa mereka telah diluncurkan oleh pasukan polisi di seluruh negeri?” tanya Hannah Couchman, petugas kebijakan di Liberty.

“Kita semua harus terganggu oleh ekspansi diam-diam dari penggunaan alat algoritmik buram dan dampak yang jelas mereka miliki pada hak-hak dasar kita.” Seorang juru bicara untuk Departemen Digital, Budaya, Media dan Olahraga, yang meluncurkan penyelidikan, mengatakan kepada BBC: “Kami tahu ada potensi bias tapi itu tidak sama dengan mengakui bahwa sudah ada kekurangan dalam sistem sudah.”

Pemerintah belum mengatakan apakah algoritma yang digunakan saat ini dipengaruhi oleh masalah bias.

Tetapi CDEI akan bekerja dengan Unit Disparitas Ras Kantor Kabinet untuk mengeksplorasi potensi bias dalam algoritma yang dirancang untuk kejahatan dan keadilan.

Ini juga akan melihat potensi bias dalam algoritma yang digunakan dalam keuangan untuk membuat keputusan seperti apakah akan memberikan pinjaman individu dan yang digunakan dalam rekrutmen, yang dapat menyaring CV dan mempengaruhi pemilihan kandidat. Perangkat lunak prediksi kejahatan telah diadopsi oleh setidaknya 14 pasukan polisi di Inggris, menurut permintaan kebebasan informasi oleh Liberty.

Mereka terbagi dalam dua jenis – pemetaan prediksi hotspot kejahatan dan penilaian risiko individu untuk mencoba mencari tahu siapa yang lebih mungkin melakukan pelanggaran atau menjadi korban kejahatan.

Di Durham, Alat Bantu Pengkajian Risiko Bahaya digunakan untuk membantu petugas kepolisian dalam memutuskan apakah seseorang memenuhi syarat untuk dituntut secara hukum berdasarkan risiko pelanggaran di masa depan.

Dan Polisi Avon dan Somerset menggunakan sistem yang dikenal sebagai Qlik, sistem visualisasi data yang membantu memutuskan di mana harus menempatkan petugas polisi. Pasukan sebelumnya mengatakan kepada BBC bahwa mereka melakukan “segala upaya untuk mencegah bias” dengan data tidak termasuk etnis, jenis kelamin atau demografi.

vLuka Crnkovic-Friis, kepala eksekutif AI start-up Peltarion dan salah satu pendiri Dewan AI Swedia, mengatakan kepada BBC: “Karena AI dilatih oleh orang-orang, tidak dapat dihindari bahwa bias akan menyaring.

“Alat otomasi hanya sebagus data yang dimasukkan ke dalamnya, jadi ketika menggunakan data historis di mana ada bias manusia yang kuat – seperti ras, tingkat pelanggaran kembali dan kejahatan – tentu ada risiko bahwa hasilnya dapat menghasilkan bias dan pemerintah berhak mengambil langkah untuk memperhitungkan hal ini. “

Pakar AI Dave Coplin, kepala eksekutif konsultan The Envisioners, menyarankan apa yang harus diselidiki oleh CDEI. “Kita perlu memastikan bahwa CDEI difokuskan pada di mana [kecerdasan buatan] sedang digunakan dalam pemerintahan saat ini serta tantangan lebih lanjut yang mungkin terjadi pada penggunaan besok”.

Leave a Reply

Your email address will not be published. Required fields are marked *