Gerakan untuk meminta pertanggungjawaban AI mendapatkan lebih banyak tenaga

Gerakan untuk meminta pertanggungjawaban AI mendapatkan lebih banyak tenaga

The movement to hold AI accountable gains more steam

MirageC | Getty Images

Algoritma memainkan peran yang berkembang dalam kehidupan kita, bahkan karena kekurangan mereka menjadi lebih jelas: seorang pria Michigan yang dituduh melakukan penipuan harus mengajukan kebangkrutan; alat penyaringan otomatis secara tidak proporsional merugikan orang kulit berwarna yang ingin membeli rumah atau menyewa apartemen; Pengguna Facebook kulit hitam mengalami lebih banyak pelecehan daripada pengguna kulit putih. Sistem otomatis lainnya telah menilai guru, siswa, dan menandai orang berkulit gelap lebih sering karena menyontek saat ujian.

Sekarang, upaya sedang dilakukan untuk lebih memahami caranya AI bekerja dan meminta pertanggungjawaban pengguna. Dewan Kota New York bulan lalu mengadopsi undang-undang yang mewajibkan audit algoritma yang digunakan oleh pemberi kerja dalam perekrutan atau promosi. Undang-undang, yang pertama dari jenisnya di negara ini, mengharuskan pengusaha untuk membawa orang luar untuk menilai apakah suatu algoritme menunjukkan bias berdasarkan jenis kelamin, ras, atau etnis. Pengusaha juga harus memberi tahu pelamar kerja yang tinggal di New York ketika kecerdasan buatan berperan dalam memutuskan siapa yang akan dipekerjakan atau dipromosikan.

Di Washington, DC, anggota Kongres sedang menyusun RUU yang akan mengharuskan bisnis untuk mengevaluasi sistem pengambilan keputusan otomatis yang digunakan di berbagai bidang seperti perawatan kesehatan, perumahan, pekerjaan, atau pendidikan, dan melaporkan temuannya ke Komisi Perdagangan Federal; tiga dari lima anggota FTC mendukung regulasi algoritma yang lebih kuat. Bill of Rights AI yang diusulkan bulan lalu oleh Gedung Putih menyerukan pengungkapan ketika AI membuat keputusan yang berdampak pada hak-hak sipil seseorang, dan dikatakan bahwa sistem AI harus “diaudit dengan hati-hati” untuk akurasi dan bias, antara lain.

Di tempat lain, anggota parlemen Uni Eropa sedang mempertimbangkan undang-undang yang mewajibkan pemeriksaan AI yang dianggap berisiko tinggi dan membuat daftar publik untuk sistem berisiko tinggi. Negara-negara termasuk China, Kanada, Jerman, dan Inggris juga telah mengambil langkah-langkah untuk mengatur AI dalam beberapa tahun terakhir.

Julia Stoyanovich, seorang profesor di Universitas New York yang bertugas di Gugus Tugas Sistem Keputusan Otomatis Kota New York, mengatakan bahwa dia dan para siswa baru-baru ini memeriksa alat perekrutan dan menemukan bahwa alat itu memberi nilai kepribadian yang berbeda kepada orang-orang berdasarkan program perangkat lunak yang mereka gunakan untuk membuat resume mereka. Studi lain menemukan bahwa algoritme perekrutan menyukai pelamar berdasarkan di mana mereka pergi ke sekolah, aksen mereka, apakah mereka memakai kacamata, atau apakah ada rak buku di latar belakang.

Stoyanovich mendukung persyaratan pengungkapan dalam undang-undang Kota New York, tetapi dia mengatakan persyaratan audit cacat karena hanya berlaku untuk diskriminasi berdasarkan jenis kelamin atau ras. Dia mengatakan algoritme yang menilai orang berdasarkan font dalam resume mereka akan diterima di bawah hukum karena tidak mendiskriminasi atas dasar itu.

“Beberapa alat-alat ini benar-benar tidak masuk akal,” katanya. “Ini adalah hal-hal yang benar-benar harus kita ketahui sebagai anggota masyarakat dan sebagai manusia. Kita semua akan melamar pekerjaan di beberapa titik.”

Beberapa pendukung pengawasan yang lebih ketat mendukung audit wajib atas algoritma yang serupa dengan audit keuangan perusahaan. Lainnya lebih suka “penilaian dampak” mirip dengan laporan dampak lingkungan. Kedua kelompok setuju bahwa lapangan sangat membutuhkan standar tentang bagaimana tinjauan tersebut harus dilakukan dan apa yang harus mereka sertakan. Tanpa standar, bisnis dapat terlibat dalam “pencucian etika” dengan mengatur audit yang menguntungkan. Para pendukung mengatakan bahwa tinjauan tidak akan menyelesaikan semua masalah yang terkait dengan algoritme, tetapi mereka akan membantu membuat pembuat dan pengguna AI bertanggung jawab secara hukum.

Laporan yang akan datang oleh Algorithmic Justice League (AJL), sebuah lembaga nonprofit swasta, merekomendasikan untuk mewajibkan pengungkapan saat model AI digunakan dan membuat repositori publik untuk insiden di mana AI menyebabkan kerugian. Repositori dapat membantu auditor menemukan potensi masalah dengan algoritme dan membantu regulator menyelidiki atau mendenda pelanggar berulang. Salah satu pendiri AJL, Joy Buolamwini, ikut menulis audit berpengaruh tahun 2018 yang menemukan algoritme pengenalan wajah bekerja paling baik pada pria kulit putih dan terburuk pada wanita dengan kulit gelap.

Baca selengkapnya