Sisi gelap perbudakan modern di balik industri AI: Upah rendah hingga eksploitasi tenaga kerja
- Written by Ganna Pogrebna, Executive Director, AI and Cyber Futures Institute, Charles Sturt University
Di pabrik-pabrik industri, kafe internet yang sempit, dan kantor-kantor rumahan di seluruh dunia, jutaan orang duduk di depan komputer sambil melakukan pekerjaan yang membosankan: melabeli data.
Para pekerja ini adalah urat nadi industri kecerdasan buatan (AI) yang sedang berkembang. Tanpa mereka, produk seperti ChatGPT tidak akan ada. Sebab, data yang mereka labeli sangat penting untuk membantu sistem AI dalam proses “belajar”.
Meski kontribusi para pelabel data sangat penting dalam industri yang diperkirakan akan bernilai USD407 miliar[1] atau sekitar Rp6.500 triliun pada 2027 ini, keberadaan mereka sering kali tidak dianggap dan rentan dieksploitasi.
Awal tahun ini, hampir 100 pelabel data dan pekerja AI dari Kenya yang bekerja untuk perusahaan-perusahaan yang berbasis di Amerika Serikat seperti Facebook, Scale AI, dan OpenAI menyampaikan surat terbuka[2] kepada presiden negeri Paman Sam, Joe Biden.
Mereka menulis:
Kondisi kerja kami sama dengan perbudakan modern.
Untuk memastikan rantai pasok AI yang etis, industri dan pemerintah harus segera menangani masalah ini. Namun, pertanyaan utamanya adalah: bagaimana caranya?
Apa itu pelabelan data?
Pelabelan data[3] adalah proses menandai data mentah—seperti gambar, video, atau teks—agar sistem AI dapat mengenali pola dan membuat prediksi.
Sama halnya dengan mobil tanpa pengemudi yang bergantung pada rekaman video berlabel[4] untuk membedakan antara pejalan kaki dan rambu jalan, large language model atau model bahasa besar seperti ChatGPT mengandalkan teks berlabel[5] untuk memahami bahasa manusia.
Dataset berlabel ini adalah inti dari model AI. Tanpa itu, sistem AI tidak akan berfungsi dengan baik.
Raksasa teknologi seperti Meta, Google, OpenAI, dan Microsoft mengalihdayakan sebagian besar pekerjaan ini ke pabrik pelabelan data di negara-negara berkembang seperti Filipina[6], Kenya[7], India[8], Pakistan[9], Venezuela and Kolombia[10].
Cina[11] juga sedang berkembang menjadi pusat global untuk pelabelan data.
Perusahaan outsourcing yang memfasilitasi pekerjaan ini meliputi Scale AI, iMerit, dan Samasource. Perusahaan-perusahaan ini sangat besar. Contohnya, Scale AI yang berbasis di California, Amerika Serikat kini bernilai US$14 miliar[12] atau setara dengan Rp226.450 triliun.
Pangkas biaya, korbankan buruh
Perusahaan teknologi besar seperti Alphabet (induk perusahaan Google), Amazon, Microsoft, Nvidia, dan Meta telah menginvestasikan miliaran dolar[13] untuk infrastruktur AI. Mulai dari daya komputasi, penyimpanan data, hingga teknologi komputasi yang sedang berkembang.
Menginisiasi model AI berskala besar bisa memakan biaya puluhan juta dolar[14]. Di samping itu, pemeliharaan model juga membutuhkan investasi perawatan berkelanjutan dalam hal pelabelan data, penyempurnaan, dan pengujian di dunia nyata.
Namun, meski investasi AI signifikan, pendapatannya tidak selalu sesuai harapan. Banyak industri masih menganggap proyek AI sebagai eksperimen dengan jalur keuntungan yang tidak jelas[15].
Akibatnya, banyak perusahaan memangkas biaya produksi, sehingga berdampak pada pekerja paling bawah dalam rantai pasok AI: pelabel data.
Upah rendah, kondisi kerja berbahaya
Salah satu cara perusahaan menghemat biaya adalah dengan mempekerjakan pelabel data dalam jumlah besar di negara-negara Selatan seperti Filipina, Venezuela, Kenya, dan India. Pekerja di negara-negara ini menerima upah yang stagnan bahkan cenderung menurun[16].
Sebagai contoh, upah per jam bagi pelabel data AI di Venezuela berkisar antara US$90 sen hingga US$2[17] atau sekitar Rp14.557-Rp48.525 per jam. Sebagai perbandingan, di Amerika Serikat, bayaran untuk pekerjaan yang sama mencapai US$10 hingga US$25 per jam[18] atau setara Rp161.750-Rp404.375 per jam.
Di Filipina, pekerja yang melakukan pelabelan data untuk perusahaan bernilai miliaran dolar seperti Scale AI sering kali mendapatkan penghasilan jauh di bawah upah minimum[19].
Beberapa perusahaan bahkan menggunakan pekerja anak[20] untuk melakukan pelabelan data.
Selain itu, ada banyak masalah ketenagakerjaan lainnya dalam rantai pasok AI.
Banyak pelabel data bekerja di lingkungan yang penuh sesak dan berdebu[21]. Kondisi ini menimbulkan risiko serius bagi kesehatan mereka. Mereka yang kebanyakan bekerja sebagai kontraktor lepas, tidak memiliki akses ke perlindungan seperti perawatan kesehatan atau kompensasi.
Beban mental pelabel data juga cukup besar. Sebab, mereka harus berhadapan dengan tugas-tugas yang berulang, tenggat waktu yang ketat, dan kontrol kualitas yang kaku. Pelabel data juga terkadang diminta untuk membaca dan melabeli ujaran kebencian atau bahasa dan materi kasar lainnya, yang telah terbukti memberikan efek psikologis negatif[22].
Sementara jika ada kesalahan yang mereka lakukan, bisa menyebabkan pemotongan gaji atau kehilangan pekerjaan. Para pelabel data juga sering kali menghadapi kurangnya transparansi tentang bagaimana pekerjaan mereka dievaluasi. Mereka kerap tidak diberi akses atas data kinerja, sehingga menghambat kemampuan mereka untuk memperbaiki atau menggugat keputusan.
Membuat rantai pasok AI yang etis
Seiring dengan semakin kompleksnya pengembangan AI dan upaya perusahaan untuk memaksimalkan keuntungan, kebutuhan akan rantai pasok AI yang etis menjadi sangat mendesak.
Salah satu cara yang dapat dilakukan perusahaan untuk memastikan masalah ini tidak berlarut-larut adalah dengan menerapkan pendekatan desain, pertimbangan, dan pengawasan yang berfokus pada hak asasi manusia[23] untuk seluruh rantai pasok AI.
Perusahaan harus mengadopsi kebijakan upah yang adil serta memastikan pekerja label data menerima upah yang layak dan mencerminkan nilai kontribusi mereka.
Dengan memasukkan nilai-nilai hak asasi manusia ke dalam rantai pasokan, perusahaan AI dapat mendorong terciptanya industri yang lebih etis dan berkelanjutan. Hal ini penting untuk memastikan bahwa hak pekerja dan tanggung jawab perusahaan sejalan dengan kesuksesan jangka panjang.
Pemerintah juga harus membuat regulasi baru yang mewajibkan praktik-praktik kerja berbasis HAM, mendorong keadilan, dan transparansi[24]. Hal ini termasuk transparansi dalam evaluasi kinerja dan pengolahan data pribadi, yang memungkinkan pekerja memahami bagaimana mereka dievaluasi dan mengajukan banding atas tuduhan ketidakakuratan.
Sistem pembayaran dan mekanisme pemulihan yang jelas diperlukan untuk memastikan pekerja diperlakukan dengan adil.
Alih-alih membongkar serikat pekerja seperti yang dilakukan Scale AI di Kenya pada 2024[25], perusahaan seharusnya mendukung pembentukan serikat pekerja digital atau koperasi. Sebab, serikat bisa menjadi wadah dalam menguatkan suara pekerja untuk mengadvokasi kondisi kerja yang lebih baik.
Kita semua juga dapat mengadvokasi praktik etis penggunaan AI dengan mendukung perusahaan yang transparan dalam rantai pasok dan berkomitmen untuk berlaku adil terhadap pekerja.
Sama seperti kita memberikan penghargaan kepada produsen barang yang ramah lingkungan dan adil, kita juga dapat mendorong perubahan dengan memilih layanan atau aplikasi digital yang mematuhi standar hak asasi manusia di ponsel pintar kita.
Selain itu, kita juga bisa mempromosikan merek yang etis melalui media sosial dan menyuarakan pertanggungjawaban dari raksasa teknologi yang ‘memakan’ uang kita setiap harinya.
Dengan membuat pilihan yang bijak, kita semua dapat berkontribusi pada praktik yang lebih etis pada industri AI di seluruh dunia.
References
- ^ yang diperkirakan akan bernilai USD407 miliar (www.statista.com)
- ^ menyampaikan surat terbuka (www.foxglove.org.uk)
- ^ Pelabelan data (aws.amazon.com)
- ^ rekaman video berlabel (www.technologyreview.com)
- ^ teks berlabel (www.ibm.com)
- ^ Filipina (www.washingtonpost.com)
- ^ Kenya (www.datanami.com)
- ^ India (timesofindia.indiatimes.com)
- ^ Pakistan (www.wired.com)
- ^ Venezuela and Kolombia (www.technologyreview.com)
- ^ Cina (analyticsindiamag.com)
- ^ US$14 miliar (fortune.com)
- ^ telah menginvestasikan miliaran dolar (www.cnbc.com)
- ^ puluhan juta dolar (www.statista.com)
- ^ eksperimen dengan jalur keuntungan yang tidak jelas (www.businessinsider.com)
- ^ upah yang stagnan bahkan cenderung menurun (privacyinternational.org)
- ^ US$90 sen hingga US$2 (www.technologyreview.com)
- ^ US$10 hingga US$25 per jam (privacyinternational.org)
- ^ jauh di bawah upah minimum (www.washingtonpost.com)
- ^ pekerja anak (www.wired.com)
- ^ lingkungan yang penuh sesak dan berdebu (medium.com)
- ^ terbukti memberikan efek psikologis negatif (link.springer.com)
- ^ pendekatan desain, pertimbangan, dan pengawasan yang berfokus pada hak asasi manusia (academic.oup.com)
- ^ transparansi (hai.stanford.edu)
- ^ seperti yang dilakukan Scale AI di Kenya pada 2024 (www.foxglove.org.uk)
Authors: Ganna Pogrebna, Executive Director, AI and Cyber Futures Institute, Charles Sturt University