Asian Spectator

The Times Real Estate

.

Chatbot AI menghindari jawaban ‘kontroversial’ − ini jadi masalah kebebasan berpendapat

  • Written by Jordi Calvet-Bademunt, Research Fellow and Visiting Scholar of Political Science, Vanderbilt University
Chatbot AI menghindari jawaban ‘kontroversial’ − ini jadi masalah kebebasan berpendapat

Google baru-baru ini menjadi pemberitaan global karena chatbot Gemini sebagai salah satu produk mereka menghasilkan gambar orang kulit berwarna, bukan orang kulit putih, dalam konteks sejarah yang melibatkan orang kulit putih[1].

Fitur pembuat gambar dari Adobe Firefly juga mengalami permasalahan serupa[2]. Temuan-temuan ini menyulut reaksi protes yang menyebut bahwa AI kini telah menjadi “woke[3] alias menyadari isu prasangka dan diskriminasi rasial.

Beberapa pihak lain merasa bahwa isu AI ini berakar dari upaya problematik untuk melawan bias AI[4] dan menciptakan layanan yang mengakomodasi audiens global[5].

Diskusi tentang preferensi politis dan upaya melawan bias dalam AI menjadi isu penting. Meski begitu, perbincangan mengenai isu tersebut gagal menyentuh isu lain yang tak kalah krusial. Dalam industri AI, pendekatan apa yang digunakan untuk mendukung kebebasan berpendapat? Apakah pendekatan itu memenuhi standar kebebasan berpendapat internasional?

Kami adalah peneliti kebijakan yang mempelajari kebebasan berpendapat[6], sekaligus direktur eksekutif dan peneliti rekanan di The Future of Free Speech[7]. Lembaga ini merupakan wadah pemikir nonpartisan yang berbasis di Vanderbilt University.

Laporan terbaru kami menemukan bahwa AI generatif (generative AI) memiliki kekurangan signifikan[8] terkait kebebasan berekspresi dan akses pada informasi.

AI generatif adalah jenis AI yang memproduksi konten[9] seperti teks atau foto, berdasarkan data yang digunakan untuk melatih AI tersebut. Kami menemukan bahwa regulasi penggunaan pada mayoritas chatbot sebenarnya tak memenuhi standar, khususnya standar Amerika Serikat.

Pada praktiknya, hal ini berarti chatbot AI sering kali menyensor temuan terkait isu yang dianggap kontroversial oleh perusahaan. Tanpa budaya kebebasan berpendapat yang tegas, perusahaan yang menciptakan alat bantu AI generatif akan terus mendapat reaksi negatif di tengah masa yang semakin terpolarisasi ini.

Kebijakan penggunaan yang tak jelas dan terlalu luas

Dalam laporan, kami menganalisis kebijakan yang dimiliki enam chatbot AI yang dikenal luas, termasuk Gemini dari Google dan ChatGPT dari OpenAI. Para perusahaan merilis kebijakan untuk mengatur bagaimana individu dapat menggunakan model mereka.

Mengacu pada serangkaian aturan hak asasi manusia (HAM) internasional, kami menemukan kebijakan perusahaan terkait misinformasi dan ujaran kebencian masih sangat kabur dan terlalu luas. Perlu diingat bahwa kekuatan perlindungan kebebasan berpendapat dalam regulasi HAM internasional lebih lemah dibanding Amendemen Pertama Konstitusi Amerika Serikat.

Dari hasil analisis, kami menemukan bahwa kebijakan terkait ujaran kebencian yang dirilis perusahaan-perusahaan tersebut memiliki larangan yang sangat umum[10]. Misalnya, Google melarang pembuatan “konten yang mempromosikan atau menyulut kebencian.”

Tak dapat dimungkiri bahwa ujaran kebencian adalah tindakan buruk dan menyakiti. Namun, kebijakan yang terlalu luas dan tak jelas, seperti yang dimiliki Google, dapat menjadi bumerang.

Untuk menunjukkan bagaimana kebijakan yang terlalu luas dan tak jelas ini dapat memengaruhi pengguna, kami menguji serangkaian perintah (prompts) terkait topik yang kontroversial.

Kami menanyai chatbot dengan pertanyaan seperti apakah perempuan transgender boleh atau tidak ikut turnamen olahraga perempuan, bagaimana kolonialisme Eropa dalam konteks terkini, ataupun terkait krisis ketimpangan. Kami tidak meminta chatbot untuk menghasilkan ujaran kebencian yang merendahkan sisi atau grup mana pun.

Hasilnya, keenam chatbot tersebut ternyata menolak proses pembuatan konten untuk sejumlah 40% dari 140 perintah yang kami pakai. Ini mirip dengan apa yang dilaporkan[11] oleh beberapa pengguna[12],

Sebagai contoh, semua chatbot menolak untuk membuat unggahan terkait penolakan partisipasi perempuan transgender dalam turnamen perempuan. Meski begitu, mayoritas chatbot tak keberatan membuat unggahan yang menyuarakan dukungan terhadap partisipasi mereka.

Kebebasan berpendapat jadi hak yang substansial di AS, tetapi pemaknaan dan aplikasinya masih secara luas diperdebatkan.

Kebijakan yang mengambang amat bergantung pada opini subjektif moderator tentang apa itu ujaran kebencian. Pengguna juga bisa saja menafsirkan bahwa peraturan tersebut tidak dilaksanakan secara adil, menginterpretasikannya terlalu ketat atau justru terlalu longgar.

Contohnya di chatbot Pi[13] yang melarang “konten yang dapat menyebabkan misinformasi.” Di sisi lain, hukum HAM internasional tentang kebebasan berekspresi umumnya melindungi misinformasi. Pembatasannya harus memiliki dasar yang kuat, misalnya terkait campur tangan asing dalam pemilu.

Di luar konteks tersebut, standar HAM menjamin “kebebasan untuk mencari, menerima, dan berpihak[14] pada informasi dan ide apa pun tanpa batasan melalui pilihan media apa pun,” seperti termuat dalam Konvensi Perserikatan Bangsa-Bangsa.

Definisi seputar informasi akurat juga tak lepas dari implikasi politik. Beberapa pemerintah dari berbagai negara menggunakan aturan yang diadopsi dari konteks pandemi COVID-19 untuk menekan kritik[15] terhadap pemerintah. Baru-baru ini, India memprotes Google[16] setelah Gemini mencatat beberapa pendapat ahli yang menyebut kebijakan-kebijakan perdana menteri mereka, Narendra Modi, tergolong fasis.

Budaya kebebasan berpendapat

Ada beberapa alasan yang mungkin menjadi dalih platform AI saat mengadopsi kebijakan penggunaan yang ketat. Mereka bisa jadi ingin melindungi reputasi dan tidak ingin dikaitkan dengan konten kontroversial. Jika melayani audiens global, mereka bisa jadi ingin menghindari konten yang ofensif bagi negara mana pun.

Secara umum, penyedia layanan AI berhak menerapkan kebijakan ketat. Mereka tidak terikat dengan hukum HAM internasional. Meski begitu, kekuatan pasar[17] merekalah yang membuat mereka berbeda dari perusahaan-perusahaan lain. Pengguna yang ingin membuat konten AI kemungkinan akan memakai salah satu chatbot yang kami analisis, terlebih ChatGPT atau Gemini.

Kebijakan perusahaan-perusahaan tersebut memiliki efek signifikan terhadap hak mengakses informasi. Dampaknya akan semakin meningkat seiring dengan meningkatnya integrasi AI dengan mesin pencarian[18], pengolah kata[19], surel[20], dan aplikasi lainnya.

Isu ini menunjukkan bahwa masyarakat berkepentingan untuk memastikan kebijakan-kebijakan platform AI melindungi kebebasan berpendapat secara menyeluruh. Faktanya, Digital Services Act[21], buku panduan keamanan digital dari Eropa, memiliki kewajiban bagi “platform daring raksasa” (very large online platforms) untuk mengukur dan mencegah risiko sistemik. Risiko ini termasuk dampak negatif dari kebebasan berekspresi dan berinformasi.

Jacob Mchangama mendiskusikan kebebasan berpendapat daring dalam konteks European Union Digital Services Act 2022.

Kewajiban ini telah diaplikasikan oleh Komisi Eropa meski tak sempurna[22], menunjukkan bahwa kekuatan besar menandakan tanggung jawab yang besar pula. Belum jelas bagaimana kebijakan[23] ini akan diterapkan untuk AI generatif, tetapi Komisi Eropa telah mengambil langkah awal[24].

Meski kewajiban hukum serupa tak secara langsung berlaku bagi penyedia layanan AI, kami meyakini pengaruh yang dibawa perusahaan tersebut membuat mereka harus mengadopsi budaya kebebasan berpendapat. Aturan HAM internasional dapat menjadi tolak ukur dalam bagaimana menyeimbangkan berbagai kepentingan secara bertanggung jawab.

Setidaknya dua dari kumpulan perusahaan yang kami teliti, Google[25] dan Anthropic[26], telah menyadari dasar HAM tersebut.

Penolakan tegas

Perlu diingat bahwa pengguna memiliki kebebasan di level tertentu untuk menentukan konten yang mereka lihat melalui AI generatif. Seperti mesin pencari, hasil yang didapat dari AI generatif sangat bergantung pada perintah yang diberikan. Maka dari itu, paparan ujaran kebencian dan misinformasi dari AI generatif akan sangat terbatas kecuali pengguna mencarinya secara spesifik.

Hal ini berbeda dari media sosial ketika individu punya lebih sedikit kontrol pada apa yang mereka lihat. Pengawasan lebih ketat, termasuk pada konten yang dihasilkan AI, lebih cocok diaplikasikan untuk media sosial. Sebab, konten yang dibagikan bersifat publik.

Sementara itu, untuk penyedia layanan AI, kami mempercayai kebijakan penggunaan terkait pencarian informasi dapat lebih bebas dibanding kebijakan platform media sosial.

Perusahaan AI memiliki cara lain dalam menangani ujaran kebencian dan misinformasi. Misalnya mereka dapat menyediakan konteks atau menyeimbangkan fakta dari konten yang dihasilkan. Mereka juga dapat memperluas pilihan kustomisasi.

Kami yakin bahwa chatbot perlu menghindari penolakan dalam penyediaan informasi. Terkecuali ada dasar kepentingan publik yang jelas, seperti pencegahan materi kekerasan seksual pada anak, atau hal lain yang melanggar hukum.

Penolakan dalam pembuatan konten tidak hanya memengaruhi kebebasan berpendapat dan akses informasi. Penolakan tersebut juga dapat membuat pengguna berpindah ke chatbot yang memang terfokus dalam pembuatan konten kebencian[27] dan masuk ke ruang gema (echo chamber). Tentunya ini akan membawa dampak yang mengkhawatirkan.

References

  1. ^ dalam konteks sejarah yang melibatkan orang kulit putih (apnews.com)
  2. ^ permasalahan serupa (www.semafor.com)
  3. ^ telah menjadi “woke” (www.wired.com)
  4. ^ upaya problematik untuk melawan bias AI (www.semafor.com)
  5. ^ audiens global (www.wired.com)
  6. ^ kebebasan berpendapat (scholar.google.com)
  7. ^ The Future of Free Speech (futurefreespeech.org)
  8. ^ kekurangan signifikan (futurefreespeech.org)
  9. ^ AI yang memproduksi konten (hai.stanford.edu)
  10. ^ sangat umum (policies.google.com)
  11. ^ dilaporkan (twitter.com)
  12. ^ oleh beberapa pengguna (community.openai.com)
  13. ^ chatbot Pi (pi.ai)
  14. ^ kebebasan untuk mencari, menerima, dan berpihak (www.ohchr.org)
  15. ^ menekan kritik (www.hrw.org)
  16. ^ India memprotes Google (www.theguardian.com)
  17. ^ kekuatan pasar (www.technologyreview.com)
  18. ^ mesin pencarian (www.microsoft.com)
  19. ^ pengolah kata (adoption.microsoft.com)
  20. ^ surel (blog.google)
  21. ^ Digital Services Act (eur-lex.europa.eu)
  22. ^ meski tak sempurna (www.techpolicy.press)
  23. ^ Belum jelas bagaimana kebijakan (blogs.lse.ac.uk)
  24. ^ langkah awal (digital-strategy.ec.europa.eu)
  25. ^ Google (about.google)
  26. ^ Anthropic (www.anthropic.com)
  27. ^ terfokus dalam pembuatan konten kebencian (www.theverge.com)

Authors: Jordi Calvet-Bademunt, Research Fellow and Visiting Scholar of Political Science, Vanderbilt University

Read more https://theconversation.com/chatbot-ai-menghindari-jawaban-kontroversial-ini-jadi-masalah-kebebasan-berpendapat-252175

Magazine

Chatbot AI menghindari jawaban ‘kontroversial’ − ini jadi masalah kebebasan berpendapat

AI chatbots restrict their output according to vague and broad policies.taviox/iStock via Getty ImagesGoogle baru-baru ini menjadi pemberitaan global karena chatbot Gemini sebagai salah satu produk me...

Bagaimana cara berbahagia dengan yang kita miliki dan berhenti membandingkan diri

Alphavector/ShutterstockKadang-kadang, kita merasa tak seharusnya bahagia dengan apa yang kita miliki. Apalagi kita hidup di dunia yang penuh ketidakadilan dan kekejaman di berbagai lapisan lingkungan...

Merawat hewan peliharaan yang sakit serius dapat membuat kita stres, ‘burnout’, dan cemas tak berkesudahan

Ground Picture/ShutterstockHidup ditemani hewan peliharaan membawa banyak manfaat. Mereka dapat membuat kita merasa selalu memiliki teman, dicintai, dan mendapatkan dukungan. Memiliki hewan peliharaan...