NEW DELHI, KOMPAS.TV - Facebook tak tegas dalam memberantas konten misinformasi dan ujaran kebencian di India. Hal tersebut terungkap dalam bocoran dokumen internal yang didapatkan Associated Press.
Dokumen-dokumen ini berasal dari tim hukum pembocor (whistleblower) Facebook, Frances Haugen.
Salah satu berkas menunjukkan percobaan mandiri oleh seorang pegawai Facebook di India.
Pegawai yang namanya disensor itu membuat akun baru dan hanya mengikuti halaman atau bergabung grup yang disarankan Facebook. Hasilnya, ia “terkejut” melihat kebencian setiap waktu.
Pegawai tersebut membuat akun dan memantaunya selama tiga pekan. Ia sengaja memilih periode menjelang pemilu ketika konten-konten misinformasi dikhawatirkan akan bermunculan.
Baca Juga: Bos Twitter Jack Dorsey Mengejek Ide Mark Zuckerberg Bikin Facebook Jadi Metaverse
Kebetulan, dalam periode itu, terjadi peristiwa kekerasan yang mengejutkan India, yakni serangan militan di Kashmir yang menewaskan 40 tentara. Peristiwa itu menyebabkan India hampir berperang dengan Pakistan.
Dalam berkas berjudul “Sebuah Tes Pengguna India yang Menyelami Lautan Pesan Nasionalistik dan Mempolarisasi”, pegawai itu mengaku menyaksikan konten misinformasi membanjiri lini masa (news feed).
Pegawai itu mendeskripsikan lini masanya, “hampir menjadi rentetan konstan konten-konten nasionalis yang mempolarisasi, misinformasi, serta kekerasan dan darah”.
Setelah peristiwa di Kashmir, grup-grup yang disarankan Facebook menayangkan konten-konten ujaran kebencian, rumor tak terverifikasi, hingga konten kekerasan yang viral.
Grup yang disarankan algoritma Facebook dipenuhi berita palsu, seruan anti-Pakistan, dan konten Islamofobik. Banyak dari konten-konten itu menunjukkan kekerasan ekstrem.
Salah satu unggahan menampilkan penggalan kepala yang dibalut bendera Pakistan, dengan bendera India menutupi sebagian darinya.
“Menyusul news feed yang dihasilkan tes pengguna ini, saya melihat lebih banyak gambar orang mati selama tiga pekan dibanding seumur hidup saya,” tulis pegawai tersebut.
“Haruskah kita, sebagai perusahaan, memiliki tanggung jawab ekstra untuk mencegah rusaknya integritas (perusahaan) akibat rekomendasi konten?” tanya pegawai itu dalam kesimpulan percobaannya.
Para pegawai Facebook dilaporkan sadar bahwa terdapat “titik buta” terkait ujaran kebencian dan algoritma Facebook, khususnya dalam hal moderasi konten “berbahasa lokal” (non-Inggris).
Percobaan sederhana pegawai itu memang tidak bisa dijadikan representasi kerja algoritma Facebook. Namun, percobaan ini menunjukkan bagaimana konten “tak termoderasi” bisa membeludak pada situasi tertentu.
Facebook sendiri berjanji akan membenahi sistem moderasi mereka di India. Mereka mengaku hendak mengembangkan moderasi bagi konten-konten dalam empat bahasa yang digunakan di India.
Baca Juga: India Tuntut Kompensasi dan Pembayaran dari Negara Kaya atas Dampak Perubahan Iklim
Sumber : Associated Press
Gabung ke Channel WhatsApp KompasTV untuk update berita terbaru dan terpercaya.