Meta Merinci Jumlah Konten Intimidatif di Facebook dan InstagramMeta Merinci Jumlah Konten Intimidatif di Facebook dan Instagram
Techno

Meta Merinci Jumlah Konten Intimidatif di Facebook dan Instagram

Channel9.id-Jakarta. Facebook baru saja membagikan data statistik internalnya yang baru tentang jumlah intimidasi, ujaran kebencian, dan pelecehan di platformnya. Data ini dirilis beserta laporan transparansi triwulanan terbaru perusahaan—menyusul pengawasan yang ketat terhadap induk Facebook, Meta, yang harus melindungi pengguna dan menegakkan kebijakannya secara memadai di seluruh dunia.

Ini merupakan pertama kalinya perusahaan merilis “prevalensi” seputar intimidasi dan pelecehan di platform. “Prevalensi” ialah statistik yang digunakan Facebook untuk melacak konten yang melanggar namun lolos dari sistem deteksinya. “Ini mewakili jumlah konten yang melanggar, yang muncul di layar dan dilihat oleh seseorang,” kata Wakil Presiden Integritas di Meta Guy Rosen, dikutip dari The Verge (11/11).

Baca juga: Meta Batasi Penargetan Iklan Berdasarkan Topik Sensitif

Menurut perusahaan, prevalensi konten intimidasi antara 0,14% -0,15% di Facebook dan antara 0,05% -0,06% di Instagram. “Ini berarti konten intimidasi dan pelecehan terlihat 14—15 kali per 10.000 tampilan konten di Facebook dan antara 5—6 kali per 10.000 tampilan konten di Instagram,” tulis perusahaan.

Diketahui, secara khusus, Instagram menghadapi pertanyaan tentang kemampuannya untuk menangani intimidasi dan pelecehan. Perusahaan sendiri telah memperkenalkan sejumlah langkah anti-intimidasi pada awal tahun ini—tepatnya, setelah sejumlah pemain sepak bola Inggris mengalami pelecehan rasis di aplikasi.

Perusahaan mencatat bahwa metrik “prevalensi” ini hanya menjelaskan konten yang dihapus Facebook dan Instagram tanpa laporan pengguna. Artinya, berarti statistik hanya menangkap sebagian dari semua konten intimidasi, karena intimidasi dan pelecehan tak selalu mudah untuk diidentifikasi oleh sistem otomatis.

Sementar itu, menurut data internal yang dibeberkan mantan karyawan Facebook, Frances Haugen, perusahaan hanya mampu mengatasi sekitar tiga hingga lima persen dari ujaran kebencian di platformnya. Artinya sebagian besar tak terdeteksi dan tetap mencemari News Feed pengguna.

Facebook sendiri berulang kali menolak klaim Haugen, dan menunjukkan statistik “prevalensi” yang dibagikan dalam laporan transparansinya.

Namun demikian, seperti yang ditunjukkan oleh para peneliti, penghitungan “prevalensi” perusahaan sendiri kemungkinan mengaburkan jumlah konten yang sebenarnya, yang melanggar di platform. Pasalnya, sistem otomatis Facebook tak selalu bisa diandalkan, terutama dalam mendeteksi konten dalam bahasa selain bahasa Inggris. Adapun pembeberan Haugen juga memicu tuduhan bahwa Facebook memprioritaskan keuntungan di atas keselamatan pengguna.

“Kami sama sekali tak punya insentif, apakah itu komersial atau sebaliknya, untuk melakukan apa pun—selain memastikan orang memiliki pengalaman positif,” kata Rosen, Selasa. “Saya pikir itu juga tak benar bahwa algoritme kami hanya dioptimalkan untuk memeras keterlibatan. Kami terus menyempurnakan cara kami melakukan pemeringkatan untuk mengatasi masalah ini.”

Dalam laporan terbarunya, Facebook melaporkan bahwa ujaran kebencian telah menurun di kuartal keempat berturut-turut—dengan prevalensi menurun dari 0,05% pada kuartal sebelumnya menjadi 0,03% pada kuartal ini. Perusahaan juga melaporkan prevalensi ujaran kebencian di Instagram mencapai 0,02% atau sekitar 2 dari setiap 10.000 konten yang dilihat di platformnya.

Namun, perlu dicatat, meski angka-angka itu tampaknya optimis, masih bisa berarti jutaan orang menghadapi ujaran kebencian setiap hari, mengingat jumlah pengguna dan konten begitu banyak diunggah ke platform setiap hari.
(LH)

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

19  +    =  22