Channel9.id-Jakarta. Laporan dari Forbes mengenai TikTok mengundang tanya bagaimana platform tersebut memoderasi konten pelecehan seksual terhadap anak (CSAM). Forbes menunjukkan bahwa TikTok memberi akses luas kepada konten foto dan video ilegal itu.
Karyawan dari moderasi pihak ketiga yang disebut Teleperformance, yang bekerja untuk TikTok, mengatakan bahwa mereka harus meninjau spreadsheet untuk moderasi—yang disebut DRR atau Daily Required Reading. Spreadsheet ini diduga berisi berbagai konten yang melanggar pedoman TikTok, termasuk ratusan foto anak-anak yang telanjang atau dilecehkan. Karyawan itu mengatakan ratusan orang di TikTok dan Teleperformance bisa mengakses konten dari dalam dan luar kantor.
Sementara itu, Teleperformance membantah kepada Forbes bahwa pihaknya menunjukkan konten eksploitatif seksual kepada karyawan. Adapun TikTok mengatakan materi pelatihan kerjanya memiliki “kontrol akses yang ketat dan tidak menyertakan contoh visual CSAM.” Namun, TikTok tidak mengonfirmasi apakah semua pihak ketiga memenuhi standard tersebut.
“Konten seperti ini menjijikkan dan tidak memiliki tempat di dalam atau di luar platform kami. Kami pun ingin meminimalisasi paparan moderator sesuai dengan praktik terbaik industri. Materi pelatihan TikTok punya kontrol akses yang ketat dan tak menyertakan contoh visual CSAM, dan tim keselamatan anak kami menyelidiki dan membuat laporan ke NCMEC,” ujar juru bicara TikTok Jamie Favazza kepada The Verge belum lama ini.
Meski begitu, pernyataan perusahaan jauh berbeda dengan para karyawannya, sebagaimana laporan Forbes. Moderator konten secara rutin dipaksa untuk berurusan dengan CSAM, yang diunggah di banyak platform media sosial. Tapi gambar pelecehan anak melanggar hukum di AS dan harus ditangani dengan hati-hati. Perusahaan seharusnya melaporkan konten tersebut ke National Center for Missing and Exploited Children (NCMEC), kemudian menyimpannya selama 90 hari dan konten hanya bisa dilihat terbatas oleh orang tertentu.
Alih-alih melaporkannya kepada NCMEC, Forbes menunjukkan bahwa Teleperformance menampilkan konten CSAM kepada karyawan. TikTok mesti nya contoh apa yang harus diberi tag di TikTok, sambil bermain cepat dan longgar dengan akses ke konten itu. Seorang karyawan mengatakan dia menghubungi Biro Investigasi Federal (FBI) untuk memastikan apakah praktik penyebaran CSAM merupakan tindakan kriminal.
Laporan Forbes memacu itu mengundang tanya mengenai kondisi moderator yang tak bisa mengikuti pertumbuhan TikTok yang masif. Pun mereka kerap disuruh melihat dan menonton konten kejahatan terhadap anak-anak. Mengingat standard keamanan dan keselamatan anak di ruang online jadi perdebatan, bagi moderasi, ini adalah situasi yang mengerikan.