Studi: Konten Self-Harm Marak di TikTok

A teenager holds a smartphone with the TikTok logo on January 21, 2021 in Nantes, France.

Penelitian terbaru menemukan algoritma TikTok kerap menyuguhkan konten yang berbahaya bagi kesehatan mental anak remaja. Video-video tersebut bahkan bisa muncul di laman “For You” hanya dalam hitungan menit setelah pengguna membuat akun TikTok.

Berdasarkan hasil eksperimen, para peneliti dari organisasi nirlaba Center for Countering Digital Hate (CCDH) di Inggris memperhitungkan hanya butuh kira-kira 2,6 menit bagi algoritma TikTok untuk memunculkan rekomendasi konten yang mengandung unsur melukai diri dan gangguan makan kepada remaja perempuan yang masih rentan melakukan hal-hal serupa.

Videos by VICE

Mereka mengungkapkan, tak lama setelah membuat akun yang menampilkan karakteristik remaja rentan, mereka disuguhkan video semacam ini 12 kali lebih banyak daripada saat main TikTok dengan akun biasa.

“Temuan kami bisa menjadi mimpi buruk bagi para orang tua: feed anak muda dibombardir oleh konten berbahaya dan mengerikan yang dapat secara signifikan mengubah cara mereka memandang dunia. Konten itu dapat merugikan kesehatan fisik dan mental mereka,” tulis Imran Ahmed, CEO CCDH, dalam studi bertajuk Deadly by Design.

Pengguna terbesar kedua TikTok berasal dari Indonesia. Sekitar 99,1 juta anak muda berusia 18 tahun ke atas tercatat aktif menggunakan aplikasi berbagi video tersebut. Mereka rata-rata menghabiskan waktu sebanyak 23,1 jam per bulan di TikTok. Popularitas aplikasi sebagian besar didorong oleh algoritma rekomendasinya yang kuat, yang menyajikan konten sesuai minat dan ketertarikan pengguna di laman “For You”. Hal ini merupakan cara utama pengguna berinteraksi dalam aplikasi.

“Konten berbahaya dikemas secara ciamik,” tandas Ahmed. “Kecepatan dan keganasan algoritma itulah yang membuatnya sangat berbahaya.”

VICE News menonton sejumlah video yang disebut dalam laporan CCDH. Beberapa di antaranya menampilkan silet dan diskusi soal self-harm. Lalu ada video yang mempertontonkan adegan dirawat di rumah sakit. Video tersebut berisi pertanyaan: “Lo gak gendut, tapi kenapa lo minder banget?” Seorang pengguna menjawab, “Gue bisa melihat apa yang ORANG LAIN GAK BISA LIHAT.”

Konten paling ekstrem berasal dari komunitas yang mengalami gangguan makan, seperti remaja laki-laki yang pergi sekolah setelah mencoba bunuh diri, atau gadis remaja yang mengajarkan cara melukai diri dan menguruskan badan. Dalam satu contoh, akun remaja rentan mendapat tiga rekomendasi video yang membicarakan rencana bunuh diri. Video-video ini terus bermunculan selama kita menggulir layar aplikasi.

“Rasanya seperti terjebak dalam cermin rusak yang membombardir kita dengan ejekan-ejekan, seperti kamu jelek atau tidak sehebat itu, dan menghasut kita untuk bunuh diri. Pengalaman seperti inilah yang dihadapi para remaja berkat algoritma TikTok,” kata Ahmed dalam siaran pers.

TikTok telah menyangkal temuan itu, dan mengklaim metodologi penelitian tidak mencerminkan pengalaman menggunakan TikTok yang sesungguhnya.

Juru bicara perusahaan menyatakan, pihaknya “rutin berkonsultasi dengan pakar kesehatan, menghapus konten yang melanggar kebijakan, dan menyediakan sumber daya untuk mereka yang membutuhkannya.” TikTok lebih lanjut menyampaikan tengah meninjau video-video yang tercantum dalam penelitian. Beberapa di antaranya telah dihapus.

Bersamaan dengan hasil penelitian, CCDH merilis pedoman khusus untuk orang tua buat menyikapi penggunaan TikTok jika anak mereka mengalami masalah ini. Namun, Ahmed mendesak para penegak hukum segera mengambil tindakan.

“Ini waktu yang tepat bagi para regulator untuk turun tangan dan menciptakan semacam perjanjian nonproliferasi, bahwa kita tidak akan membiarkan algoritma menciptakan lingkungan yang bikin ketagihan dan berbahaya,” tuturnya. “Tapi kenyataannya nihil. Kita tidak punya pedoman atau pencegahan apa pun dari pemerintah maupun regulator.”