Teknologi

Karena ini Konten Berbau Terorisme di Facebook Sulit Dihapus

Indodax


Jakarta,WikimedanFacebook memang serius dalam memberantas konten terorisme, hal ini dilakukan dengan menghadirkan sistem algoritma. Sistem tersebut dapat memindai serta menemukan konten yang melanggar aturan sebelum pengguna lain melaporkannya.

Berdasarkan data, sistem algoritma ini hampir 100 persen tepat dalam menemukan konten spam dan propaganda terorisme.

Namun baru-baru ini kabar kurang menyenangkan berhembus, disebutkan Facebook gagal menghapus sejumlah unggahan berbau terorisme gara-gara ada sebuah bug di sistemnya.

Dalam laporan yang ditulis Digital Trends, gara-gara bug itu, kemampuan Facebook untuk mengawasi konten negatif di platform-nya makin dipertanyakan. Apalagi, Facebook kabarnya telah berinvestasi lebih untuk menerapkan tool yang bisa menghapus gambar terkait terorisme secara otomatis.

Biasanya rata-rata waktu untuk mengambil tindakan pada unggahan (konten negatif) yang baru diunggah antara satu menit hingga 14 jam, pada April hingga Juli. Hal ini karena perusahaan perlu memperbaiki bug yang melarang penghapusan konten-konten lawas.

Monika Bikert, Facebook Global Head of Policy Management, mengatakan, peningkatan waktu ini didorong beberapa faktor, salah satunya karena harus memperbaiki bug yang mencegah kami menghapus beberapa konten yang melanggar kebijakan.

Waktu tersebut turun lagi menjadi kurang dari dua menit pada kuartal ketiga tahun ini. Facebook menyebut, hal ini karena teknologi baru yang dipakai untuk menghapus unggahan terkait terorisme terus diperbarui dari waktu ke waktu.

Meski begitu, Facebook mengatakan, penghapusan itu mungkin tak berfungsi dengan sangat cepat. Jejaring sosial raksasa itu memang tengah ditekan oleh berbagai pihak untuk mengeliminasi konten-konten berbau terorisme dari platform-nya.

Kategori : Berita Teknologi

Share :

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *