in

Pengujian Fitur Baru Twitter yang Otomatis Blokir Ujaran Kebencian

Aplikasi twitter. Foto: 9to5mac

Twitter tengah menguji fitur baru yang secara otomatis memblokir pesan atau ujaran kebencian pada Rabu (1/9/2021). Hal ini dilakukan untuk melindungi penggunanya dari penyalahgunaan online. Uji coba fitur ini diumumkan langsung oleh Twitter.

Bagi pengguna yang mengaktifkan fitur baru Safety Mode atau Mode Keamanan akan melihat ‘mention’ mereka difilter selama tujuh hari. Dengan begitu, pengguna tidak melihat pesan yang ditandai sebagai kemungkinan berisi ujaran kebencian atau penghinaan.

Twitter akan menguji fitur ini pada sejumlah kecil pengguna Twitter berbahasa Inggris, dengan prioritas diberikan kepada ‘kelompok marjinal dan jurnalis perempuan’ sebagai golongan yang sering menjadi sasaran pelecehan.

“Kami ingin berbuat lebih banyak untuk mengurangi beban orang-orang yang berurusan dengan interaksi yang tidak diinginkan,” ungkap Twitter dalam sebuah pernyataannya, dikutip dari AFP.

Twitter menambahkan, mereka berkomitmen untuk membuat ‘percakapan yang sehat’ di platformnya. Layaknya raksasa media sosial lainnya, Twitter memungkinkan pengguna untuk melaporkan unggahan yang mereka anggap penuh kebencian, termasuk pesan rasis, homofobia, dan seksis.

Namun, para pegiat telah lama mengeluhkan kecacatan dalam kebijakan Twitter yang memungkinkan komentar kekerasan dan diskriminatif tetap terjadi dalam banyak kasus.

Platform tersebut bahkan sedang digugat oleh enam kelompok anti-diskriminasi di Prancis yang menuduh Twitter secara “jangka panjang dan terus-menerus” gagal memblokir komentar kebencian.

Safety Mode merupakan fitur yang terbaru dari serangkaian fitur yang diperkenalkan untuk memberi pengguna Twitter lebih banyak kontrol atas siapa yang dapat berinteraksi dengan mereka.

Langkah-langkah sebelumnya telah mencakup kemampuan untuk membatasi siapa yang dapat membalas tweet.

Twitter juga mengatakan bahwa fitur baru ini sedang dalam proses, mengingat bahwa fitur itu mungkin secara tidak sengaja memblokir pesan yang sebenarnya tidak kasar.

“Kami tidak akan selalu melakukan ini dengan benar dan mungkin membuat kesalahan, sehingga pemblokiran otomatis Safety Mode dapat terlihat dan dibatalkan kapan saja di pengaturan Anda,” kata Twitter lagi.

Untuk menilai pesan harus diblokir secara otomatis, perangkat lunak Twitter akan mengambil isyarat dari bahasa serta interaksi sebelumnya antara penulis dan penerima.

Twitter lebih lanjut mengungkapkan bahwa pihaknya telah berkonsultasi dengan para ahli dalam keamanan online, kesehatan mental, dan hak asasi manusia saat membangun fitur ini.

ARTICLE 19, sebuah kelompok hak digital di Inggris yang ikut berpartisipasi dalam rencana ini menyebut fitur tersebut sebagai “langkah tepat lainnya untuk menjadikan Twitter tempat yang aman untuk berpartisipasi dalam percakapan publik tanpa takut disalahgunakan”.

Pengumuman fitur baru Twitter ini muncul setelah Instagram meluncurkan fitur serupa pada Agustus 2021 untuk mengekang konten kasar dan rasis, menyusul serangkaian komentar kebencian yang ditujukan kepada para pesepakbola setelah kejuaraan Euro.