Inovator Asia melawan kebencian on-line, kebohongan saat raksasa teknologi gagal

Muak dengan aliran berita palsu yang terus-menerus di obrolan grup WhatsApp keluarganya di India – mulai dari krisis air di Afrika Selatan hingga rumor seputar kematian aktor Bollywood – Tarunima Prabhakar membuat alat sederhana untuk mengatasi informasi yang salah.
Prabhakar, salah satu pendiri perusahaan teknologi Tattle yang berbasis di India, mengarsipkan konten dari situs pengecekan fakta dan outlet berita, dan menggunakan pembelajaran mesin untuk mengotomatiskan proses verifikasi.
Alat berbasis internet ini tersedia untuk mahasiswa, peneliti, jurnalis, dan akademisi, katanya.
“Platform seperti Fb dan Twitter berada di bawah pengawasan untuk misinformasi, tetapi tidak WhatsApp,” katanya tentang aplikasi pesan yang dimiliki oleh Meta, induk Fb, yang memiliki lebih dari 2 miliar pengguna aktif bulanan, dengan sekitar setengah miliar di India saja.
“Alat dan metode yang digunakan untuk memeriksa informasi yang salah di Fb dan Twitter tidak berlaku untuk WhatsApp, dan mereka juga tidak baik dengan bahasa India,” katanya kepada Thomson Reuters Basis.
WhatsApp meluncurkan langkah-langkah pada tahun 2018 untuk mengendalikan pesan yang diteruskan oleh pengguna, setelah desas-desus menyebar di layanan perpesanan menyebabkan beberapa pembunuhan di India. Itu juga menghapus tombol maju cepat di sebelah pesan media.
Tattle adalah salah satu dari peningkatan jumlah inisiatif di seluruh Asia dalam mengatasi misinformasi on-line, ujaran kebencian, dan pelecehan dalam bahasa lokal, menggunakan teknologi seperti kecerdasan buatan, serta crowdsourcing, pelatihan di lapangan, dan terlibat dengan kelompok masyarakat sipil untuk memenuhi kebutuhan komunitas.
Sementara perusahaan teknologi seperti Fb, Twitter, dan YouTube menghadapi pengawasan yang semakin ketat untuk ujaran kebencian dan informasi yang salah, mereka belum cukup berinvestasi di negara berkembang, dan kekurangan moderator dengan keterampilan bahasa dan pengetahuan tentang acara lokal, kata para ahli.
“Perusahaan media sosial tidak mendengarkan komunitas lokal. Mereka juga gagal mempertimbangkan konteks – budaya, sosial, sejarah, ekonomi, politik – ketika memoderasi konten pengguna,” kata Pierre François Docquir, kepala kebebasan media di Article 19, sebuah kelompok hak asasi manusia.
“Ini bisa berdampak dramatis, on-line dan offline. Itu bisa meningkatkan polarisasi dan risiko kekerasan,” tambahnya.
Inisiatif lokal penting
Sementara dampak dari ujaran kebencian on-line telah didokumentasikan di beberapa negara Asia dalam beberapa tahun terakhir, analis mengatakan bahwa perusahaan teknologi belum meningkatkan sumber daya untuk meningkatkan moderasi konten, terutama dalam bahasa lokal.
Penyelidik hak asasi PBB mengatakan pada 2018 bahwa penggunaan Fb telah memainkan peran kunci dalam menyebarkan ujaran kebencian yang memicu kekerasan terhadap Muslim Rohingya di Myanmar pada 2017, setelah tindakan keras militer terhadap komunitas minoritas.
Fb mengatakan pada saat itu sedang menangani informasi yang salah dan berinvestasi dalam penutur dan teknologi berbahasa Burma.
Di Indonesia, “pidato kebencian yang signifikan” secara on-line menargetkan kelompok minoritas agama dan ras, serta orang-orang LGBTQ+, dengan bot dan troll berbayar menyebarkan disinformasi yang bertujuan memperdalam perpecahan, sebuah laporan dari Article 19 ditemukan pada bulan Juni.
“Perusahaan media sosial… harus bekerja dengan inisiatif lokal untuk mengatasi tantangan besar dalam mengatur konten bermasalah secara on-line,” kata Sherly Haristya, peneliti yang membantu menulis laporan tentang moderasi konten di Indonesia dengan Pasal 19.
Salah satu inisiatif lokal tersebut adalah Mafindo nirlaba Indonesia, yang didukung oleh Google, mengadakan lokakarya untuk melatih warga – mulai dari siswa hingga ibu rumah tangga – dalam memeriksa fakta dan menemukan informasi yang salah.
Mafindo, atau Masyarakat Anti Fitnah Indonesia, Masyarakat Anti Fitnah Indonesia, memberikan pelatihan dalam pencarian gambar terbalik, metadata video, dan geolokasi untuk membantu memverifikasi informasi.
Nirlaba memiliki tim pemeriksa fakta profesional yang, dibantu oleh sukarelawan warga, telah menyanggah setidaknya 8.550 tipuan.
Mafindo juga telah membangun chatbot pengecekan fakta dalam bahasa Indonesia yang disebut Kalimasada – yang diperkenalkan sebelum pemilu 2019. Itu diakses melalui WhatsApp dan memiliki sekitar 37.000 pengguna – sebagian dari lebih dari 80 juta pengguna WhatsApp di negara ini.
“Orang tua sangat rentan terhadap hoaks, misinformasi, dan berita palsu di platform, karena mereka memiliki keterampilan dan mobilitas teknologi yang terbatas,” kata Santi Indra Astuti, presiden Mafindo.
“Kami mengajari mereka bagaimana menggunakan media sosial, tentang perlindungan information pribadi, dan untuk melihat secara kritis topik yang sedang tren: selama COVID itu adalah informasi yang salah tentang vaksin, dan pada 2019, tentang pemilu dan kandidat politik,” katanya.
Tantangan deteksi penyalahgunaan
Di seluruh Asia, pemerintah memperketat aturan untuk platform media sosial, melarang jenis pesan tertentu, dan mengharuskan penghapusan cepat unggahan yang dianggap tidak pantas.
Namun ujaran kebencian dan pelecehan, terutama dalam bahasa lokal, sering tidak terkendali, kata Prabhakar dari Tattle, yang juga telah membuat alat yang disebut Uli – yang merupakan bahasa Tamil untuk pahat – untuk mendeteksi pelecehan berbasis gender on-line dalam bahasa Inggris, Tamil, dan Hindi.
Tim Tattle mengumpulkan daftar kata dan frasa ofensif yang biasanya digunakan secara on-line, yang kemudian diburamkan oleh alat tersebut pada garis waktu pengguna. Orang juga dapat menambahkan lebih banyak kata sendiri.
“Deteksi penyalahgunaan sangat menantang,” kata Prabhakar. Fitur machine studying Uli menggunakan pengenalan pola untuk mendeteksi dan menyembunyikan postingan bermasalah dari feed pengguna, jelasnya.
“Moderasi terjadi di tingkat pengguna, jadi ini adalah pendekatan bottom-up sebagai lawan dari pendekatan platform top-down,” katanya, seraya menambahkan bahwa mereka juga ingin Uli dapat mendeteksi meme, gambar, dan video yang kasar.
Di Singapura, Empathly, perangkat lunak yang dikembangkan oleh dua mahasiswa, mengambil pendekatan yang lebih proaktif, berfungsi seperti pemeriksa ejaan ketika mendeteksi kata-kata kasar.
Ditujukan untuk bisnis, alat ini dapat mendeteksi istilah kasar dalam bahasa Inggris, Hokkien, Kanton, Melayu, dan Singlish – atau Inggris Singapura.
“Kami telah melihat kerugian yang ditimbulkan oleh ujaran kebencian. Tetapi Massive Tech cenderung fokus pada bahasa Inggris dan penggunanya di pasar berbahasa Inggris,” kata Timothy Liau, pendiri dan kepala eksekutif Empathly.
“Jadi ada ruang untuk intervensi lokal – dan sebagai penduduk lokal, kami memahami budaya dan konteksnya sedikit lebih baik.” – Ilmupendidik.com
Awalnya diterbitkan di: https://www.context.information/big-tech/asian-innovators-fight-online-hate-lies-as-tech-giants-fall-short