Meta, Snap, TikTok bekerjasama banteras kandungan mengenai kecederaan kendiri, bunuh diri
Bernama
September 13, 2024 23:31 MYT
September 13, 2024 23:31 MYT
WASHINGTON: Tiga platform media sosial terbesar sedang bekerjasama untuk menangani kandungan dalam talian yang memaparkan bunuh diri dan mencederakan diri sendiri, umum Meta pada Khamis, menurut laporan United Press International (UPI).
Meta, pemilik Facebook, Instagram dan WhatsApp telah bekerjasama dengan Snap dan TikTok untuk membentuk Thrive, sebuah inisiatif yang direka untuk menghapuskan stigma terhadap isu kesihatan mental dan memperlahankan penyebaran tular kandungan dalam talian yang memaparkan bunuh diri atau mencederakan diri sendiri, kata Meta dalam catatan satu blog.
"Bunuh diri dan mencederakan diri sendiri adalah isu kesihatan mental yang kompleks yang boleh membawa akibat yang membinasakan," kata Meta dalam kenyataannya.
"Kami menumpukan kepada kandungan ini kerana kecenderungannya untuk tersebar dengan cepat di pelbagai platform," kata Antigone Davis, Ketua Keselamatan Global Meta, dalam catatan itu.
"Isyarat awal ini hanya mewakili kandungan, dan tidak akan termasuk maklumat yang boleh dikenal pasti mengenai mana-mana akaun atau individu," katanya.
Inisiatif ini dibentuk bersama The Mental Health Coalition, sebuah kumpulan organisasi kesihatan mental yang berusaha untuk menghapuskan stigma terhadap isu-isu ini.
Meta, Snap dan TikTok akan berkongsi panduan antara satu sama lain, atau "isyarat," membolehkan mereka membandingkan nota dan menyiasat serta mengambil langkah jika kandungan serupa muncul di aplikasi lain. Thrive akan berfungsi sebagai pangkalan data yang boleh diakses oleh semua syarikat media sosial yang mengambil bahagian.
Meta menggunakan teknologi yang dibangunkan oleh Lantern, sebuah syarikat yang direka untuk menjadikan teknologi selamat untuk golongan bawah umur. Amazon, Apple, Google, Discord, OpenAI dan lain-lain adalah sebahagian daripada gabungan itu. Meta menjelaskan dalam kenyataannya bahawa ia menyasarkan kandungan, bukan pengguna.
"Kami menumpukan kepada kandungan ini kerana kecenderungannya untuk tersebar dengan cepat di pelbagai platform. Isyarat awal ini hanya mewakili kandungan, dan tidak akan termasuk maklumat yang boleh dikenal pasti mengenai mana-mana akaun atau individu," kata Davis dalam catatan blog berkenaan.
Syarikat-syarikat media sosial akan bertanggungjawab untuk menyemak dan mengambil sebarang tindakan yang perlu melalui Thrive, serta menulis laporan tahunan untuk mengukur impak program itu.
Meta berkata apabila kandungan yang memaparkan mencederakan diri sendiri atau bunuh diri dikenal pasti, ia akan diberikan nombor, atau "hash," yang kemudian boleh diperiksa silang oleh syarikat media sosial lain untuk mencari dan menghapuskan kandungan terbabit.
Peningkatan penggunaan media sosial oleh golongan bawah umur telah menyebabkan lonjakan dalam kemurungan dan tingkah laku yang cenderung untuk membunuh diri, kata The Mental Health Coalition. Penyelidikan juga menunjukkan bahawa golongan muda yang mencederakan diri sendiri lebih aktif di media sosial.
Awal tahun ini, Meta mengumumkan ia akan mula menghapuskan dan mengehadkan kandungan sensitif yang dianggap "tidak sesuai umur" daripada suapan remaja di aplikasinya.
Syarikat itu berkata ia merancang untuk menyembunyikan hasil carian dan istilah yang berkaitan dengan bunuh diri, mencederakan diri sendiri dan gangguan pemakanan untuk semua pengguna.
Meta, TikTok, Snapchat dan platform media sosial lain telah lama dikritik kerana gagal menghapuskan kandungan yang dianggap berbahaya kepada remaja, termasuk video dan imej mencederakan diri sendiri.
-- BERNAMA