Perusahaan Medsos Andalkan Pengguna Anak Muda Tapi Gagal Melindungnya

adilnews | 27 February 2024, 07:21 am | 198 views
Mark Zuckerberg diadili oleh para Senator AS

 

“Tanganmu berlumuran darah,” ujar Senator Lindsey Graham, RS.C., saat berbicara kepada CEO Meta Mark Zuckerberg di Washington DC Amerika Serikat pada 31 Januari 2024 lalu. Kesaksian senator Graham itu disampaikan saat pembukaan sidang Komite Kehakiman Senat tentang perlindungan anak-anak secara online. Menurutnya, platform media sosial “seperti yang saat ini dirancang dan dioperasikan adalah produk berbahaya.”

Dalam kesaksian di sidang yang bertajuk “Teknologi Besar dan Krisis Eksploitasi Seksual Anak Online”. Itu, Zuckerberg sempat meminta maaf kepada orang tua korban. Hal itu karena Instagram dianggap berkontribusi terhadap kasus bunuh diri dan eksploitasi seksual anak. “Saya minta maaf atas semua yang telah Anda lalui. Ini mengerikan. Tidak seorang pun harus mengalami penderitaan yang dialami keluarga Anda,” kata Zuckerberg setelah Senator Josh Hawley yang mendesaknya. Beberapa anggota parlemen AS mencecar Zuckerberg dan CEO TikTok, Discord, X, dan Snap pada sidang tersebut.

Jeritan Hati Orang Tua
Laporan The Epoch Times pada 1 Februari 2024, menyebutkan para orang tua korban mengangkat foto anak-anak mereka ketika sidang berlangsung. Beberapa orang tua yang menghadiri sidang mengatakan kepada anggota parlemen bahwa anak-anak mereka telah dieksploitasi, diintimidasi, atau dianiaya secara online saat menggunakan salah satu dari banyak platform milik Zuckerberg. Lainnya mengatakan anak-anak mereka menderita berbagai masalah kesehatan mental, termasuk gangguan makan dan depresi, akibat penggunaan situs tersebut. Beberapa orang tua telah kehilangan anak-anak mereka karena overdosis obat-obatan terlarang yang dibeli di platform tersebut atau karena bunuh diri.

Zuckerberg telah menghadapi pengawasan dan kritik yang intens selama bertahun-tahun seputar masalah keselamatan anak di platform Meta. Tahun lalu Meta mulai menghadapi tuntutan hukum federal dari puluhan negara bagian yang menuduh bahwa Facebook dan Instagram dengan sengaja menciptakan fitur-fitur yang “manipulatif secara psikologis” untuk membuat anak-anak kecanduan dan menyembunyikan data internal yang akan mengungkap bahaya platform tersebut bagi pengguna muda.

Anak Muda Sasaran Utama
Dua peneliti, Joan Donovan (Universitas Boston) dan Sara Parker (Universitas McGill) yang mempelajari bagaimana media sosial mengatur berita, informasi, dan komunitas telah mengulas persidangan keselamatan anak tersebut disitus The Conversation pada awal Februari ini. Terlepas dari apakah aplikasi media sosial memenuhi definisi hukum “produk yang sangat berbahaya ”  atau tidak, model bisnis perusahaan media sosial bergantung pada jutaan pengguna muda. Pada saat yang sama, mereka yakin bahwa perusahaan belum menginvestasikan sumber daya yang cukup untuk melindungi pengguna tersebut secara efektif.

Seperti ditulis di The Conversation, penggunaan perangkat seluler oleh anak-anak dan remaja meroket selama pandemi dan tetap tinggi . Wajar jika remaja ingin berada di tempat temannya berada, baik itu di taman skate atau di media sosial. Pada tahun 2022, diperkirakan terdapat 49,8 juta pengguna berusia 17 tahun ke bawah di YouTube, 19 juta di TikTok, 18 juta di Snapchat, 16,7 juta di Instagram, 9,9 juta di Facebook, dan 7 juta di Twitter, berdasarkan studi terbaru yang dilakukan para peneliti di Sekolah Kesehatan Masyarakat Chan Harvard.

Remaja adalah sumber pendapatan yang signifikan bagi perusahaan media sosial. Pendapatan dari pengguna media sosial berusia 17 tahun ke bawah adalah US$11 miliar pada tahun 2022, menurut studi Chan School. Instagram meraup hampir $5 miliar, sementara TikTok dan YouTube masing-masing memperoleh lebih dari $2 miliar.

Masih menurut Donovan dan Parker, media sosial menimbulkan berbagai risiko bagi remaja , mulai dari memaparkan mereka pada pelecehan, intimidasi, dan eksploitasi seksual hingga mendorong gangguan makan dan keinginan untuk bunuh diri. Agar Kongres Amerika Serikat dapat mengambil tindakan yang berarti dalam melindungi anak-anak secara online, mereka mengidentifikasi tiga masalah yang perlu dipertimbangkan: usia, model bisnis, dan moderasi konten.

Tanpa Batasan Usia
Perusahaan media sosial mempunyai insentif untuk tidak memperhatikan usia penggunanya. Jika tidak, mereka harus mengeluarkan sumber daya untuk memoderasi konten mereka dengan tepat. Jutaan pengguna di bawah umur – mereka yang berusia di bawah 13 tahun – merupakan “ rahasia umum ” di Meta. Meta telah menjelaskan beberapa strategi potensial untuk memverifikasi usia pengguna, seperti memerlukan identifikasi atau video selfie, dan penggunaan AI untuk menebak usia mereka berdasarkan pesan “Selamat Ulang Tahun”.

Namun, menurut Donovan dan Parker, keakuratan metode ini tidak terbuka untuk diteliti secara publik, sehingga sulit untuk mengauditnya secara independen. Meta telah menyatakan bahwa undang-undang keselamatan remaja online diperlukan untuk mencegah bahaya, namun perusahaan tersebut menunjuk pada toko aplikasi, yang saat ini didominasi oleh Apple dan Google, sebagai tempat verifikasi usia harus dilakukan. Namun, hambatan ini dapat dengan mudah dielakkan dengan mengakses situs web platform media sosial, bukan aplikasinya.

Pelanggan Generasi Baru
Adopsi remaja sangat penting untuk kelanjutan pertumbuhan semua platform media sosial. File Facebook, sebuah investigasi berdasarkan tinjauan dokumen perusahaan, menunjukkan bahwa strategi pertumbuhan Instagram bergantung pada remaja yang membantu anggota keluarga, terutama adik-adiknya, untuk menggunakan platform ini. Meta mengklaim itu mengoptimalkan “interaksi sosial yang bermakna,” memprioritaskan konten keluarga dan teman di atas kepentingan lainnya. Namun, Instagram mengizinkan penggunaan nama samaran dan banyak akun, yang membuat pengawasan orang tua semakin sulit.

Pada 7 November 2023, Auturo Bejar , mantan insinyur senior di Facebook, memberikan kesaksian di depan Kongres. Di Meta, ia mensurvei pengguna Instagram remaja dan menemukan bahwa 24% dari remaja berusia 13 hingga 15 tahun mengatakan bahwa mereka telah menerima rayuan yang tidak diinginkan dalam tujuh hari terakhir, sebuah fakta yang ia gambarkan sebagai “kemungkinan besar pelecehan seksual terhadap remaja dalam skala terbesar yang pernah terjadi.” Meta sejak itu menerapkan pembatasan pesan langsung pada produknya untuk pengguna di bawah umur.

Namun yang jelas, tulis Donovan dan Parker, pelecehan, intimidasi, dan ajakan yang meluas adalah bagian dari media sosial, dan dibutuhkan lebih dari sekadar orang tua dan toko aplikasi untuk mengendalikannya. Meta baru-baru ini mengumumkan bahwa mereka bertujuan untuk memberikan “ pengalaman yang sesuai dengan usia ” kepada remaja, antara lain dengan melarang penelusuran istilah yang berkaitan dengan bunuh diri, menyakiti diri sendiri, dan gangguan makan. Namun, langkah-langkah ini tidak menghentikan komunitas online yang mempromosikan perilaku berbahaya untuk berkembang di platform media sosial perusahaan. Dibutuhkan tim moderator manusia yang terlatih untuk memantau dan menegakkan pelanggaran ketentuan layanan bagi kelompok berbahaya.

Moderasi Konten
Perusahaan media sosial menjanjikan kecerdasan buatan untuk memoderasi konten dan memberikan keamanan pada platform mereka, namun AI bukanlah solusi terbaik untuk mengelola perilaku manusia. Komunitas beradaptasi dengan cepat terhadap moderasi AI, menambah kata-kata yang dilarang dengan kesalahan ejaan yang disengaja, dan membuat akun cadangan untuk mencegah dikeluarkannya platform.

Moderasi konten oleh manusia juga bermasalah, mengingat model dan praktik bisnis perusahaan media sosial. Sejak tahun 2022, perusahaan media sosial telah menerapkan PHK besar-besaran yang berdampak pada kepercayaan dan keselamatan operasi mereka serta melemahkan moderasi konten di seluruh industri. Kongres akan membutuhkan data nyata dari perusahaan media sosial – data yang belum disediakan oleh perusahaan tersebut hingga saat ini – untuk menilai rasio yang tepat antara moderator dan pengguna.

Belum Ada Regulasi
Dalam pelayanan kesehatan, para profesional mempunyai kewajiban untuk memperingatkan jika mereka yakin sesuatu yang berbahaya mungkin terjadi. Ketika kebenaran yang tidak menyenangkan ini muncul dalam penelitian perusahaan, hanya sedikit yang dilakukan untuk menginformasikan kepada masyarakat tentang ancaman terhadap keselamatan. Kongres dapat mewajibkan pelaporan ketika studi internal menunjukkan hasil yang merugikan.

Membantu remaja saat ini memerlukan perusahaan media sosial untuk berinvestasi dalam moderasi konten manusia dan verifikasi usia yang bermakna. Namun hal itu pun tidak mungkin menyelesaikan masalah. Tantangannya menurut Donovan dan Parker, adalah menghadapi kenyataan bahwa media sosial yang ada saat ini berkembang pesat dengan banyaknya pengguna muda yang menghabiskan banyak waktu di lingkungan yang menempatkan mereka pada risiko. Bahaya-bahaya ini bagi pengguna muda sudah menjadi bagian dari desain media sosial kontemporer, yang memerlukan undang-undang yang lebih jelas mengenai siapa yang mengawasi media sosial dan kapan intervensi diperlukan.

Salah satu motif perusahaan teknologi untuk tidak mengelompokkan basis penggunanya berdasarkan usia, yang akan lebih melindungi anak-anak, lanjut Donovan dan Parker, adalah dampaknya terhadap pendapatan iklan. Kongres memiliki alat yang terbatas untuk melakukan perubahan, seperti menegakkan undang-undang tentang transparansi periklanan, termasuk aturan “kenali pelanggan Anda”. Terutama ketika AI mempercepat pemasaran yang ditargetkan, perusahaan media sosial akan terus memberikan kemudahan bagi pengiklan untuk menjangkau pengguna dari segala usia. Namun jika pengiklan mengetahui berapa proporsi iklan yang dilihat oleh anak-anak dibandingkan orang dewasa, mereka mungkin akan berpikir dua kali untuk menempatkan iklan di masa mendatang.

Meskipun telah dilakukan sejumlah dengar pendapat tingkat tinggi mengenai dampak buruk media sosial, Kongres AS belum mengeluarkan undang-undang untuk melindungi anak-anak atau membuat platform media sosial bertanggung jawab atas konten yang dipublikasikan di platform mereka. Namun dengan banyaknya anak muda yang online pascapandemi, Kongres harus menerapkan batasan yang pada akhirnya menempatkan privasi dan keamanan komunitas sebagai pusat desain media sosial.*****

Berita Terkait