Penyalahgunaan AI Perburuk Kekerasan Seksual Terhadap Anak

4 hours ago 6

tirto.id - Kekerasan seksual terhadap anak di ranah digital menjadi penyakit yang belum ada penawarnya. Kiwari, pemanfaatan bermacam teknologi justru membuat kekerasan seksual kepada anak makin beragam dan sulit terbendung.

Akhir Februari 2025 lalu, lebih dari 20 orang dewasa di berbagai belahan dunia ditangkap, dengan tuduhan penyebaran konten kekerasan seksual anak atau child sexual abuse material (CSAM) dengan memanfaatkan kecerdasan buatan atau artificial intelligence (AI).

Reuters melaporkan 25 orang yang ditangkap beroperasi dari 19 negara termasuk Australia, Spanyol, dan Inggris. Pelaku utama adalah seorang Denmark yang membuat platform yang mendistribusikan konten AI CSAM.

Badan khusus kriminalitas Uni Eropa (Europol) menyebut operasi ini adalah salah satu yang pertama terkait konten pelecehan anak 'hasil karya' AI. Lemahnya undang-undang di tiap negara soal penggunaan perangkat AI terkait CSAM jadi awal mula masalahnya, menurut mereka.

Internet Watch Foundation (IWF), organisasi nirlaba asal Inggris yang fokus dengan penghapusan konten pelecehan seksual anak di internet, meluncurkan laporan pada Juli 2024 lalu. Berdasar laporan tersebut, hasil penelusuran mereka di berbagai situs, terdapat 3.512 gambar CSAM hasil produksi AI. Laporan tersebut juga menyebutkan mulai beredarnya konten kekerasan seksual anak buatan AI, dalam bentuk video.

IWF juga melakukan analisis terhadap pelaporan konten buatan AI yang bermasalah. Antara Maret 2023 sampai April 2024, mereka mengidentifikasi 375 laporan terkait penyalahgunaan AI di Inggris, dari jumlah tersebut 60 diantaranya memuat konten CSAM. Hal ini menjadi perhatian mengingat terlihat juga ada kecenderungan naik konten AI kekerasan seksual dalam beberapa bulan terakhir.

Tidak hanya di Inggris, di Spanyol, kejadian lebih menyeramkan menimpa belasan anak perempuan di Kota Almendralejo. Foto-foto buatan AI yang menunjukkan anak-anak ini telanjang tersebar di kota dengan 30 ribu orang penduduk itu. Anak-anak ketakutan, sementara orang tua mereka mengalami kecemasan buntut dari kejadian tersebut.

Di Amerika Serikat, lebih menyeramkan lagi. Polisi menangkap dua orang anak laki-laki usia sekolah menengah di Florida, karena diduga membuat dan menyebarkan foto telanjang teman-temannya, hasil buatan AI.

Dua bocah ini mendapat dakwaan kejahatan tingkat tiga. Tingkat yang sama dengan pencurian mobil skala besar dan kesalahan pemenjaraan. Hal ini hasil dari Undang-undang Negara Bagian Florida tahun 2022 yang mengklasifikasi pembagian “konten seksual yang melalui proses suntingan” tanpa persetujuan sebagai kejahatan.

Kasus di Indonesia

Laporan kasus dari IWF bisa menunjukkan pertumbuhan dan eskalasi kasus CSAM berbasis AI. Sementara kasus di Spanyol bisa menunjukkan dampak penyebaran pornografi anak di lingkup komunitas. Sedangkan kasus di Amerika Serikat jadi gambaran, mudahnya akses pembuatan CSAM menggunakan AI, sampai pelakunya bisa anak sekolah menengah.

Di Indonesia belum ada data yang secara khusus merangkum kekerasan seksual terhadap anak memanfaatkan teknologi AI. Namun, merujuk DataCyberTipline 2023 dari National Center for Missing & Exploited Children (NCMEC), Indonesia berada di peringkat 4 negara dengan laporan pelecehan seksual anak terbesar di dunia.

Laporan ini juga menekankan kemungkinan adanya perhitungan yang berbeda di tiap negara. Hal ini karena, tidak ada klasifikasi yang sama tentang pelaporan konten kekerasan seksual anak. Namun, angka sekitar 1,9 juta laporan kasus dari 36 juta laporan, bukanlah angka yang kecil.

November 2024 lalu sempat ramai di media sosial soal kasus seorang anak usia 12 tahun yang mendapat pelecehan dengan suntingan fotonya menjadi gambar tidak senonoh. Dengan semangat, no viral no justice, ibu dari anak tersebut membuat unggahan di media sosial mengenai kasus ini.

“Anak saya usia 12 tahun menjadi korban pelecehan seksual di media elektronik oleh seorang pria berusia 50 tahun dengan nama Fx Eko Agusriyanto/Eko Agusriyanto alias Egura yang tinggal di Tangerang Selatan,” begitu bunyi cuitan akun @PTSDsurvivor18 pada 3 November 2024 lalu.

Dalam unggahan tersebut terdapat juga tangkapan layar yang menunjukkan foto perempuan dengan pakaian dalam dan muka yang di sensor. Foto tersebut adalah foto anak dari pemilik akun @PTSDsurvivor18 yang melalui penyuntingan AI.

Dalam ceritanya, ibu korban bercerita, pelaku adalah mantan rekan kerjanya yang membagikan foto tersebut kepadanya lewat aplikasi pesan singkat. Alasan pelaku hanya iseng dan mengatakan foto yang digunakan adalah foto sang ibu bukan foto si anak.

Dalam salah satu tangkapan gambar juga terlihat percakapan ibu korban dengan pelaku. Di situ ibu korban menyampaikan kekhawatirannya kalau foto-foto yang dibuat tersebut akan tersimpan dalam database AI. Sang pelaku juga mengaku telah mengirimkan e-mail untuk meminta platform AI tersebut menghapus datanya,

Ibu korban juga telah melakukan pelaporan kasus pelecehan ke Polres Jakarta Selatan. Di sana dia diarahkan untuk konsultasi dengan unit Pelayanan Perempuan dan Anak (PPA). Namun, hasil konsultasi mengatakan kalau tidak bisa masuk kategori pelecehan jika tidak ada kontak fisik. Sementara menurut unit Ditreskrimsus, kasus ini bisa dikenakan kasus ITE.

Hal tersebut yang kemudian menjadi bahan perbincangan ramai di media sosial. Akhirnya kasus ini pun berlanjut. Menurut informasi dari ibu korban, polisi sudah mulai meminta kesaksian terlapor.

“Setelah akhirnya menunjuk kuasa hukum, kemudian diproses. Saat ini proses sudah sampai pemanggilan terlapor. Namun dapat info kemarin terlapor tidak merespon panggilan penyidik,” begitu jawab dia lewat pesan singkat kepada Tirto, Senin (3/3/2025).

Dia berharap kasus yang menimpanya ini bisa meningkatkan kewaspadaan masyarakat terhadap adanya modus kekerasan seksual anak memanfaatkan teknologi AI. “Serta dapat melahirkan regulasi terkait GenAi ini,” tambah dia lagi.

Perlu Diwaspadai

Bahaya dari kekerasan seksual anak digital atau CSAM ini sangat perlu diwaspadai. Penyalahgunaan teknologi ini tidak mengenal batasan, dalam arti sebenarnya.

"Pelaku kejahatan tidak lagi memerlukan akses ke korban sebenarnya – mereka dapat membuat dan memodifikasi konten eksplisit dalam skala besar, sehingga memudahkan pembuatan CSAM sintetis yang sangat meyakinkan dan menghindari alat deteksi tradisional,” tulis artikel Monash Malaysia karya Manjeevan Seera dan Ridoan Karim, keduanya tenaga pengajar di negeri Jiran.

Mereka juga mengatakan kalau berdasar data, konten pornografi deepfake dibuat dari 98 persen materi di internet. Sekitar 99 persen dari gambar hasil manipulasi, adalah eksploitasi terhadap perempuan dan anak perempuan.

Artikel tersebut juga menyebut adanya sejumlah aplikasi berbasis AI untuk menelanjangi orang. Aplikasi ini bekerja dengan menghilangkan baju perempuan dari gambar. DeepNude (dan turunannya DeepNudeCC) dan DeepFake Telegram Bots, menjadi contoh populer dari aplikasi tersebut. Ketiganya, telah ditutup, namun tetap berseliweran di forum bawah tanah.

“Banyak dari gambar yang diubah ini berasal dari foto media sosial yang innocent yang diunggah di platform seperti Instagram dan Facebook, tempat anak di bawah umur seringkali membagikan gambar pribadi,” sebut mereka dalam artikel tersebut.

Menanggapi pencomotan konten di media sosial oleh pelaku CSAM, Kepala Divisi Akses Internet SAFEnet, Unggul Sagena, mengatakan perlu perlakuan khusus bagi anak di platform media sosial. “Pembatasan dalam bentuk aturan main mungkin lebih tepat. Ini bagi anak, misal mereka tidak bisa mengakses konten dan/atau tidak bisa membuat akun,” tuturnya.

Menurut Unggul hal ini untuk menjamin agar anak tetap punya untuk mendapat informasi. Tidak kalah penting menurut Unggul adalah literasi digital dari orang tua. “Karena kadang orang tua yang post foto dan video anak,” ujarnya.

Beberapa platform seperti YouTube dan TikTok telah menerapkan mekanisme untuk menyaring konten yang mengandung bahaya bagi anak. Dia menyebut penting ada regulasi yang memastikan platform tidak lalai.

“Platform media sosial punya aturan batasan umur dan juga harus memiliki mekanisme mengecek berkala akun-akun yang dibawah umur. Seharusnya, bukan hanya mengecek kata kunci dan insiden sosial politik yang tidak sesuai dengan standar komunitas,” kata Unggul.

Seperti kata pepatah modern, apa yang ada di media sosial akan tetap ada di internet. Bahaya dari konten CSAM anak ini bisa memberi trauma berkepanjangan bagi korbannya.

“Materi ini tidak hanya melanggar hak dan martabat anak, tetapi juga menimbulkan trauma yang berkepanjangan bagi korban,” tutur Dosen Fakultas Teknologi Informasi Monash University Indonesia, Arif Perdana, dalam pesannya kepada Tirto, Senin (3/3/2025).

Menurut Arif, penyalahgunaan AI menambah sulit permasalahan CSAM dalam format gambar dan video di internet. Bantuan AI mempercepat distribusi dan penciptaan CSAM.

Sependapat, Director of the Regulation and Ethics Directorate Indonesia Al Society (IAIS), Henke Yunkins, sebelum adanya AI model-model upaya manipulasi pornografi juga sudah bertebaran. Dia juga menyebut kasus yang terlapor kemungkinan hanya yang naik ke permukaan.

“Issue yg seperti ini cukup masif, dan malah mungkin lebih banyak dari yang dilaporkan karena banyak juga yang tidak melaporkan ketika kejadian. Dan dengan genAI tooling yang makin maju, buat beginian (CSAM) makin mudah,” tuturnya secara terpisah kepada Tirto.

Namun, Henke juga beranggapan kalau kasus seperti ini tidak boleh dilihat sebagai AI pangkal masalahnya. Adanya konten pornografi anak hasil suntingan perangkat manipulasi gambar sebelum adanya AI jadi buktinya.

“Ini sisi buruk oleh orang yg memakai. Bukan AI sendiri yang dengan sadar menjadi buruk/beraplikasi buruk,” tambahnya.

Dia juga khawatir jika regulasi diperketat terhadap penggunaan AI, maka pengembangan teknologi juga akan sulit. Maka pengetatan aturan harus condong ke penggunaannya bukan ke riset dan pengembangannya. Hal ini dapat dilakukan dengan regulasi terhadap pemanfaatan GenAI yang sudah dirilis ke publik.

kekerasan seksual anakIlustrasi kekerasan seksual terhadap anak. FOTO/iStockphoto

Pendekatan hukum terhadap pelaku kejahatan menurutnya juga masih bisa dilakukan dengan landasan UU ITE, KUHP, UU PDP, dan UU Perlindungan Anak. “Harus ada awareness kalau problem nya itu bukan di teknologi nya, tapi di manusia penggunanya,” jelasnya.

Sementara menurut Arif terdapat sejumlah langkah dan kolaborasi untuk mencegah penyalahgunaan AI untuk membuat konten CSAM. Pertama, harus ada pengamanan yang kuat di perangkat AI.

“Penerapan pengamanan yang kuat di sekitarnya untuk memastikan mereka tidak dapat menghasilkan gambar yang bersifat seksual eksplisit. Ini melibatkan penyaringan data latih untuk mengecualikan segala bentuk konten eksplisit dan memantau output model ini secara terus-menerus,” terang Arif.

Hal ini dapat didukung dengan perusahaan AI mengintegrasikan sistemnya untuk mengidentifikasi dan memblokir pembuatan konten pelecehan seksual anak. Di sisi penegak hukum, perlu ada pemutakhiran pengetahuan teknologi untuk membantu proses investigasi.

“Platform yang memuat konten buatan pengguna juga harus meningkatkan kemampuan moderasi konten mereka,” tambah Arif. Dengan mengkombinasikan peninjau manusia dan alat AI, deteksi dan penghapusan CSAM di media sosial dapat dilakukan dengan cepat.

Tidak kalah penting, Arif juga setuju akan pentingnya kesadaran soal penyalahgunaan AI dalam konteks CSAM. Mendidik orang tua, pendidik, dan anak tentang bahaya konten eksplisit yang dihasilkan AI dapat membantu dalam identifikasi dan pelaporan dini materi semacam itu.

Arif mengutip data survei Yayasan Lucy Faithfull, organisasi di Inggris yang fokus mencegah penyalahgunaan seksual anak-anak. Survei tersebut menyebut meski ada 60 persen orang khawatir tentang AI, hanya 40 persen yang tahu bahwa gambar seksual yang dihasilkan AI dari anak di bawah umur adalah ilegal di sana.

Tidak kalah penting regulasi dari pemerintah juga perlu ambil bagian. Kerja sama dengan perusahaan teknologi, organisasi perlindungan anak, dan agen penegak hukum dapat dilakukan untuk mengembangkan regulasi komprehensif yang menangani penyalahgunaan AI.

“Ini termasuk mewajibkan perusahaan AI untuk menerapkan fitur keamanan yang mencegah pembuatan konten eksplisit dan mengharuskan platform media sosial untuk melaporkan dan menghapus CSAM dengan cepat,” tambah Arif.

Sependapat dengan Henke, menurut Arif sebenarnya di Indonesia kerangka hukum untuk pelecehan seksual sudah tercantum di UU Tindak Pidana Kekerasan Seksual (UU TPKS), dan UU Informasi dan Transaksi Elektronik (UU ITE).

Sementara kaitannya dengan anak, UU Perlindungan Anak (UU TPA) memberikan hukuman berat untuk kejahatan seksual terhadap anak-anak, dengan hukuman penjara maksimal 10 tahun dan denda hingga Rp200 juta.

Arif menyimpulkan persimpangan antara AI dan materi pelecehan seksual anak menghadirkan tantangan yang signifikan dan mendesak. “Potensi AI untuk menghasilkan dan mendistribusikan konten eksplisit memerlukan tindakan segera dan tegas dari perusahaan teknologi, pemerintah, dan masyarakat secara keseluruhan,” tutupnya.


tirto.id - News

Reporter: Alfons Yoshio Hartanto
Penulis: Alfons Yoshio Hartanto
Editor: Anggun P Situmorang

Read Entire Article
Berita Rakyat | Tirto News |