TEKNOBUZZ – Kehadiran teknologi kecerdasan buatan (AI) seperti chatbot Grok bagaikan pisau bermata dua. Di satu sisi, ia menawarkan kecanggihan yang dapat membantu segala aktivitas manusia. Namun, di sisi lain, ia membuka kotak pandora kejahatan digital baru.
Kemampuan AI untuk memanipulasi foto menjadi konten vulgar tanpa izin (deepfake) kini menjadi teror nyata bagi masyarakat Indonesia. Misalnya, yang belum lama ini, kecerdasan buatan Grok AI pada platform X disalahgunakan oleh oknum tidak bertanggung jawab untuk manipulasi foto pribadi menjadi konten asusila.
“Perkembangan AI telah membawa kejahatan digital ke level yang lebih canggih dan sulit dideteksi. Kasus “revenge porn” yang dulu memerlukan keahlian editing foto tingkat tinggi, kini bisa dilakukan oleh siapa saja dengan bantuan AI. Pemerasan dengan ancaman penyebaran foto hasil manipulasi AI (deepfake) juga mulai marak terjadi,” ujar Ardi Sutedja, Ketua dan Pendiri Indonesia Cyber Security Forum (ICSF) saat dihubungi TEKNOBUZZ ID.
Ketika privasi bisa dihancurkan dalam hitungan detik oleh teknologi AI, bagaimana cara kita melawan dan mengatasinya? Untuk mengatasi hal tersebut, dibutuhkan peran serta semua pihak, termasuk Pemerintah Indonesia, platform AI itu sendiri, masyarakat sipil dan akademisi.
Berikut adalah langkah strategis mengatasi penyalahgunaan AI yang semakin mengkhawatirkan yang diungkapkan oleh Ardi Sutedja. Yuk langsung simak ulasan berikut ini.
Baca juga: Gawat, Kini AI Jadi Alat Pelecehan Digital!
Tanggung Jawab Platform Teknologi
“Platform teknologi seperti pengembang Grok tidak bisa lepas tangan dari tanggung jawab mereka. Mereka harus menerapkan prinsip “ethics by design” dalam pengembangan produk AI mereka. Ini berarti mempertimbangkan aspek etika dan potensi penyalahgunaan sejak tahap awal pengembangan, bukan sebagai pertimbangan tambahan,” tutur Ardi.
Beberapa langkah konkret yang bisa diambil oleh platform teknologi meliputi:
- Menerapkan sistem pengenalan konten sensitif yang canggih untuk mencegah pembuatan konten vulgar.
- Memberikan label jelas pada setiap konten yang dihasilkan atau dimodifikasi oleh AI.
- Menyediakan alat verifikasi untuk mengidentifikasi konten hasil manipulasi AI.
- Bekerja sama dengan penegak hukum untuk menindak penyalahgunaan platform mereka.
- Melakukan audit etika secara berkala terhadap algoritma dan model AI mereka.
- Membatasi kemampuan AI untuk memanipulasi foto tanpa persetujuan yang jelas dari pemilik foto.
“Perusahaan teknologi harus menyadari bahwa kebebasan berkreasi tidak boleh mengorbankan hak asasi dan martabat manusia. Inovasi teknologi harus tetap berpijak pada etika dan norma yang berlaku,” tegas Ardi.
Regulasi yang Mendesak
Menurut Ardi, Pemerintah RI harus segera menyelesaikan peraturan pelaksanaan UU PDP dengan memperhatikan perkembangan teknologi terkini seperti AI generatif.
“Komdigi (Kementerian Komunikasi dan Digital), BSSN (Badan Siber dan Sandi Negara), dan Kementerian Hukum dan HAM (Kemenkum) perlu berkolaborasi untuk menciptakan kerangka regulasi yang komprehensif namun tidak menghambat inovasi positif. Selain itu, Dewan Perwakilan Rakyat perlu mengalokasikan anggaran yang memadai untuk penguatan infrastruktur keamanan siber nasional. Kementerian Pendidikan, Kebudayaan, Riset, dan Teknologi Republik Indonesia (Kemendikbudristek) harus mengintegrasikan literasi digital dan etika AI ke dalam kurikulum pendidikan dasar hingga tinggi. Sedangkan Kementerian Kesehatan perlu menyiapkan layanan dukungan psikologis bagi korban penyalahgunaan AI,” papar Ardi.
Menurut Ardi, UU Perlindungan Data Pribadi (PDP) yang telah disahkan pada September 2022 seharusnya menjadi benteng pertahanan kita.
“Namun, hampir dua tahun berlalu, peraturan pelaksanaannya masih belum juga rampung. Celah ini menciptakan zona abu-abu yang dimanfaatkan oleh pihak tidak bertanggung jawab untuk melakukan kejahatan digital. Ketiadaan aturan teknis membuat penegakan hukum terhadap penyalahgunaan AI seperti Grok menjadi sulit. Bagaimana mungkin kita bisa melindungi masyarakat jika instrumen hukumnya sendiri belum lengkap? Sementara teknologi bergerak dengan kecepatan luar biasa, respons regulasi kita masih tertatih-tatih di garis start,” ungkap Ardi.
Lebih lanjut Ardi mengatakan bahwa Pasal 26 UU PDP memang menyebutkan tentang hak subjek data untuk tidak menjadi objek profiling yang menimbulkan dampak diskriminasi.
“Namun, tanpa peraturan pelaksanaan yang jelas, bagaimana cara menerapkan pasal ini terhadap kasus manipulasi foto oleh AI? Siapa yang bertanggung jawab ketika sebuah platform AI seperti Grok menghasilkan konten vulgar dari foto seseorang? Apakah pengembang AI, pengguna yang meminta pembuatan konten tersebut, atau platform yang menyebarkannya?,” tandas Ardi.
Menurut Ardi, Pemerintah tidak bisa lagi menunda penyelesaian peraturan pelaksanaan UU PDP. Ardi menyampaikan perlu ada peraturan pelaksanaan UU PDP yang membutuhkan aturan spesifik yang mengatur hal berikut:
- Kewajiban pengembang AI untuk menerapkan filter konten otomatis yang mencegah penyalahgunaan.
- Mekanisme persetujuan eksplisit dari pemilik foto sebelum diproses oleh AI.
- Transparansi algoritma AI yang bisa diaudit oleh lembaga independen.
- Sanksi tegas bagi penyalahguna teknologi AI untuk tujuan merendahkan martabat orang lain.
- Mekanisme pelaporan dan penghapusan cepat untuk konten hasil manipulasi AI.
- Pembentukan satuan tugas khusus lintas kementerian untuk menangani kasus penyalahgunaan AI.
- Standar keamanan minimum yang harus dipenuhi oleh setiap platform AI yang beroperasi di Indonesia.
- Kewajiban notifikasi kepada pengguna ketika foto mereka diproses oleh sistem AI.
- Sistem verifikasi usia yang ketat untuk mengakses fitur AI yang berpotensi disalahgunakan.
“Regulasi ini harus bersifat antisipatif, bukan reaktif. Kita tidak bisa menunggu hingga ribuan korban berjatuhan sebelum bertindak. Negara-negara seperti Uni Eropa dengan Digital Services Act-nya telah menunjukkan bahwa regulasi yang komprehensif terhadap teknologi AI adalah mungkin dan diperlukan,” jelas Ardi.
Peran Masyarakat Sipil dan Akademisi
Ardi merasa butuh peran serta dari masyarakat sipil dan akademisi untuk mengatasi penyalahgunaan AI, tidak hanya bergantung pada Pemerintah RI dan platform teknologi saja. Masyarakat sipil dan akademisi juga memiliki peran krusial dalam hal berikut ini.
- Melakukan riset tentang dampak sosial dan psikologis dari penyalahgunaan AI.
- Mengembangkan teknologi pendeteksi konten manipulatif yang dapat diakses publik.
- Menyelenggarakan kampanye literasi digital untuk meningkatkan kesadaran masyarakat.
- Memberikan pendampingan hukum dan psikologis bagi korban penyalahgunaan AI.
- Mengadvokasi regulasi yang melindungi hak-hak digital masyarakat.
“Perguruan tinggi perlu mengintegrasikan etika AI ke dalam kurikulum teknik informatika dan ilmu komputer. Organisasi masyarakat sipil dapat membentuk jaringan pendampingan korban penyalahgunaan AI. Media massa harus berperan dalam menyebarkan informasi yang akurat tentang risiko dan cara melindungi diri dari penyalahgunaan AI,” jelas Ardi.
Edukasi sebagai Benteng Pertahanan Pertama
Menurut Ardi, literasi digital yang komprehensif adalah benteng pertahanan pertama melawan penyalahgunaan AI. Untuk itu, Ardi menyarankan masyarakat Indonesia perlu dibekali pengetahuan tentang hal berikut ini.
- Cara mengidentifikasi konten hasil manipulasi AI.
- Langkah-langkah melindungi foto dan data pribadi di dunia digital.
- Prosedur pelaporan ketika menjadi korban penyalahgunaan AI.
- Hak-hak digital mereka sebagai warga negara Indonesia.
- Konsekuensi hukum dari penyalahgunaan teknologi AI.
“Edukasi ini harus menjangkau semua lapisan masyarakat, dari pelajar hingga lansia, dari masyarakat perkotaan hingga pedesaan. Pemerintah daerah, sekolah, dan komunitas lokal dapat bekerja sama dalam menyelenggarakan program edukasi literasi digital yang inklusif,” tutup Ardi.



