12.4 C
New York
Thursday, October 23, 2025

Buy now

Waspada, Data Kamu Diam-Diam Dipakai AI!

TEKNOBUZZ – Di tengah pesatnya perkembangan kecerdasan buatan (AI), muncul kekhawatiran baru tentang bagaimana data pengguna digunakan untuk melatih model bahasa besar (LLM).

Sebuah studi dari Stanford Institute for Human-Centered AI mengungkap bahwa banyak perusahaan AI terkemuka, termasuk OpenAI, Google, dan Anthropic, menggunakan percakapan pengguna untuk melatih model mereka secara default. Hal ini menimbulkan pertanyaan besar tentang privasi dan transparansi.

Mengutip situs resmi Universitas Stanford, Penelitian yang dipimpin oleh Jennifer King, Privacy and Data Policy Fellow di Stanford, menemukan bahwa enam perusahaan AI besar di Amerika Serikat memanfaatkan input pengguna untuk meningkatkan kemampuan model mereka.

Sebagian perusahaan memang menawarkan opsi untuk keluar (opt-out), namun banyak yang tidak memberikan pilihan sama sekali. Artinya, data yang dibagikan pengguna bahkan file pribadi yang diunggah, dapat digunakan untuk pelatihan platform AI tanpa disadari.

Baca juga: Telkom Akses Terapkan Solusi AI untuk Operasional Bisnis

Kebijakan Privasi yang Sulit Dipahami

King dan timnya menemukan masalah serius dalam kebijakan privasi para pengembang AI. Banyak kebijakan menggunakan bahasa hukum yang rumit, sulit dipahami, dan tidak transparan mengenai bagaimana data dikumpulkan serta digunakan.

Lebih parah lagi, beberapa perusahaan menyimpan data pengguna tanpa batas waktu. Sementara lainnya mengizinkan tinjauan manual terhadap percakapan oleh manusia.

Perusahaan seperti Google, Meta, Microsoft, dan Amazon diketahui menggabungkan interaksi chatbot dengan data dari produk lain seperti pencarian, belanja, dan media sosial. Hal ini menciptakan risiko baru.

Misalnya, AI dapat menarik kesimpulan sensitif seperti kondisi kesehatan berdasarkan pertanyaan pengguna, yang kemudian dapat berdampak pada rekomendasi iklan atau bahkan asuransi.

Anak-Anak dan Masalah Persetujuan

Studi ini juga menyoroti masalah privasi anak. Sebagian besar perusahaan tidak memiliki sistem untuk memfilter data dari anak-anak, meski mereka secara hukum tidak dapat memberikan persetujuan pengumpulan data.

Google, misalnya, mengizinkan remaja untuk ikut serta secara sukarela. Sedangkan Anthropic melarang pengguna di bawah 18 tahun namun tanpa verifikasi usia yang jelas.

Para peneliti menekankan perlunya regulasi privasi federal yang komprehensif di Amerika Serikat. Mereka merekomendasikan agar perusahaan AI menerapkan sistem opt-in, bukan opt-out, untuk pelatihan data, serta secara otomatis menyaring informasi pribadi dari percakapan pengguna.

Pentingnya Perlindungan Privasi

King menutup laporannya dengan seruan penting: inovasi AI harus berjalan seiring dengan perlindungan privasi.

“Kita perlu menimbang apakah keuntungan dari pelatihan AI sepadan dengan hilangnya privasi pengguna,” ujar King.

Penelitian Stanford ini menjadi pengingat bahwa masa depan AI tidak hanya tentang kecerdasan mesin, tapi juga tentang kepercayaan manusia di baliknya.

Related Articles

- Advertisement -spot_img

Latest Articles