Percakapanmu dengan Chatbot AI Tidak Sepenuhnya 'Private'
Kecerdasan buatan (AI) telah berevolusi secara progresif selama beberapa dekade terakhir. Namun, tahukah kamu bahwa percakapan yang kamu lakukan dengan chatbot AI mungkin tidak sepenuhnya pribadi? Mari kita telaah lebih dalam bagaimana informasi kita dikumpulkan dan potensi risikonya.
Belajar dari Pengalaman Masa Lalu
Cerita klasik mengenai chatbot AI dari awal tahun 2000-an menyoroti risiko berbagi informasi pribadi, bahkan dengan program AI lawas. Teknologi masa kini jauh lebih canggih, namun aspek privasi tetap memiliki tingkat kerentanan tertentu. Apa pun yang kamu sampaikan ke chatbot AI berpotensi disimak dan kemungkinan diulang di lain waktu.
Pernyataan dari Perusahaan Teknologi Besar
Pernyataan privasi raksasa teknologi seperti Google untuk layanan Gemini dengan jelas menyampaikan bahwa semua obrolan akan disimpan selama tiga tahun. Selain itu, data percakapan secara rutin ditinjau oleh karyawan. Dokumen privasi tersebut secara gamblang memperingatkan untuk tidak menggunakan layanan demi pertukaran informasi rahasia.
Dikutip dari pernyataan mereka, "Jangan memasukkan apa pun yang tidak ingin dilihat oleh reviewer manusia atau ingin digunakan Google. Misalnya, jangan masukkan info yang kamu anggap rahasia atau data yang tidak ingin digunakan untuk menyempurnakan produk, layanan, dan teknologi pembelajaran mesin Google."
Ini merupakan cara Google menyampaikan dengan sederhana bahwa percakapan kamu dengan chatbot dapat dibaca oleh individu dan data tersebut dipakai untuk mengembangkan platform AI-nya.
Apakah Informasi Saya Berisiko Dibocorkan?
Meski secara desain AI seperti Gemini tidak dirancang untuk mengulangi informasi privat layaknya chatbot AI kuno, tidak ada jaminan keamanan mutlak. Kebocoran ChatGPT tahun lalu, di mana peneliti keamanan mengakses info pelatihan, memberi indikasi bahwa segala data yang dimiliki model bahasa berskala besar memiliki peluang, paling tidak secara teori, untuk tersebar pada akhirnya.
Perusahaan Kecil Mengambil Keuntungan
Kasus ini mengasumsikan perusahaan pengembang memiliki integritas dalam upaya pengelolaan dan perlindungan data. Sayangnya, terdapat pemain di ceruk AI yang secara aktif menjual data demi profit. Salah satu contohnya adalah fenomena "pacar AI", contohnya seperti Crushion.AI, yang mana chatbot mendorong pengguna mengungkapkan informasi !nt!m, lalu dijual untuk berbagai kepentingan.
Jadi, Bagaimana Seharusnya Menyikapinya?
Intinya, jangan pernah membahas topik pribadi lewat percakapan dengan model bahasa berskala besar. Selain data identitas sensitif yang jelas (nomor identitas, nomor telepon, alamat, dll.), bijaklah dalam membagikan hal-hal lain yang juga ingin kamu lindungi. Aplikasi-aplikasi ini tidak difungsikan untuk menyimpan rahasia.
Pentingnya Memahami Privasi di Era AI
Kasus ini menjadi penting guna menyadarkan pengguna tentang potensi pelanggaran privasi saat berinteraksi dengan teknologi AI. Sebelum melontarkan pertanyaan atau permintaan ke dalam kotak obrolan yang menggoda tersebut, ingatlah bahwa ada orang (dan algoritma) yang mungkin saja bisa mengaksesnya.
Sumber: L.H