Seiring dengan semakin banyaknya organisasi yang mengadopsi solusi kecerdasan buatan untuk mendorong efisiensi dan inovasi, masalah keamanan dan privasi data menjadi prioritas utama. Seperti yang disoroti dalam ringkasan eksekutif buku putih Stanford tentang Privasi dan Perlindungan Data di Era AI (2023), "data adalah fondasi dari semua sistem AI" dan "pengembangan AI akan terus meningkatkan rasa lapar para pengembang akan data pelatihan, yang mendorong perlombaan yang lebih besar untuk memperoleh data daripada yang pernah kita lihat dalam beberapa dekade terakhir." Meskipun AI menawarkan peluang yang sangat besar, AI juga menghadirkan tantangan unik yang membutuhkan pertimbangan ulang mendasar atas pendekatan kita terhadap perlindungan data. Artikel ini membahas pertimbangan keamanan dan privasi utama bagi organisasi yang menerapkan sistem AI dan memberikan panduan praktis untuk melindungi data sensitif di seluruh siklus hidup AI.
Seperti yang ditunjukkan dalam Bab 2 buku putih Stanford yang berjudul 'Perlindungan Data dan Privasi: Konsep Utama dan Lanskap Peraturan', manajemen data di era AI membutuhkan pendekatan yang mempertimbangkan dimensi yang saling berhubungan yang melampaui keamanan teknis semata. Menurut ringkasan eksekutif, ada tiga saran utama untuk mengurangi risiko privasi data yang ditimbulkan oleh pengembangan dan adopsi AI:
Dimensi-dimensi ini membutuhkan pendekatan khusus yang melampaui praktik keamanan TI tradisional.
Seperti yang dinyatakan secara eksplisit oleh buku putih Stanford, 'pengumpulan data yang sebagian besar tidak dibatasi menimbulkan risiko privasi unik yang melampaui tingkat individu - data tersebut secara agregat menimbulkan bahaya sosial yang tidak dapat diatasi hanya dengan menggunakan hak-hak data individu'. Ini adalah salah satu pengamatan terpenting dari ringkasan eksekutif dan menyerukan pemikiran ulang yang mendasar tentang strategi perlindungan data kami.
Mengutip langsung dari saran pertama ringkasan eksekutif Stanford:
Rekomendasi Implementasi: Menerapkan sistem klasifikasi data yang secara otomatis memberi label pada item sensitif dan menerapkan kontrol yang tepat sesuai dengan tingkat sensitivitasnya, dengan pengaturan non-pengumpulan yang telah ditetapkan sebelumnya.
.png)
Menurut saran kedua dari ringkasan eksekutif Stanford, transparansi dan akuntabilitas di sepanjang rantai data merupakan hal yang mendasar bagi sistem regulasi apa pun yang menangani privasi data.
Buku putih tersebut dengan jelas menyatakan bahwa perlu untuk "fokus pada rantai pasokan data AI untuk meningkatkan privasi dan perlindungan data. Memastikan transparansi dan akuntabilitas dataset di seluruh siklus hidup harus menjadi tujuan dari setiap sistem regulasi yang menangani privasi data." Hal ini mencakup:
Rekomendasi untuk implementasi: Menerapkan sistem sumber data yang mendokumentasikan seluruh siklus hidup data yang digunakan dalam pelatihan dan pengoperasian sistem AI.
Saran ketiga dari ringkasan eksekutif Stanford menyatakan bahwa ada kebutuhan untuk 'mengubah pendekatan terhadap penciptaan dan pengelolaan data pribadi'. Seperti yang dilaporkan dalam makalah tersebut, "para pembuat kebijakan harus mendukung pengembangan mekanisme tata kelola baru dan infrastruktur teknis (misalnya, pialang data dan infrastruktur otorisasi data) untuk mendukung dan mengotomatiskan pelaksanaan hak dan preferensi data individu."
Rekomendasi untuk implementasi: Mengadopsi atau berkontribusi pada pengembangan standar terbuka untuk otorisasi data yang memungkinkan interoperabilitas antara sistem dan layanan yang berbeda.
Model AI itu sendiri memerlukan perlindungan khusus:
Rekomendasi Implementasi: Menetapkan 'gerbang keamanan' dalam jalur pengembangan yang memerlukan validasi keamanan dan privasi sebelum model mulai diproduksi.
Sistem AI menghadapi vektor serangan yang unik:
Rekomendasi untuk implementasi: Menerapkan teknik pelatihan musuh yang secara khusus mengekspos model ke vektor serangan potensial selama pengembangan.
Persyaratan privasi dan keamanan sangat bervariasi antar sektor:
Menerapkan pendekatan yang komprehensif terhadap privasi dan keamanan data dalam AI:
.png)
Sebuah lembaga keuangan global menerapkan sistem deteksi penipuan berbasis AI dengan pendekatan berlapis:
Seperti yang dinyatakan dengan jelas dalam ringkasan eksekutif buku putih Stanford, "meskipun undang-undang privasi yang ada dan yang diusulkan, berdasarkan Praktik Informasi yang Adil (Fair Information Practices/FIP) yang diterima secara global, secara implisit mengatur pengembangan AI, namun hal itu tidak cukup untuk menangani perlombaan untuk memperoleh data dan bahaya privasi individu dan sistemik yang diakibatkannya." Selain itu, "bahkan undang-undang yang berisi ketentuan eksplisit tentang pengambilan keputusan algoritmik dan bentuk lain dari AI tidak memberikan langkah-langkah tata kelola data yang diperlukan untuk mengatur data yang digunakan dalam sistem AI secara bermakna."
Di era AI, perlindungan data dan privasi tidak bisa lagi dianggap nomor dua. Organisasi harus mengikuti tiga rekomendasi utama dari buku putih ini:
Penerapan rekomendasi ini mewakili transformasi mendasar dalam cara kita memahami dan mengelola data dalam ekosistem AI. Seperti yang ditunjukkan oleh analisis dalam buku putih Stanford, praktik pengumpulan dan penggunaan data saat ini tidak berkelanjutan dan berisiko merusak kepercayaan publik terhadap sistem kecerdasan buatan, sekaligus menciptakan kerentanan sistemik yang melampaui individu.
Lanskap regulasi sudah berubah dalam menanggapi tantangan ini, sebagaimana dibuktikan oleh diskusi internasional yang berkembang tentang perlunya mengatur tidak hanya hasil AI, tetapi juga proses pengambilan data yang memberi makan sistem ini. Namun, kepatuhan terhadap peraturan saja tidak cukup.
Organisasi yang mengadopsi pendekatan yang etis dan transparan terhadap manajemen data akan memiliki posisi yang lebih baik di lingkungan baru ini, mendapatkan keunggulan kompetitif melalui kepercayaan pengguna dan ketahanan operasional yang lebih besar. Tantangannya adalah menyeimbangkan inovasi teknologi dengan tanggung jawab sosial, dengan menyadari bahwa keberlanjutan AI yang sebenarnya bergantung pada kemampuannya untuk menghormati dan melindungi hak-hak dasar orang-orang yang dilayaninya.