
Pantau - Laporan IBM terbaru mengungkapkan bahwa integrasi kecerdasan buatan (AI) dalam operasional perusahaan di Amerika Serikat menimbulkan risiko kebocoran data yang signifikan dan mahal.
Kebocoran Data Melibatkan Aplikasi AI Internal dan AI Bayangan
Dalam laporan berjudul Cost of a Data Breach 2025 yang dirilis pada Rabu, 30 Juli, IBM mencatat bahwa 13 persen dari 600 organisasi yang disurvei mengalami kebocoran data yang melibatkan model atau aplikasi AI milik mereka sendiri.
Sebanyak 97 persen dari insiden tersebut terjadi karena tidak adanya penerapan kontrol akses dasar.
IBM juga mencatat peningkatan penggunaan teknologi AI oleh penyerang untuk melakukan serangan, termasuk menciptakan email phishing yang lebih meyakinkan dan konten deepfake yang sulit dibedakan dari aslinya.
Salah satu sumber kebocoran terbesar adalah "AI bayangan", yakni aplikasi AI yang digunakan karyawan tanpa izin resmi dari perusahaan.
Sebanyak 20 persen responden menyatakan bahwa kebocoran data di tempat mereka dipicu oleh penggunaan AI bayangan.
Laporan tersebut juga menyebutkan bahwa kehadiran AI bayangan meningkatkan kerugian rata-rata kebocoran data menjadi 4,74 juta dolar AS, dibandingkan dengan 4,07 juta dolar jika tidak ada penggunaan AI bayangan.
Kelalaian Konfigurasi dan Kurangnya Tata Kelola Risiko Jadi Pemicu Utama
Beberapa insiden kebocoran besar terjadi sepanjang 2023, seperti konfigurasi tautan Azure yang salah di repositori AI milik Microsoft, yang mengekspos 38 terabita file internal dan lebih dari 30.000 pesan Teams.
Di tahun yang sama, Samsung melarang penggunaan perangkat AI generatif setelah seorang insinyur menyalin desain cip rahasia ke dalam ChatGPT.
Selain itu, pada Maret 2023, bug di ChatGPT milik OpenAI mengekspos alamat pembayaran dan sebagian data kartu dari sejumlah pengguna.
Meski risiko semakin besar, 87 persen perusahaan yang disurvei masih belum memiliki kebijakan atau proses tata kelola risiko terkait AI.
Laporan juga menyebut bahwa hampir sepertiga dari kebocoran data terkait AI dipicu oleh kompromi rantai pasokan.
Para analis menyarankan agar perusahaan memperketat manajemen identitas dan kredensial untuk staf maupun algoritma.
Langkah yang direkomendasikan mencakup rotasi kunci secara berkala, enkripsi semua data pelatihan dan instruksi model, serta audit kuartalan terhadap sistem AI yang ada.
“Pemeriksaan rutin AI” oleh pimpinan bisnis dan keamanan dinilai krusial untuk mengidentifikasi proyek-proyek tidak sah.
Penggunaan platform deteksi ancaman otomatis juga dianjurkan guna membedakan ancaman nyata dari alarm palsu.
IBM menyimpulkan bahwa penggunaan AI untuk keamanan dan otomatisasi mampu menurunkan biaya, sementara AI bayangan justru meningkatkan risiko dan beban finansial.
Organisasi dengan sistem kontrol yang matang mampu menurunkan biaya kebocoran data hingga hampir 40 persen.
Saat ini, biaya rata-rata kebocoran data di Amerika Serikat telah mencapai 10,22 juta dolar AS.
Sementara itu, regulator di Brussel dan Washington tengah menyusun peraturan baru untuk pengawasan algoritma AI yang semakin haus data.
Perusahaan diimbau untuk segera memperkuat perlindungan terhadap model AI, catatan, dan antarmuka obrolan, termasuk dengan menerapkan autentikasi multifaktor, pembatasan waktu pada tautan berbagi, dan audit berkelanjutan.
- Penulis :
- Leon Weldrick