This is the Trace Id: 14057a993f8f56faed8c3b1b3d9886cd

Gabung dengan sesi panel eksekutif RSAC pada 24 Maret “Agen AI telah hadir! Apakah Anda sudah siap?”.

Daftar sekarang

Panduan Microsoft untuk mengamankan perusahaan yang berbasis AI

background-img

Mulai menggunakan aplikasi AI

Kecerdasan buatan (AI) mengubah operasi bisnis, menghadirkan inovasi sekaligus mendatangkan risiko baru. Mulai dari AI bayangan (alat tingkat konsumen yang diadopsi tanpa pengawasan) hingga serangan injeksi perintah dan regulasi yang terus berkembang, seperti Undang-Undang AI UE, organisasi harus mengatasi tantangan tersebut untuk menggunakan AI dengan aman.

Panduan ini membahas risiko terkait AI: kebocoran data, ancaman baru, dan tantangan kepatuhan serta risiko AI agenik yang unik. Panduan ini juga memberikan arahan serta langkah-langkah praktis yang harus diambil berdasarkan Kerangka Kerja Adopsi AI. Untuk wawasan yang lebih mendalam serta langkah-langkah yang dapat diambil, unduh panduan.

AI akan menjadi terobosan baru hanya jika Anda dapat mengamankannya. Mari kita mulai.

3 risiko terbesar dalam keamanan AI


Saat organisasi mengadopsi AI, para pemimpin harus mengatasi tiga tantangan utama:
  • 80% pemimpin menyebutkan kebocoran data sebagai kekhawatiran terbesar. 1
    Alat AI bayangan, yang digunakan tanpa persetujuan TI, dapat mengungkap informasi sensitif sehingga meningkatkan risiko pelanggaran.
  • 88% organisasi mengkhawatirkan pelaku kejahatan yang memanipulasi sistem AI.2
    Serangan seperti injeksi perintah akan mengeksploitasi kerentanan dalam sistem AI sehingga menegaskan perlunya pertahanan yang proaktif.
  • 52% pemimpin mengaku belum yakin dalam menghadapi regulasi AI.3
    Selalu mematuhi kerangka kerja, seperti Undang-Undang AI Uni Eropa menjadi hal yang penting untuk membangun kepercayaan dan mempertahankan momentum inovasi.

AI Agenik: Risiko utama dan cara mengatasinya

AI agenik menawarkan potensi transformatif, tetapi otonominya menciptakan tantangan keamanan unik yang memerlukan manajemen risiko yang proaktif. Berikut adalah risiko utama dan strategi yang dirancang khusus untuk mengatasinya:

Halusinasi dan hasil keluaran yang tidak diinginkan

Sistem AI agentik dapat menghasilkan keluaran yang tidak akurat, usang, atau tidak selaras, sehingga menyebabkan gangguan operasional atau pengambilan keputusan yang buruk.

Untuk memitigasi risiko ini, organisasi sebaiknya menerapkan proses pemantauan yang ketat untuk meninjau keluaran yang dihasilkan oleh AI dalam rangka memperoleh akurasi dan relevansi. Memperbarui data pelatihan secara teratur akan memastikan keselarasan data dengan informasi terkini, sementara jalur eskalasi untuk kasus kompleks memberikan ruang bagi intervensi manusia saat diperlukan. Pengawasan manusia tetap menjadi hal yang sangat penting untuk menjaga keandalan dan kepercayaan dalam operasi berbasis AI.

Ketergantungan yang berlebihan pada keputusan AI

Kepercayaan tanpa alasan pada sistem AI agentik dapat menimbulkan kerentanan saat pengguna bertindak berdasarkan hasil yang cacat tanpa validasi.

Organisasi sebaiknya menetapkan kebijakan yang mewajibkan peninjauan oleh manusia untuk keputusan penting yang dipengaruhi AI. Melatih karyawan tentang keterbatasan AI akan menumbuhkan skeptisisme yang berwawasan, sehingga mengurangi kemungkinan terjadinya kesalahan. Mengombinasikan wawasan AI dan penilaian manusia dalam proses pengambilan keputusan berlapis akan memperkuat ketahanan secara keseluruhan serta mencegah ketergantungan berlebih.

Vektor serangan baru

Otonomi dan adaptabilitas AI agentik menciptakan peluang bagi penyerang untuk mengeksploitasi kerentanan, mendatangkan risiko operasional dan sistemik.

Risiko operasional termasuk manipulasi sistem AI untuk melakukan tindakan berbahaya, seperti tugas yang tidak sah atau upaya pengelabuan. Organisasi dapat memitigasi risiko ini dengan menerapkan langkah keamanan yang tangguh, termasuk deteksi anomali real time, enkripsi, dan kontrol akses yang ketat.
Risiko sistemik muncul ketika agen yang disusupi mendisrupsi sistem yang saling terhubung dan menyebabkan kegagalan berantai. Mekanisme konsep gagal-aman, protokol redundansi, dan audit rutin—yang selaras dengan kerangka kerja keamanan cyber seperti NIST—akan membantu meminimalkan ancaman tersebut serta mendukung pertahanan saat menghadapi serangan dari pihak lawan.

Akuntabilitas dan tanggung jawab

AI agentik sering kali beroperasi tanpa pengawasan langsung oleh manusia, menimbulkan pertanyaan rumit tentang akuntabilitas dan tanggung jawab atas kesalahan atau kegagalan.

Organisasi harus mendefinisikan kerangka akuntabilitas yang jelas, yang secara spesifik mendefinisikan peran dan tanggung jawab untuk hasil-hasil terkait AI. Dokumentasi yang transparan mengenai proses pengambilan keputusan oleh AI akan mendukung identifikasi kesalahan dan penetapan tanggung jawab. Kolaborasi dengan tim hukum memastikan kepatuhan terhadap regulasi, sementara adopsi standar etika untuk tata kelola AI akan membangun kepercayaan dan mengurangi risiko terkait reputasi.

Mulai menggunakan pendekatan bertahap

Seiring hadirnya inovasi AI baru seperti agen, organisasi harus membangun landasan yang kuat berdasarkan prinsip Zero Trust, yaitu "jangan pernah percaya dan selalu lakukan verifikasi”. Pendekatan ini membantu memastikan bahwa setiap interaksi telah terautentikasi, terotorisasi, dan terus dipantau. Meskipun mencapai Zero Trust perlu waktu, mengadopsi strategi bertahap akan menciptakan kemajuan yang stabil dan membangun keyakinan untuk mengintegrasikan AI secara aman.

 

Kerangka kerja adopsi AI Microsoft berfokus pada 3 tahapan utama: Tata kelola AI, Pengelolaan AI, dan Pengamanan AI.

Dengan menangani area ini, organisasi dapat meletakkan dasar untuk penggunaan AI yang bertanggung jawab sekaligus memitigasi risiko penting.

Agar berhasil melakukannya, prioritaskan orang-orang dengan melatih karyawan untuk mengenali risiko AI dan menggunakan alat yang disetujui dengan aman. Tumbuhkan kolaborasi antara tim TI, keamanan, dan bisnis untuk memastikan pendekatan yang terpadu. Promosikan transparansi dengan mengomunikasikan inisiatif keamanan AI Anda secara terbuka untuk membangun kepercayaan dan menunjukkan kepemimpinan.

Dengan strategi berlandaskan prinsip Zero Trust yang tepat, Anda dapat memitigasi risiko, menciptakan inovasi, serta menavigasi lanskap AI yang terus berkembang dengan percaya diri.

Konten lain yang serupa

Sampul buku menampilkan teks Microsoft Security Strategies for AI Compliance dengan ilustrasi laki-laki dan perempuan yang sedang melihat laptop.
5 menit

Panduan Microsoft untuk mengamankan perusahaan berbasis AI: Strategi kepatuhan AI

Seorang laki-laki melihat tablet di tangannya.
3 menit

Manfaat maksimal, minim risiko: Cara aman dan bertanggung jawab mengimplementasikan AI generatif di seluruh organisasi

Gambar garis putih sebuah kertas di amplop dengan tulisan Baru di latar belakang biru.

Dapatkan CISO Digest

Ikuti informasi terbaru seputar wawasan ahli, tren industri, dan riset keamanan dalam seri email dua bulanan ini.

Ikuti Microsoft Security