This is the Trace Id: fb7435d8d55b1ea0d5137981b816422e

Tham gia phiên họp ban điều hành RSAC vào ngày 24 tháng 3 với chủ đề “Các trợ lý ảo AI đã xuất hiện! Bạn đã sẵn sàng chưa?”.

Đăng ký ngay

Cẩm nang của Microsoft về bảo mật cho doanh nghiệp ứng dụng AI

background-img

Bắt đầu với các ứng dụng AI

Trí tuệ nhân tạo (AI) đang chuyển đổi hoạt động kinh doanh, mở ra sự đổi mới, đồng thời cũng mang đến những rủi ro mới. Từ AI ngoài luồng (các công cụ cấp độ người tiêu dùng được áp dụng mà không có sự giám sát) đến các cuộc tấn công chèn yêu cầu – cùng với các quy định đang phát triển như Đạo luật AI của EU – các tổ chức cần giải quyết những thách thức này để sử dụng AI một cách an toàn.

Cẩm nang này đề cập đến các rủi ro liên quan đến AI, bao gồm rò rỉ dữ liệu, các mối đe dọa mới xuất hiện và thách thức tuân thủ, cũng như những rủi ro đặc thù của AI tác nhân. Tài liệu cũng cung cấp hướng dẫn và các bước triển khai thực tiễn dựa trên Khung áp dụng AI. Để tìm hiểu sâu hơn và nhận các bước hành động, hãy tải xuống cẩm nang.

AI là yếu tố thay đổi cuộc chơi – nhưng chỉ khi bạn có thể bảo mật AI. Cùng bắt đầu nào.

3 rủi ro hàng đầu trong bảo mật AI


Khi các tổ chức đẩy mạnh AI, lãnh đạo cần giải quyết ba thách thức chính:
  • 80% lãnh đạo xem rò rỉ dữ liệu là mối lo ngại hàng đầu. 1
    Các công cụ AI ngoài luồng (được sử dụng mà không có sự phê duyệt của bộ phận CNTT) có thể làm lộ thông tin nhạy cảm và làm gia tăng nguy cơ vi phạm.
  • 88% tổ chức lo ngại về việc các tác nhân xấu thao túng hệ thống AI.2
    Những hình thức tấn công như chèn yêu cầu sẽ khai thác lỗ hổng trong hệ thống AI, cho thấy sự cần thiết của các biện pháp phòng vệ chủ động.
  • 52% lãnh đạo thừa nhận còn lúng túng trong việc điều hướng các quy định về AI.3
    Việc tuân thủ các khung pháp lý như Đạo luật AI của EU là yếu tố then chốt để xây dựng niềm tin và duy trì động lực đổi mới.

AI tác nhân: Những rủi ro chính và cách giải quyết

AI tác nhân mang lại tiềm năng chuyển đổi, nhưng tính tự chủ của nó lại đặt ra những thách thức bảo mật riêng biệt, đòi hỏi phải quản lý rủi ro chủ động. Dưới đây là những rủi ro chính và các chiến lược được điều chỉnh phù hợp để giải quyết những rủi ro này:

Ảo tưởng và kết quả đầu ra không mong muốn

Các hệ thống AI tự chủ có thể tạo ra kết quả đầu ra không chính xác, lỗi thời hoặc không phù hợp, dẫn đến gián đoạn hoạt động hoặc đưa ra quyết định kém hiệu quả.

Để giảm thiểu những rủi ro này, các tổ chức nên triển khai các quy trình giám sát nghiêm ngặt để xem xét các kết quả đầu ra do AI tạo ra về độ chính xác và tính liên quan. Cập nhật thường xuyên dữ liệu đào tạo đảm bảo sự phù hợp với thông tin hiện tại, trong khi các lộ trình nâng cấp cho các trường hợp phức tạp cho phép con người can thiệp khi cần. Sự giám sát của con người vẫn là điều cần thiết để duy trì độ tin cậy và lòng tin trong các hoạt động dựa trên AI.

Sự phụ thuộc quá mức vào quyết định của AI

Tin tưởng mù quáng vào hệ thống AI tự chủ có thể dẫn đến các lỗ hổng khi người dùng hành động dựa trên kết quả đầu ra sai mà không có sự xác thực.

Các tổ chức nên thiết lập các chính sách yêu cầu đánh giá của con người cho các quyết định quan trọng chịu sự ảnh hưởng của AI. Đào tạo nhân viên về các hạn chế của AI giúp thúc đẩy thái độ hoài nghi có căn cứ, giảm khả năng xảy ra sai sót. Kết hợp thông tin chi tiết về trí tuệ nhân tạo với phán đoán của con người thông qua các quy trình ra quyết định theo từng lớp củng cố khả năng phục hồi tổng thể và ngăn ngừa sự phụ thuộc quá mức.

Các vec-tơ tấn công mới

Tính tự chủ và khả năng thích ứng của AI tự chủ tạo ra cơ hội cho kẻ tấn công khai thác các lỗ hổng, dẫn đến rủi ro cả về mặt hoạt động lẫn hệ thống.

Rủi ro hoạt động bao gồm việc thao túng các hệ thống AI để thực hiện các hành động có hại, chẳng hạn như nhiệm vụ trái phép hoặc nỗ lực lừa đảo qua mạng. Các tổ chức có thể giảm thiểu những rủi ro này bằng cách thực hiện các biện pháp bảo mật mạnh mẽ, bao gồm phát hiện bất thường theo thời gian thực, mã hóa và kiểm soát nghiêm ngặt quyền truy nhập.
Rủi ro hệ thống phát sinh khi các tác nhân bị xâm phạm làm gián đoạn các hệ thống liên kết, gây ra các sự cố dây chuyền. Các cơ chế an toàn, giao thức dự phòng và các cuộc kiểm toán định kỳ – phù hợp với các khuôn khổ bảo mật an ninh mạng như NIST – giúp giảm thiểu những mối đe dọa này và củng cố phòng thủ chống lại các cuộc tấn công từ đối thủ.

Trách nhiệm và nghĩa vụ

AI tự chủ thường hoạt động mà không có sự giám sát trực tiếp của con người, làm nảy sinh các câu hỏi phức tạp về trách nhiệm và nghĩa vụ khi xảy ra sai sót hoặc thất bại.

Các tổ chức nên xác định các khuôn khổ trách nhiệm rõ ràng, xác định vai trò và trách nhiệm cho các kết quả liên quan đến AI. Tài liệu minh bạch về các quy trình ra quyết định của AI hỗ trợ việc xác định lỗi và phân bổ trách nhiệm. Sự hợp tác với các đội ngũ pháp lý đảm bảo tuân thủ các quy định, trong khi việc áp dụng các tiêu chuẩn đạo đức cho quản trị AI xây dựng lòng tin và giảm rủi ro về danh tiếng.

Bắt đầu với cách tiếp cận theo từng giai đoạn

Với những đổi mới AI mới như trợ lý ảo, tổ chức cần xây dựng nền tảng vững chắc dựa trên nguyên tắc Zero Trust – “không bao giờ mặc nhiên tin tưởng, luôn luôn xác minh”. Cách tiếp cận này giúp đảm bảo rằng mọi tương tác đều được xác thực, được ủy quyền và liên tục được giám sát. Mặc dù để đạt được Zero Trust cần thời gian, nhưng việc áp dụng chiến lược theo từng giai đoạn sẽ giúp tổ chức tiến bước ổn định và xây dựng sự tự tin khi tích hợp AI một cách an toàn.

 

Khung áp dụng AI của Microsoft tập trung vào ba giai đoạn chính: Quản trị AI, Quản lý AI và Bảo mật AI.

Bằng cách giải quyết những vấn đề này, các tổ chức có thể đặt nền tảng cho việc sử dụng AI có trách nhiệm trong khi giảm thiểu các rủi ro quan trọng.

Để thành công, hãy ưu tiên con người bằng cách đào tạo nhân viên nhận biết các rủi ro của AI và sử dụng các công cụ được phê duyệt một cách an toàn. Khuyến khích sự hợp tác giữa nhóm CNTT, nhóm bảo mật và nhóm kinh doanh để đảm bảo một cách tiếp cận thống nhất. Thúc đẩy sự minh bạch bằng cách giao tiếp công khai về các sáng kiến bảo mật AI của bạn để xây dựng lòng tin và thể hiện khả năng lãnh đạo.

Với chiến lược phù hợp, dựa trên nguyên tắc Zero Trust, bạn có thể giảm thiểu rủi ro, khai mở quá trình đổi mới và tự tin thích ứng trong bối cảnh AI đang không ngừng phát triển.

Xem thêm nội dung tương tự

Bìa sách với tiêu đề Microsoft Security Strategies for AI Compliance (Chiến lược tuân thủ AI của Microsoft Security) kèm minh họa một người đàn ông và một người phụ nữ đang nhìn vào máy tính xách tay.
5 phút

Cẩm nang của Microsoft về bảo mật cho doanh nghiệp ứng dụng AI: Chiến lược tuân thủ AI

Một người đàn ông đang nhìn vào chiếc máy tính bảng trên tay.
3 phút

Gia tăng giá trị, giảm thiểu rủi ro: Cách triển khai AI tạo sinh trên toàn tổ chức một cách an toàn và có trách nhiệm

Bản vẽ nét màu trắng của một phong bì chứa tờ giấy với chữ “New” (Mới) trên nền xanh.

Nhận bản tin CISO Digest

Cập nhật góc nhìn từ chuyên gia, xu hướng ngành và nghiên cứu bảo mật trong bản tin định kỳ hai tháng một lần này.

Theo dõi Microsoft Security