This is the Trace Id: 7188da2365e3a2d80c6b5ae6fbdbf712
跳转至主内容 为什么选择 Microsoft 安全 AI 支持的网络安全 云安全 数据安全与治理 标识和网络访问 隐私和风险管理 AI 安全性 统一安全运营 零信任 Microsoft Defender Microsoft Entra Microsoft Intune Microsoft Priva Microsoft Purview Microsoft Sentinel 智能 Microsoft Security Copilot 副驾驶® Microsoft Entra ID (Azure Active Directory) Microsoft Entra 智能体 ID Microsoft Entra 外部 ID Microsoft Entra ID 治理 Microsoft Entra ID 保护 Microsoft Entra Internet 访问 Microsoft Entra 专用访问 Microsoft Entra 权限管理 Microsoft Entra 验证 ID Microsoft Entra Workload ID Microsoft Entra 域服务 Azure Key Vault Microsoft Sentinel Microsoft Defender for Cloud Microsoft Defender XDR Microsoft Defender for Endpoint Microsoft Defender for Office 365 Microsoft Defender for Identity Microsoft Defender for Cloud Apps Microsoft 安全风险管理 Microsoft Defender 漏洞管理 Microsoft Defender 威胁智能 适用于商业高级版的 Microsoft Defender 套件 Microsoft Defender for Cloud Microsoft Defender 云安全状况管理 Microsoft Defender 外部攻击面管理 Azure 防火墙 Azure Web 应用防火墙 Azure DDoS 防护 GitHub 高级安全性 Microsoft Defender for Endpoint Microsoft Defender XDR Microsoft Defender 商业版 Microsoft Intune 核心功能 Microsoft Defender for IoT Microsoft Defender 漏洞管理 Microsoft Intune 高级分析 Microsoft Intune Endpoint Privilege Management Microsoft Intune 企业应用程序管理 Microsoft Intune 远程帮助 Microsoft 云 PKI Microsoft Purview 通信合规性 Microsoft Purview 合规性管理器 Microsoft Purview 数据生命周期管理 Microsoft Purview 电子数据展示 Microsoft Purview 审核 Microsoft Priva 风险管理 Microsoft Priva 主体权利请求 Microsoft Purview 数据治理 适用于商业高级版的 Microsoft Purview 套件 Microsoft Purview 数据安全功能 价格 服务 合作伙伴 网络安全意识 客户案例 安全性 101 产品试用 行业认可 安全响应中心 Microsoft 安全博客 Microsoft 安全活动 Microsoft 技术社区 文件 技术内容库 培训和认证 Microsoft Cloud 合规性计划 Microsoft 信任中心 服务信任门户 Microsoft 安全未来计划 业务解决方案中心 连络销售人员 开始免费试用 Microsoft 安全 Azure Dynamics 365 Microsoft 365 Microsoft Teams Windows 365 Microsoft AI Azure Space 混合现实 Microsoft HoloLens Microsoft Viva 量子计算 可持续发展 教育 汽车 金融服务 政府 医疗保健 制造业 零售业 查找合作伙伴 成为合作伙伴 合作伙伴网络 Microsoft Marketplace Marketplace Rewards 软件开发公司 博客 Microsoft Advertising 开发人员中心 文档 活动 许可 Microsoft Learn Microsoft Research 查看站点地图

什么是 AI 安全性?

了解 AI 安全的基础知识,以及如何保护 AI 系统免受潜在威胁和漏洞的影响。

AI 安全概述


AI 安全是网络安全的一个分支,专门针对 AI 系统。它是指保护 AI 系统免受威胁和漏洞影响的一组流程、最佳做法和技术解决方案。 

关键要点

  • AI 安全保护 AI 数据,维护系统完整性,并确保 AI 服务的可用性。
  • AI 系统面临的常见威胁包括数据投毒、模型反转攻击和对抗性攻击。
  • AI 安全的最佳做法包括加密数据、强大的测试、严格的访问控制和持续监控。
  • 新式 AI 安全工具、解决方案和框架可帮助保护 AI 系统免受不断演变的威胁。 

什么是 AI 安全?

AI 以前所未有的速度为世界带来了令人难以置信的创新。遗憾的是,网络犯罪分子也像世界其他地方一样迅速掌握了人工智能技术,这就带来了新的安全漏洞、威胁和挑战。

AI 安全或人工智能安全,是指旨在保护 AI 系统免受这些威胁的措施和做法。正如传统 IT 系统需要防范黑客攻击、病毒和未经授权的访问一样,AI 系统需要自己的安全措施来确保它们保持正常运行、可靠且受保护。

AI 安全性非常重要,原因有多种,包括:
 
  • 保护敏感数据。AI 系统处理大量敏感数据,包括金融、医疗、个人和财务信息。 
  • 维护系统完整性。AI 系统中未经检查的漏洞可能会导致模型受损,进而产生不准确或有害的结果。
  • 保障人工智能服务的可用性。与任何其他服务一样,AI 系统必须保持可用性和可操作性,尤其是当越来越多的人和组织开始依赖这些系统时。安全漏洞往往会导致停机,从而中断基本服务。 
  • 问责制。如果要在全球范围内采用 AI,人员和组织需要相信 AI 系统安全可靠。

AI 安全的关键概念

  • 机密性:确保只有经过授权的个人或系统才能访问敏感数据。 
  • 完整性:保持 AI 系统的准确性和一致性。
  • 可用性:确保 AI 系统保持运行和可访问性。 

  • 问责制:跟踪 AI 系统执行操作能力。
 

AI 安全与面向网络安全的 AI

重要的是要区分两个相关但不同的概念:AI 安全性和适用于网络安全的 AI

AI 安全侧重于保护 AI 系统本身。AI 安全包括旨在保护 AI 模型、数据和算法免受威胁的策略、工具和做法。这包括确保 AI 系统按预期运行,并且攻击者无法利用漏洞来作输出或窃取敏感信息。

另一方面,用于网络安全的 AI 是指使用 AI 工具和模型来提高组织检测、响应和缓解所有技术系统威胁的能力。它可帮助企业分析海量事件数据,并找出表明潜在威胁的模式。用于网络安全的 AI 可以跨多个源分析和关联事件和网络威胁数据。

总而言之,AI 安全是保护 AI 系统,而 AI 网络安全是指使用 AI 系统来增强组织的整体安全状况。
AI 面临的威胁

常见 AI 安全威胁

随着 AI 系统越来越广泛地被公司和个人使用,它们成为网络攻击越来越有吸引力的目标。

AI 系统的安全面临几大威胁:

数据投毒

攻击者将恶意或误导性数据注入 AI 系统的训练集时,会发生数据投毒。由于 AI 模型的好坏取决于其训练所依据的数据,因此破坏这些数据会导致不准确或有害的输出。 

模型反转攻击

在模型反转攻击中,攻击者利用 AI 模型的预测来反向设计模型所训练的敏感信息。这可能会导致公开非公开访问的机密数据,例如个人信息。这些攻击会带来重大风险,尤其是在处理处理敏感信息的 AI 模型时。

对抗性攻击

对抗性攻击涉及创建欺骗性输入,诱使 AI 模型做出错误的预测或分类。在这些攻击中,看似无害的输入(如更改的图像或音频片段)会导致 AI 模型出现不可预测的行为。在一个真实世界的例子中,研究人员演示了对图像进行细微改动是如何骗过面部识别系统,使其误认为是人的。

隐私问题

AI 系统通常依赖于大型数据集,其中许多数据集包含个人或敏感信息。确保数据被用于 AI 训练的个人隐私是人工智能安全的一个重要方面。如果数据处理不当、存储或使用方式违反了用户同意,可能会发生隐私泄露。

 仓促部署 

公司往往面临着快速创新的巨大压力,这可能导致测试不足、部署仓促和安全审查不充分。开发速度的加快有时会导致关键漏洞得不到解决,从而在 AI 系统投入运行后产生安全风险。

供应链漏洞

AI 供应链是一个复杂的生态系统,存在潜在的漏洞,可能危及人工智能系统的完整性和安全性。第三方库或模型中的漏洞有时会使 AI 系统受到利用。 

AI 错误配置

开发和部署 AI 应用程序时,错误配置可能会使组织面临直接风险,例如无法为 AI 资源实施标识管理,以及间接风险,例如 Internet 公开的虚拟机中的漏洞,这些漏洞可能允许攻击者获取对 AI 资源的访问权限。 

提示注入

在提示注入攻击中,黑客将恶意输入伪装成合法提示,导致 AI 系统执行意外操作。攻击者通过精心设计欺骗性提示,诱使人工智能模型生成包含机密信息的输出结果。 

保护 AI 系统的最佳做法

确保 AI 系统的安全性需要一种全面的方法来解决技术和运营难题。下面是一些保护 AI 系统的最佳做法:

数据安全

为了确保用于训练 AI 模型的数据的完整性和保密性,组织应实施可靠的数据安全措施,其中包括:

  • 加密敏感数据以帮助防止未经授权访问 AI 训练数据集。
  • 验证数据源:请务必确保用于训练的数据来自受信任且可验证的源,从而降低数据危害的风险。
  • 定期清理数据以删除任何恶意或不需要的元素有助于缓解 AI 安全风险。

模型安全

保护 AI 模型免受攻击与保护数据同样重要。确保模型安全性的关键技术包括:

  • 定期测试 AI 模型,找出潜在的对抗性攻击漏洞,对于维护安全至关重要。
  • 使用差异隐私来帮助防止攻击者从 AI 模型中反向工程敏感信息。
  • 实现攻击性训练,该训练针对模拟攻击的算法训练 AI 模型,以帮助他们更快地识别实际攻击。 

访问控制

实施强访问控制机制可确保只有经过授权的个人才能与 AI 系统交互或修改 AI 系统。组织应:

  • 使用基于角色的访问控制基于用户角色限制对 AI 系统的访问。
  • 实现多重身份验证,为访问 AI 模型和数据提供额外的安全层。
  • 监视和记录所有访问尝试,确保快速检测和缓解未经授权的访问。

定期审核和监视

持续监视和审核 AI 系统对于检测和响应潜在安全威胁至关重要。组织应:

  • 定期审核 AI 系统,以发现系统性能中的漏洞或异常。 
  • 使用自动监视工具实时检测异常行为或访问模式。 
  • 定期更新 AI 模型,修补漏洞,提高抵御新威胁的能力。 

使用适当的工具增强 AI 安全

有多种工具和技术可帮助增强 AI 系统的安全性。其中包括安全框架、加密技术和专用 AI 安全工具。

安全框架

NIST AI 风险管理框架等框架为组织提供了管理和缓解与 AI 相关的风险的准则。这些框架提供了保护 AI 系统、识别潜在风险以及确保 AI 模型可靠性的最佳做法。

加密技术 

使用加密技术有助于保护数据和 AI 模型。通过对敏感数据进行加密,企业可以降低数据泄露的风险,并确保即使攻击者获取了数据,这些数据仍然无法使用。

AI 安全工具

开发了各种工具和平台来保护 AI 应用程序。这些工具可帮助组织检测漏洞、监视 AI 系统是否存在潜在攻击,以及强制实施安全协议。 

AI 安全解决方案

随着 AI 安全挑战的不断演变,组织必须始终积极主动地将其安全策略适应不断变化的威胁环境,确保 AI 系统的安全性和可靠性。关键策略包括采用全面的安全框架、投资加密技术和访问控制,以及随时了解新出现的威胁和新解决方案。

新式 AI 安全解决方案 保护和管理 AI,显著增强了组织对这些新威胁的保护。通过集成这些强大的 AI 安全解决方案,组织可以更好地保护其敏感数据、维护法规合规性,并帮助确保 AI 环境的复原能力免受将来的威胁。

常见问题解答

  • AI 安全有助于防范的一些主要安全风险包括数据泄露、模型操纵、对抗性攻击,以及出于网络钓鱼等恶意目的滥用人工智能。
  • 保护 AI 涉及使用加密、定期测试、监视和人工监督保护 AI 数据、模型和系统免受网络攻击。
  • AI 安全侧重于保护 AI 系统本身。它包含旨在保护 AI 模型、数据和算法免受威胁的策略、工具和做法。用于网络安全的 AI 是指使用 AI 工具和模型来提高组织检测、响应和缓解所有技术系统威胁的能力。

关注 Microsoft 安全