你的位置:首页 > 市场 > 正文

70%中国企业将实施AI安全测试,从5%到70%的爆发式增长意味着什么?

发布时间:2026-04-15 责任编辑:lily

【导读】随着大语言模型与AI智能体在中国关键领域的加速落地,网络安全格局正面临前所未有的重塑。Gartner最新预测指出,到2029年,实施AI安全测试的中国企业比例将从目前的不足5%激增至70%。这一爆发式增长不仅源于对提示词注入、数据泄露等新型技术风险的防御需求,更受到合规监管与业务连续性的深层驱动。本文将深入解读AI安全测试如何从单一的“技术防御”拓展为涵盖合规、伦理的“广义安全”,并探讨企业应如何通过“人机结合”的混合模式,将安全测试转化为抢占市场先机的战略赋能工具。


Gartner高级研究总监赵宇表示:“大语言模型(LLM)和 AI智能体在各个关键领域中的大规模部署正在重塑中国的网络安全格局。对于中国的CIO及其安全团队而言,专业化与持续性的AI安全测试不仅是防御措施, 更是部署高价值 AI、抢占市场份额、确保合规以及实现中国 AI 全球领导力目标的关键推动力。”


AI 大规模融入业务系统


随着国产大语言模型的快速发展,企业机构纷纷将AI大规模地融入业务系统。因此, AI安全测试必须高度自动化,并无缝集成到现有安全工具和工作流程中,以防成为拖慢系统上线速度的瓶颈。


人工测试仍是必须选项


中国的企业机构尚未完全依赖自动化的 AI安全测试(AI-ST)工具,对于自定义的测试场景来说,人工测试仍是必须。 


中国的AI安全测试正逐步拓展为 “ 广义安全 ” 测试


为响应各类监管标准,中国的AI安全测试正在从传统的网络安全测试,逐步拓展为涵盖违规、歧视与偏见等问题的 “ 广义安全 ” 测试。这些领域通常超出网络安全团队的传统职责范围,凸显了更高层级的统筹协调与战略规划在 AI 安全测试中的必要性。 


企业机构面临新的安全挑战


在尝试使用AI智能体来实现业务流程自动化时,企业机构面临新的安全挑战,主要涉 及四个方面:外部调用安全、AI智能体的身份与访问管理(IAM)、行为可控性以及规划完整性。 AI智能体的测试复杂度远高于通用 AI,测试人员必须具备领域专业知识, 不仅需要懂业务逻辑,还要能够理解智能体应用场景。


Gartner高级研究总监赵宇表示:“中国的CIO必须将AI安全测试视为战略赋能工具,而不仅仅是合规成本,因为其有助于识别风险,并能加快AI在关键职能中的安全采用。”


针对上述一些目前切实存在的情况与挑战,Gartner给出建议如下:


评估并升级现有安全测试工具,研究专用的AI安全测试工具以弥补能力缺口。定期开展针对AI的渗透测试和红队演练。 


建立持续测试流程,将AI安全测试集成到持续集成 / 持续交付(CI/CD)流水线和安全运营中。 


采用人机结合的混合测试模式,同时利用人类智能与自动化方法,以应对复杂、动态、上下文相关的漏洞。 


组建跨职能团队,集合技术、业务和合规方面的专业能力,确保AI安全测试的全面性、相关性,以及与企业目标和外部要求的一致性。



3-958x200_20251021044704_586.png

特别推荐
技术文章更多>>
技术白皮书下载更多>>
热门搜索

关闭

 

关闭