网络安全前瞻:ISACA发布2026年科技趋势与优先事项调查报告
面对人工智能技术的迅猛发展,全球数字信任从业者正面临前所未有的挑战。根据国际专业技术组织ISACA最新发布的《2026年科技趋势与优先事项全球脉动调查》,近六成(59%)的网络安全专业人士预计,由AI驱动的网络攻击和深度伪造内容将成为2026年最令他们夜不能寐的威胁。
这项覆盖全球2,963名来自网络安全、IT审计、治理、风险与合规等领域的专业人员的调查显示,技术变革的速度已远超组织的应对能力。在AI带来巨大机遇的同时,其引发的风险正在加剧企业的焦虑。
AI:最大担忧,也最具潜力
AI不仅是最大的安全威胁来源,也是最受关注的技术趋势。调查显示,41%的专业人士将“跟上AI驱动的变革”列为2026年首要职业挑战,紧随其后的是威胁复杂化(27%)和人才招聘与保留(23%)。
与此同时,AI相关技术已被广泛视为未来核心驱动力:
-
62% 的受访者认为“AI与机器学习”是2026年关键技术优先项;
-
59% 将“生成式AI与大语言模型”列为关键趋势;
-
云安全(40%)、数据隐私与主权(30%)同样备受关注。
然而,理想与现实之间存在巨大鸿沟。仅有13%的受访者表示其组织对生成式AI风险“准备非常充分”,半数人仅感觉“有些准备”,另有30%坦言“不太或完全没准备”。
多重风险叠加,企业韧性面临考验
当前威胁格局日益复杂,63%的受访者将AI赋能的社交工程攻击视为最大网络风险——攻击者可利用AI伪造高管语音、生成高度逼真的钓鱼内容,大幅提升欺骗成功率。除AI威胁外,其他风险同样不容忽视:
-
监管复杂性与合规压力(38%)
-
供应链漏洞(37%)
-
未能及时发现并响应安全事件,导致不可挽回的损失(35%)
尤其值得警惕的是,仅有7%的受访者对组织成功抵御勒索软件攻击“极为自信”。与此同时,64%的受访者认为“业务连续性与韧性”将是2026年的重中之重。
监管压力与人才困境并存
尽管32%将监管复杂性视为压力源,但78%认为法规有助于建立数字信任,62%相信其能推动业务增长。合规(66%)已成为2026年组织首要关注领域,高于业务韧性(62%)和AI风险管理(48%)。
人才方面,虽然62%的组织计划在2026年招聘数字信任岗位(如审计、风险、安全),但其中44%预计难以找到合格人选。更令人担忧的是,即使面临职位空缺,仍有24%的组织明确表示没有相关招聘计划。
技能断层同样突出。39%的受访者认为,员工在数据安全方面的技能提升是组织的关键任务。当前的人才策略显然无法匹配日益增长的安全需求。
五大行动建议:构建主动防御体系
ISACA提出五项关键举措:
-
建立稳健的人工智能治理和风险框架。
-
加速员工技能提升和人才管道建设,并投资于持续学习、认证和内部流动。
-
改造传统系统和基础设施,以减少漏洞并提高敏捷性。
-
通过制定并定期测试事件响应计划、勒索软件恢复策略和跨职能危机管理协议,来加强网络韧性和业务连续性规划。
-
为监管复杂性和国际合规要求做好准备,监控法规变化,与专业社群互动,并投资于合规工具和框架
ISACA全球首席战略官Chris Dimitriadis指出:“AI是我们这个时代最大的机遇,也是最大的威胁。企业正积极拥抱AI的潜力,却普遍缺乏应对风险的能力。通过AI安全与审计认证,专业人员将更有能力管理风险、制定政策,确保技术负责任地使用。”
他进一步指出:“受访者提出的诸多担忧,恰恰预示着转型的契机——我们完全有能力将这些挑战从负担转化为推动业务增长的动力。例如,当我们不再把法规或指引视为简单的‘打勾过关’,而是将其作为长期实现韧性创新的机遇时,就能真正释放合规的战略价值。”
结语:化挑战为增长动力
面对AI带来的双重影响,组织必须从被动响应转向主动构建。唯有将技术、人才、合规与韧性纳入统一战略,才能在2026年及未来的数字竞争中赢得信任、实现可持续发展。
了解更多调查详情,请访问:www.isaca.org.cn/tech-trends-and-priorities-2026
.png)







