31% 领域1 - AI 治理与项目管理
A-利益相关者考量、行业框架及法规要求
- 组织结构与整体治理
- 角色与职责
- 章程与指导委员会
- 识别利益相关者
- 风险偏好与容忍度
- 框架、标准与法规
- 选择合适框架
- AI商业与应用场景
- 隐私考量
B-AI相关的策略、政策与程序
- AI战略
- 消费者 vs. 企业应用
- 购买 vs. 自建
- AI政策
- 负责任使用
- 可接受使用
- AI程序
- 实施手册
- 伦理
C-AI资产与数据生命周期管理
- AI资产与数据清单
- 库存管理
- 模型卡片
- 数据处理、分类与发现
- 数据增强与清洗
- 数据存储
- 数据保护
- 数据销毁
D-AI安全项目开发与管理
- 文档化项目计划
- 安全团队的角色、职责与能力
- 对现有信息安全的对齐
- 使用AI赋能的安全工具
- 指标与管理
- 关键风险指标(KRIs)与关键绩效指标(KPIs)
- 管理报告
E-业务连续性与事件响应
- 事件检测
- 通知
- 事件分类
- 关键性与严重性
- 弹性
- 业务连续性计划
- 合规紧急按钮要求
- 针对AI的事件响应剧本
- 紧急政策/启动决策
- 权限
- 恢复时间目标(RTO)与恢复点目标(RPO)——从AI视角
- 灾难恢复
- 测试
31% 领域2 - AI 风险管理
A-AI风险评估、阈值与应对
- 影响评估
- 合规性评估
- 隐私影响评估(PIAs)
- 风险记录与文档化
- 可接受风险水平
- 风险处置计划
- AI应用的关键风险指标(KRIs)与关键绩效指标(KPIs)
B-AI相关安全策略、政策与流程
- 渗透测试(PEN Test)
- 漏洞扫描
- 红队演练
- AI系统特有漏洞
- 对抗性攻击威胁
- 威胁情报分析
- 由AI驱动的攻击路径与攻击链
- 异常行为识别
- 当前威胁态势
- 深度伪造(Deep Fakes)
- 内部人员威胁
- AI智能代理(AI Agents)
C-AI供应商与供应链管理
- 软件包与依赖库的风险
- 供应商尽职调查与合同管理
- 服务等级协议(SLAs)
- 供应商使用规范
- 责任归属模型(提供方 vs. 部署方)
- 第三方、第四方及更深层供应链风险
- 所有权与知识产权
- 访问权限控制
- 法律责任界定
- 供应商风险持续监控与变更管理
38% 领域3 - AI 技术与控制措施
A-AI安全架构与设计
- 变更管理
- 安全开发生命周期(SDL)
- 安全内建(Secure by Design)
- 基础设施即代码(IaC)的安全防护
- 数据流向分析
- 经批准的基础模型管理
- AI系统与整体架构的连接与交互
B-AI生命周期管理(如模型选型、训练与验证)
- 模型间连通性测试
- 模型关联性分析
- 回归测试
- 模型测试流程
- 阶段性推进机制
- 测试、评估、验证与确认(TEVV)
- 模型准确性测试与性能评估
C-数据管理控制
- 数据采集规范
- 数据管控机制
- 防范数据投毒(Data Poisoning)
- 偏见(Bias)识别与缓解
- 数据准确性保障
- 数据位置与合规要求
D-隐私、伦理、可信与安全控制
- 模型可解释性(Explainability)
- 隐私保护措施:如被遗忘权、数据主体权利
- 用户同意机制
- 透明度要求
- 决策公平性
- 伦理准则
- 自动化决策治理
- “人在回路”机制(Human in the Loop)
- 可信与安全机制:内容审核
- 潜在危害防范
- 环境影响评估
- 数据最小化与匿名化
E-安全控制与监控
- 安全监控指标
- 控制措施的合理选择
- 控制实施与部署
- 控制自评估(CSA)
- 控制措施全生命周期管理
- 持续监控机制
- 安全控制相关的KPI与KRI
- 技术性防护措施
- 威胁与控制措施映射
- 安全意识培训
支持下列任务
支持下列任务:
- 制定并协同AI章程、角色与职责,确保其与企业目标一致。
- 建立并维护AI特定的安全政策与程序,指导AI标准和指南的开发与实施。
- 确保负责任地使用AI,遵循最佳实践、伦理原则、法规要求及行业框架。
- 参与或监督AI风险管理生命周期,包括对企业风险的影响评估。
- 识别并评估AI威胁态势。
- 监控内部与外部AI相关因素,以确定是否需要重新评估风险。
- 设计并实施AI解决方案的测试与漏洞管理。
- 进行AI影响评估,并确保符合法规要求。
- 在使用供应商提供的AI解决方案时,嵌入、监控并验证AI安全要求。
- 设计并实现专门针对AI的安全架构。
- 就AI架构作为企业架构一部分的集成提供建议。
- 设计、实施并定期审查AI安全控制措施,以将风险控制在可接受水平。
- 建立并维护流程,识别、清点并分类与AI相关的数据和资产。
- 识别并处理AI生命周期中使用的数据带来的安全风险。
- 建立并维护AI特定流程,用于调查、记录并报告符合法规和合同要求的AI安全事件。
- 建立并维护AI事件处理流程,包括隔离、通知、升级、消除和恢复。
- 将AI安全风险纳入业务连续性和灾难恢复规划。
- 定义并监控组织内使用的AI解决方案的安全指标。
- 审查并实施作为信息安全计划一部分的AI安全工具。
- 基于风险的人工智能输入/输出监督,包括信任与安全、质量、可解释性及鲁棒性。
- 开发并维护AI特定的安全意识培训和使用指南。
- 就组织内AI解决方案开发生命周期中的安全风险与控制提供建议。