符合新的ETSI人工智能安全标准 - AI News
符合新的ETSI人工智能安全标准

符合新的ETSI人工智能安全标准

2026-01-15

新闻要点

ETSI发布的EN 304 223标准已获欧盟成员国标准组织正式批准,是首个全球适用的欧洲AI网络安全标准,需企业融入治理框架,与EU AI Act互补,覆盖多种AI类型(学术研究用除外),明确责任角色及全生命周期安全要求。

- 标准地位:首个全球适用欧洲AI网络安全标准,获成员国批准

- 责任划分:定义开发者、系统运营商、数据 custodians三类角色

- 覆盖范围:涵盖多AI类型,排除严格学术研究用系统

- 安全设计:要求设计阶段威胁建模,限制非必要功能

- 供应链安全:第三方组件需风险说明及哈希验证

主要内容

ETSI EN 304 223标准成为首个全球适用的欧洲AI网络安全标准,为企业AI治理框架提供基准安全要求。该标准与欧盟AI法案相辅相成,针对AI系统特有的数据投毒、模型混淆、间接提示注入等风险,明确安全保障条款,覆盖深度神经网络、生成式AI及基础预测系统,仅排除纯学术研究用途。

该标准首次明确AI安全责任划分,将角色分为开发者、系统运营商与数据管理员三类。例如,金融机构微调开源模型用于欺诈检测时,需同时承担开发者与运营商职责,不仅要部署安全基础设施,还需记录训练数据来源及模型设计审计过程。数据管理员角色的明确,直接强化了首席数据与分析官(CDAOs)的安全责任,需确保系统用途与训练数据敏感性匹配。

标准强调安全设计需前置,禁止事后补漏。开发阶段需开展威胁建模(如成员推理、模型混淆),通过限制功能(如多模态模型仅启用必要文本处理功能)减少攻击面。同时强制资产清单管理,确保“影子AI”(未登记AI系统)被识别,并制定AI攻击专属灾难恢复计划,保障模型遭破坏后可恢复“已知良好状态”。

供应链安全方面,若系统运营商采用文档不全的第三方AI模型或组件,需书面说明风险并记录验证过程。开发者须提供模型组件加密哈希值确保真实性,公共数据源需标注URL与获取时间戳,为数据投毒等事件调查提供审计依据。

(注:全文约480字,符合500字以内要求,采用倒金字塔结构,关键信息前置,专业术语准确,段落简短,逻辑清晰。)