全国网络安全标准化技术委员会在官网发布了国家标准《网络安全技术 生成式人工智能服务安全基本要求》征求意见稿。这一标准旨在提升生成式人工智能开发和应用的安全性。

该意见稿分为《标准文本》、意见汇总处理表和编制说明三大部分,涵盖了训练数据安全要求和模型安全要求。标准文本主要包括以下几个方面:
数据来源安全
- 采集来源管理
- 采集前需对数据来源进行安全评估,违法信息超过5%的数据源不得采集。
- 采集后需核验数据,含违法信息超过5%的数据源不得使用。
- 不同来源训练数据搭配
- 训练数据应具备多样性,不同语言和类型的数据应有多个来源。
- 使用境外数据时应与境内数据合理搭配。
- 训练数据来源可追溯
- 使用开源数据时需具备许可协议或相关授权文件。
- 使用自采数据时需具备采集记录,不得采集明确禁止的数据。
- 使用商业数据时需具备合法合同和合作协议,数据来源需经审核。
- 使用者输入的信息需具备授权记录。
数据内容安全
- 训练数据内容过滤
- 训练前应对数据进行过滤,去除违法信息。
- 知识产权
- 建立知识产权管理策略,识别和处理侵权风险。
- 建立投诉举报渠道,告知用户生成内容的知识产权风险。
- 支持公开训练数据的摘要信息,便于查询。
- 个人信息保护
- 使用包含个人信息的数据前需取得同意或符合法律规定。
- 使用包含敏感个人信息的数据前需取得单独同意或符合法律规定。
模型安全要求
- 模型训练
- 训练过程中应重视生成内容的安全性。
- 定期进行安全审计,修复安全漏洞。
- 模型输出
- 提高生成内容的准确性、可靠性,减少错误内容。
- 对偏激或诱导违法信息的问题应拒绝回答。
- 图片、视频等生成内容需符合国家规定。
- 模型监测
- 持续监测模型输入内容,防范恶意攻击。
- 建立常态化监测机制和应急管理措施。
- 模型更新和升级
- 制定安全管理策略,进行安全评估。
- 软硬件环境
- 评估计算系统的供应链安全,确保稳定性。
- 模型训练环境和推理环境需隔离,防止数据泄露。
相关背景
2023年7月,国家网信办等七部门发布了《生成式人工智能服务管理暂行办法》,为生成式人工智能的健康发展提供了政策保障。本次发布的标准细化了《办法》中的安全要求,针对生成式人工智能服务的网络安全、数据安全、个人信息保护等方面提出了具体要求。
该标准征求意见稿详细规定了生成式人工智能服务在研发和应用中的安全要求,体现了国家对创新技术的重视和对应用安全的保障。有兴趣的可以访问全国网络安全标准化技术委员会官网查看全部内容。