大模型安全研究报告2024
- 2024-10-07 15:26:18上传人:Al**城恋
-
Aa
小
中
大
当前,由ChatGPT引发的全球大模型技术竞赛正推动人工智能由专用弱智能向通用强智能迈进,这不仅标志着智能水平的显著提升,也预示着人机交互方式和应用研发模式的重大变革。大模型在各行各业的广泛应用,为第四次工业革命的爆发提供了蓬勃动力和创新潜力。然而,随着大模型商业化应用和产业化落地加速,大模型技术局限和恶
- 一
- 大模型安全概述
- 1. 大模型技术演进12
- 1.1 探索期:预训练语言模型(2017 年 -2021 年)
- 12
- 1.2 爆发期:语言大模型(2022 年 -2023 年) 12
- 1.3 提升期:多模态大模型(2024- 至今) 12
- 2.大模型面临严峻安全挑战 13
- 2.1 训练数据安全风险13
- 2.2 算法模型安全风险14
- 2.3 系统平台安全风险15
- 2.4 业务应用安全风险15
- 3. 大模型带来新安全机遇16
- 4.大模型安全研究范围17
- 4.1 大模型自身安全 17
- 4.2 大模型赋能安全17
- 目录
- 二
- 大模型自身安全
- 1. 大模型自身安全框架20
- 1.1 安全目标 22
- 1.2 安全属性22
- 1.3 保护对象23
- 1.4 安全措施24
- 2. 训练数据安全保护措施25
- 2.1 数据合规获取 25
- 2.2 数据标注安全25
- 2.3 数据集安全检测26
- 2.4数据增广与数据合成27
- 2.5 安全对齐数据集构建27
- 3. 算法模型安全保护措施28
- 3.1 模型内生安全评测 28
- 3.2 模型鲁棒性增强29
- 3.3 模型“幻觉”缓解29
- 3.4 模型偏见缓解31
- 3.5 模型可解释性提升31
- 4. 系统平台安全措施32
- 4.1 系统安全加固保护 32
- 4.2 大模型插件安全保护33
- 5. 业务应用安全措施34
- 5.1 输入输出安全保护 34
- 5.2 生成信息标识35
- 5.3 账号恶意行为风控36
- 5.4 用户协议和隐私政策37
- FOUNDATION MODEL SAFETY RESEARCH REPORT
- 大模型安全研究报告