计算机行业研究:深度学习算法发展:从多样到统一
- 2022-12-20 04:06:08上传人:to**诺粞
-
Aa 小 中 大
- 1. 感知机:第一个神经网络
- 2. 多层感知机与 BP 算法 —— 神经网络的再兴起
- 2.1 多层 感知机解决了多元分类问题
- 2.2 BP 算法:神经网络训练的基本算法
- 3. 浅层神经网络在多应用领域各自演进
- 3.1 图像识别领域: “卷积 ”机制提取图像空间特征
- 3.2 自然语言处理领域: “循环 ”机制提取语言时序特征
- 3.3 支持向量机:深度学习出现之前的主流算法
- 4. 梯度消失问题的解决使神经网络向深层迈进
- 4.1 逐层无监督是深度学习的初次探索
- 4.2 ReLu 激活 函数的提出开启了深度学习时代
- 5. Transformer 统一了各任务底层算法,开启多模态和大模型时代
- 6. 探索多模态主干网络
- 7. 探索 Transformer 时代的分支网络
- 7.1 AIGC 领域:多模态 Transformer+ 扩散模型
- 7.2 对话机器人 ChatGPT :语言 Transformer+ 强化学习模型
- 8. 小结及投资建议
- 9. 风险提示
- 图表 1:感知机二元分类过程
- 图表 2:数据的线性可分性
- 图表 3:多层感知机通过引入隐藏层进行多元分类
- 图表 4:梯度消失使神经网络无法正常训练
- 图表 5:卷积神经网络典型结构
- 图表 6:卷积的实质是提取关键特征
- 图表 7: RNN 同时接受当前时刻输入与上一时刻输出的信息
- 图表 8:感知机与支持向量机目标函数不同
- 图表 9:在深度学习之前,支持向量机是解决人工智能任务的主流方法
- 图表 10 :逐层无监督 +BP 有监督解决梯度消失问题
- 图表 11 : Sig moid 和 tanh 函数存在梯度过大 /过小问题
- 图表 12 :残差学习进一步缓解了梯度消失问题
- 图表 13 : Transformer 示意图
- 图表 14 : GPT 系列模型参数呈指数级增长
- 图表 15 : ViT 模型将图像当作文本进行处理
- 图表 16 :每层 Swin Transformer 之间进行了类似 CNN 的 patch merging
- 图表 17 : CLIP 多模态网络采用图像 -文本联合训练
- 图表 18 :目前主流的多模态主干网络
- 图表 19 :扩散模型的前向扩散和反向生成过程
- 图表 20 : DDPM 在 AIGC 领域的前沿成果
- 图表 21 :强化学习模型示意
- 图表 22 :神经网络各发展阶段经典模型梳理
报告网所有机构报告是由用户上传分享,未经用户书面授权,请勿作商用!