您好,欢迎来到报告网![登录] [注册]

计算机行业研究:深度学习算法发展:从多样到统一

  1. 2022-12-20 04:06:08上传人:to**诺粞
  2. Aa
    分享到:

  • 1. 感知机:第一个神经网络
  • 2. 多层感知机与 BP 算法 —— 神经网络的再兴起
  • 2.1 多层 感知机解决了多元分类问题
  • 2.2 BP 算法:神经网络训练的基本算法
  • 3. 浅层神经网络在多应用领域各自演进
  • 3.1 图像识别领域: “卷积 ”机制提取图像空间特征
  • 3.2 自然语言处理领域: “循环 ”机制提取语言时序特征
  • 3.3 支持向量机:深度学习出现之前的主流算法
  • 4. 梯度消失问题的解决使神经网络向深层迈进
  • 4.1 逐层无监督是深度学习的初次探索
  • 4.2 ReLu 激活 函数的提出开启了深度学习时代
  • 5. Transformer 统一了各任务底层算法,开启多模态和大模型时代
  • 6. 探索多模态主干网络
  • 7. 探索 Transformer 时代的分支网络
  • 7.1 AIGC 领域:多模态 Transformer+ 扩散模型
  • 7.2 对话机器人 ChatGPT :语言 Transformer+ 强化学习模型
  • 8. 小结及投资建议
  • 9. 风险提示
  • 图表 1:感知机二元分类过程
  • 图表 2:数据的线性可分性
  • 图表 3:多层感知机通过引入隐藏层进行多元分类
  • 图表 4:梯度消失使神经网络无法正常训练
  • 图表 5:卷积神经网络典型结构
  • 图表 6:卷积的实质是提取关键特征
  • 图表 7: RNN 同时接受当前时刻输入与上一时刻输出的信息
  • 图表 8:感知机与支持向量机目标函数不同
  • 图表 9:在深度学习之前,支持向量机是解决人工智能任务的主流方法
  • 图表 10 :逐层无监督 +BP 有监督解决梯度消失问题
  • 图表 11 : Sig moid 和 tanh 函数存在梯度过大 /过小问题
  • 图表 12 :残差学习进一步缓解了梯度消失问题
  • 图表 13 : Transformer 示意图
  • 图表 14 : GPT 系列模型参数呈指数级增长
  • 图表 15 : ViT 模型将图像当作文本进行处理
  • 图表 16 :每层 Swin Transformer 之间进行了类似 CNN 的 patch merging
  • 图表 17 : CLIP 多模态网络采用图像 -文本联合训练
  • 图表 18 :目前主流的多模态主干网络
  • 图表 19 :扩散模型的前向扩散和反向生成过程
  • 图表 20 : DDPM 在 AIGC 领域的前沿成果
  • 图表 21 :强化学习模型示意
  • 图表 22 :神经网络各发展阶段经典模型梳理

VIP专享文档

扫一扫,畅享阅读

立即订阅

还剩17页未读,订阅即享!

我要投稿 版权投诉

to**诺粞

该用户很懒,什么也没介绍!

关注 私信

报告咨询

  • 400-817-8000全国24小时服务
  • 010-5824-7071010-5824-7072北京热线 24小时服务
  • 059-2533-7135059-2533-7136福建热线 24小时服务

如您想投稿,请将稿件发送至邮箱

seles@yuboinfo.com,审核录用后客服人员会联系您

机构入驻请扫二维码,可申请开通机构号

Copyright © 2023 baogao.com 报告网 All Rights Reserved. 版权所有

闽ICP备09008123号-13