您好,欢迎来到报告网![登录] [注册]

计算机行业:国产开源MoE模型DeepSeek-V2性能媲美GPT-4,大模型价格战拉开帷幕

  1. 2024-05-13 13:10:56上传人:散一**离别
  2. Aa
    分享到:
事件:5月7日,知名私募巨头幻方量化旗下的AI公司DeepSeek发布全新第二代MoE大模型DeepSeek-V2。性能直逼GPT-4Turbo,综合能力位于大模型第一梯队。DeepSeek-V2是一个参数为2360亿的MoE模型,每个token仅激活210亿参数,支持128K的上下文长度。1)纵向对比:对比去年11月发布的DeepSeek67B性能取得显著提升,训练成本节省了

VIP专享文档

扫一扫,畅享阅读

立即订阅

还剩2页未读,订阅即享!

我要投稿 版权投诉

散一**离别

该用户很懒,什么也没介绍!

关注 私信

报告咨询

  • 400-817-8000全国24小时服务
  • 010-5824-7071010-5824-7072北京热线 24小时服务
  • 059-2533-7135059-2533-7136福建热线 24小时服务

如您想投稿,请将稿件发送至邮箱

seles@yuboinfo.com,审核录用后客服人员会联系您

机构入驻请扫二维码,可申请开通机构号

Copyright © 2023 baogao.com 报告网 All Rights Reserved. 版权所有

闽ICP备09008123号-13