计算机行业:国产开源MoE模型DeepSeek-V2性能媲美GPT-4,大模型价格战拉开帷幕
- 2024-05-13 13:10:56上传人:散一**离别
-
Aa 小 中 大
事件:5月7日,知名私募巨头幻方量化旗下的AI公司DeepSeek发布全新第二代MoE大模型DeepSeek-V2。性能直逼GPT-4Turbo,综合能力位于大模型第一梯队。DeepSeek-V2是一个参数为2360亿的MoE模型,每个token仅激活210亿参数,支持128K的上下文长度。1)纵向对比:对比去年11月发布的DeepSeek67B性能取得显著提升,训练成本节省了
报告网所有机构报告是由用户上传分享,未经用户书面授权,请勿作商用!