计算机行业深度报告:十月初人工智能产业事件更新与解读
- 2025-10-12 11:10:52上传人:Am**白。
-
Aa
小
中
大
投资要点若将2024年2月发布的初代Sora视为视频生成模型的“GPT-1时刻”,则Sora2可被视作其“GPT-3.5时刻”。相较于早期版本,Sora2在指令遵循方面实现了更精细与更持久的控制能力,在物理规律的理解与模拟方面取得显著进展,能够一定程度上遵循现实物理法则,模拟包括成功与失败在内的各类动作,并支持生成复杂且真实的音
- 1. Sora 2发布及国内外大模型更新
- 1.1. Sora 2:视频大模型的 GPT-3.5时刻
- 1.2. 其他人工智能领域更新
- 2. OpenAI与AMD达成战略合作与 Altman访问东亚
- 2.1. OpenAI与AMD达成战略合作
- 2.2. 奥特曼访问东亚
- 2.3. 从星际之门与 DeepSeek看中美AI战略差异
- 3. OpenAI发布会:技术迭代到产品生态,打破“大模型吞噬软件”疑云
- 3.1. OpenAI发布会内容与解析:做 AI的聚合平台
- 3.2. 大模型吞噬软件 or应用发展新范式?
- 4. 投资建议
- 5. 风险提示
- 请务必阅读正文之后的免责声明部分
- 行业深度报告
- 东吴证券研究所
- 3 / 12
- 图1: Self Attention的内存占用可以理解为一个 N*N的矩阵,时间复杂度为 O(N
- D),空间复
- 杂度O(N
- )。左图为 OpenAI仅计算Causal Attention(蓝色空格)的复杂度矩阵,右图为同时计
- 算前后关联度的复杂度矩阵
- 图2: 稀释注意力模型的一种形式 ——Atrous Self Attention,仅计算距离为 k的关联度
- 图3: 稀释注意力模型的一种形式 ——Local Self Attention,仅计算前后相邻的关联度
- 图4: 梁文锋署名论文中提到的稀释注意力机制( NSA),将进一步显著提升长文本处理速
- 度、降低算力需求