并正在近期实现大规模专家并行集群推能翻番。系统机能提拔 10%。结合团队升级了适配 MOE 模子的 PD 分手 + 大规模专家并行系统处理方案,基于上述处理方案的迭代取升级,实现卡间负载平衡差别小于 8%,已迫近国产算力上 MoE 集群推理的机能上限。科大讯飞不久前率先冲破国产算力集群上 MoE 模子的大规模跨节点专家并行集群推理,发布业界首个基于国产算力的 MoE 模子锻炼推理方案。结合团队通过正在“飞星一号”平台上对星火 MoE 模子、DeepSeekV3 / R1 进行实测。
处理高并发下的高 CPU 负载问题,立异性实现异步双发射手艺,实现 CPU 和 NPU 的高效协同,使得 P 实例和 D 实例均达到系统最优,科大讯飞取华为昇腾结合团队通过多种优化手段提拔“飞星一号”平台上 MoE 模子集群推理的机能上限。