【导读】在阿里继重磅开源Qwen3.5-397B-A17B之后,再次释放Qwen3.5系列三款中等规模模型(35B、122B及27B版本)之际,国产算力生态迎来了又一次关键的协同升级。摩尔线程迅速响应,宣布其旗舰级AI训推一体全功能GPU MTT S5000已率先完成对这三款新模型的全方位适配。这一举措不仅标志着MUSA生态在应对前沿大模型时的成熟度与完备性得到了有力验证,更通过原生MUSA C支持与深度兼容Triton-MUSA两大核心能力,为开发者构建了从CUDA生态无缝迁移至国产算力的高效桥梁。
此次高效支持充分展示了摩尔线程MUSA生态的成熟度与完备性。在本次Qwen3.5系列模型的适配过程中,MUSA生态赋能开发者的两大核心能力得到了有力验证:
原生MUSA C支持:允许开发者直接使用MUSA C进行内核开发,大幅降低CUDA生态迁移门槛;
深度兼容Triton-MUSA:开发者可使用熟悉的Triton语法编写高性能算子,并通过Triton-MUSA后端,无缝运行在摩尔线程全功能GPU上。
在底层技术层面,针对Qwen3.5多模态模型采用的混合注意力机制,摩尔线程实现了原生优化。基于muDNN计算库和MATE开源算子库,摩尔线程为混合注意力机制中的长序列处理提供高效支撑,成功在MTT S5000上实现了该模型的高性能推理。
总结
从GLM、MiniMax到Kimi,再到此次Qwen3.5系列的极速适配,摩尔线程已将对SOTA大模型的快速支持转化为一种“新常态”,充分印证了MUSA架构卓越的无缝兼容性与全功能GPU强大的生态承载力。通过底层针对混合注意力机制的原生优化及muDNN、MATE算子库的高效支撑,摩尔线程不仅解决了长序列处理等关键技术难题,更筑牢了坚实、易用的国产算力底座。



