一360一提示您:看后求收藏(第1362章 字节豆包UltraMem稀疏模型架构,推理成本最高可降低83%,2024年行情,一360一,奇书网),接着再看更方便。
请关闭浏览器的阅读/畅读/小说模式并且关闭广告屏蔽过滤功能,避免出现内容无法显示或者段落错乱。
在人工智能领域,随着模型规模的不断扩大,推理成本和访存效率已成为制约大模型广泛应用的关键瓶颈。传统方法如moE(mixture of Experts)虽然通过稀疏激活机制成功实现了计算和参数的解耦,但在推理场景下,其高昂的访存成本和较慢的速度却成为了不可忽视的问题。近日,字节跳动豆包大模型团队提出的Ultramem架构,为这一难题提供了全新的解决方案,并在IcLR 2025上得到了认可。本文将深入探讨Ultramem的创新之处,以及它如何引领大模型推理的未来。
Ultramem:高效推理的新纪元
Ultramem是一种将计算和参数解耦的稀疏模型架构,它在保证模型效果的前提下,显着解决了推理时的访存问题。相较于moE,Ultramem在推理速度上实现了2-6倍的提升,推理成本最高可降低83%。这一突破性的成果,无疑为构建大规模语言模型(LLm)提供了有力的支持。
在transformer架构下,模型的性能与其参数数量和计算复杂度密切相关。然而,随着LLm规模的不断增大,推理成本急剧增加,速度变慢,成为制约其广泛应用的关键因素。moE架构虽然通过稀疏激活机制降低了计算量,但在推理时,较小的batch size会激活全部专家,导致访存急剧上升,推理延迟大幅增加。而Ultramem则通过一系列创新设计,有效解决了这一问题。
Ultramem的创新之处
Ultramem的创新主要体现在三个方面:优化模型结构、优化value检索方式以及隐式扩展稀疏参数。
首先,在模型结构上,Ultramem借鉴了pKm(product Key memory)的设计,但对其进行了改进。pKm的memory layer只有一层,插在整个transformer的中间层,这对大规模训练并不友好。Ultramem则拆分出多个小memory layer,以固定的间隔分布在transformer layer中,并增加了skip-layer操作。这使得模型可以并行地执行memory layer的访存操作和transformer layer的计算,从而提高了推理效率。
其次,在value检索方式上,Ultramem采用了更复杂的乘法方法tucker deposed query-Key Retrieval(tdqKR)。这一方法受启发于tucker deposition,通过组合乘加行score和列score,提高了value检索的复杂度,从而优化了模型效果。
本章未完,点击下一页继续阅读。