这一架构在超球面(hypersphere)上进行表示学习,能够显著提升大型语言模型(LLM)的训练速度,最高可达20倍,同时保持了模型的精度。
nGPT架构的核心在于将所有向量,包括嵌入、多层感知机(MLP)、注意力矩阵和隐藏状态,归一化为单位范数。
这种归一化处理使得输入的token在超球面表面上移动,每一层模型都通过位移来贡献最终的输出预测。
实验结果表明,nGPT在训练时所需的步骤比标准Transformer模型减少了4到20倍,具体加速效果取决于序列长度。
例如,在1k上下文中,训练速度提高了4倍;在4k上下文中,提高了10倍;而在8k上下文中,更是提高了20倍。
研究人员指出,nGPT的优化路径从超球面上的点开始,通过位移来贡献最终的输出预测,其中位移量由MLP和注意力模块定义。
这种方法不仅提高了训练速度,还增强了模型的稳定性。

锐龙7 9800X3D发布、上市时间定了!下个月就能买到
NVIDIA的下一代游戏GPU即将问世,还有新一代显卡配套软件
酷睿Ultra 200K全网首发开盖:台积电N6 6nm工艺,包含雷电、PCIe控制器
TCL华星印刷OLED量产在即:医疗设备用显示屏已在产线中试产,预计今年年底前正式量产
Intel和AMD一直是竞争关系,两家公司破天荒地联合起来,成立x86生态系统顾问小组
曝英特尔为自救除了调整企业发力方向外,也要大裁员
天玑9400,成为了移动AI芯片的最新最强成果!
Intel官方超频利器XTU 10.0发布:将不再根据active-core ratio中调整的值自动调整
RTX 50显卡全系敲定:最高配备32GB GDDR7显存,TBP典型板卡功耗600W



