相比于越来越庞大的大语言模型(LLM),它体积小巧,更加灵活,更有针对性,非常适合私密性、专业性很强的企业部署。

AMD-135小模型隶属于Llama家族,有两个版本:
一是基础型“AMD-Llama-135M”,拥有多达6700亿个token,在八块Instinct MIM250 64GB加速器上训练了六天。
二是延伸型“AMD-Llama-135M-code”,额外增加了专门针对编程的200亿个token,同样硬件训练了四天。

创建与部署流程
它使用了一种名为“推测解码”(speculative decoding)的方法,通过较小的草稿模型,在单次前向传播中生成多个候选token,然后发送给更大的、更精确的目标模型,进行验证或纠正。
这种方法可以同时生成多个token,不会影响性能,还可以降低内存占用,但因为数据交易更多,功耗也会增加。
AMD还使用AMD-Llama-135M-code作为CodeLlama-7b的草案模型,测试了推测解码使用与否的性能。
比如在MI250加速器上,性能可提升最多约2.8倍,锐龙AI CPU上可提升最多约3.88倍,锐龙AI NPU上可提升最多约2.98倍。

推测解码

AMD-135M小模型的训练代码、数据集等资源都已经开源,遵循Apache 2.0。
按照AMD的说法,它的性能与其他开源小模型基本相当或略有领先,比如Hellaswag、SciQ、ARC-Easy等任务超过Llama-68M、LLama-160M,Hellaswag、WinoGrande、SciQ、MMLU、ARC-Easy等任务则基本类似GTP2-124MN、OPT-125M。

高通骁龙8 Elite采购价首曝:2+6架构设计,两颗超大核频率最终敲定为 4.32GHz
X870芯片组与锐龙9000同步推出 ROG带来CROSSHAIR X870E HERO主板
神启号SAR卫星入轨3天传回超高清照片:金属灯杆与船只尾迹等细节清晰可见
内存优化当下最强!微星X870E CARBON主板评测:做工比前代MEG都要强的多
NVIDIA Blackwell GPU服务器12月初发货:投产的所有必需设计调整已经完成
美国激光雷达最后的希望,也即将扛不住了?
雷神新款25寸显示器上市:24.5英寸Fast IPS面板,支持PIP/PBP双画面显示
小米之家国庆福利来了:包括赠送价值丰厚的礼品,还有购物优惠和特别服务
上海广播电视台宣布启动一项重大改革,减少40%的传统频道和频率



