AMD正式发布了其首个小语言模型(SLM),命名为 “AMD-135M”。该模型属于 Llama 家族,并提供了两个不同版本。第一个是基础版 “AMD-Llama-135M”,模型经过多达 6700亿个token 的训练数据,在 八块 Instinct MIM250 64GB 加速器 上运行六天完成训练。第二个是针对编程的延伸版 “AMD-Llama-135M-code”,在基础版本的基础上,额外增加了 200亿个专为编程准备的token,使用相同硬件完成了四天的训练。
此分类大部分文章图片来自互联网,内容修改自互联网,若有侵权请联系站长删除。
© 版权声明
1 修改版本安卓及电脑软件,加群提示为修改者自留,非本站信息,注意鉴别;
2 本网站部分资源来源于网络,仅供大家学习与参考,请于下载后24小时内删除;
3 若作商业用途,请联系原作者授权,若本站侵犯了您的权益请联系站长进行删除处理;
4 如果您喜欢该内容,请支持正版,购买注册,得到更好的正版服务。
THE END
暂无评论内容