IT之家 11 月 8 日消息,Meta 于上周发布新闻稿,宣布正式开源可在智能手机上运行的小语言模型 MobileLLM 家族,并同时为系列模型新增600M、1B 和 1.5B 三种不同参数版本,IT之家附项目GitHub项目页如下(点此访问)。
Meta 研究人员表示,MobileLLM 模型家族专为智能手机打造,该模型号称采用了精简架构,并引入了“SwiGLU 激活函数”、“分组查询注意力(grouped-query attention)”机制,能够在兼顾效率与表现成果。
此外,MobileLLM 模型据称训练速度较快,Meta研究人员声称他们在 32 颗 Nvidia A100 80G GPU 的服务器环境下,以 1 万亿词(tokens)训练不同参数量的 MobileLLM 模型时,1.5B 版本只需 18 天,而 125M 版本仅需 3 天。
而从结果来看,MobileLLM 125M 和 350M 两款模型在零样本常识理解任务中的准确率比 Cerebras、OPT、BLOOM 等 State of the Art(SOTA)模型分别高出 2.7% 和 4.3%。
Meta研究人员同时将 MobileLLM-1.5B 与业界其他参数量更大的模型进行比较,在结果测试方面据称领先 GPT-neo-2.7B、OPT-2.7B、BLOOM-3B、Qwen 1.5-1.8B 等模型。
如果您喜欢本站,点击这儿可以捐赠本站
这些信息可能会帮助到你: 联系作者 | 报毒说明
修改版本软件,加群提示等均为修改者自留,非本站信息,注意鉴别
这些信息可能会帮助到你: 联系作者 | 报毒说明
修改版本软件,加群提示等均为修改者自留,非本站信息,注意鉴别
评论(0)