点击这里获取免费大流量卡

据媒体报道,英伟达全新发布的开源模型Nemotron-4 340B,有可能彻底改变训练LLM的方式!从此,或许各行各业都不再需要昂贵的真实世界数据集了。而且,Nemotron-4 340B直接超越了Mixtral 8x22B、Claude sonnet、Llama3 70B、Qwen 2,甚至可以和GPT-4掰手腕。据悉,Nemotron-4 340B是一系列具有开创意义的开源模型,最大的技术变化在于进一步拥抱MOE架构,引入ROPE优化算法。

2022年以来,AI大模型已经成为科技巨头重金投入的领域,这让算力变得十分宝贵,光模块景气度与下游需求有望持续成长。东北证券认为,MOE架构相比传统Transformer模型具备更高的效率和更低的成本,在海外谷歌Gemini、英伟达Nemotron等AI大模型积极采用MoE架构的推动下,MoE大模型有望成为全球AI大模型主流技术路线,对通信网络更高需求推动高性能交换机加速落地。具体来看主要是推动单交换机峰值速率提升,以及交换机总需求量增加。AI算力基础设施建设预计将保持扩张周期,带动上游光模块、交换机等环节需求提升。

据财联社主题库显示,相关上市公司中:

可川科技设立全资子公司可川光子技术(苏州)有限公司,进一步加大研发投入力度,同时着手为激光传感器和400G/800G等更高速率光模块产品布局自建产能。

罗博特科参股公司ficonTEC一直有向英伟达提供设备,同时与英伟达在1.6T的光模块工艺研发方面也有深入合作,公司在硅光、CPO及LPO耦合、封装测试方面是全球领先的技术提供商。

点击这里获取免费大流量卡

如果您喜欢本站,点击这儿可以捐赠本站
这些信息可能会帮助到你: 联系作者 | 报毒说明
修改版本软件,加群提示等均为修改者自留,非本站信息,注意鉴别