新闻动态
没想到最Open的开源新模型竟来自小红书!
发布日期:2025-06-25 22:48 点击次数:84
当大模型开源赛道卷到白热化时,小红书hilab团队突然甩出一记"王炸"——142B参数的MoE模型dots.llm1,以近乎"裸奔"的开源姿态震惊业界。这个被戏称为"行业天花板级开源"的项目,不仅公开了可直接部署的instruct模型,连预训练checkpoint、长文base模型甚至训练细节都完整放出,堪称"开源界的海底捞"。
令人意外的是,这款中等规模模型竟展现出"以小搏大"的强悍实力:仅激活14B参数便能在中英文理解、数学推理等任务中与Qwen2.5-72B打得有来有回。更绝的是它对中文互联网梗文化的精准把握,无论是弱智吧神题「上班为什么不算坐牢」,还是「舅舅连环套」的绕口令推理,都能给出既专业又带表情包的活泛回答。
技术宅们发现,这套模型的杀手锏在于"三不原则":不依赖合成数据、不堆算力蛮干、不藏训练秘籍。从11.2T真实数据的三道清洗工序,到与英伟达共创的interleaved 1F1B训练方案,每个技术选择都透着实用主义智慧。难怪开发者感叹:"这波开源直接把行业底裤都掀了!"
小红书此番操作,看似突然实则蓄谋已久。自2023年低调布局基础模型,到如今把实验室压箱底的宝贝全盘托出,背后是"用社区反哺技术"的野望。当其他大厂还在把开源当PR噱头时,hilab团队真把代码、数据、方法论都做成了"可二创乐高"。
这场开源盛宴你怎么看?是时候重新定义"种草"了——在评论区留下你最想用dots.llm1实现的脑洞,点赞最高的创意,说不定能被官方翻牌实现哦!
