华为盘古否认抄袭阿里后,其大模型员工自曝存在套壳、续训、洗水印

2025 年 6 月 30 日,华为高调宣布开源其盘古大模型核心组件(Pangu Pro MoE),包括 70 亿参数稠密模型和 720 亿参数的混合专家模型,宣称这是构建昇腾生态的关键举措。

然而仅隔四天,一项发布于 GitHub 的研究引发业界关注:用户 @HonestAGI 通过 "LLM 指纹 " 技术分析指出,盘古 Pro MoE 与阿里通义千问 Qwen-2.5 14B 模型的注意力参数分布相似性高达 0.927(1.0 为完全一致),远超业内 0.7 以下的正常差异范围。

华为诺亚方舟实验室声明截图

华为诺亚方舟实验室 7 月 5 日发布最新声明,表示盘古 Pro MoE 开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。

盘古团队表示," 盘古 Pro MoE 开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。"

然而,就在 7 月 6 日凌晨,一位自称是盘古大模型团队的员工自曝,确实存在套壳、续训、洗水印的现象。

爆料文章截图

该员工表示,由于团队初期算力非常有限,虽做出了很多努力和挣扎,但没有预期效果,内部的质疑声和领导的压力也越来越大。后来小模型实验室多次套壳竞品,领导层被指默许造假行为换取短期成果。

自曝文中称:" 经过内部的分析,他们实际上是使用 Qwen 1.5 110B 续训而来,通过加层,扩增 ffn 维度,添加盘古 pi 论文的一些机制得来,凑够了大概 135B 的参数。" 并表示," 听同事说他们为了洗掉千问的水印,采取了不少办法,甚至包括故意训了脏数据。"" 他们选择了套壳 DeepSeekv3 续训。他们通过冻住 DeepSeek 加载的参数,进行训练。"

最后他表示出于对技术伦理的坚持,决定离职并曝光内幕。

截至目前,华为并未对此自曝内容发表声明。

来源:新 · 黄河客户端、新浪科技、诺亚方舟实验室、云头条

本站所发布的文字与图片素材为非商业目的改编或整理,版权归原作者所有,如侵权或涉及违法,请联系我们删除。

本文链接:http://17gc.top/product/72954.html

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50