日本最强AI被曝套壳DeepSeek
3月17日,日本互联网巨头乐天集团发布大模型Rakuten AI 3.0,并将其定义为在日本经济产业省与新能源产业技术综合开发机构(NEDO)推动的GENIAC项目框架下开发的“日本国内最大规模高性能AI模型”。
然后发布当天,这款日本最强大模型就“翻车”了。截至目前,乐天集团没有任何公开回应。

根据乐天的官方新闻稿,Rakuten AI 3.0是"基于开源社区最优秀的模型,结合乐天独自的高品质双语数据、技术力和研究成果开发"的,对Deepseek只字未提。不过,模型上线后不久,技术社区很快发现Rakuten AI 3.0的底层配置与DeepSeek-V3高度一致。
中国一开源,日本就自研
乐天称,该模型约为7000亿参数的MoE架构,作为一款日语特化模型在多项日语基准超越GPT-4o,并以Apache 2.0许可在Hugging Face上免费开放。
乐天在Hugging Face发布的config.json文件中,architectures一栏写的是DeepseekV3ForCausalLM,model_type则直接标注为deepseek_v3;而DeepSeek-V3官方仓库的对应字段也是同样写法。

该模型权重上传到Hugging Face之后,任何人点进去,切到Files and versions标签页,打开config.json就能看到。用户发现模型的config.json文件中包含"model_type": "deepseek_v3"这样的条目。architectures写着DeepseekV3ForCausalLM,不是参考、不是借鉴,而是直接声明了模型类别。
而继续看模型信息就可以发现,hidden_size是7168,intermediate_size是18432,num_hidden_layers是61,n_routed_experts是256,vocab_size是129280。和DeepSeek V3的原版配置一模一样。
双方公开信息中的关键规格也几乎完全重合:Rakuten AI 3.0在模型页中写明,总参数量671B、每个token激活参数37B;DeepSeek-V3官方仓库对外公开的核心规格同样是671B总参数、37B激活参数。所以乐天号称参数量约7000亿,因为DeepSeek-V3的参数量就是6710亿,四舍五入约等于7000亿,这个“约”字用得精髓。
这意味着,Rakuten AI 3.0并非外界通常理解的“从零打造的全新底座模型”,而更像是在DeepSeek-V3基础上,进一步做了日语方向的训练和优化。另一个引发讨论的点是开源许可处理。DeepSeek-V3的公开仓库显示,其代码文件采用MIT License,其中明确要求保留版权声明和许可声明。

而更为离谱的是,乐天一开始就没有放入DeepSeek的MIT许可证文件,被指出之后,才默默以NOTICE为文件名补了上去,提交说明写的是“Add the permission notice”,里面的版权声明:Copyright (c) 2023 DeepSeek。
整体来看,Rakuten AI 3.0更准确的定位,或许不是“日本从零做出的7000亿参数原创底座”,而是一个建立在DeepSeek-V3开源技术之上、面向日语做深度优化的超大模型版本。
翻车不是因为抄
从开源规则看,基于开源模型进行再训练、微调和本地化并不罕见,本身也不必然构成问题。DeepSeek-V3是开源模型,许可证允许商业使用和二次开发,在开源模型基础上做微调是行业通行做法,严格来说,虽然乐天在所有对外宣传中刻意回避了DeepSeek的名字,在法律上确实没有违规。
真正引发争议的,是乐天在宣传口径上更强调“日本最大、最强”,却没有在最醒目的位置清楚交代底座来源。而在许可文件补充出现在模型上线之后的背景下,这场发布会也从一场日本本土大模型成果展示,迅速演变成一场围绕开源透明度与技术归属的舆论风波。
乐天还特别强调,这个模型是GENIAC第三期的成果,学习费用部分由GENIAC提供的计算资源补助支持。GENIAC是经济产业省与新能源产业技术综合开发机构(NEDO)主导的项目,为日本的AI开发企业提供GPU利用方面的助力。说白了就是国家出钱、企业出力,目标是建立日本的自主AI能力。
但乐天为何会翻车?对于一家拿到日本政府GENIAC项目支持、同时以“日本最大规模”进行传播的企业来说,这种表述被认为过于模糊,容易让外界误以为其底座能力主要来自内部原创研发。GENIAC项目的初衷是扶持日本自主AI能力,结果乐天拿到补助之后,下载了中国的开源模型,做了一层日语微调,然后号称"日本国内最大规模的高性能AI模型"。
对此,有网友吐槽:DeepSeek现在都更新到V3.2了,乐天拿个旧版出来包装,套壳都不挑个新的。值得注意的是,之前乐天发布RakutenAI-7B的时候,老老实实写了"基于Mistral-7B开发"。这次突然改成"基于开源社区最优秀的模型"这种含糊说法,明显是故意的。
加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW
或用微信扫描左侧二维码
