首页 百科大全文章正文

马斯克开源 Grok 2.5:早已比不过国产 AI,拿过时模型骗点名声

百科大全 2025年08月24日 20:23 1 admin

马斯克今天终于开源了自家上上一代模型:Grok 2.5。

我觉得,如果老马再狠一点,舍得在现在就直接开源 Grok 3,那确实能打,毕竟 Grok 3 发布也才半年时间(20250218),跟 DeepSeek R1(20250120)、Gemini 2.5 Pro(20250325) 这些都算作 2025Q1 发布的模型。

而且说实话 Grok 3 的文风和写作能力我还是很喜欢的,真要有一个开源且无护栏的 Grok 3,那一些写小说的不得起飞咯。

马斯克开源 Grok 2.5:早已比不过国产 AI,拿过时模型骗点名声

但如果只是开源 Grok 2.5(20240814),那实际影响微乎其微,毕竟现在好用的开源模型太多了。

马斯克说 Grok 2.5 是去年 xAI 的最佳模型,并说再过六个月会开源 Grok 3,到时候基本上正好会是 Grok 3 发布满一年。

马斯克开源 Grok 2.5:早已比不过国产 AI,拿过时模型骗点名声

我印象中马斯克说的是「开源上一代模型」,这咋就变成「开源上一年模型」了。

先一起看一下 Grok 2.5 开源的基本情况吧。

开源地址:https://huggingface.co/xai-org/grok-2

有几点需要关注的:

  • 模型结构:后训练聊天模型,MoE 结构,每层 8 个专家 + Top2 路由,128K 上下文,BF 16 权重。
  • 参数量级:模型卡中没有明确写明,不过开源权重的体积大约 500GB(BF16),按 config 文件可以估算出参数量级大约是 220B~260B 之间。
  • 推理框架:官方示例用的是 SGLang,并建议使用 8x40GB 的 GPU 运行 FP8 量化版。
  • 许可类型:这是 Grok 2.5 最坑的地方,协议是 Grok 2 Community License,尽管允许研究和商业使用,但用较多限制,比如「不得用模型、输出数据训练、创建或改进其他基础/通用大模型」,「分发时需附带许可证并注明 Powered by xAI」等。

作为比较,之前的 Grok 1 开源了 base model 而非 post-trained model,参数量级更大(314B),同样是 MoE 模型,但采用更宽松的 Apache-2.0 许可。

总之,Grok 2.5 作为上上一代模型,放在当前的开源市场上,实际价值并不大。特别是考虑到限制较多的开源许可,即便在外网也颇多批评。

马斯克开源 Grok 2.5:早已比不过国产 AI,拿过时模型骗点名声

说实话,现在的开源阵营,基本上就是看国产的几家模型在你追我赶。

就连马斯克自己打嘴炮说「xAI 很快就会超越除 Google 外的所有公司」时,也不得不同时承认,「中国企业是最强劲的竞争对手」:

马斯克开源 Grok 2.5:早已比不过国产 AI,拿过时模型骗点名声

DeepSeek 点燃今年上半年的开源热度,而进入下半年以来,我们已经看到了 Minimax、K2、混元、文心、Qwen3、Step-3、GLM-4.5 等众多国产开源模型。

现在的开源模型排行榜上,基本上全都是国产模型,中间零星夹杂着gpt-oss等模型:

马斯克开源 Grok 2.5:早已比不过国产 AI,拿过时模型骗点名声

所以,马斯克这次开源 Grok 2.5,其实只是一种哄圈外人的姿态。

毕竟想要运行Grok 2.5 模型,至少也得有 4 块 5090 显卡,而能拿的出 4x5090 显卡的,大概也不会真的去用这款模型。

不过,鉴于大模型的发展速度放缓、模型性能逐渐趋同,如果马斯克依然愿意坚持开源上一代模型的话,那未来开源的 Grok 4/4.5,还是值得期待的。

总结一下:惺惺作态,未来可期。

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动