首页 抖音推荐文章正文

英伟达突然拥抱开源RISC-V!CUDA支持背后,AI算力格局要变天?

抖音推荐 2025年07月24日 00:01 1 admin

7月21日消息,在上海举行的RISC-V峰会上,英伟达硬件工程副总裁Frans Sijstermanns低调宣布,其核心的CUDA软件平台将正式支持RISC-V指令集架构。这一动作看似悄然,却被业界视为“AI计算领域的范式革命”——毕竟,CUDA此前仅支持x86和Arm,而RISC-V作为开源架构,首次被纳入英伟达“第一梯队”平台标准。

英伟达突然拥抱开源RISC-V!CUDA支持背后,AI算力格局要变天?

十亿颗RISC-V芯片的“暗度陈仓”

英伟达与RISC-V的渊源远比外界想象得深。早在2017年,英伟达就与上海交通大学联合举办北美以外首个RISC-V工作坊,彼时已将RISC-V作为嵌入式微控制器(MCU)的核心架构。

截至2025年,其基于RISC-V的MCU出货量已突破10亿颗,广泛应用于GPU内部控制路径、SoC调度逻辑等场景。这种“润物细无声”的布局,为今天CUDA的移植埋下伏笔。

但这次升级意义截然不同。CUDA是英伟达软硬件生态的“王冠”,包含900多个核心库和完整工具链,此前仅服务于x86和Arm架构。

如今移植到RISC-V,意味着开发者可直接调用CUDA加速库进行AI模型训练,无需再为架构差异改写代码。这相当于给RISC-V装上了“英伟达引擎”,让其从边缘计算的“配角”跃升为AI算力的“主角”。

英伟达突然拥抱开源RISC-V!CUDA支持背后,AI算力格局要变天?

技术平权?还是新垄断的开始?

RISC-V的开源特性,让中小开发者看到了突破算力壁垒的希望。

传统AI芯片开发依赖英伟达GPU和专有工具链,一颗H100芯片成本超4万美元,训练一次GPT-4级模型电费可达数百万美元。

而RISC-V允许企业定制指令集,配合低成本FPGA或ASIC,可将AI推理成本压缩至传统方案的1/10。

例如,某国产芯片公司基于RISC-V设计的NPU,在图像识别任务中能效比提升3倍,成本却不到英伟达同类产品的1/3。

英伟达突然拥抱开源RISC-V!CUDA支持背后,AI算力格局要变天?

但英伟达的算盘显然不止于此。Frans Sijstermanns在演讲中透露,英伟达正通过“NVLink Fusion”架构探索RISC-V与GPU的深度协同,未来RISC-V可能替代部分通用CPU功能,成为数据中心的控制中枢。

这种“软硬一体”策略,既能借助RISC-V的开源生态扩大CUDA覆盖面,又能通过定制化设计巩固技术护城河。

正如倪光南院士所言:“开源RISC-V正在重塑全球芯片产业,但如何平衡开放与控制,仍是巨头与开发者博弈的焦点”。

三道技术坎拦住“开源梦”

尽管前景诱人,RISC-V要真正撼动英伟达的地位,仍需跨过三道坎:

1. 规范缺失:RISC-V的RVA23等关键规范尚未普及,导致CPU与GPU数据交互存在障碍。例如,英伟达测试中发现,缺乏统一虚拟内存(UVM)模型时,数据传输延迟增加40%。


2. 性能鸿沟:目前主流RISC-V CPU性能仅相当于ARM A55级别,难以匹配高性能GPU的算力需求。某AI公司实测显示,RISC-V+GPU方案在复杂模型训练中速度比x86+GPU慢25%。


3. 生态依赖:CUDA移植需重构PyTorch等AI框架,而RISC-V的Linux驱动支持尚不完善。某高校团队尝试部署时发现,70%的软件包需重新编译,开发周期延长3倍。

英伟达突然拥抱开源RISC-V!CUDA支持背后,AI算力格局要变天?

巨头的“阳谋”与开发者的“机会”

英伟达的布局,本质是将RISC-V纳入其算力帝国的版图。通过CUDA支持,既能规避开源社区对专有架构的批评,又能将RISC-V生态的创新成果收归囊中。

正如Frans所言:“我们关注的是计算体验,而非CPU厂牌”。这种策略与当年微软支持Linux如出一辙——用开放姿态巩固垄断地位。


但对开发者而言,这仍是一场“技术平权”的机遇。RISC-V允许企业在AI芯片设计中“按需定制”,例如为医疗影像分析添加专用指令,推理效率提升50%的同时,功耗降低60%。

天风证券预测,到2030年,RISC-V架构产品出货量年复合增长率将超40%,在边缘AI、工业控制等领域占据主导地位。


当英伟达这样的巨头拥抱开源,是技术平权的开始,还是新垄断的伏笔?RISC-V能否真正打破现有AI算力格局,让中小开发者不再为“算力税”买单?

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动