NvidiaがCUDAプラットフォームでx86とArmに加えてRISC-Vでサポート

Nvidiaがx86とArmに加えてCUDAプラットフォームでRISC-Vでサポート

NVIDIA が CUDA を RISC-V CPU 上でも動かせるようにしました。

1. CUDA とホストCPU

CUDA は NVIDIA GPU を活用するためのソフトウェアスタックです。これまでの前提は x86(Intel/AMD)や Arm(特にNVIDIA Jetsonなど) の CPU をホストにすることでした。ホストCPUは、GPU上で実行される並列計算をオーケストレーション(制御・ドライバ実行・アプリケーションロジック)する役割を担います。

2. 今回のNVIDIAの発表の要点

RISC-V CPU が CUDAのホストCPUになれることが正式に発表されました(2025年7月、RISC-V Summit China)。発表は NVIDIA の Frans Sijsterman(VP of Hardware Engineering) による基調講演で行われました。CUDA の主要コンポーネント(ドライバ、システム制御)が RISC-V ISA に対応した。

想定される構成は

① NVIDIA GPU:並列処理(AI・HPCの重い計算)を担当

②RISC-V CPU:CUDAシステムドライバ、アプリケーションロジック、OSを実行

③DPU(データ処理ユニット):ネットワークやデータ転送を担当 → これにより、異種混合プラットフォームが完成する。

3. 戦略的な意味合い
(1) 中国市場対策

NVIDIAは米中輸出規制により、GB200/GB300 など最新GPUを中国に出荷できない状況にあります。一方で CUDA エコシステムは維持・拡大したい。
→ そのため、中国発で盛り上がる RISC-V をホストCPUに取り込み、CUDA を「RISC-V対応」へと広げるのは合理的な動きです。

(2) オープンアーキテクチャへの対応

RISC-V はオープンISAであり、カスタムSoCを作りたい企業(特に中国や特定用途の半導体企業)にとって魅力的。CUDA が RISC-V をサポートすることで、**「プロプライエタリGPU + オープンCPU」**というハイブリッドが実現し、より多くの顧客に訴求できる。

(3) データセンター vs エッジ

記事でも指摘されている通り、すぐにハイパースケールのデータセンターに RISC-V が普及するわけではありません。ただし、Jetson モジュールのようなエッジAIデバイスやカスタムサーバーでは現実的に活用されそうです。長期的には、RISC-V が HPC/AI 向けCPUの候補として並び立つ布石になる可能性があります。

4. 今後の展望

CUDA × RISC-V の組み合わせは、従来の CUDA × x86/Arm と並ぶ「第3の選択肢」になります。特に中国や政府規制の強い国では、「国産RISC-V CPU + NVIDIA GPU」という形で AI/HPC プラットフォームを構築できるようになる。もしこの流れが広がれば、他社(Intel、AMD、ArmベースSoCベンダー)も RISC-V 向け対応を加速する可能性があります。

まとめると
CUDA が RISC-V を公式にサポートしたのは、NVIDIA が「エコシステム維持」と「中国市場・オープン市場対策」をにらんだ戦略的布石です。短期的にはエッジデバイスでの利用が中心ですが、長期的にはデータセンターでも RISC-V が CPUの選択肢になるというインパクトを持つ動きです。

参考記事:

Nvidia’s CUDA platform now supports RISC-V — support brings open source instruction set to AI platforms, joining x86 and Arm
News By Anton Shilov published July 20, 2025

https://www.tomshardware.com/pc-components/gpus/nvidias-cuda-platform-now-supports-risc-v-support-brings-open-source-instruction-set-to-ai-platforms-joining-x86-and-arm