NVIDIA HGX B300 GPU
クラウドをいち早く体験

Blackwell Ultra 搭載GPUコンピュートで、大規模AI推論を
特別価格で実現

今すぐ事前予約

GPU仮想マシンで AIワークロードをスケール

NVIDIA HGX H100・HGX H200 GPU を、高い運用自由度とシームレスなスケーリングで導入

今すぐ起動 お問い合わせ

Get Early Access to
NVIDIA HGX B300
GPU Cloud Today

Power large-scale AI inference with Blackwell Ultra-powered GPU Compute at exclusive pricing

Pre-Order Now

Scale AI Workloads with GPU Virtual Machine

Deploy high-performance NVIDIA HGX H100 & HGX H200 GPUs with full control and seamless scaling

Launch Now Request Capacity

AI推論の時代を加速

強化されたコンピュート性能と増大したメモリを備えた革新的な Blackwell Ultra アーキテクチャを基盤に、NVIDIA HGX B300 は、大規模モデルのトレーニングから
本番環境における高効率なトークン生成まで、最も複雑なワークロードに対して画期的なパフォーマンスを提供します。

主な特長

大容量GPUメモリ

Blackwell Ultra GPU ×8 基を搭載、総メモリ 2.1TB帯域幅 64TB/s

第5世代 NVLink™ による 1.8TB/s の GPU 帯域幅

Blackwell Decompression Engine により、最大 800GB/s のクエリスループットを実現

推論コストを66%削減

DeepSeek-R1 を B300 上で実行することで、従来の H100/H200 クラスターと比べて大幅に低コストで
運用できます。

トレーニングコストを49%削減

大容量VRAMにより、より大きなバッチサイズに対応し、モデルのファインチューニング時間を46時間から16時間へ短縮します。

最大2.95倍のコスト/トークン最適化

複雑な推論や動画生成ワークロードにおいて、100万トークンあたり最も低いコストを実現します。

 次世代AIコンピュートへのアクセスを確保

NVIDIA HGX B300 GPU クラウドの事前予約、
または早期アクセスのウェイトリストへの登録については、お気軽にお問い合わせください。

GPU VM
スペック
1x

GPU B300

288GB GPU Memory

32 cores CPU | 192 GB RAM | 100 GB Block Storage

6th Gen Intel Xeon Scalable Processors

 

2x

GPU B300

576GB GPU Memory

64 cores CPU | 384 GB RAM | 200 GB Block Storage

6th Gen Intel Xeon Scalable Processors

4x

GPU B300

1152 GB GPU Memory

128 cores CPU | 768 GB RAM | 400 GB Block Storage

8x

GPU B300

2.2 TB GPU Memory

256 cores CPU | 1536 GB RAM | 800 GB Block Storage

6th Gen Intel Xeon Scalable Processors

生成AIとHPCを加速

NVIDIA H200 および HGX H100 GPU のパワーを、専用GPUスタック上で活用。コンピュート、ネットワーク、ストレージを完全にコントロールできます。
必要に応じてキャパシティを予約することも、いつでもオンデマンドでスケールすることも可能です。

大規模AIトレーニングおよび
高負荷ワークロード向けに設計された NVIDIA HGX H100・HGX H200

超低レイテンシーと高IOPSを実現するローカルNVMe SSDストレージにより、高速なデータアクセスを実現

各VMに専有リソースを割り当て、ネットワークを完全にコントロールしながらシンプルな
管理を実現

オンデマンドプロビジョニングと予約キャパシティにより、
柔軟なスケーリングを実現

従量課金

   透明性の高い料金体系により、コスト効率よくプロジェクトをスケールできます。ワークロードの要件に応じて、
1基から8基までのGPU構成を柔軟に選択可能です。

GPU VM
スペック
1x

GPU H200 SXM5

141GB of HBM3 memory
192GB RAM | 24 cores CPU | 3TB Local Storage NVMe
Intel Xeon Platinum Processor 8558
2x

GPU H200 SXM5

141GB of HBM3 memory
384GB RAM | 48 cores CPU | 6TB Local Storage NVMe
Intel Xeon Platinum Processor 8558
4x

GPU H200 SXM5

141GB of HBM3 memory
768GB RAM | 96 cores CPU | 12TB Local Storage NVMe
Intel Xeon Platinum Processor 8558
8x

GPU H200 SXM5

141GB of HBM3 memory
1536GB RAM | 192 cores CPU | 24TB Local Storage NVMe
Intel Xeon Platinum Processor 8558

大規模対応の予約GPUリソースをご提供。詳細はお問い合わせはこちら

GPU仮想マシンを選ぶ理由

セットアップ不要・遅延なしで、AIモデルのデプロイ、トレーニング、スケーリングを効率的に実行

CUDA、ドライバー、システムライブラリを含め、完全な制御が可能なフルroot
アクセスを提供。

数分でGPU仮想マシンを
迅速にプロビジョニングし、
トレーニングや推論を
すぐに開始可能

エンタープライズレベルの
パフォーマンスを備えた従量課金モデルにより、スケール時でも
高いコスト効率を実現

高速ローカルストレージを
備えた高性能コンピュートにより、安定したワークロード
処理を実現

ユースケース

高性能およびAI駆動型ワークロード向けに設計

LLMのトレーニングおよびファインチューニング

カスタムライブラリに対応した
マルチGPU H100/H200 クラスターを活用し、大規模言語モデル(LLM)のトレーニングおよびファインチューニングを実行できます。

 大規模AI推論
チャットボット、レコメンデーションシステム、リアルタイムAI
サービス向けに、低レイテンシーの推論を実現

高性能コンピューティングワークロード
科学シミュレーション、金融モデリング、データ分析などに対応