大容量VRAMにより、より大きなバッチサイズに対応し、モデルのファインチューニング時間を46時間から16時間へ短縮します。
強化されたコンピュート性能と増大したメモリを備えた革新的な Blackwell Ultra アーキテクチャを基盤に、NVIDIA HGX B300 は、大規模モデルのトレーニングから
本番環境における高効率なトークン生成まで、最も複雑なワークロードに対して画期的なパフォーマンスを提供します。
Blackwell Ultra GPU ×8 基を搭載、総メモリ 2.1TB・帯域幅 64TB/s
第5世代 NVLink™ による 1.8TB/s の GPU 帯域幅
Blackwell Decompression Engine により、最大 800GB/s のクエリスループットを実現
DeepSeek-R1 を B300 上で実行することで、従来の H100/H200 クラスターと比べて大幅に低コストで
運用できます。
複雑な推論や動画生成ワークロードにおいて、100万トークンあたり最も低いコストを実現します。
NVIDIA HGX B300 GPU クラウドの事前予約、
または早期アクセスのウェイトリストへの登録については、お気軽にお問い合わせください。
32 cores CPU | 192 GB RAM | 100 GB Block Storage
6th Gen Intel Xeon Scalable Processors
64 cores CPU | 384 GB RAM | 200 GB Block Storage
6th Gen Intel Xeon Scalable Processors
256 cores CPU | 1536 GB RAM | 800 GB Block Storage
6th Gen Intel Xeon Scalable Processors
NVIDIA H200 および HGX H100 GPU のパワーを、専用GPUスタック上で活用。コンピュート、ネットワーク、ストレージを完全にコントロールできます。
必要に応じてキャパシティを予約することも、いつでもオンデマンドでスケールすることも可能です。
大規模AIトレーニングおよび
高負荷ワークロード向けに設計された NVIDIA HGX H100・HGX H200
超低レイテンシーと高IOPSを実現するローカルNVMe SSDストレージにより、高速なデータアクセスを実現
各VMに専有リソースを割り当て、ネットワークを完全にコントロールしながらシンプルな
管理を実現
オンデマンドプロビジョニングと予約キャパシティにより、
柔軟なスケーリングを実現
大規模対応の予約GPUリソースをご提供。詳細はお問い合わせはこちら。
セットアップ不要・遅延なしで、AIモデルのデプロイ、トレーニング、スケーリングを効率的に実行
CUDA、ドライバー、システムライブラリを含め、完全な制御が可能なフルroot
アクセスを提供。
数分でGPU仮想マシンを
迅速にプロビジョニングし、
トレーニングや推論を
すぐに開始可能
高速ローカルストレージを
備えた高性能コンピュートにより、安定したワークロード
処理を実現
高性能およびAI駆動型ワークロード向けに設計
LLMのトレーニングおよびファインチューニング
大規模AI推論
チャットボット、レコメンデーションシステム、リアルタイムAI
サービス向けに、低レイテンシーの推論を実現
高性能コンピューティングワークロード
科学シミュレーション、金融モデリング、データ分析などに対応