エンタープライズAI向け専用GPUベアメタル

専用のNVIDIA H100・H200ベアメタルサーバーにより、インフラを完全に制御可能な環境をご提供

お問い合わせ

大規模AIワークロードのために最適化された専用インフラストラクチャー

NVIDIA H100・H200
ベアメタル

専用GPUを提供し、完全なコントロールと仮想化オーバーヘッドゼロの環境を実現。高性能なAIトレーニングおよびスケーラブルな推論基盤を支えます。

超高速デプロイメント

ハイパースケーラーのように数週間・数か月待つ必要はありません。オンライン操作のみでGPUサーバーを迅速に起動。ビジネスを止めない即時インフラを提供し、価値創出までの時間を短縮します。

高帯域
ネットワーキング

スケーラブルな分散AIワークロードを支えるために設計された、高性能な400Gbps InfiniBandおよびRoCE対応ネットワーク基盤を提供します。

スケーラブルなマルチノードアーキテクチャ
マネージドKubernetesおよび高性能共有ストレージを備えたマルチノード構成により、AIワークロード全体にわたるシームレスなスケーリングを実現します。

今すぐ、貴社用クラスターのご予約を。

専用リソースを備えた、エンタープライズグレードのNVIDIA設計GPUクラスター

ベアメタル
スペック
価格
8x

NVIDIA HGX H100

640GB GPU Memory
System Memory: 2TB DDR5 (4800MHz)
Storage: 30TB NVMe SSD (8× 3.84TB)
Networking: 8× 400Gbps InfiniBand;  2× 200Gbps BlueField-3 (BF3) DPU
CPU: Dual Intel Xeon Platinum 8462Y+
8x

NVIDIA HGX H200

1.1TB GPU Memory
CPU: Dual Intel Xeon Platinum 8558
System Memory: 2TB DDR5 (4800MHz)
Storage: 30TB NVMe SSD (8× 3.84TB)
Networking: 8× 400Gbps InfiniBand, 2× 200Gbps BlueField-3 (BF3) DPU

FPTのメタルクラウドが選ばれる理由

                                                               次世代AIを支えるスケーラブルなインフラストラクチャー

専有GPUリソース

ワークロードは、専有されたGPUメモリおよびコンピュートリソース上で実行されます。

完全なシステムコントロール

サーバーへのフルRootアクセスを提供し、OS、ドライバー、各種構成をAIワークロードに合わせて自由に最適化できます。

高速クラスターネットワーク

大規模トレーニング向けに設計されたインフラにより、GPUノード間で超高速通信を実現。

共有ストレージ

すべてのGPUノードが単一の共有データセットへリアルタイムでアクセスし、重複や競合、チェックポイントの損失を防ぎます。

ユースケース

高性能・AI駆動ワークロード向け設計

大規模AIモデルをより高速に構築・学習
大規模言語モデルの学習およびファインチューニングに必要なインフラを提供します。

低遅延でスケーラブルなAI推論基盤

リアルタイム向けに設計された専用推論ノードを展開し、高スループットかつ低遅延なパフォーマンスを実現します。

制限のない環境で自由に試行と検証

キュー待ちやプラットフォーム制限のない環境で、GPUスタックを完全にコントロールできます。