自動運転を制御する人工知能。未来の気候変動の予測。癌を治療する画期的な薬剤。世の中には解決すべき最重要課題がいくつもありますが、いずれも膨大な計算量を必要とします。 現代のデータセンターは汎用の計算ノードを何台も相互接続して運用しており、重要なハイパフォーマンスコンピューティング (HPC) やハイパースケールワークロードに対する性能が十分とは言えません。NVIDIA® Tesla® P100 GPU は、前例のない最先端のデータセンターアクセラレータです。新たに開発された NVIDIA Pascal™ GPU アーキテクチャにより、汎用ノード数百台分を超える性能を持つ世界最速の計算ノードが誕生しました。少ない台数で高い性能をもたらす超高速ノードにより、データセンターではスループットを大幅に向上させる一方で、コストを削減できます。 400 を超える HPC アプリケーション (上位 10 個のうち 9 つが含まれています) に加え、すべてのディープラーニングフレームワークが高速化されるため、HPC のどのお客様も自社のデータセンターにアクセラレータを展開できます。
倍精度の性能 |
4.7 Tflops |
|
単精度の性能 |
9.3 Tflops |
|
半精度の性能 |
18.7 Tflops |
|
NVIDIA NVLink™ インターコネクト帯域幅 |
― |
|
PCIe x16 インターコネクト帯域幅 |
32GB/秒 |
|
CoWoS HBM2スタックド・メモリ容量 |
16GB または 12GB |
|
CoWoS HBM2スタックド・メモリ帯域幅 |
720GB/秒 または 540GB/秒 |
|
ページの移行エンジンで強化されたプログラミング |
● |
|
信頼性のECC保護 |
● |
|
データセンター展開のためにサーバー最適化 |
● |
技術仕様 |
Tesla P100 |
|
ピーク倍精度浮動小数点演算性能 (ボード) |
4.7 Tflops |
|
ピーク単精度浮動小数点演算性能 (board) |
9.3 Tflops |
|
GPU数 |
1× GP100 |
|
CUDA コア数 |
3584 |
|
ボードあたりのメモリサイズ |
12GB HBM2 |
16GB HBM2 |
メモリ インターフェイス |
3072-bit |
4096-bit |
ボードのメモリバンド幅 (ECC off)2 |
540 Gbytes/sec |
720 Gbytes/sec |
冷却ソリューション |
パッシブ |
|
最大消費電力 |
250W |
|
フォームファクター |
4.376"H × 10.5" L |
|
システム |
* 潜在的な損傷を避けるために、サーバーの電源をオンにする前に、CPU電源コネクタを使用するため、サーバー・ベンダーにお問い合わせください。