自動車向け人工知能。気象予測。癌治療の新薬。世界で最も重要な課題のいくつかは今日にでも解決する必要がありますが、膨大な計算量が必要となります。今日のデータセンターは、多くの相互接続されたコモディティコンピューティングノードに依存しており、重要なハイパフォーマンスコンピューティング(HPC)およびハイパースケールワークロードを推進するために必要なパフォーマンスが制限されています。NVIDIA® Tesla® V100 GPUアクセラレータは、データセンター向けに開発された最先端のものです。
彼らは新しいNVIDIA Pascal™ GPUアーキテクチャを利用して、数百もの低速のコモディティノードよりも高性能な世界最速のコンピューティングノードを提供します。軽量で高速なノードでパフォーマンスを向上させることで、データセンターのスループットを大幅に向上させ、コストを削減できます。トップ10の内9つを含む400以上のHPCアプリケーションがすべて加速され、すべてのディプラーニングフレームワークで、すべてのHPC顧客はデータにアクセラレータを導入できるようになりました。
音声認識から、仮想パーソナル アシスタントのトレーニング、ロボットカーに運転を教えることまで、データ サイエンティストは AI を使用してますます複雑な課題に取り組んでいます。この種の問題の解決には、複雑さが指数関数的に増加しつつあるディープラーニング モデルのトレーニングを実用的な時間内に行う必要があります。
640 個の Tensor コアを搭載した Tesla V100 は、ディープラーニング性能で 100 テラフロップス (TOPS) の壁を突破した世界初の GPU です。次世代の NVIDIA NVLink™ は、毎秒最高 300 GB で複数の V100 GPU に接続し、世界で最もパワフルなコンピューティング サーバーを構築します。従来のシステムではコンピューティング リソースを数週間消費していた AI モデルが、今では数日でトレーニングできるようになりました。このトレーニング時間の劇的な削減により、まったく新しい世界の問題が AI によって解決できるようになりました。
最も関連性の高い情報、サービス、製品を提供できるようになるため、ハイパースケール企業は AI の利用を始めています。ただし、ユーザーの要求に応え続けることは、難しい課題です。たとえば、世界最大のハイパースケール企業が、すべてのユーザーがその企業の音声認識サービスを 1 日 3 分使用するだけで、データ センターの容量を倍にする必要があると最近見積もりました。
Tesla V100 は、既存のハイパースケール サーバー ラックのパフォーマンスを最大化するように設計されています。AI をその中心に据えた Tesla V100 GPU は CPU サーバーの 30 倍の推論性能を実現します。スループットと効率性のこの大きな飛躍は、AI サービスのスケールアウトを現実的なものにします。
HPC は現代科学の基礎となる柱です。天気予報から創薬、新しいエネルギー源の発見まで、研究者は大型の計算システムを使用して世界をシミュレーションし、予測しています。AI は従来の HPC を拡張し、研究者が大量のデータを分析できるようにします。シミュレーションだけでは現実を完全に予測できないような洞察が短期間で得られます。
Tesla V100 は、AI と HPC を統合するために設計されています。科学的シミュレーションのための計算科学と、データから洞察を見つけるためのデータ科学の両方に優れた HPC システムのプラットフォームを提供します。統一されたアーキテクチャで NVIDIA CUDA® コアと Tensor コアを組み合わせることにより、Tesla V100 GPU を装備したサーバー 1 台で数百台の汎用 CPU のみのサーバーに匹敵する能力が実現し、従来の HPC および AI ワークロードに活用できます。現在、すべての研究者とエンジニアが AI スーパーコンピューターを利用して、最も困難な作業に取り組むことができます。
Tesla V100は、ディープラーニング、HPC、およびグラフィックス用Teslaデータセンターコンピューティングプラットフォームの主力製品です。Tesla プラットフォームは、主要なディープラーニング フレームワークスおよび450以上のHPCアプリケーションのすべてのを加速します。デスクトップからサーバー、クラウドサービスまであらゆる場所で利用でき、劇的なパフォーマンス向上とコスト削減の両方の機会を提供いたします。
GPU アーキテクチャ | NVIDIA Volta |
NVIDIA Tensor コア | 640 |
NVIDIA CUDA ® コア | 5120 |
倍精度 性能 | 7 TFLOPS |
単精度 性能 | 14 TFLOPS |
Tensor 性能 | 112 TFLOPS |
メモリ サイズ | 32GB/16GB HBM2 |
メモリ 帯域幅 | 900 GB/秒 |
メモリ インターフェイス | 4096-bit |
システム インターフェイス | PCIe Gen3 |
フォームファクタ | PCIe フルハイト/レングス |
冷却ソリューション | パッシブ |
最大消費電力 | 250 W |
Compute API | CUDA、DirectCompute、OpenCL ™、OpenACC |