.jpg)
NVIDIA®DGX Station™はオフィスの机の下に収まるワークステーションサイズでありながら、従来の1/20未満の電力で約400 CPUと同等のコンピューティング能力を得ることが可能です。
またNVIDIA®DGX Station™独自の水冷冷却システムにより、わずか35db以下という他のワークステーションと比べて1/10程度の動作音レベルを実現しました。
TESLA V100(Volta)は倍精度で7.5 TFLOPS、単精度で15.0TFLOPS 性能に加えてVolta世代から搭載された Tensor Core により 120 TFLOPS 演算性能を実現、深層学習では12倍,認識では6倍の性能を引き出します。各GPUを双方向50GB/Secという広帯域NV-LINKで相互接続し、マルチGPUの恩恵を最大限に引き出します。
もちろん常に最新の状態で提供されるNVIDIA®サポート&サービスを介して、常に革新的で統合されたNVIDIAソフトウェアスタッグも利用可能です。
.jpg)
Tesla V100 は、NVIDIA 過去最高の210億トランジスタを集積しCUDA Coreを5120基搭載、これらにより倍精度で7.5 TFLOPS、単精度で15.0TFLOPS 性能に加えてVolta世代から搭載された Tensor Core により 120 TFLOPS 演算性能を実現、深層学習では12倍,認識では6倍の性能を引き出します。 |  |

NVIDIA®DGX Station™は、フレームワーク、ライブラリ、ドライバを最適化するためには、専門知識と労力が不要です。 NVIDIAのリポジトリから提供されるコンテナパッケージで、素早くトレーニングや実験に入ることができ、システムインテグレーションやソフトウェアエンジニアリングが費やす貴重な時間を省き、導入費用を抑えられるでしょう。 NVIDIA DGX Stationは、ユーザーのAI研究の導入を素早く開始させるために設計されており、プラグインとパワーアップを容易にさせ、たった1日でィープ ニューラルネットワークのトレーニングを開始することができます。 |  |

NVIDIA®DGX Station™では、CPUで約1ヶ月掛かる学習が、わずか15時間で完結hします。また新しく広帯域になったNV-LINK2により、同じ4GPUのマシンと比較しても2.4倍の学習速度を実現します。 |  |

GDEPアドバンスはNVIDIA認定パートナー制度(NPN)の最上級であるエリートパートナーとして、NVIDIAと製版一体のサポートを提供します。導入コンサルからセットアップ、保守メンテナンスはもちろん、日本で最初のディープラーニングワークステーション「DeepLearning BOX®」を開発販売したGDEPアドバンスの豊富な実績と、各種フレームワークの操作方法を習得するハンズオンプライベートセミナーや、テーマを絞った共同開発など,私共の幅広いビジネスパートナーの強力なアライアンスでDGX-Stationの導入を力強くサポートします。 |  |

GPUs | 4 x Tesla V100 |
TFLOPS(GPU FP16) | 480 |
GPU Memory | 16GB per GPU |
CPU | 20-core Intel Xeon E5-2698 v4 2.2GHz |
NVIDIA CUDA Cores | 20480 |
System Memory | 256GB 2133MHz DDR4 LRDIMM |
Storage | 1 x 1.92TB SSD 3 x 1.92TB SSD RAID 0 |
Network | Dual 10 GbE |
Software | Ubuntu Server Linux OS |
| DGX Recommended GPU Driver |
重量 | 40kg |
大きさ | 518 D x 256 W x 639 H [mm] |
最大電気容量 | 1500W 100V-15A |
動作温度 | 10-30 ℃ |
お見積り・ご質問等、お気軽にお問合せ下さい。 | 
|