麗臺RTX AI Software Pack為整合AI專案分析所使用的套件及工具,並預裝完成包含作業系統、GPU 驅動程式、CUDA、深度學習函式庫及多種深度學習/機器學習框架等開發環境。開機後即可立即啟動 各種研發專案開發工作,GPU工作站與伺服器經過軟硬體最佳化調整,免除繁瑣的安裝流程,適合AI 專案及大數據專案開發使用。搭配GDMS管理系統,可更有效管理AI專案及監控系統資源。
系統經認證啟動後,會自動安裝作業系統、GPU驅動程式、CUDA Toolkit、cuDNN、NCCL、 nvidia-docker套件及NVIDIA DCGM。可避免GPU及AI專案環境繁瑣的安裝及除錯流程, 讓研發人員快速開啟專案進行研發工作。
具有還原功能,即便系統出現任何問題,可透過還原機制回復至出廠設定之狀態,減少系統檢測及 重新安裝軟體花費的時間。
Docker引擎為現今世界各地開發最常見的平台之一,具有易安裝、可攜帶性、易維護等特色。透過nvidia-docker插件,即可支援GPU開發環境,也減少開發環境安裝於本機時,容易造成的系統負擔、依賴庫版本衝突等問題。
系統支援多個常見的深度學習及機器學習框架,包含NVIDIA NGC優化後之多個AI開發框架。系統也提供一框架測試頁面,可方便快速驗證開發環境。(如右圖)
可監控GPU及GPU記憶體執行及健康狀態,並可輸出監控紀錄至檔案,協助掌握GPU執行時使用的硬體資源及各項狀態。
可做為GDMS納管之GPU系統,透過GDMS更有效管理、分配及利用GPU資源,適合企業AI專案管理、智慧教室應用、研發團隊開發。
支援最新深度學習及機器學習框架,簡單的指令即可啟動AI開發專案環境。
規格 | 描述 | |
建議系統要求 | RTX AI 軟體有以下最低之系統規格建議,最終效能取決於實際工作負載與硬體規格測試與評估。
|
|
RTX AI系統工具 | RTX AI Software操作模式 | RTX AI軟體讓軟體工程師、資料科學家、AI專家可於本地端與遠端操作工作站與伺服器:
|
框架診斷 (Framework Diagnostics) | 執行所選取的DL / ML框架並以測試數據模型運行,以驗證其是否仍有效和具可運行性 | |
GPU監控與紀錄 | 即時監控GPU和GPU記憶體的運行狀況並記錄日誌,做為系統維護判讀的參考 | |
GPU檢測工具 | 內建之CUDA測試工具,用於測試容器中GPU的硬體狀態 | |
Jupyter Notebook | 基於網頁整合式的的交互式開發工具,可在Docker容器中編寫或迭代程式碼 | |
軟體版本檢視 | 通過預先定義使用之系統命令,查看每個當前軟體版本的便捷工具 | |
支援GDMS伺服器 | 嵌入GDMS agent以提供支援系統管理員在GDMS伺服器上分配和管理GPU資源的作業。 此功能僅與GDMS伺服器一起開發時才有效。 | |
系統一鍵還原 | 透過一鍵執行可將系統還原到出廠設定狀態 | |
磁碟援救 | 當系統無法正常啟動時,此工具將重建系統啟始碟,以將系統還原為出廠設置狀態 | |
RTX AI框架 | Chainer、TensorFlow、PyTorch、NVIDIA DIGITS、NVIDIA CUDA、NVIDIA Caffe、 NVIDIA MxNet、NVIDIA PyTorch、NVIDIA TensorFlow、NVIDIA TensorRT、NVIDIA TensorRT Server、NVIDIA RAPIDS | |
RTX AI基本組成 | Ubuntu Desktop OS v18.04 LTS、NVIDIA CUDA、NVIDIA cuDNN、NVIDIA NCCL、 NVIDIA Docker、Docker Engine、NVIDIA DCGM Fabric Manager 、NVIDIA Drivers | |
支援語言(使用者介面/鍵盤設定) | 英文與日文 (RTX AI系統工具僅支援英文) |