透過 Gemini AI Console 打造出便利企業組織進行跨單位 AI 專案協作的 GPU 管理節點,將底層運算架構建置化繁為簡,進而能夠將時間與人力資源專注投入在核心演算法上,協助企業更有效率地從海量資料挖掘出更好的商機。
資料科學家與開發人員可透過 Gemini AI Console 使用者服務入口,便利地快速開啟大量預載大數據與 AI 工具的運算叢集環境,搭配 Gemini 獨家 GPU Partitioning 技術,將 GPU 使用率達到極致 !
Gemini AI Console 是專門為多用戶、多團隊、多種工作負載協同共享而設計的人工智慧管理平台。
在 Kubernetes 中,最大限度地利用 GPU 資源。進行深度學習訓練和推論預測讓企業從中獲得價值。
具有自動化特性和功能,解放 IT 架構師和資料科學家人工安排調度管理的窘境。
使用高效能的GPU環境進行開發,大量節省模型訓練時間,進一步提升開發效率。
使用者無須修改任何程式,就可以使用分割後的GPU。
有能力控制容器資源的隔離獨立,保證個別容器的資源,不受其他容器的干擾。
使用者可規範的最小/最大QoS. 還可以彈性地自動調大GPU額度,也減少人員管理 overhead。
Kubernetes可以執行同時更多機器學習容器,減少搶佔,更減少排隊時間。
總利用率可接近個別容器利用率之和。
透過 AI Console 所創建的 Jupyter 開發服務,均內建 Jupyter to Job 這個外掛功能,可透過 Jupyter 派送 GPU 任務,並可瀏覽任務日誌,有助於除錯與追蹤。
「我們的需求是讓 GPU 資源公平分配,且方便管理。在雙子星的系統導入後,讓 AI 人工智慧教學單純化,師生可專注在 AI 模型的建立與訓練,不用花費大量時間在系統操作面上,可加快踏入 AI 人工智慧與機器學習的應用領域。」
更多內容...德明財經科技大學 電算中心