AI Management Console

從大數據的資料預處理、AI 模型的訓練、一路最終至 AI 預測應用部署的複雜流程中,企業經常因不同階段所需的異質環境、多種運算架構、甚至跨部門的協作而困擾。透過 Gemini AI console 打造出便利企業組織進行跨單位 AI 專案協作的 GPU 管理節點,協助企業更有效率地從海量資料挖掘出更好的商機。 資料科學家與開發人員可透過 Gemini AI console 使用者服務入口,便利地>快速開啟大量預載大數據與 AI 工具的運算叢集環境,將底層運算架構建置化繁為簡,只需透過網頁表單點選即可立即開啟各種所需的AI運算工具服務,進而能夠將時間與人力資源專注投入在核心 演算法上。

了解更多 AI Management Console

Gemini AI Management Console 特色

功能描述
權限與角色管理系統管理者可建立多個Project(群組),並管理使用者帳號與權限,系統管理者可利用LDAP或內建認證機制來確認哪些使用者可以使用哪些服務,並提供工作流程給使用者申請及>管理者審核管理。
AI 服務架構制定管理系統管理者可根據GOC格式語法描述雲端服務並上架到GOC PaaS,支援兩種運算架構制定:雲服務叢集 (Cloud Service Clusters) 與批次工作(Batch Jobs);使用者及管理者可>透過Image Registry自行上傳及使用特定的映像檔。
資源與排程管理GOC為AI服務提供自助化虛擬資源的佈署,並根據不同AI服務的需求可運行於異質環境(VM, Docker, GPU),在批次工作模式下,依使用者預約或派送的順序進行工作排程管理,此 外,GOC支援群組資源配額管理及水平橫向擴充(Scale-out)。
整合企業既有服務架構GOC 架構可讓企業輕鬆整合既有的系統服務 如 LDAP, NFS 等。因此 現有 使用者可 log in 到 GOC,去直接使用 存在 NFS server 上的檔案。此外,企業 也可以 沿用既有 的 組織結構權限列表 (ACL) 去控管 使用者 的 權限 跟 數據。
資源統計與監控透過使用者儀表板介面呈現所有雲端服務(Cloud Service)與批次工作(Batch Job)的資源即時使用狀況及歷史資料,並可提供匯出使用資源報表作為計費基礎。
服務管理介面提供兩個入口平台給系統管理者與使用者進行資源管理,包括讓使用者自行輸入簡易參數申請建立新的雲服務(create site)與派送工作(submit job),使用者可透過儀表板監看>服務與工作資訊,並提供管理者異常狀況自動告警通知。
技術白皮書

產品效益

簡化IT複雜性,優化GPU管理效益

Gemini AI Management Console 幫助管理者在單一平台上管理從單台至數百台的GPU 及CPU Server的實體與虛擬資源

提升研究人員研發效率,縮短開發時間

將底層運算架構建置化繁為簡,只需透過網頁表單點選即可立即開啟各種所需的巨資與AI運算工具服務,使用者得以專注在分析演算法開發

支援不同運算架構與異質環境,完美AI運算體驗

單一平台同時管理大數據+AI機器學習運算叢集,無論底層是透過虛擬機(VM)或是容器(Docker)來搭配GPU,都能讓使用者一目瞭然、輕鬆管理,並支援雲端服務及批次工作模式,滿足>不同的使用需求情境,提升AI開發流程體驗

產品架構