從大數據的資料預處理、AI 模型的訓練、一路最終至 AI 預測應用部署的複雜流程中,企業經常因不同階段所需的異質環境、多種運算架構、甚至跨部門的協作而困擾。透過 Gemini AI console 打造出便利企業組織進行跨單位 AI 專案協作的 GPU 管理節點,協助企業更有效率地從海量資料挖掘出更好的商機。 資料科學家與開發人員可透過 Gemini AI console 使用者服務入口,便利地>快速開啟大量預載大數據與 AI 工具的運算叢集環境,將底層運算架構建置化繁為簡,只需透過網頁表單點選即可立即開啟各種所需的AI運算工具服務,進而能夠將時間與人力資源專注投入在核心 演算法上。
了解更多 AI Management Console功能 | 描述 |
權限與角色管理 | 系統管理者可建立多個Project(群組),並管理使用者帳號與權限,系統管理者可利用LDAP或內建認證機制來確認哪些使用者可以使用哪些服務,並提供工作流程給使用者申請及>管理者審核管理。 |
AI 服務架構制定管理 | 系統管理者可根據GOC格式語法描述雲端服務並上架到GOC PaaS,支援兩種運算架構制定:雲服務叢集 (Cloud Service Clusters) 與批次工作(Batch Jobs);使用者及管理者可>透過Image Registry自行上傳及使用特定的映像檔。 |
資源與排程管理 | GOC為AI服務提供自助化虛擬資源的佈署,並根據不同AI服務的需求可運行於異質環境(VM, Docker, GPU),在批次工作模式下,依使用者預約或派送的順序進行工作排程管理,此 外,GOC支援群組資源配額管理及水平橫向擴充(Scale-out)。 |
整合企業既有服務架構 | GOC 架構可讓企業輕鬆整合既有的系統服務 如 LDAP, NFS 等。因此 現有 使用者可 log in 到 GOC,去直接使用 存在 NFS server 上的檔案。此外,企業 也可以 沿用既有 的 組織結構權限列表 (ACL) 去控管 使用者 的 權限 跟 數據。 |
資源統計與監控 | 透過使用者儀表板介面呈現所有雲端服務(Cloud Service)與批次工作(Batch Job)的資源即時使用狀況及歷史資料,並可提供匯出使用資源報表作為計費基礎。 |
服務管理介面 | 提供兩個入口平台給系統管理者與使用者進行資源管理,包括讓使用者自行輸入簡易參數申請建立新的雲服務(create site)與派送工作(submit job),使用者可透過儀表板監看>服務與工作資訊,並提供管理者異常狀況自動告警通知。 |
Gemini AI Management Console 幫助管理者在單一平台上管理從單台至數百台的GPU 及CPU Server的實體與虛擬資源
將底層運算架構建置化繁為簡,只需透過網頁表單點選即可立即開啟各種所需的巨資與AI運算工具服務,使用者得以專注在分析演算法開發
單一平台同時管理大數據+AI機器學習運算叢集,無論底層是透過虛擬機(VM)或是容器(Docker)來搭配GPU,都能讓使用者一目瞭然、輕鬆管理,並支援雲端服務及批次工作模式,滿足>不同的使用需求情境,提升AI開發流程體驗