img_tech01

AI Management Console

產品簡介

從大數據的資料預處理、AI 模型的訓練、一路最終至 AI 預測應用部署的複雜流程中,企業經常因不同階段所需的異質環境、多種運算架構、甚至跨部門的協作而困擾。透過 Gemini AI console 打造出便利企業組織進行跨單位 AI 專案協作的 GPU 管理節點,協助企業更有效率地從海量資料挖掘出更好的商機。
資料科學家與開發人員可透過 Gemini AI console 使用者服務入口,便利地快速開啟大量預載大數據與 AI 工具的運算叢集環境,將底層運算架構建置化繁為簡,只需透過網頁表單點選即可立即開啟各種所需的AI運算工具服務,進而能夠將時間與人力資源專注投入在核心演算法上。

AIM
功能 描述
權限與角色管理 系統管理者可建立多個Project(群組),並管理使用者帳號與權限,系統管理者可利用LDAP或內建認證機制來確認哪些使用者可以使用哪些服務,並提供工作流程給使用者申請及管理者審核管理。
AI服務架構制定管理 系統管理者可根據GOC格式語法描述雲端服務並上架到GOC PaaS,支援兩種運算架構制定:雲服務叢集 (Cloud Service Clusters) 與批次工作(Batch Jobs);使用者及管理者可透過Image Registry自行上傳及使用特定的映像檔。
資源與排程管理 GOC為AI服務提供自助化虛擬資源的佈署,並根據不同AI服務的需求可運行於異質環境(VM, Docker, GPU),在批次工作模式下,依使用者預約或派送的順序進行工作排程管理,此外,GOC支援群組資源配額管理及水平橫向擴充(Scale-out)。
整合企業既有服務架構 GOC 架構可讓企業輕鬆整合既有的系統服務 如 LDAP, NFS 等。因此 現有 使用者可 log in 到 GOC,去直接使用 存在 NFS server 上的檔案。此外,企業 也可以 沿用既有 的 組織結構權限列表 (ACL) 去控管 使用者 的 權限 跟 數據。
資源統計與監控 透過使用者儀表板介面呈現所有雲端服務(Cloud Service)與批次工作(Batch Job)的資源即時使用狀況及歷史資料,並可提供匯出使用資源報表作為計費基礎。
服務管理介面 提供兩個入口平台給系統管理者與使用者進行資源管理,包括讓使用者自行輸入簡易參數申請建立新的雲服務(create site)與派送工作(submit job),使用者可透過儀表板監看服務與工作資訊,並提供管理者異常狀況自動告警通知。

 

產品效益

1.簡化IT複雜性,優化GPU管理效益:

Gemini AI Management Console 幫助管理者在單一平台上管理從單台至數百台的GPU 及CPU Server的實體與虛擬資源

2.提升研究人員研發效率,縮短開發時間:

將底層運算架構建置化繁為簡,只需透過網頁表單點選即可立即開啟各種所需的巨資與AI運算工具服務,使用者得以專注在分析演算法開發

3.支援不同運算架構與異質環境,完美AI運算體驗:

單一平台同時管理大數據+AI機器學習運算叢集,無論底層是透過虛擬機(VM)或是容器(Docker)來搭配GPU,都能讓使用者一目瞭然、輕鬆管理,並支援雲端服務及批次工作模式,滿足不同的使用需求情境,提升AI開發流程體驗

aimc
  • 單一入口Web介面提供DevOps使用者雲服務與AI工具佈署管理操作
  • 單一入口Web介面提供IT管理者針對資源與使用者進行管理,並提供雲市集架構讓 IT能快速將雲服務上、下架,支援企業快速開發,上架 AI 應用流程
  • 多雲資源管理:支援 VM、容器、物件儲存及檔案儲存,並可分成專屬區與分享區兩大類型資源管理
  • 提供完整Restful API,搭配API Gateway可提供客製化需求