最新消息

關注我們 取得 CKmates 第一手消息

節省千萬元設備成本!銓鍇國際 AI CKompute 彈性算力租賃服務滿足企業各種 AI 需求

節省千萬元設備成本!銓鍇國際 AI CKompute 彈性算力租賃服務滿足企業各種 AI 需求

時至今日,人工智慧(AI)及生成式 AI( GenAI )已成翻轉商業競局、驅動企業轉型的利器。儘管 AI/GenAI 對企業競爭力影響至鉅,重要性不言可喻,但不少企業主面對 GPU 算力的高昂投資,連帶衍生的維運管理重擔,加上難以預判的投報率,總是猶豫不決,另對於 GPU 即服務可能引發的機密外洩戒慎恐懼。於是勉強將繪圖工作站投入模型訓練,導致訓練時效、模型準確度不如預期,因而阻撓企業成長躍升的契機。
 

圖/銓鍇國際董事長暨創辦人何鴻汶。
圖/銓鍇國際董事長暨創辦人何鴻汶。
 

為協助企業化解 AI 佈局痛點,銓鍇國際(CKmates)於 2025 年初推出堪稱獨特的 GPU 算力租賃服務「AI CKompute」。銓鍇國際董事長暨創辦人何鴻汶表示,AI CKompute 內含實體主機,每台配置 8 片 NVIDIA H100;若企業欲以輕資本形式進行 AI 訓練或推理,可向銓鍇國際承租單機(一台 8 片)、多機架構或客製化更高的算力資源,皆可滿足不同運算場景。更重要的,此租賃方案饒富彈性,客戶可採取短至一週的短租選項,亦可採取數月或一年的長租;另可選擇遠端連線至銓鍇國際機房來啟用資源,亦可交由銓鍇國際配置好整座算力機櫃、部署到客戶場域使用。
 

綜上所述,AI CKompute 優勢條件顯而易見。首先讓企業以可負擔的租賃費用取代龐大資本支出,不僅降低 GPU 算力取得門檻,亦因算力機櫃帶有管理系統、電源排插與網路交換器等完整機制,有助 IT 人員省卻繁重維運工作,減少逾 80% 作業負荷,「基本上只要插好電源線和網路線就能運作」。
 

其次企業一旦租用 AI CKompute 算力機櫃,便能在內部建立專屬 AI 運算環境,確保資料隱私和安全無虞,不擔心 IC Layout、金融個資或醫療病歷等機密外洩。再來企業可在大量 NVIDIA H100 Tensor 核心 GPU 助陣下,憑藉低延遲與高效能,加速執行每一個 AI 專案;畢竟 1 片 H100 與 24 片 H100 相比,或 1 片 H100 與 GeForce RTX 4090 顯卡相比,其間落差巨大,甚至能讓本來長達兩個月的訓練時程急縮為 1~2 天。



精準制定下一步 AI 策略,避免形成投資浪費


何鴻汶說,只要租用 AI CKompute,企業唯一需要準備的就是資料,若資料存在既有伺服器或儲存設備,只要將資料接進網路設備即可執行運算。假使資料量不大,可考慮直接存在 GPU Server 內置的 NVMe SSD(每台含 960 GB*2 可用空間),就近展開運算,以消弭 I/O 瓶頸。萬一後續企業停止租賃、又想保存運算成果,銓鍇國際在撤走機櫃的同時,可將硬碟留予客戶。
 

另談到短租模式設計初衷,在於給予客戶必要的彈性,透過不斷嘗試訓練,端看成果滿意與否,再決定下一步投資策略(如退租、改為長租或買斷),避免砸大錢自建算力後才自覺不適合投入 AI、徒留閒置資產。畢竟任由內建 8 片 GPU 近千萬元主機淪為浪費,對多數企業是不可承受之重。
 

圖/技術服務處副處長楊宗維。
圖/技術服務處副處長楊宗維。
 

深究 AI CKompute 性價比,銓鍇國際技術服務處副處長楊宗維說,和雲端 GPU 即服務相比,AI CKompute 仍能以平均每小時 35 美元低廉費用,完勝三大公有雲每小時 98 到 126 美元不等的要價,省掉逾一半開銷。
 

此外經由銓鍇國際實際壓測,AI CKompute 機櫃即使配置3台主機共計 24 片 H100,在平均溫度 30 度狀態下,照樣全負載運轉。意謂一般機房只要沿用氣冷、控制在 27 或 28 度,無需斥資導入水冷設施與改造機房,都能正常啟動 AI 訓練。
 

除降低支出並兼顧資料保護外,許多客戶亦對 AI CKompute 的低維運優勢青睞有加。譬如其算力機櫃配置一組控制平台,IT Infra 管理者可透過 GUI 集中監控機櫃內所有 GPU、記憶體等主要資源運行狀態,不需進入一台台主機費時查看,單憑這點便可謂受益良多。


多元增值服務加持,順利推動 AI 發展進程


值得一提,AI CKompute 對客戶的價值,不僅止於硬體層面降本增效,還能一併鏈結到銓鍇國際基於「Provide All You Need」信念打造的豐富增值服務。


何鴻汶舉例,假設客戶在運轉過程遇到問題,可另外向銓鍇國際加購人力時數,協助排除障礙。比方說底層 Docker 容器的運行出問題,某些系統無法正常執行,或客戶想接入既有網路設備,銓鍇國際皆可提供顧問人力時數,在客戶允許下,由雙方人力協作完成環境搭建。一旦問題解決,銓鍇國際就退場,便於客戶保有 AI 運作的隱私性。
 

若客戶有其他服務需求,譬如欲強化資料庫存取控制、特權帳號管理,乃至基於合規,有意導入諸如弱點掃描、滲透測試、紅隊演練等資安服務。抑或當完成訓練進入推理應用時,考量爾後算力需求減少,有意把相關服務與網站遷往雲端執行。凡此種種,銓鍇國際皆能憑藉長年淬鍊的雲端和地端服務底蘊,全力滿足客戶所需。
 

楊宗維補充說,銓鍇國際推出 AI CKompute 的同時,亦借重合作夥伴 APMIC 在於 Well-Trained LLM 的深厚功底,一併提出「Test-Time Compute AI 算力」方案選項。假使客戶自覺得大語言模型運作出現瓶頸,急需優化,便可租用上述服務來改善 LLM 準確率與適用性。論及 APMIC 運算模型的優勢,在於既能提供類似 DeepSeek-R1 的全新訓練方法,且同時支援 AI 教母李飛飛發表的「Simple test-time scaling」(s1)訓練方法,故而承襲 DeepSeek 優點,也避免中國訓練方法或模型衍生的資安疑慮,更讓訓練資料從 80 萬筆銳減至 1千筆,大幅降低 AI 訓練時間。
 

有了銓鍇國際 AI CKompute 幫助企業降低 AI 進入門檻,輔以 APMIC 模型優化方案的雙重加持,意謂企業能夠更快速、更省錢、更安全地推動 AI 發展進程,及早實踐智慧轉型大業。

最新消息

Contact Us
joinline