隨著企業加速導入生成式 AI 與代理型 AI(Agentic AI)應用,AI 基礎架構已從實驗環境走向生產部署階段。然而,在實際推動組織內部 AI 落地時,企業仍面臨安全隔離、主權部署與多工作負載整合等挑戰,使 AI 難以快速擴展至核心營運流程。
HPE 宣布擴展 NVIDIA AI Computing by HPE 產品組合,透過整合 NVIDIA Blackwell 與 Vera Rubin 架構平台,推出涵蓋 AI 伺服器、網路、儲存與軟體的一站式 AI Factory 解決方案,使企業能以安全、可預測且可重複驗證的方式推動 AI 部署。

企業推動生成式 AI 生產部署面臨三大基礎架構挑戰
當 AI 應用進入正式營運階段,企業常遭遇以下限制:
- 缺乏可支援大規模 GPU 工作負載的統一部署架構
- 主權資料與 air-gapped 環境需求提升部署難度
- AI 資料管線與推論流程成為整體效能瓶頸
因此,企業需要具備完整驗證與整合能力的 AI Factory 架構支援生產級 AI 營運。
三項導入策略建立可複製的企業級 AI Factory 架構
HPE 與 NVIDIA 透過共同工程設計與整合產品組合,協助企業建立安全且可擴展的 AI 部署平台。
策略一:HPE Private Cloud AI 提供可擴展的主權 AI 部署架構
HPE 擴展與 NVIDIA 共同開發的 HPE Private Cloud AI 解決方案,使企業能以一致營運體驗部署大規模推論與代理型 AI 應用。
平台能力包含:
- 支援最多 128 GPU 的擴展式部署架構
- 支援 air-gapped 實體隔離組態
- 預先整合 NVIDIA AI Enterprise 軟體堆疊
- 支援 NVIDIA AI-Q Blueprint 與 Omniverse Blueprint
協助企業建立可控且可主權管理的 AI 環境。
目前 Ryder Cup、Danfoss 與 Dallas Cowboys 等組織已導入該架構推動 AI 轉型計畫。
策略二:Confidential AI 與代理型安全防護強化企業 AI 資安能力
隨著企業導入代理型 AI 與地端模型部署需求提升,AI 基礎架構安全性成為關鍵因素。
HPE Private Cloud AI 結合:
- Fortanix Confidential AI 認證
- NVIDIA Confidential Computing 技術
- CrowdStrike AI 威脅偵測與回應機制
可確保模型推論與資料處理過程維持安全隔離,支援敏感資訊處理場景。
此外,系統亦支援 NVIDIA Nemotron 開放模型,使企業可快速部署安全且可擴展的代理型 AI 應用。
策略三:Blackwell 與 Rubin 架構平台支援多工作負載 AI 應用部署
HPE 持續擴展基於 NVIDIA Blackwell 與 Vera Rubin 架構的新一代 AI 系統,使企業能支援從邊緣推論到資料中心訓練的完整工作負載需求。
最新平台整合:
- NVIDIA Spectrum-X 網路平台
- BlueField DPU
- Connect-X NIC
- CUDA-X 函式庫
- MIG 與 vGPU 技術
並導入 RTX PRO 6000 Blackwell Server Edition GPU 與 RTX PRO 4500 GPU,支援:
- 小型語言模型部署
- 向量資料庫應用
- 自主邊緣智慧
- 影片搜尋與摘要
- 生物醫學研究
協助企業快速建立多場景 AI 推論能力。
整合 AI Factory、網路與資料管線能力加速企業生產級 AI 落地
隨著 AI 基礎架構進入大規模生產部署階段,資料管線能力已成為影響模型訓練與推論效能的重要關鍵。
HPE 與 NVIDIA 透過深化資料生命週期整合能力,使企業可優化:
- 資料匯入流程
- 向量化處理
- 推論效能
- 資料復原能力
其中 HPE Alletra Storage MP X10000 已通過 NVIDIA 認證儲存計畫基礎等級驗證,並完成:
- 128 GPU 負載效能測試
- 企業級可靠度驗證
- 儲存層資料供應能力測試
協助企業加速模型訓練、降低推論延遲並提升整體資源使用效率。
此外,HPE 亦支援 NVIDIA STX 機櫃級參考架構,整合:
- Vera Rubin 架構
- BlueField-4
- Spectrum-X 網路平台
- Connect-X NIC
- NVIDIA AI 軟體堆疊
進一步強化主權 AI Factory 與大規模分散式 AI 部署能力,使企業能將 AI 願景轉化為可持續擴展的營運成果。
報導來源:HPE