HPE、NVIDIA合作 加速生成式AI產業革命

圖說:HPE與NVIDIA宣布推出NVIDIA AI Computing by HPE產品組合,加速生成式AI技術革命。

Hewlett Packard Enterprise(HPE)與NVIDIA(輝達)今日宣布推出NVIDIA AI Computing by HPE產品組合,包含雙方共同開發的AI解決方案以及聯合進入市場(GTM)策略,協助企業加速採用生成式AI技術。

此產品組合的核心產品之一是HPE Private Cloud AI,這是業界首次將NVIDIA AI運算、網路與軟體以及HPE AI儲存、運算和HPE GreenLake雲端平台深度整合的解決方案。這個解決方案能協助各種規模的企業以高效節能、快速靈活且永續的方式開發和部署生成式AI應用。HPE Private Cloud AI導入了新OpsRamp AI copilot,以提升IT的工作負載及效率,此外也提供了自助式雲端體驗與完整的生命週期管理,以及四種適合不同AI工作負載及使用案例的配置。

NVIDIA AI Computing by HPE的所有產品和服務將透過聯合進入市場(GTM)策略進行推廣,包括銷售團隊和通路夥伴、培訓以及Deloitte、HCLTech、Infosys、TCS 和Wipro等全球系統整合商合作夥伴,協助各個產業的企業順利運行複雜的AI工作負載。

在HPE Discover的主題演講上,HPE總裁暨執行長Antonio Neri與NVIDIA創辦人暨執行長黃仁勳共同宣布推出NVIDIA AI Computing by HPE。此項發布不僅進一步深化兩家公司長達數十年的合作關係,也展現雙方在此領域投入的大量時間和資源。

「生成式AI擁有龐大的企業轉型潛力,然而因缺乏整合所導致的AI技術複雜性帶來了許多風險和阻礙,不僅使企業難以大規模導入此技術,還可能危及企業最寶貴的資產,也就是企業專有的資料,」Neri表示。「為了讓企業充分發揮生成式AI的潛力,HPE和NVIDIA共同開發了一站式私有雲AI解決方案,使企業能夠將資源集中在開發新AI應用案例上,進而提升生產力並開創新收入來源。」

「生成式AI和加速運算正帶來徹底的改變,使得各行各業爭相加入這場工業革命,」黃仁勳表示。「NVIDIA和HPE從未如此緊密地整合雙方的技術—藉由結合整個NVIDIA AI運算堆疊與HPE的私有雲技術,為企業客戶和AI專業人員提供最先進的運算基礎架構和服務,協助開拓AI疆界。」

HPE Private Cloud AI提供獨特的雲端體驗,可加速創新和投資回報,同時管理企業的AI風險。此產品組合提供以下優勢:

  • 支援推論、微調和利用專有資料的RAG AI工作負載。
  • 滿足企業在資料隱私、安全、透明度和治理方面的控管需求。
  • 具備ITOps和AIOps功能的雲端體驗,可提高生產力。
  • 快速靈活地因應未來的AI商機和成長需求。

NVIDIA AI Enterprise軟體平台是AI和資料軟體堆疊的基礎,該平台包括NVIDIA NIM推論微服務。

NVIDIA AI Enterprise加速了資料科學工作流程,並簡化生產級copilots和其他生成式AI應用的開發和部署。隨附的NVIDIA NIM提供易於使用的微服務,可優化AI模型推論,使企業能順利將各種應用情境的AI模型從原型階段轉移至安全部署。

在這過程中,HPE AI Essentials能進一步增強NVIDIA AI Enterprise和NVIDIA NIM的功能。HPE AI Essentials軟體提供了可隨時運作的AI和資料基礎工具,並具備統一的控制台,以提供靈活的解決方案、持續的企業支援和可信賴的AI服務,例如資料和模型合規性以及可擴展的功能,確保AI工作流程在整個生命週期中具備合規性、可解釋性和可重現性的要求。

為了提供最佳效能的AI和資料軟體堆疊,HPE Private Cloud AI提供完全整合的AI基礎架構堆疊,包括NVIDIA Spectrum-X乙太網路、HPE GreenLake for File Storage,以及支援NVIDIA L40S、NVIDIA H100 NVL Tensor Core GPU和NVIDIA GH200 NVL2平台的HPE ProLiant伺服器。

HPE Private Cloud AI提供由HPE GreenLake雲端平台打造的自助雲端體驗。透過基於平台的單一控制台,HPE GreenLake雲端服務具備可管理和觀測的工具,可自動運行、協調和管理混合環境中的端點、工作負載和資料。它也包含了工作負載和端點的永續性指標。

OpsRamp的IT運作已與HPE GreenLake雲端平台整合,為所有HPE產品和服務提供觀測性和AIOps功能。OpsRamp現在能為端到端NVIDIA加速運算堆疊提供觀測性,包括NVIDIA NIM和AI軟體、NVIDIA Tensor Core GPU、AI叢集,以及NVIDIA Quantum InfiniBand和NVIDIA Spectrum乙太網路交換器。IT管理員能從中獲得洞察,以識別異常狀況,並監控混合多雲環境中的AI基礎架構和工作負載。

全新的OpsRamp運作copilot利用NVIDIA加速運算平台上的對話助理,來分析大型資料集,並從中獲得洞察,以提升營運管理的生產力。OpsRamp也將與CrowdStrike API整合,讓客戶可以透過統一的服務地圖查看整個基礎架構和應用中的端點安全狀況。

為協助企業加速價值的創造,開發以產業為中心的AI解決方案,以及具明確商業利益的使用案例,Deloitte、HCLTech、Infosys、TCS和WIPRO宣布支援NVIDIA AI Computing by HPE產品組合和HPE Private Cloud AI,以作為他們策略性AI解決方案和服務的一部分。

  • HPE Cray XD670支援八個NVIDIA H200 NVL Tensor Core GPU,是大型語言模型(LLM)建構者的絕佳選擇。 
  • HPE ProLiant DL384 Gen12伺服器搭載NVIDIA GH200 NVL2,非常適合使用較大型模型或RAG的LLM使用者。
  • HPE ProLiant DL380a Gen12伺服器支援最多八個NVIDIA H200 NVL Tensor Core GPU,適合需要靈活擴展生成式AI工作負載的LLM用戶。
  • HPE將於NVIDIA GB200 NVL72 / NVL2以及新NVIDIA Blackwell、NVIDIA Rubin和NVIDIA Vera架構上市時提供相關支援。

HPE GreenLake for File Storage已通過NVIDIA DGX BasePOD認證和NVIDIA OVX儲存系統驗證,為客戶提供經過驗證的企業檔案儲存解決方案,以加速大規模AI、生成式AI和GPU密集型工作負載的運作。HPE將在即將推出的 NVIDIA 參考架構儲存認證計劃中推出相關解決方案。

回到頂端