首批GB300NVL72服務器機架將在美國組裝和部署。
美國CoreWeave公司在官網宣布,已經收到了市場上首個基于最新高端芯片的人工智能服務器系統(tǒng)。該系統(tǒng)由戴爾科技制造,首批GB300NVL72服務器機架將在美國組裝和部署。戴爾發(fā)布聲明稱,CoreWeave獲得的GB300NVL72服務器機架代表了英偉達最新一代AI芯片技術。
CoreWeave成立于2017年,專注于通過云端提供大規(guī)模圖形處理單元(GPU)服務。隨著全球對AI算力需求的急劇上升,CoreWeave已成為初創(chuàng)企業(yè)及成熟機構獲取高性能計算資源的關鍵通道。
本次部署的系統(tǒng)采用戴爾液冷服務器,內建72個英偉達BlackwellUltraGPU和36個基于Arm架構的英偉達GraceCPU。CoreWeave計劃在今年內持續(xù)擴大BlackwellUltra服務器的部署規(guī)模,以滿足客戶不斷增長的AI計算需求。
CoreWeave聯合創(chuàng)始人兼首席技術官PeterSalanki表示:“我們自豪能夠率先大規(guī)模運營這一變革性平臺,并將其交付到AI創(chuàng)新者手中,助力他們構建下一代人工智能應用?!?/p>
戴爾基礎設施解決方案集團總裁ArthurLewis表示:“今天我們邁出企業(yè)AI發(fā)展的又一重要一步,成為首個交付英偉達GB300NVL72系統(tǒng)的廠商。這也彰顯了戴爾始終致力于為各行業(yè)提供尖端技術,助力客戶快速擴展創(chuàng)新能力的承諾?!?/p>
GB300NVL72的相關配置
據CoreWeave介紹,搭載BlackwellUltraGPU的GB300NVL72相比上一代Hopper架構,在AI推理工作負載方面實現了顯著突破。用戶的響應時間可縮短至原來的十分之一,同時單位功耗下的吞吐量提升了5倍。這意味著AI模型在執(zhí)行復雜任務時,不僅速度更快,還能實現更高的能源效率。
此外,新系統(tǒng)將支持更大規(guī)模、更復雜的AI模型部署,推理輸出能力可提升高達50倍,極大推動了生成式AI、自然語言處理等領域的創(chuàng)新發(fā)展。
除了強大的計算能力,戴爾還為CoreWeave提供了液冷式集成機架擴展系統(tǒng),搭載PowerEdgeXE9712服務器,配備72個BlackwellUltraGPU和36個基于Arm架構的GraceCPU。這種高密度、低能耗的設計,不僅提升了整體算力水平,也體現了未來數據中心向綠色高效方向發(fā)展的趨勢。
CoreWeave與英偉達的緊密合作
眾所周知,CoreWeave與英偉達的合作是十分緊密的,雙方通過投資、供應和反向租賃等方式構建了“親子關系”。
憑借緊密合作的關系,CoreWeave并且總是能率先獲得英偉達的先進芯片。而合作的另一方面,英偉達會反向租用CoreWeave的服務器進行內部研發(fā),這些服務器支持英偉達的DGX云計算服務。最關鍵的是,英偉達擔心過度依賴AWS和微軟等正在開發(fā)自有AI芯片的大型云服務提供商,而CoreWeave這個合作伙伴恰好可以解決這個煩惱,并幫助其擴大市場。
2023年,CoreWeave從英偉達采購了價值3.8億美元的芯片和硬件,預計今年這一數字將大幅增長。此前CoreWeave預計到2024年底將擁有約24萬顆英偉達芯片,還預測到今年年底這一數字將翻倍,包括更多H200芯片和10萬多顆最新的Blackwell芯片。
目前CoreWeave擁有33個數據中心,約420兆瓦的活躍電力和約1.6吉瓦的簽約電力。
*聲明:本文系原作者創(chuàng)作。文章內容系其個人觀點,我方轉載僅為分享與討論,不代表我方贊成或認同,如有異議,請聯系后臺。
想要獲取半導體產業(yè)的前沿洞見、技術速遞、趨勢解析,關注我們!
免責聲明:本文內容由開放的智能模型自動生成,僅供參考。