美超微推出4U人工智能推論優(yōu)化新GPU服務器

2018-09-21 09:07 來源:美通社 作者:Angelina

這款新服務器支持多達20個NVIDIA Tesla T4加速器

推論優(yōu)化系統(tǒng)可拓展美超微的領先GPU服務器組合,為客戶提供前所未有的人工智能推論、培訓與深度學習解決方案選擇,包括單根、雙根、縱向擴展和橫向擴展設計

-企業(yè)計算、存儲、網(wǎng)絡解決方案和綠色計算技術領域的全球領導者美超微電腦股份有限公司(Super Micro Computer, Inc.) (NASDAQ: SMCI)今天推出了其廣泛的GPU優(yōu)化服務器組合的最新產(chǎn)品。

1

High-Density Supermicro GPU Server Optimized for AI Inference

人工智能(AI)正快速成為現(xiàn)在以及可預見未來企業(yè)成功的最重要要素之一。如今,部署能夠以具有成本效益的方式加快其人工智能產(chǎn)品和服務拓展的強大計算平臺已成為企業(yè)取得成功的關鍵所在。

美超微的全新 SuperServer 6049GP-TRT 可提供加快實現(xiàn)現(xiàn)代人工智能應用多樣化所需的卓越性能。為實現(xiàn)最高的GPU密度與性能,這款4U服務器支持多達20個NVIDIA?(英偉達?)Tesla? T4 Tensor Core GPU、三兆字節(jié)的內(nèi)存和24個熱插拔3.5寸硬盤。該系統(tǒng)還擁有四個2000瓦鈦級效率(2+2)冗余電源,幫助優(yōu)化電源效率、正常運行時間和適用性。

美超微總裁兼首席執(zhí)行官梁見后(Charles Liang)表示:“美超微正在實現(xiàn)創(chuàng)新,應對快速崛起的高吞吐量推論市場。這個市場的發(fā)展動力來自5G、智能城市和物聯(lián)網(wǎng)(IOT)設備等技術,將產(chǎn)生大量數(shù)據(jù),并需要實時決策。我們看到,NVIDIA TensorRT和基于Turing架構的新T4 GPU加速器的結合對于這些要求嚴格的新延遲敏感型工作負載而言非常完美。我們的GPU系統(tǒng)產(chǎn)品系列將積極采用這樣的完美結合?!?

NVIDIA加速計算副總裁兼總經(jīng)理伊恩-巴克(Ian Buck)說:“企業(yè)客戶將獲益于美超微全新高密度服務器NVIDIA Tesla T4 GPU吞吐量和電源效率的大幅提高。隨著人工智能推論占數(shù)據(jù)中心工作負載的比重越來越大,這些Tesla T4 GPU平臺可提供非常高效的實時和批量推論?!?

美超微性能優(yōu)化的4U SuperServer 6049GP-TRT 系統(tǒng)可支持多達20個PCI-E NVIDIA Tesla T4 GPU加速器,為支持深度學習、推論應用的廣泛數(shù)據(jù)中心部署顯著提高GPU服務器平臺的密度。隨著越來越多的行業(yè)部署人工智能,他們將尋求推論優(yōu)化的高密度服務器。6049GP-TRT是引領從培養(yǎng)深度學習、神經(jīng)網(wǎng)絡向為人臉識別和語言翻譯等現(xiàn)實世界應用部署人工智能轉變的最佳平臺。

美超微擁有完整的4U GPU系統(tǒng)組合,支持旨在加快所有橫向擴展服務器推論工作負載的超高效Tesla T4。Tesla T4的硬件加速轉碼引擎可實時提供多個高清視頻流,并將深度學習整合進視頻轉碼渠道,實現(xiàn)新類別的智能視頻應用。鑒于深度學習塑造世界的方式與歷史上其它任何計算模型都不一樣,需要針對呈指數(shù)式增加的數(shù)據(jù)量培養(yǎng)更深度、更復雜的神經(jīng)網(wǎng)絡。為進行響應,需要為強大的美超微GPU服務器部署這些模型,以便為推論工作負載提供最大吞吐量。

美超微 人工智能 GPU服務器

相關閱讀

暫無數(shù)據(jù)

一周熱門