英特爾至強處理器在AISBench測試中展現卓越AI大模型推理性能
供稿 / 2024-09-10 09:302663近期,第五代英特爾?至強?可擴展處理器通過了中國電子技術標準化研究院組織的人工智能服務器系統性能測試(AISBench)。英特爾成為首批通過AISBench大語言模型(LLM)推理性能測試的企業。
中國電子技術標準化研究院賽西實驗室依據國家標準《人工智能服務器系統性能測試規范》(征求意見稿)相關要求,使用AISBench 2.0測試工具,完成了第五代英特爾至強可擴展處理器的AI大模型推理性能和精度測試。測試中,第五代英特爾至強在ChatGLM V2-6B(60億參數)以及 Llama2-13B(130億參數)兩個模型上均展現出卓越推理性能,能夠滿足輕量級大語言模型的實時推理要求。
測試結果:此次單機性能測試中,在滿足人類正常閱讀速度要求(生成延遲小于100毫秒)的情況下,在封閉測試場景中構造數據集,基于第五代英特爾至強的服務器可實現:
? 在60億參數的ChatGLM V2模型通用推理中,當輸入輸出序列為256時可達每秒 2493 token的性能,當輸入輸出序列為2048時可達每秒926 token。
? 在130億參數的Llama2模型通用推理中,當輸入輸出為256時可達每秒513 token,當輸入輸出序列為2048時可達每秒 132 token1。
作為通用處理器,第五代英特爾至強在人工智能、網絡、存儲、數據庫等關鍵工作負載均能提供出色性能。AISBench 2.0的測試結果驗證了英特爾至強在運行輕量級大語言模型時展現出的優異推理性能,使得客戶可以使用基于至強的服務器,構建一個通用AI系統進行數據預處理、模型推理和部署,從而獲得兼具AI性能、效率、準確性和可擴展性的組合。這也彰顯了英特爾至強可以為企業提供“開箱即用”的功能,即可以在通用系統上部署一部分AI工作負載,從而為客戶帶來更佳的總體擁有成本(TCO)優勢。
軟硬結合,至強展現AI優勢
英特爾至強的內置AI加速器使其成為在通用處理器上運行部分AI工作負載的理想解決方案,不僅如此,英特爾還配備了經過優化的、易于編程的開放軟件,可降低客戶和生態伙伴在數據中心部署從云到智能邊緣各種基于AI的解決方案的門檻。
· 第五代英特爾至強可擴展處理器充分發揮了系統級優勢(包括緩存、內存等),因此推理速度實現了大幅提升。
· 其內置的AI加速器——英特爾?高級矩陣擴展(AMX),通過提供專用的矩陣運算加速模塊(TMUL),以及支持INT8和BF16這類低精度數據類型,可實現對計算資源的充分利用,從而大幅提升運算效率。
· xFasterTransformer(簡稱xFT)是英特爾提供的在CPU平臺上部署大語言模型的深度優化開放解決方案,通過C++和Python兩種API接口,更易于用戶使用和將其集成到自有業務框架中。
英特爾至強處理器在AISBench測試中展現卓越AI大模型推理性能














滬公網安備 31010702005758號
發表評論注冊|登錄