從決策式AI進階到生成式AI,SSD將變得更為重要
供稿 / 2024-04-01 09:332865在AI概念沒有火熱之前,無論手機還是PC都已經(jīng)悄然引入人工智能加速相關(guān)的硬件和技術(shù),目的是在部分功能上獲得更好的體驗,比如手機相冊中的人臉智能識別和分類, PC和NAS在算力閑暇時對圖像、視頻的整理,以及視頻通話時的背景虛化等等都是很好的例子。
這個時期的AI計算我們通常稱為決策式AI,即在成熟的底層技術(shù)框架內(nèi),通過數(shù)據(jù)分類標簽和辨別的形式,通過CPU、GPU、NPU等處理器合力,它們的特點是,具備一套成熟的判斷機制,通過夜以繼日的訓練識別,不斷提升精度,并具有很強的針對性。
隨著大模型的火爆,另一種AI也推向了大眾視野,即被稱為生成式AI。無論是云端AI服務(wù)加速,還是近期能夠本地運行200億參數(shù)大語言模型的AI PC,它們的思維是發(fā)散且具有創(chuàng)造性的,同時對硬件也提出了更高的要求。
生成式AI背后的海量數(shù)據(jù)
生成式AI與決策式AI最大的不同在于模型的規(guī)模,大模型計算本身意味著高算力、高存儲需求。正因為如此,LLM大語言模型才會成為推向應(yīng)用層面的首要選擇,原因很簡單,相對于圖像、視頻而言,抽象的文字已經(jīng)是最好整理的了。
但即便如此,大語言模型本身占用的數(shù)據(jù)量仍然巨大,以GPT-3為例,光是訓練參數(shù)就達到了1750億個,訓練數(shù)據(jù)達到45TB,每天會產(chǎn)生45億字內(nèi)容,每次訓練費用需要460萬美元。而進階到GPT-4之后,訓練參數(shù)從1750億個增加到1.8萬億個,訓練成本進一步提升到6300萬美元,訓練數(shù)據(jù)量信息雖然沒有公布,但可想而知增長也是指數(shù)級的。
有意思的是,大語言模型訓練在當下似乎已經(jīng)變成了日常,頭部廠商已經(jīng)將目光投向了圖像生成和視頻生成,近段時間火熱的文字生成視頻應(yīng)用Sora,以及文生圖Midjourney都是很好的例子。現(xiàn)在我們知道光是文字內(nèi)容就可以占據(jù)海量的存儲空間,如果將訓練模型換成圖像、視頻,對內(nèi)容存儲和讀寫性能需求也注定指數(shù)級攀升。
SSD很重要
隨著生成式AI深入到不同領(lǐng)域,能夠提供高速存儲性能的SSD變得至關(guān)重要。不僅如此,對于企業(yè)和數(shù)據(jù)中心而言,存儲的可靠性、能效、性價比,以及對前沿技術(shù)的支持都變得至關(guān)重要。比如,企業(yè)級用戶會考慮在有限的機房空間內(nèi)獲得更多的容量,即提升單位存儲密度,并且還要考慮機架和機房的散熱能力和供電能力,這時候EDSFF規(guī)格似乎就成為了不錯的選擇。
EDSFF,即企業(yè)與數(shù)據(jù)中心標準外形規(guī)格,特點是由頭部企業(yè)引領(lǐng)并獲得行業(yè)認可,針對物理尺寸、散熱、性能、布局、安裝便捷性等特性優(yōu)化,從而達到更好的效果。
比如鎧俠CD8P就配備了前瞻性的EDSFF E3.S版本,支持PCIe? 5.0和NVMe? 2.0,可提供高達30.72TB的存儲容量,擁有可達12,000MB/s順序讀取性能,并具備2000K IOPS的4K隨機讀取能力,在能耗與應(yīng)用性能表現(xiàn)之間做到很好的平衡,為數(shù)據(jù)中心和企業(yè)級用戶提供合理的擴容選擇。
如果希望性能更進一步,鎧俠CM7系列作為高性能企業(yè)級雙端口固態(tài)硬盤同樣值得參考,事實上CM7系列是較早提供PCIe? 5.0和NVMe? 2.0支持,并已經(jīng)充足釋放PCIe? 5.0性能的產(chǎn)品,最大容量同樣也達到了30.72TB。擁有高吞吐量和高密度存儲的性能表現(xiàn),非常適合大模型計算,大數(shù)據(jù),深度學習加速、AIGC等人工智能應(yīng)用場景。
而隨著生成式AI的硬件需求越來越高,同時也不能忽視龐大的數(shù)據(jù)量需要高性能接口、大容量存儲支持,鎧俠企業(yè)級和數(shù)據(jù)中心級固態(tài)硬盤則早已為其做好了充足的準備。未來AI的發(fā)展路徑中,也注定少不了鎧俠SSD承擔起存儲與加速的重要角色。
從決策式AI進階到生成式AI,SSD將變得更為重要














滬公網(wǎng)安備 31010702005758號
發(fā)表評論注冊|登錄