《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > 高帶寬閃存HBF即將崛起

高帶寬閃存HBF即將崛起

2025-09-12
來源:芯智訊
關鍵詞: 高帶寬閃存 HBF HBM

9月11日消息,據(jù)韓國媒體Thelec報導,韓國科學技術院(KAIST)電機工程系教授 Kim Joung-ho(在韓國媒體中被譽為“HBM 之父”)表示,高帶寬閃存(High Bandwidth Flash,HBF)有望成為下一代 AI 時代的重要存儲技術,將與高帶寬內存(HBM)并行發(fā)展,共同推動芯片大廠的業(yè)績成長。

HBF 的設計概念與 HBM 相似,均通過硅通孔(TSV)技術將多層芯片堆疊連接。 差別在于HBM以DRAM為核心,而HBF則采用NAND Flash閃存進行堆棧,具備“容量更大、成本更具優(yōu)勢”的特點。

Kim Joung-ho指出,雖然NAND Flash的速度不及DRAM,但容量往往高出10倍以上,若以數(shù)百層乃至數(shù)千層堆疊方式構建,將能有效滿足AI模型對龐大儲存的需求,可望成為NAND Flash版本的HBM。

目前生成式 AI 模型正急速擴張,單一模型的輸入 Token 已達百萬級別,需要處理TB 級數(shù)據(jù)。 在每秒數(shù)千次的讀寫過程中,若存儲帶寬不足,就會出現(xiàn)瓶頸,導致 ChatGPT、Google Gemini 等大型語言模型(LLM)的反應速度明顯下降。

Kim Joung-ho 強調,這種限制來自現(xiàn)行的馮諾依曼架構,由于 GPU 與內存是分離設計,數(shù)據(jù)傳輸帶寬決定了效能上限,“即便將 GPU 規(guī)模擴大一倍,如果帶寬不足也毫無意義”。

他預測,未來GPU將同時搭載HBM與HBF,形成互補架構:HBM做為高速快取,負責即時運算數(shù)據(jù),而HBF則承擔大容量儲存,直接存放完整的AI模型。 這將有助于突破存儲瓶頸,使 GPU 能處理更龐大的生成式 AI,甚至涵蓋長篇視頻等復雜內容。 Kim Joung-ho 表示:“未來 AI 將不僅限于文字與圖像,而能生成如電影般的長片,屆時所需的內存容量將是現(xiàn)有的 1,000 倍以上。”

95153.jpg

之前也有消息顯示,存儲芯片大廠Sandisk正在聯(lián)手SK海力士開發(fā)用于 AI 系統(tǒng)的HBF規(guī)范。HBF能夠以與DRAM型HBM相當?shù)某杀竞蛶?,提供高達DRAM型HBM約8到16倍的容量。并且,與需要恒定功率來保存數(shù)據(jù)的 DRAM 不同,NAND 是非易失性的,因此能夠以更低的能耗實現(xiàn)持久存儲。

Sandisk 的目標是在 2026 年下半年交付其 HBF 閃存的第一批樣品,首款集成該技術的 AI 推理硬件預計將于 2027 年初推出。


Magazine.Subscription.jpg

本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。