2025年7月25日,浪潮存儲營銷總監(jiān)張業(yè)興出席中國信息通信研究院主辦的2025(第二屆)產(chǎn)融合作大會。會上,張業(yè)興發(fā)表題為《融存智用 運籌新數(shù)據(jù) ——浪潮存儲金融解決方案和實踐》的主題演講,并代表浪潮存儲正式發(fā)布國內(nèi)首款推理加速存儲AS3000G7。該產(chǎn)品憑借“以存代算”的技術(shù)創(chuàng)新,有效破解KV Cache重復(fù)計算帶來的算力和時延損耗難題,為大模型推理場景提供突破性解決方案,加速推動大模型在金融、科研等領(lǐng)域的規(guī)?;涞亍?/p>
大模型推理效能瓶頸:吞吐量和時延
當前人工智能大模型的應(yīng)用已滲透千行百業(yè),既推動著產(chǎn)業(yè)效能的跨越式提升,也深刻重構(gòu)著生產(chǎn)生活的底層邏輯,成為驅(qū)動數(shù)字經(jīng)濟發(fā)展與社會智能化升級的核心力量。隨著大模型應(yīng)用的普及和相關(guān)技術(shù)的發(fā)展,各行各業(yè)對大模型應(yīng)用的關(guān)注點逐漸從大模型的訓(xùn)練轉(zhuǎn)到大模型的推理。據(jù)IDC數(shù)據(jù)顯示,智能算力規(guī)模在未來5年增長1.7倍,用于推理的工作負載將從2023年的40%上升到2027年的70%以上。因此,大模型推理將會成為未來大模型應(yīng)用的焦點。然而,當前大模型推理仍然需要借助GPU服務(wù)器來實現(xiàn),而GPU服務(wù)器,也是整個大模型落地中最昂貴的投資。因此,充分發(fā)揮GPU服務(wù)器的利用率來提升大模型推理效率是大模型的落地關(guān)鍵,推理效率的高低直接決定著大模型從“實驗室”到“生產(chǎn)線”的落地速度。
大模型推理效率面臨兩大核心瓶頸:吞吐量(Tokens/s)和時延。吞吐量是指系統(tǒng)在單位時間內(nèi)能處理的tokens的數(shù)量,數(shù)值越高表明LLM服務(wù)資源利用率越高、系統(tǒng)成本越低。時延則是用戶接收每個token的平均耗時,其中首字時延(TTFT)是長文本對話場景中 “實時交互體驗” 的核心指標,直接影響用戶體驗。
大模型的推理包含兩個階段,第一個階段是預(yù)填充(Prefilling)階段。Prefilling階段處理輸入,構(gòu)建初始上下文并緩存成KV Cache(key-value鍵值對),緩存在GPU的HBM顯存里。第二個階段是解碼(Decode)階段,解碼階段則利用Prefilling階段生成的KV Cache,迭代地生成輸出Token,最終給出推理答案。
根據(jù)大數(shù)據(jù)統(tǒng)計分析,超過 76% 的對話都是多輪的,多輪對話會產(chǎn)生大量的KV Cache,上一輪的對話產(chǎn)生的KV Cache也會作為下一輪推理的輸入基礎(chǔ),為連續(xù)交互提供上下文支撐。但實際場景中,GPUHBM顯存容量存在明顯限制,因此多輪對話中的KV Cache會被強制丟棄,在下一輪對話中需要消耗算力來重新計算。以DeepSeek 70B模型為例,其每10分鐘產(chǎn)生的KV Cache高達25TB,但每張GPU HBM顯存只有幾十GB,因此,在服務(wù)完一個請求后,需清空顯存以接納新請求,KV Cache被強制丟棄,在后續(xù)對話中,原本可復(fù)用的KV Cache需要重新計算。這種重復(fù)計算直接時延增加(首字響應(yīng)變慢),同時造成GPU算力空轉(zhuǎn)(重復(fù)執(zhí)行相同計算),導(dǎo)致吞吐量下降,最終導(dǎo)致資源利用率降低。因此,高效管理KV Cache緩存成為提升推理效率的關(guān)鍵。
存儲產(chǎn)品托管KV Cache,實現(xiàn)“以存代算”
浪潮存儲AS3000G7作為國內(nèi)首款推理加速存儲,可存儲所有KV Cache及多輪對話結(jié)果。其創(chuàng)新架構(gòu)通過將KV Cache從GPU寫入本機內(nèi)存,再經(jīng)高速網(wǎng)絡(luò)緩存至AS3000G7,下輪對話時按需拉取緩存無需重新計算,徹底實現(xiàn)“以存代算”,顯著節(jié)省算力消耗并提升資源利用率。
作為國內(nèi)首款推理加速存儲產(chǎn)品,AS3000G7以四大核心優(yōu)勢重塑推理效率:
降低響應(yīng)延遲:將歷史Token緩存至AS3000G7存儲層,下輪對話從NVMe SSD硬盤中拉取歷史token的KV Cache,減少GPU重復(fù)計算帶來的資源消耗,TTFT降低90%;
承載更多并發(fā):TTFT在400ms以內(nèi)的前提下,系統(tǒng)可支持的吞吐量(Token/s)可達原方案5倍,單位GPU資源可承載更多推理請求;
降低GPU功耗:TTFT的降低與并發(fā)的提升,單Token平均功耗下降60%,在承載同等規(guī)模 token 負載時,GPU服務(wù)器整機功耗降低。
生態(tài)兼容適配:廣泛兼容國產(chǎn)與海外芯片的異構(gòu)算力平臺,深度適配vLLM框架下的deepseek等主流大模型,優(yōu)化推理體驗。
在某頭部客戶聯(lián)合測試中,采用1臺GPU服務(wù)器搭配1臺AS3000G7推理加速存儲的組合方案實現(xiàn):
穩(wěn)定支撐500+并發(fā)對話,TTFT降低90%,響應(yīng)速度大幅提升
同硬件配置下吞吐量(Tokens/s)提升5倍,在不增加 GPU 資源的情況下,實現(xiàn)更高并發(fā)的推理請求
單token功耗降低70%,單位算力成本降低60%,推理性價比提升
隨著大模型推理需求的持續(xù)攀升,AS3000G7的推出恰逢其時。其通過 “以存代算” 的技術(shù)創(chuàng)新突破 KV Cache 重計算瓶頸,為 AI 規(guī)?;瘧?yīng)用筑牢存儲根基。未來,隨著多模態(tài)與實時交互場景的普及以及存儲與計算的協(xié)同優(yōu)化,KV Cache “以存代算”將成為降本增效的核心競爭力,為智能時代的推理存儲構(gòu)建新基準。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )