AMD高通抱團AI開放模型能撼動英偉達霸權(quán)嗎?
人工智能芯片市場的格局正在發(fā)生微妙變化。OpenAI近日發(fā)布兩款開源推理模型gpt-oss-20b和gpt-oss-120b,AMD與高通迅速宣布旗下硬件支持,這一動作被視為挑戰(zhàn)英偉達AI霸主地位的重要嘗試。但要撼動既有的市場格局,仍需跨越技術(shù)、生態(tài)和商業(yè)化的多重門檻。
硬件適配展現(xiàn)差異化競爭力
AMD的布局頗具戰(zhàn)略眼光。銳龍AI Max+395處理器憑借128GB統(tǒng)一內(nèi)存架構(gòu),將96GB分配給GPU的方案,成功突破gpt-oss-120b模型61GB顯存的需求瓶頸。30 Token/s的推理速度雖不及頂級數(shù)據(jù)中心GPU,但在消費級市場已屬突破。Radeon RX 9070顯卡對gpt-oss-20b的優(yōu)化,則瞄準了中端推理市場。
高通則充分發(fā)揮移動端優(yōu)勢。通過Hugging Face和Ollama等平臺對接,讓gpt-oss-20b在驍龍設備實現(xiàn)端側(cè)推理。這種"小模型+終端適配"的策略,恰好避開與英偉達在云端訓練的正面競爭。
技術(shù)指標背后的生態(tài)博弈
從技術(shù)參數(shù)看,AMD方案在內(nèi)存帶寬管理上采用GGML框架的MXFP4量化技術(shù),將模型精度控制在可接受范圍內(nèi)。高通則依靠長期積累的AI加速器IP,在能效比方面建立優(yōu)勢。但值得注意的是,這些優(yōu)化都建立在Apache 2.0開源協(xié)議基礎上,模型的易用性和社區(qū)支持將成為關鍵變量。
與英偉達CUDA生態(tài)相比,開放模型陣營仍存在工具鏈碎片化問題。AMD的ROCm和高通的AI Stack需要更完善的開發(fā)者支持,特別是在模型壓縮、量化工具等關鍵環(huán)節(jié)。兩家公司聯(lián)合建立的開發(fā)者門戶網(wǎng)站流量,將是觀察生態(tài)建設成效的重要指標。
市場格局演變的三大觀察維度
從產(chǎn)業(yè)視角看,這場競爭將圍繞三個核心維度展開:首先是邊緣計算場景的滲透率。醫(yī)療、工業(yè)等對數(shù)據(jù)隱私要求高的領域可能成為突破口。其次是成本效益比,采用開放模型的TCO(總體擁有成本)優(yōu)勢需要實際案例驗證。最后是軟件生態(tài)的成熟速度,PyTorch等框架的適配進度將直接影響開發(fā)者遷移意愿。
需要清醒認識到,英偉達在AI訓練市場的主導地位短期內(nèi)難以動搖。其H100GPU在大型語言模型訓練方面的性能優(yōu)勢,以及CUDA生態(tài)的護城河效應仍然顯著。但推理市場呈現(xiàn)的多元化趨勢,確實為競爭者提供了差異化機會。
未來12-18個月將是關鍵窗口期。如果AMD和高通能實現(xiàn):1)在3個以上主流行業(yè)落地標桿案例;2)開發(fā)者工具下載量突破百萬級;3)建立可持續(xù)的商業(yè)模式,那么AI加速器市場有望形成三足鼎立格局。否則,開放模型可能僅停留在技術(shù)演示階段,難以真正動搖現(xiàn)有市場結(jié)構(gòu)。
這場競爭的本質(zhì)是AI算力民主化進程中的必然現(xiàn)象。無論結(jié)果如何,廠商間的技術(shù)博弈最終將推動邊緣AI計算成本下降,為更廣泛的AI應用落地創(chuàng)造條件。對行業(yè)而言,多選項的存在本身就是一種進步。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )