![]() 香港飛龍.online 官方授權發布的第4代「香港飛龍」標誌 本文内容: 公衆號記得加星標??,第一時間看推送不會錯過。在AI芯片這條競逐速度與算力的賽道上,“定製化”正在成爲新的關鍵詞。隨着模型體積的暴漲與行業應用的多樣化,越來越多的企業開始意識到,通用GPU不再是唯一解,定製AI芯片正逐步走向聚光燈下。事實上,儘管目前英偉達依然保持着AI芯片中的超然地位,但谷歌、亞馬遜和微軟等主要雲巨頭正在加速推動自研芯片開發計劃,力圖在英偉達解決方案之外實現多元化發展。而在這些雲巨頭自研芯片背後的真正受益者,就是博通與Marvell。有意思的是,博通和 Marvell 在定製AI領域採用了截然不同的發展戰略。博通優先考慮大規模集成和平臺設計,並以大量的研發投入和先進的技術集成爲後盾。而 Marvell 則通過戰略收購來追求增長,通過收購 Cavium、Avera 和 Innovium 等公司擴展了其技術組合。在博通高調進軍AI市場,賺得盆滿鉢滿的同時,Marvell也在“悶聲發大財”:從微軟、AWS到谷歌,Marvell早已悄然佔據了多箇核心算力部署中的重要一環。近日,Marvell舉行了一場備受矚目的定製AI投資者活動,首次系統性披露其在AI基礎設施定製芯片領域的戰略進展、技術優勢與未來佈局。活動內容不僅涵蓋宏觀趨勢洞察,也具體呈現從IP、封裝到客戶項目的全棧能力,清晰刻畫了Marvell如何成爲“唯二的贏家”。定製AI:從芯片到系統的時代拐點活動伊始,Marvell董事長兼CEO Matt Murphy開宗明義地指出:“一場關於AI基礎設施的革命,正在雲數據中心內部悄然發生——這場革命的核心,是圍繞定製硅芯片的系統化重構。”他表示,早在2018年,Marvell就做出了一箇具有前瞻性的戰略決策:雲計算的未來將是定製化的。時至今日,這一預判已得到充分驗證。2021年Marvell首次展示戰略藍圖時,業內對定製芯片是否能真正規模化起飛還存在諸多爭議。如今,定製化已成爲現實,每個雲服務提供商都在積極佈局。經過近十年的投資和積累,Marvell已經確立了領先優勢。對於那些現在才意識到並想要進入爲雲構建定製硅業務的企業來說,時機已然錯過。他強調,當前雲計算四巨頭的資本支出2023年約爲1500億美元,2024年這一數字增長至超過2000億美元,2025年預計將超過3000億美元,其中最大一部分資金將投向“定製芯片”。更值得關注的是,定製化趨勢已不再侷限於前四大公司。Marvell看到一波新興企業正在投資自己的數據基礎設施,其稱之爲"新興超大規模雲服務提供商"。其中,以xAI爲代表的公司已經認識到控制自身基礎設施的價值,正在建設專屬數據中心。XAI在短短一年內就建成了一箇20萬單元的AI集羣,併成功開發出強大的Grok模型;構建終端應用的公司也在爲AI構建高度專業化的基礎設施。特斯拉建造了基於Dojo的數據中心,爲完全自動駕駛背後的AI提供算力支持;還有所謂"主權AI"的興起,世界各國政府也在發起重大投資,建設本地AI基礎設施。分析師預測,到2028年,數據中心資本支出將超過1萬億美元。在這一過程中,傳統四大超大規模雲服務提供商短期內不會放緩投資步伐,而新興超大規模雲服務提供商也將發展成爲重要力量。Murphy也沒掩飾Marvell對於未來定製市場的樂觀,他表示,去年 AI 活動中,美滿電子曾概述了一箇 750 億美元市場規模,涵蓋定製硅、交換、互連和存儲,複合年增長率接近 30%。而如今,市場規模已顯著擴容,總體估計增長約 25%,預計到 2028 年將達到 940 億美元,複合年增長率提升至 35%,其中計算市場比去年預測大了近 30%,互連市場增長約 37%,這兩個領域均處於美滿電子的優勢範圍,也是重點關注方向。而在這 940 億美元的總市場機遇中,定製計算是最大且增長最快的部分,互連爲第二大市場,交換和存儲則保持持續穩定增長。定製計算市場包含 XPU 和 XPU 附件兩個關鍵組成部分,其中 XPU 市場規模約 400 億美元,複合年增長率 47%,是世界上最大、最複雜的芯片;XPU 附件市場規模 150 億美元,複合年增長率高達 90%,由於定製系統複雜性幾乎每年翻一番,其增長迅猛,到 2028 年,定製 XPU 附件市場的規模將與今天整個定製硅市場的規模相當。最後,Murphy指出,Marvell目前在美國前四大超大規模雲服務商處獲得了18個定製芯片訂單,其中5個爲XPU核心芯片、13個爲XPU附件。同時,在新興AI雲客戶中也已拿下6個訂單,使公司面向的潛在終身收入(Lifetime Revenue)市場高達750億美元。他強調,Marvell之所以能夠在激烈競爭中勝出,根本原因在於Marvell作爲端到端全服務定製硅提供商的獨特地位 —— 其將最佳系統架構設計、先進的 IP 技術、全面的芯片服務、專業的封裝技術及完整的製造與物流支持等核心能力有機結合,這種一體化服務模式使客戶無需從各種第三方拼湊 IP,也不需要僱傭多家設計公司和供應商,在技術格局加速發展的未來,這種整合能力將成爲決定性優勢。同時,Marvell以技術領先地位構築競爭壁壘:在先進工藝節點方面,當前已在 5 納米和 3 納米工藝上大規模生產,未來已在 2 納米工藝上有測試芯片並正引領進入埃米時代,更前瞻佈局 A16 和 A14 節點爲未來產品開發;在 IP 組合優勢上,Marvell構建了業內最廣泛的模擬混合信號 IP 組合之一,專注於高性能低功耗設計、低延遲串行鏈路、高帶寬裸片到裸片集成等領域,例如在 OFC 上展示的世界首個運行 448Gbps 的串行器 / 解串器(SerDes),這種能力對網絡擴展至關重要。在Marvell所構建的藍圖中,定製AI芯片,不再是少數頭部客戶的獨角戲,而是一場“全行業全應用的系統化轉向”。Chris Koopmans:多樣化AI工作負載推動平臺定製化爆發接下來,首席運營官Chris Koopmans進一步深化了“爲什麼定製”的核心邏輯。他指出,2028年約5000億美元的數據中心芯片支出中,超過一半將用於AI加速計算,其中3500億美元將落在XPU和其附件市場。而在這一巨大TAM中,Marvell聚焦的是定製部分——一箇預計2028年可達550億美元的新興細分市場。Koopmans指出,推動定製市場急速增長的核心動力,是AI工作負載的多樣化演進:從預訓練到後訓練,從輕量級推理到思維鏈(Chain of Thought)等遞歸型模型,對算力結構和內存層次提出了截然不同的要求。例如,傳統推理對低延遲內存密度要求高,而複雜多輪推理則需要高性能異構算力單元。此外,訓練數據的差異也決定了基礎設施必須定製化 —— 比如訓練自動駕駛模型的數據是數百萬小時的視頻,需要巨量本地內存帶寬與視頻處理邏輯,而社交模型的海量文本數據則更注重參數稀疏性與推理效率。Koopmans由此得出結論:沒有任何一種通用架構能 “一刀切” 適應所有場景,通用平臺會造成 “內存閒置 - 計算瓶頸” 或 “計算閒置 - 訪存不足” 的結構性浪費,只有定製平臺才能按需配置核心類型(矩陣 vs 標量)、片上 SRAM 與 HBM 比例、IO 帶寬與接口協議、集羣拓撲(星型、環型、Mesh)及數據路徑(銅線 vs 光纖 vs 封裝內裸片互聯)。他特別指出,當前市場多數人關注的是 “XPU 本體” 這一 AI 加速計算的主芯片,但在 Marvell 眼中,真正的爆發點在於被忽視的 “XPU 附件市場”,其包括網絡接口控制器(NIC)、電源管理 IC、HBM 控制器、IO 協處理器、安全模塊、擴展交換器、池化器、封裝子裸片等,關鍵數據顯示,到 2028 年 XPU TAM 約 400 億美元,CAGR 爲 47%,而 XPU 附件 TAM 約 150 億美元,CAGR 高達 90%,幾乎年年翻倍,這表明在 AI 系統複雜性持續提升的背景下,定製硅早已不僅是 “算力之爭”,更是 “平臺之爭”—— 每個 AI 平臺都如同一座定製化的微型數據中心,XPU 只是其中一塊主磚。他還描繪了定製平臺的發展路徑:從爲 x86 設計的傳統通用平臺,到爲特定 XPU 定製主板、功耗、電源路徑的第一代定製平臺,再到標準化基礎設施平臺的崛起 —— 是否可能出現可插拔式標準化 AI 平臺,供不同客戶插入自己的 XPU?爲此,Marvell 已開始積極行動,與 NVIDIA 合作支持其 NVLink Fusion 平臺,並自建 UA Link 平臺,致力於實現跨廠商 AI 加速平臺的互通互聯。Koopmans最後落點於產業認知的變遷:“過去大家認爲定製芯片是奢侈的‘特供品’,而現在每一箇頭部客戶都把定製作爲默認選項”,AI 基礎設施已不再是單一系統或標準芯片的堆砌,而是橫跨硬件、架構、封裝、系統互聯的協同工程,而 Marvell 正是這場系統工程中少數的 “全棧玩家” 之一。Nick Kucharewski:構建一箇端到端的“定製芯片工廠”隨後,雲平臺高級副總裁Nick Kucharewski詳細介紹了Marvell“定製雲平臺”的能力矩陣。他強調,Marvell的核心差異化在於:不僅僅是做ASIC設計服務,更是從系統架構定義、IP集成、EDA流程、封裝、製造、測試、量產等全流程深度綁定客戶。Kucharewski強調,市場上常見的定製芯片合作大致可分爲三種模式:第一種是DIY,也就是客戶完全自研,通過EDA工具自己流片;第二種是傳統ASIC服務,客戶只做架構定義,後端設計交由ASIC服務商完成;而Marvell代表的是第三種模式,即深度協同式的定製硅開發服務。從產品定義、IP集成、架構協同,到後端設計、封裝選型、驗證測試、量產導入,Marvell都可“一肩挑”。他還特別提到,目前市場主流客戶——如大型雲服務商和AI模型公司——往往不願意自己去搭建一整條芯片開發生產線,因爲這需要大量的資源、人才、方法學、EDA流和IP積累,而這正是Marvell能爲其補齊的關鍵短板。Kucharewski提到,Marvell爲客戶提供的不僅是一套芯片方案,而是一種“系統層思考”的延伸。客戶無需對每一箇SerDes IP、SRAM宏單元或封裝拓撲做出判斷,而是專注於上層AI框架和系統調優,由Marvell將底層實現邏輯封裝成可交付的“芯片平臺”。這種模式不僅提升了開發效率,也極大壓縮了項目週期,使得客戶可以在12-18個月內完成從概唸到量產的迭代。更重要的是,Marvell並不是基於一次性設計來實現盈利,而是通過長期維護、版本更新、工藝演進,與客戶建立深度綁定關係。在Kucharewski看來,這就像是爲客戶構建一箇“AI芯片工廠”的外包服務中心,客戶提供需求和場景,Marvell則負責將其落地爲物理芯片和算力平臺。他形容這種關係已經不再是供應商與客戶,而更像是“共同體”,是一種在高算力需求驅動下形成的“技術共生”。這一模式的成功也體現在Marvell目前已經拿下的18個定製芯片合作項目中,包括5個XPU主芯片和13個附件芯片,其中不乏超大規模雲廠商和新興AI基礎設施創業公司。Kucharewski指出,很多客戶最初接觸Marvell時,甚至並不知道自己到底需要一箇什麼樣的芯片,但他們知道要解決的是AI推理的延遲瓶頸、功耗牆和散熱限制,而這些需求正是Marvell能夠通過其平臺能力進行建模、迭代和實現的。“我們不是告訴客戶能做什麼,而是先理解他們面臨的問題,然後共同定義答案。”Kucharewski如是說。最後他特別強調,Marvell正在從“芯片公司”轉型爲“系統架構加速器”,爲AI時代的基礎設施重構提供底層支撐。正因如此,其得以成爲微軟、AWS、甲骨文等頭部客戶的核心合作伙伴。“你無法通過在Yelp上搜索就找到這些服務。”Kucharewski半開玩笑地說,“我們提供的是一套在公開市場上都無法獲得的獨家技術棧。”Sandeep Bharathi:從5nm到2nm,美滿如何構建AI芯片的“火箭發射臺”Marvell CTO Sandeep Bharathi則從技術視角全面剖析其技術堆棧。Bharathi一開始就提出一箇判斷:“AI芯片的技術路徑已經從摩爾定律主導的線性演進,轉向以系統集成爲核心的異構演進。”換句話說,未來的算力競爭,早已不是比拼單顆芯片的工藝先進性或頻率指標,而是比拼誰能在高度複雜的架構下,以最小功耗、最優互聯方式和最大數據吞吐整合多箇裸片與封裝資源。他強調:“AI芯片不是單點突破,而是系統集成能力的總和。”Bharathi將Marvell比作“AI芯片界的NASA”,擁有完整的“火箭發射系統”:從先進製程(5nm/3nm/2nm測試片)到多裸片封裝、定製高帶寬內存(HBM)、SerDes、高速裸片互聯、共封裝光學等關鍵IP。他特別指出,在AI推理芯片設計中,最重要的不再是核心計算邏輯,而是“如何讓數據以更短路徑、更低功耗、更高帶寬流動起來”。而這背後的技術支撐,是Marvell在D2D互聯技術上的領先。通過使用封裝內裸片高速總線,Marvell已實現單邊帶寬超10TBps/mm、延遲低於1ns、功耗低至1pJ/bit,這種能力使得計算裸片與HBM、SRAM IO裸片之間幾乎可以無縫通信,從而徹底釋放AI芯片的片內互聯潛力。Bharathi還表示,Marvell目前已進入AI封裝架構的新階段,不再是簡單地將多箇裸片“放入一塊基板”,而是使用三維立體封裝技術(3D IC)、中介層(interposer)與共封裝光學(CPO)方式,將多箇裸片、硅光模塊、模擬接口統一封裝於一個系統級載體中。這些先進封裝不僅解決了功耗瓶頸,更爲未來AI芯片的規模化部署與散熱性能帶來質的提升。在最後,Bharathi提出一箇發人深省的觀點:“今天你看到的每一塊AI芯片,其實已經是一整座數據中心的縮影。”他指出,AI芯片的系統複雜度正逼近小型超算,而這正是爲什麼“設計一箇AI芯片,不只是設計一塊芯片,而是設計一箇系統架構”的真實寫照。Bharathi堅信,隨着AI模型參數級數從百億躍升到萬億,AI芯片的設計範式將徹底從“通用型SoC”轉向“高度模塊化的系統平臺”,而Marvell已經完成了從IP、封裝、互聯、功耗、測試到量產全鏈路能力的聚合,成爲這個新時代中極少數具備系統性技術閉環的公司之一。Ken Chang:SerDes與裸片互聯,是AI系統的“血管系統”模擬混合信號設計高級副總裁Ken Chang則聚焦於AI芯片互連中的關鍵IP——SerDes與裸片到裸片(D2D)互聯。Ken指出,在現代AI芯片的運行中,“數據移動”已經成爲最大的能耗來源,遠超計算本身;而決定數據是否能夠高效移動的關鍵因素,正是芯片內外的高速互聯結構。SerDes已經從傳統的數據中心IO工具,演進爲AI系統的“神經系統”,一旦速率、功耗或誤碼率不達標,將導致整個平臺崩潰。Marvell在這一領域擁有超過20年的深厚積累,當前其SerDes IP已經達到448Gbps的世界領先水準,同時具備極低的BER(誤碼率)與功耗控制能力,廣泛部署於AI加速器IO、交換芯片、XPU附件、HBM接口等多箇關鍵路徑中。在Marvell的設計哲學中,高速互聯並不僅限於芯片對外通信,更關鍵的是芯片內部與裸片間的“D2D”連接。Ken指出,在多裸片AI芯片架構日益成爲主流的今天,將不同功能的裸片(如計算核心、IO裸片、HBM控制裸片)集成於一箇封裝中,並通過高帶寬、低功耗的D2D互聯連接,已成爲突破工藝和散熱限制的主流路徑。爲此,Marvell打造了多代D2D接口技術,其最新一代已實現單邊帶寬超10TBps/mm、延遲低於1ns、功耗低至1pJ/bit,而下一代目標是實現50+TBps/mm帶寬與亞皮焦能耗。他強調,這種指標的躍遷並非簡單“製程提升”所致,而是依賴於Marvell自研的SerDes調製解調算法、高頻信號完整性優化、超低功耗驅動電路設計以及跨裸片同步協議的完整工程閉環。這套D2D系統已在多箇客戶項目中實現量產,尤其是在XPU主裸片與HBM控制裸片、SRAM裸片、光IO裸片之間的互聯場景中表現突出,形成Marvell區別於傳統SoC芯片廠商的“系統級競爭力”。更關鍵的是,Marvell的D2D互聯技術具備高度可擴展性,不受限於硅中介層(interposer)或特定封裝材料,可支持2.5D封裝、3D堆疊、先進RDL結構甚至CoWoS-L與FOWLP等新型封裝工藝,爲客戶提供靈活、低風險的工藝選型路徑。此外,Ken還分享了Marvell在D2D系統中的一箇重要創新——將SerDes與互聯接口邏輯“模塊化封裝”爲可複用的IP裸片,這意味着未來客戶甚至可以按需“插拔式組合”互聯單元,從而構建面向特定AI負載優化的裸片拓撲。比如,有的客戶可能在推理中更注重HBM與SRAM互聯帶寬,而有的客戶則更關注多箇計算裸片間的Mesh型拓撲互聯,Marvell的模塊化D2D設計讓這些架構在設計早期便具備高度靈活性,不必反覆迭代底層物理層協議。Ken以一箇客戶項目爲例說明:通過將計算裸片與HBM IO裸片之間的總線由原先的傳統PCB互聯升級爲封裝內D2D互聯,不僅整體系統功耗下降了40%,而且在同等封裝面積下實現了3倍以上的帶寬提升,這一改變最終使該客戶的整機系統在數據中心部署效率上提高了一箇數量級。最後,他總結道:在AI芯片性能瓶頸不斷上移的今天,算力不再是核心競爭力的唯一體現,數據流的管理與通信路徑的優化纔是決定平臺成敗的根本,而Marvell正是以其在SerDes與D2D方面的領先佈局,爲全球AI基礎設施搭建起“高速、穩定、可擴展”的數據血管系統,這不僅是技術能力的體現,更是一種對AI未來系統架構深刻理解的前瞻部署。Mark Kuemerle:用SRAM與定製HBM爲AI算力“拓展土地”雲定製業務技術副總裁Mark Kuemerle重點介紹了定製SRAM與HBM的創新路徑。他提出了一箇核心觀點:“AI芯片的土地,不是邏輯單元,而是內存。”也就是說,當參數規模從百億躍升到萬億時,AI芯片不再是比誰有更多的矩陣乘法單元,而是比誰能在極小的空間中有效整合更多、更快、更省電的存儲資源。正是基於這一判斷,Marvell近年來在定製SRAM和高帶寬內存(HBM)結構上持續投入,已經構建出行業領先的片上內存與外部內存接口能力。Kuemerle首先介紹了Marvell新一代定製SRAM IP的關鍵突破。他指出,傳統SRAM通常受限於標準工藝庫和麪積能效之間的折中,難以在面積敏感的XPU核心區域部署大容量高速緩存。而Marvell基於2nm工藝所開發的定製SRAM,在帶寬上比業界通用SRAM快了17倍,同時待機功耗下降66%,這一成果使得客戶在SoC中可以大規模部署片上高速緩存,從而減少數據出片所帶來的延遲與能耗。這一點對於高頻AI推理任務尤爲重要,尤其是在生成式AI中頻繁調用歷史上下文和中間記憶數據時,大容量、低延遲的片上存儲可以顯著提升整體系統的吞吐效率。更進一步,Kuemerle講述了Marvell在HBM架構上的創新路線,即“去耦合HBM IO控制器”的設計思路。在傳統AI芯片中,HBM IO接口通常集成在主計算裸片上,佔據大量物理空間併產生高功耗,而Marvell採用一種模塊化設計,將HBM IO接口拆解並獨立部署在一箇專用的底座裸片上,通過高密度的D2D互聯將其與主XPU裸片進行連接。這種設計的優勢在於,它能夠將主計算裸片的有效利用率提高約1.7倍,爲客戶提供更多可用於核心計算單元的硅面積,同時由於HBM IO的電源路徑與信號鏈被重新佈線,也使得整體功耗下降了75%。Kuemerle強調,這種架構本質上打破了傳統SoC的“單芯片封裝邏輯”,引導AI芯片走向“裸片模塊協同設計”的新時代。他提到,在客戶實際部署過程中,通過這種HBM分離封裝結構,可以實現多箇HBM堆棧裸片與多箇計算裸片之間的非對稱連接,從而根據具體模型的參數訪問頻率與訪存拓撲定製化帶寬路徑,這種設計的靈活性遠遠超越傳統的統一內存架構。他還指出,隨着HBM規格逐代演進(目前已到HBM3E,未來向HBM4過渡),內存功耗將成爲制約整機AI加速卡部署密度的主要因素,而Marvell的模塊化HBM架構不僅支持更高容量與帶寬,還能支持動態功耗調節,使AI系統在推理、預訓練、微調等不同階段實現功耗彈性配置。此外,Kuemerle還提及Marvell目前正在探索更高級的內存子系統架構,例如異構SRAM陣列、可組合共享內存池、通過光互聯實現的片間緩存一致性協議等,未來可能進一步提升AI芯片在多任務、多模型並行執行時的數據調度能力。Kuemerle最後強調,AI芯片已從傳統“計算爲王”的時代,走入了“數據爲先”的體系重構階段,Marvell的SRAM與HBM能力不是孤立存在,而是AI芯片平臺生態中不可或缺的“土壤與水利工程”,決定了AI模型能否在高密度計算環境中高效生長,也決定了AI芯片是否能真正進入通用部署的拐點門檻。定製AI,不再小衆值得一提的是,在這次活動中,微軟Azure硬件系統副總裁Ronnie Borkar還專程發表了演講。他指出,微軟與Marvell的合作已持續十餘年,從早期交換芯片到當前定製AI基礎設施。“隨着模型與計算需求超越硬件進展速度,我們必須重構整個堆棧。”Borkar強調,微軟希望構建“端到端協同優化”的AI基礎設施,其中硅是最底層關鍵。Marvell不僅提供芯片,還能提供軟件、封裝、系統、EDA方法與交付支持,“是真正意義上的戰略合作伙伴”。2021 年,Matt Murphy 提出 “雲優化芯片” 概念時,不少人持懷疑態度。而如今,“每個雲服務商都在定製芯片” 已成爲行業現實 —— 從最初的 3 個定製芯片項目發展到 18 個,覆蓋傳統雲巨頭、新興 AI 基礎模型公司及國家主權 AI 工程,Marvell 正通過系統級佈局構建定製 AI 基礎設施的競爭優勢。更重要的是,它並非以 GPU、CPU 等傳統硬件思路參與競爭,而是以 “平臺級思維” 推動行業格局變革。AI 定製芯片的時代已然到來,Marvell 憑藉在該領域的持續投入與佈局,成爲這一趨勢中不容忽視的重要參與者。*免責聲明:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅爲了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支持,如果有任何異議,歡迎聯繫半導體行業觀察。今天是《半導體行業觀察》爲您分享的第4070期內容,歡迎關注。加星標??第一時間看推送,小號防走丟求推薦 (本文内容不代表本站观点。) --------------------------------- |