?
文 / 一燈?
近期,DeepSeek的火爆出圈,直接撬動了資本市場對AI+產業鏈的投資熱情。不僅在2月5日開工第一天,DeepSeek概念指數大漲14.73%,AI應用端和科技全線拉升,2月6日早盤仍顯示,A股TMT科技板塊延續強勢,DeepSeek、AI算力概念繼續活躍。
而就在新年開工、DeepSeek概念指數大漲的同一天,中國大模型市場又傳出重磅新聞:百度智能云成功點亮昆侖芯三代萬卡集群,成為國內首個正式點亮的自研萬卡集群。模型上線首日,已有超1.5萬家客戶通過千帆平臺進行模型調用。
這不僅標志著百度在自研芯片與大規模AI算力布局上的又一次重大突破,也預示著AI模型的訓練成本將迎來新一輪下調,整個行業的發展再次被注入新動能。
那么,在各大科技巨頭都加速推進AI算力基建的當下,萬卡集群究竟是什么?為何大家都在積極推進自研、自建萬卡集群?國產萬卡集群的不斷演進,又將給智算產業帶來怎樣的改變?
?
01 ?國產萬卡集群,中國AI新突破
近年來,隨著AI大模型的不斷涌現,模型規模和數據參數都呈現出指數級增長。
例如在前期訓練,據了解,2018年OpenAI發布的GPT-1模型參數量為1.17億;到2020年,GPT-3的參數量已達到1750億;2023年,GPT-4的參數量進一步增長到約1.8萬億。
參數量的快速增長推動了AI模型性能的大幅提升,使其在自然語言處理、圖像識別等領域的表現越來越好。但同時,模型參數量的增長也讓AI 模型訓練的算力需求每3.5個月翻一番,每年所需算力增幅高達10倍,增速遠遠超出了芯片產業長期存在的摩爾定律(性能每18個月翻一番)。
圖源:國金證券研究所
以擁有16個專家模型、約1.8萬億參數的GPT-4為例,其訓練約使用了 25000個英偉達(NVIDIA )的A100 GPU ,持續時間長達90至100天,對算力的消耗非常大。
并且,除了訓練時的算力需求,隨著大模型及應用越來越多地部署到企業實際業務場景中,后期推理的算力需求也水漲船高。因此,大規模 GPU 算力集群成為必然選擇。這也是為什么近年來國內外科技廠商紛紛布局 AI 算力基礎設施,死磕萬卡甚至10萬卡集群。
而“萬卡集群”,顧名思義,是指由超過一萬張加速卡(如GPU、TPU或其他專用AI加速芯片)組成的高性能計算系統,用以加速人工智能模型的訓練和推理過程。?? ?
圖源:百度
相比于訓練周期長、成本高的傳統千億參數模型,萬卡集群首先在計算能力、數據處理速度和存儲容量等方面都有著質的飛躍。它能夠通過并行計算和分布式處理,將龐大的數據和模型有效地組織起來,顯著縮短模型的訓練周期,提高研發效率。
其次,作為一種靈活的計算基礎設施,萬卡集群能夠根據不同的應用需求進行定制化的配置和優化,同時支持更大規模模型和更復雜的多模態任務,比如智能醫療診斷、自動駕駛技術、自然語言處理等領域。這既為AI技術的創新和發展提供了更廣闊的空間和可能,也為企業在AI領域的競爭中贏得先機。
此外,萬卡集群通過提升算力利用率、簡化用戶部署流程,也降低了AI技術的使用門檻,進而推動其在各個領域的廣泛應用。
但在《節點財經》看來,萬卡集群雖好,但想要成功搭建也不是易事。
據了解,要想建設萬卡集群規模的算力中心,通常要面臨幾大挑戰:
●?算力使用效率:集群規模提升不等于算力線性提升,關鍵在于互聯網絡和軟硬件適配調優。需運用系統工程方法,精細化設計網絡和軟硬件整合優化,以提升集群算力使用效率。
●?海量數據處理:未來萬億模型的訓練對checkpoint的讀寫吞吐性能更是要求高達10TB/s,需通過協議融合、自動分級等技術手段提升數據共享和處理能力。
●?多芯混訓難題:受限于芯片廠商的產能,AI企業經常采用不同型號、不同廠商的芯片來組建算力集群。這些芯片在性能、架構、指令集等方面都存在差異,如何讓它們在同一個集群中協同工作,并且保證混部訓練的效率,是一個亟待解決的問題。
●?智算中心設計:高能耗、高密度的智算中心對于空間和能源的需求,遠遠超過了傳統機房部署方式的承載能力。這就要求在建設之初,提前對智算中心的供電制冷、承重等進行配套設計,以便更好支撐超萬卡集群的快速建設、便捷部署。
●?穩定性與運維:萬卡集群中的計算卡數量龐大,網絡連接復雜,且當單卡可靠性為99.99%時,萬卡集群整體可靠性僅36.7%。一旦出現故障或延遲,將直接影響整個集群的計算效率和穩定性。
圖源:百度
正如此前中國工程院院士、清華大學計算機系教授鄭緯民所言,當下構建國產自主萬卡系統充滿挑戰,但“至關重要”。
?
02 百舸平臺賦能,讓中國AI產業率先“跑”起來
目前,國內智算中心的搭建有國內外芯片“混搭”和全部國產化兩種集群模式,而后者關乎一國在邁向通用智能征程中的核心競爭力。
正是意識到這樣的重要性,百度一直探索用自研芯片搭建自主可控的算力生態系統,始終將助力實現 AI 基礎設施國產化作為核心目標。
據了解,此次萬卡集群的成功點亮,得益于百度在硬件和軟件方面的技術創新。
在硬件層面,自研芯片保障了在生成式AI時代的技術主權。此次支撐萬卡集群高效運行的昆侖芯三代,延續并優化了前代產品的設計,在算力、能效、穩定性等方面全面升級。
同時,百度也突破了卡間互聯拓撲限制,避免通信帶寬成為瓶頸,并采用創新性散熱方案,有效解決了能效與散熱問題,以確保集群高效、穩定地運行。
而在軟件層面,百舸AI異構計算平臺4.0則在構建高性能網絡、優化分布式訓練、多芯混訓、故障診斷手段等方面發揮了至關重要的作用:
●?在分布式訓練優化上,百舸4.0采用高效并行化任務切分策略,將訓練主流開源模型的集群MFU提升至58%,大幅提升模型訓練速度和資源利用率;
●?針對機間通信帶寬需求,百舸4.0構建超大規模 HPN 高性能網絡并優化拓撲結構,顯著降低了通信瓶頸,使帶寬有效性達到90%以上;
●?在多芯混訓方面,百舸4.0可自動進行芯片選型,依據集群剩余資源選擇性價比最高的芯片運行任務,實現高達 95% 的萬卡多芯混合訓練效能。
●?在集群穩定性上,百舸4.0提供全面故障診斷手段,能快速自動偵測節點故障,并將故障恢復時間從小時級縮短到分鐘級,避免由于單卡故障率隨規模指數上升而造成的萬卡集群有效性大幅下降,保障有效訓練率達到98%。
圖源:百度
由此,《節點財經》認為,構建萬卡集群不僅是芯片的堆砌整合,更要依托強大的AI計算平臺來支撐整個集群的調配設計。而百度智能云依托百舸AI異構計算平臺4.0,實現了從集群創建到開發實驗,再到模型訓練、推理的全鏈路優化。不僅提升了自身的智算實力,也為智算行業提供新的發展思路。
值得一提的是,憑借著自研昆侖芯的技術優勢以及百舸平臺的有力加持,百度智能云已為眾多企業提供了“多、快、穩、省”的AI基礎設施。
例如,生數科技依托百度百舸高效、穩定、混合多芯的能力,得以在短時間內完成了Vidu大模型的上線和開放API,其素材渲染加速效率提升3倍,數據拉取效率提升51倍;長安汽車通過與百度智能云的深度合作,讓自動駕駛模型訓練的算力總體平均使用率提升到90%以上,綜合資源利用率提升了50%;教育場景先行者好未來教育集團則借助百舸平臺自研出“九章大模型(MathGPT)”,目前已經廣泛應用于好未來的智能硬件、學而思旗艦學習機及多個業務場景中......
圖源:百度智能云
可以預見,未來一年,將是各種AI原生應用爆發的黃金時期。而百度智能云自研萬卡集群的建成,不僅帶來了強大的算力支持,讓中國產業率先“跑”起來,也推動了模型降本的趨勢,為各行各業的AI應用和創新提供了實實在在的價值。
?
02 花小錢辦大事,中國AI再引全球矚目
百度智能云自研萬卡集群的成功點亮,不僅在國內引發廣泛關注,也在國際市場掀起熱議。
日前,花旗銀行在研報中指出,百度、DeepSeek等中國模型展現出高效和低成本優勢,將有助于加速全球AI應用開發,并在全球引發更多技術創新,推動2025年人工智能應用的拐點。
而資本市場上,百度在港股、美股的雙雙上漲,似乎也印證了這一點。
圖源:百度
《節點財經》認為,對于科技公司來說,擁有強大的萬卡集群意味著在AI時代奠定了堅實的基礎和競爭力。
一方面,萬卡集群能夠為公司內部的各類AI項目和業務提供穩定且高效的計算支持;另一方面,萬卡集群的建設不僅反映了企業在技術水平、資金投入和戰略規劃上的決策和能力,還能提升其在行業中的聲譽和影響力,吸引更多的人才、合作伙伴和資金,進而形成一個良好的產業生態,為企業的持續發展提供堅實的支持。
而從全球AI競賽來看,繼DeepSeek從算法優化角度“狙擊”大模型成本后,百度智能云再次證明了中國科技“花小錢辦大事”的智慧。國產萬卡集群的出現,不僅再顯中國硬科技實力,也能解決過去價格高和無法穩定應用等問題,進一步降低企業進行應用開發與產業創新的門檻。
據了解,百度智能云還計劃點亮3萬卡集群,探索更高性能與擴展性的算力邊界。可以預見,隨著3萬卡集群的進一步落地,百度智能云乃至中國AI產業,都將在全球范圍內贏得更大的市場話語權。
總之,在生成式AI浪潮下,中國科技企業正在從新技術的追隨者向新航路的開辟者邁進。而隨著智算需求的不斷增長和算力中心的規模演進,萬卡集群將成為未來智能算力領域的新賽場。
當下,百度智能云在AI算力賽道上的持續領跑,有望定義新一代集群架構,重構全球AI算力格局,同時催化新質生產力,充分釋放AI在各行業場景落地,助力中國產業跑出真正的發展加速度。