日本黄色一级经典视频|伊人久久精品视频|亚洲黄色色周成人视频九九九|av免费网址黄色小短片|黄色Av无码亚洲成年人|亚洲1区2区3区无码|真人黄片免费观看|无码一级小说欧美日免费三级|日韩中文字幕91在线看|精品久久久无码中文字幕边打电话

當前位置:首頁 > 芯聞號 > 美通社全球TMT
[導讀]北京2025年11月6日 /美通社/ -- "在AI超節(jié)點系統(tǒng)的設計上,不應該再依照慣性思維,過分追求規(guī)模,而是應該從客戶視角出發(fā),把token交互速度作為關鍵衡量指標,這是智能體時代AI超節(jié)點的核心商業(yè)價值。"這是浪潮信息首席AI戰(zhàn)略官劉軍近期接受采訪時,反...

北京2025年11月6日 /美通社/ -- "在AI超節(jié)點系統(tǒng)的設計上,不應該再依照慣性思維,過分追求規(guī)模,而是應該從客戶視角出發(fā),把token交互速度作為關鍵衡量指標,這是智能體時代AI超節(jié)點的核心商業(yè)價值。"這是浪潮信息首席AI戰(zhàn)略官劉軍近期接受采訪時,反復強調的一點。

浪潮信息首席AI戰(zhàn)略官劉軍


浪潮信息首席AI戰(zhàn)略官劉軍

智能體時代,速度就是金錢

規(guī)模擴展定律(Scaling Law)一直是驅動大模型智能持續(xù)增長的底層邏輯,推動著模型參數量從百億、千億邁向現在的萬億。在后訓練階段更多的算力投入,能顯著提升模型的推理能力,而以推理能力為代表的復雜思維的涌現,是構建智能體應用的基礎。另一方面,以DeepSeek為代表的開源大模型極大的降低了創(chuàng)新門檻,加速了智能體產業(yè)化的到來。

Scaling Law驅動智能持續(xù)進化


Scaling Law驅動智能持續(xù)進化

劉軍指出,"智能體產業(yè)化的核心三要素是能力、速度和成本。其中,token交互速度決定了智能體的商業(yè)價值。在當下最常見的人機對話場景中,基本上按照大概50毫秒的水平,就是每秒輸出20個token,人的閱讀速度就能跟得上。但很多人還沒意識到,未來的智能體時代會更多的出現機器與機器之間的交互場景,對于智能體之間的交互而言,這個速度遠遠不夠,比如說直播電商、量化交易、欺詐防控等特定業(yè)務場景中,對token生成速度的最低要求都是10毫秒以下。"

以高強度、實時互動的直播電商場景為例。2024年底,某知名直播電商平臺進行了專家組合智能體的A/B實驗,實驗組部署了經過深度優(yōu)化的智能體,對照組則使用未經優(yōu)化的標準版本智能體,優(yōu)化后的智能體平均響應延遲相較于對照組降低了38%。實驗結果表明,部署了低延遲智能體的直播間,其商品交易總額(GMV)平均提升了11.4%,同時用戶的復購率也取得了7.8%的顯著增長。

38%的延遲降低,并非提升了智能體回答內容的質量,而是確保了這些回答能夠被精準地投遞在用戶購買意圖最為強烈的"黃金窗口"期內。在直播電商這類場景中,用戶的購買意圖是瞬時且易逝的。一個高延遲的回答意味著當智能體還在"思考"時,用戶的注意力可能已經轉移,或者主播已經開始介紹下一件商品,從而錯失了最佳的銷售轉化窗口。

"在智能體時代,快,不再是可選項,而是商業(yè)成功的剛性約束。"劉軍強調,"只有當智能體的響應快于業(yè)務決策的窗口期,快于用戶耐心消逝的臨界點……AI才能真正成為核心生產力。"

token交互速度正在重塑AI算力價值評估體系

事實上,對于token交互速度的考量正在重構AI算力系統(tǒng)的價值評估體系。最近廣受關注的InferenceMax? 開源AI基準測試,正在創(chuàng)造一種動態(tài)追蹤模型更迭的算力評估體系,試圖在真實AI推理環(huán)境下衡量各類AI算力系統(tǒng)的綜合效率。在這一基準測試中,token生成速度被列為最重要的一項衡量指標。

SemiAnalysis InferenceMAX? 開源AI基準測試;橫軸:交互速度(Interactivity,單位:tok/s/user);縱軸:單位GPU token吞吐量(Token Throughput per GPU,單位:tok/s/gpu)


SemiAnalysis InferenceMAX? 開源AI基準測試;橫軸:交互速度(Interactivity,單位:tok/s/user);縱軸:單位GPU token吞吐量(Token Throughput per GPU,單位:tok/s/gpu)

同時,清華大學與中國軟件評測中心(CSTC)對20余家主流大模型服務提供商的綜合表現進行了全面評估,聯合發(fā)布了大模型服務性能排行榜,明確指出延遲指標是用戶體驗的核心,直接決定用戶留存,是平臺差異化競爭的首要技術門檻。因此,速度同樣也成為了大模型API服務提供商的核心競爭力。當前,全球主要大模型API服務商的token生成速度,基本維持在10~20 毫秒左右,而國內的生成速度普遍高于30毫秒。

全球大模型API服務商DeepSeek Token生成速度


全球大模型API服務商DeepSeek Token生成速度

元腦SD200將token生成速度帶入"10毫秒時代"

要實現更低延遲的token生成能力,必然要求底層算力基礎設施在系統(tǒng)架構、互聯協議、軟件框架等關鍵點上進行協同創(chuàng)新。

浪潮信息對元腦SD200超節(jié)點AI服務器進行了大量的軟硬件協同創(chuàng)新與優(yōu)化,實現DeepSeek R1大模型單token生成速度低至8.9毫秒,帶動國內AI服務器token生成速度率先進入"10毫秒時代"。

元腦SD200超節(jié)點AI服務器


元腦SD200超節(jié)點AI服務器

對于為何能在token生成速度上實現如此出色的性能,劉軍表示,智能體中各個模型之間的交互,很多時候通信數據包并不是很大,超高的帶寬會出現浪費,"就像是從a地到b地修了16車道的高速公路,但是車輛在16車道上只跑了很短的距離,反而在上高速和下高速這兩個節(jié)點花了很長時間。浪潮信息的優(yōu)化重點,就是解決車輛上高速和下高速的卡點問題,讓車輛直通上來,直通下去。"

元腦SD200采用了獨創(chuàng)的多主機3D Mesh系統(tǒng)架構,實現單機64路本土AI芯片高密度算力擴展,原生支持開放加速模組OAM,兼容多元AI芯片。同時,元腦SD200通過遠端GPU虛擬映射技術創(chuàng)新,突破跨主機域統(tǒng)一編址難題,實現顯存統(tǒng)一地址空間擴增8倍,單機可以提供最大4TB顯存和64TB內存,為萬億參數、超長序列大模型提供充足鍵值緩存空間?;趧?chuàng)新的系統(tǒng)架構設計,元腦SD200單機即可承載4萬億單體模型,或者同時部署由多個萬億參數模型構成的智能體,多模協作執(zhí)行復雜任務。

元腦SD200創(chuàng)新多主機3D Mesh系統(tǒng)架構


元腦SD200創(chuàng)新多主機3D Mesh系統(tǒng)架構

互連協議的設計是元腦SD200實現極低通信延遲的關鍵,浪潮信息做了大量的通信優(yōu)化和技術創(chuàng)新,如采用極致精簡的3層協議棧,并原生支持 Load/Store等"內存語義",讓GPU可直接訪問遠端節(jié)點的顯存或主存,將基礎通信延遲縮短至百納秒級;另外Open Fabric原生支持由硬件邏輯實現的鏈路層重傳,重傳延遲低至微秒級,特別是分布式、預防式的流控機制,實現全局任務均在發(fā)送前確保接收端有能力接收,從根本上避免了擁塞和丟包。

元腦SD200極低Latency通信


元腦SD200極低Latency通信

除了硬件方面的創(chuàng)新,浪潮信息也針對DeepSeek、Kimi等模型的計算特征和元腦SD200的硬件架構特征,完成了通信庫、計算框架、PD分離策略等多方面的優(yōu)化,大幅提升了DeepSeek、Kimi等大模型的推理輸出速度。通信庫層面,針對Allreduce、Allgather、Alltoall等典型通信算子,浪潮信息制定了與元腦SD200深度適配的通信算法;框架層面,浪潮信息完成了并行方式、算子融合、多流水線等多方面優(yōu)化,來保證計算的低延遲;在推理階段,浪潮信息開發(fā)了預填充-解碼 (Prefill-Decode) 分離軟件,針對預填充與解碼不同的計算特性,使用不同的并行計算策略、硬件配置等,提高系統(tǒng)整體的計算性能。

實測數據顯示,元腦SD200搭載64張本土AI芯片運行DeepSeek R1大模型,當輸入長度為4096、輸出長度為1024時,單用戶token生成達到112 tokens/s,每token生成時間僅為8.9ms,率先實現國內AI服務器token生成速度低于10ms,將推動萬億參數大模型在金融、科研、智能制造等領域快速落地。

未來十年AI經濟的增長邊界,從某種意義而言,將取決于整個行業(yè)在算法、軟件和硬件層面協同攻克延遲挑戰(zhàn)的能力。"速度就是金錢"不僅是一種新的商業(yè)主張,更是驅動下一代人工智能增長的核心經濟邏輯。浪潮信息將面向智能體產業(yè)化需求,持續(xù)以架構創(chuàng)新激發(fā)產業(yè)創(chuàng)新活力,讓AI成為百行千業(yè)的生產力和創(chuàng)新力。

本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內容真實性等。需要轉載請聯系該專欄作者,如若文章內容侵犯您的權益,請及時聯系本站刪除。
換一批
延伸閱讀

LED驅動電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關鍵字: 驅動電源

在工業(yè)自動化蓬勃發(fā)展的當下,工業(yè)電機作為核心動力設備,其驅動電源的性能直接關系到整個系統(tǒng)的穩(wěn)定性和可靠性。其中,反電動勢抑制與過流保護是驅動電源設計中至關重要的兩個環(huán)節(jié),集成化方案的設計成為提升電機驅動性能的關鍵。

關鍵字: 工業(yè)電機 驅動電源

LED 驅動電源作為 LED 照明系統(tǒng)的 “心臟”,其穩(wěn)定性直接決定了整個照明設備的使用壽命。然而,在實際應用中,LED 驅動電源易損壞的問題卻十分常見,不僅增加了維護成本,還影響了用戶體驗。要解決這一問題,需從設計、生...

關鍵字: 驅動電源 照明系統(tǒng) 散熱

根據LED驅動電源的公式,電感內電流波動大小和電感值成反比,輸出紋波和輸出電容值成反比。所以加大電感值和輸出電容值可以減小紋波。

關鍵字: LED 設計 驅動電源

電動汽車(EV)作為新能源汽車的重要代表,正逐漸成為全球汽車產業(yè)的重要發(fā)展方向。電動汽車的核心技術之一是電機驅動控制系統(tǒng),而絕緣柵雙極型晶體管(IGBT)作為電機驅動系統(tǒng)中的關鍵元件,其性能直接影響到電動汽車的動力性能和...

關鍵字: 電動汽車 新能源 驅動電源

在現代城市建設中,街道及停車場照明作為基礎設施的重要組成部分,其質量和效率直接關系到城市的公共安全、居民生活質量和能源利用效率。隨著科技的進步,高亮度白光發(fā)光二極管(LED)因其獨特的優(yōu)勢逐漸取代傳統(tǒng)光源,成為大功率區(qū)域...

關鍵字: 發(fā)光二極管 驅動電源 LED

LED通用照明設計工程師會遇到許多挑戰(zhàn),如功率密度、功率因數校正(PFC)、空間受限和可靠性等。

關鍵字: LED 驅動電源 功率因數校正

在LED照明技術日益普及的今天,LED驅動電源的電磁干擾(EMI)問題成為了一個不可忽視的挑戰(zhàn)。電磁干擾不僅會影響LED燈具的正常工作,還可能對周圍電子設備造成不利影響,甚至引發(fā)系統(tǒng)故障。因此,采取有效的硬件措施來解決L...

關鍵字: LED照明技術 電磁干擾 驅動電源

開關電源具有效率高的特性,而且開關電源的變壓器體積比串聯穩(wěn)壓型電源的要小得多,電源電路比較整潔,整機重量也有所下降,所以,現在的LED驅動電源

關鍵字: LED 驅動電源 開關電源

LED驅動電源是把電源供應轉換為特定的電壓電流以驅動LED發(fā)光的電壓轉換器,通常情況下:LED驅動電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關鍵字: LED 隧道燈 驅動電源
關閉