浪潮發(fā)布“源1.0”開源開放計劃
(全球TMT2021年10月29日訊)10月26日,在北京舉行的2021人工智能計算大會(AICC 2021)上,浪潮人工智能研究院正式發(fā)布“源1.0”開源開放計劃,這一全球最大中文巨量模型將以開放API、開放數(shù)據(jù)集、開源代碼等多種形式為業(yè)界提供開放合作,人工智能相關高校和科研機構、產(chǎn)業(yè)伙伴及智能計算中心用戶可通過“源1.0”官網(wǎng)提出申請,經(jīng)審核授權后即可基于“源1.0”模型探索算法創(chuàng)新以及開發(fā)各類智能化應用。

“源1.0” 開源開放計劃將首先面向三類群體,一是高?;蚩蒲袡C構的人工智能研究團隊,二是元腦生態(tài)合作伙伴,三是智能計算中心。面向第一類群體,“源1.0”將主要支撐在語言智能前沿領域的算法創(chuàng)新和方向探索;面向第二類群體,“源1.0”將主要支撐元腦生態(tài)伙伴開發(fā)行業(yè)示范性應用,如智能文本服務、語言翻譯服務、內(nèi)容生產(chǎn)服務等等,探索語言智能產(chǎn)業(yè)落地的“殺手級應用”;面向第三類群體,“源1.0”將作為算法基礎設施,與智能計算中心算力基礎設施高效協(xié)同,支撐AI產(chǎn)業(yè)化和產(chǎn)業(yè)AI化發(fā)展。
“源1.0”是全球最大規(guī)模的中文AI巨量模型,其參數(shù)規(guī)模高達2457億,訓練采用的中文數(shù)據(jù)集達5000GB,相比GPT-3模型1750億參數(shù)量和570GB訓練數(shù)據(jù)集,“源1.0”參數(shù)規(guī)模領先40%,訓練數(shù)據(jù)集規(guī)模領先近10倍。 “源1.0”在語言智能方面表現(xiàn)優(yōu)異,獲得中文語言理解評測基準CLUE榜單的零樣本學習和小樣本學習兩類總榜冠軍,測試結果顯示,人群能夠準確分辨人與“源1.0”作品差別的成功率已低于50%。





