因特爾研發(fā)的首款神經(jīng)網(wǎng)絡芯片 將于明年量產(chǎn)
英特爾看到 Nvidia 在 AI 領域大放異彩,也想要用手上芯片弄機器學習,用一堆 Atom 芯片組成 Xeon Phi 架構,但是看來效果沒想像中好。英特爾在 AI 開發(fā)者大會上發(fā)布第一款機器學習芯片 Nervana NNP-L1000,打算用并購的技術與 Nvidia 一較高下。
對于英特爾來說積極在 AI 布局相當重要,而從先前并購取得的技術當中,就屬 Nervana 的神經(jīng)網(wǎng)絡芯片,最被看好能在 AI 時代有發(fā)展?jié)摿Γ夷芨?Nvidia 競爭了。
英特爾發(fā)布的文章指出 Nervana NNP-L1000 的性能:
一般性質的距陣對距陣乘法 (General Matrix to Matrix Multiplication, GEMM) 運算,使用 A(1536, 2048) 和 B(2048, 1536) 距陣大小,能達成單一芯片下超過 96.4% 的運算資源運用,這代表實際上有 38 TOPS/s 的單一芯片效能。 多芯片分散式 GEMM 運算則能支持模式平行訓練,能夠達到接近線性運算程度,以及 A(6144, 2048) 和 B(2048, 1536) 距陣下,96.2% 規(guī)模效能 – 具備串接多個神經(jīng)網(wǎng)絡運算,釋放其他架構下存儲器的限制。
我們量測單向芯片對芯片的理論頻寬效能,發(fā)現(xiàn)低于 790ns的延遲狀況,而且我們也相當興奮能套用上述結果到 2.4TB/s 的高速頻寬上面,具有同樣的雙向低延遲性。
這一切都是用低于 210 瓦的功耗,單一一片芯片就達成了,而這不過是早期合作伙伴回報的 Nervana NNP (Lake Crest) 原型芯片的數(shù)據(jù)。
而對開發(fā)者來說,英特爾投入資源在每一項可能在 AI 有發(fā)展的技術上面。這次宣布 Nervana NNP-L1000 芯片,開發(fā)者不必分神在每一項英特爾發(fā)布的 AI 相關技術。
英特爾近年來積極并購公司,想要進入 AI 市場,避免與 Nvidia 的差距越拉越大。如買了 Altera 取得 field programmable gate arrays (FPGAs),買了 MobilEye 取得自動駕駛汽車芯片,以及買了 Nervana 取得他們手上神經(jīng)網(wǎng)絡芯片技術。
英特爾已經(jīng)提供 Facebook Nervana NNP-L1000 芯片,用在 Facebook 的 AI 項目上面,而且看來數(shù)據(jù)表現(xiàn)上面很亮眼。期待英特爾在 2019 年正式推出 Nervana NNP-L1000 芯片 ,會在 AI 市場上,除了 Nvidia GPU 的方案,新的解決方案。





