杭州2017年10月14日電 /美通社/ -- 10月11日,在2017杭州云棲大會(huì)上,浪潮集團(tuán)互聯(lián)網(wǎng)行業(yè)定制化產(chǎn)品部總經(jīng)理熊鑫發(fā)表了《承載計(jì)算力,加速新生活》的主題演講。他談到:我們對(duì)數(shù)據(jù)的認(rèn)識(shí)經(jīng)歷了從結(jié)構(gòu)化數(shù)據(jù)的顯性價(jià)值到非結(jié)構(gòu)化數(shù)據(jù)的隱性價(jià)值再到非結(jié)構(gòu)化數(shù)據(jù)的內(nèi)在邏輯三個(gè)階段;分層存儲(chǔ)擁有巨大需求,幫助客戶節(jié)省成本;當(dāng)摩爾定律失效,一核打天下的時(shí)代已經(jīng)結(jié)束了,我們需要面對(duì)不同的應(yīng)用場(chǎng)景去使用不同的計(jì)算分析;單數(shù)據(jù)流,多指令流的時(shí)候適合 FPGA,比如線上推理;單指令流,多數(shù)據(jù)流的時(shí)候適合 GPU,比如線下訓(xùn)練。
以下為熊鑫的演講實(shí)錄:
現(xiàn)在到處都在談?wù)撊斯ぶ悄?,?shí)際上我們看到現(xiàn)在所謂的人工智能其實(shí)就是深度學(xué)習(xí),就是把一個(gè)機(jī)器通過大量的數(shù)據(jù)反復(fù)的訓(xùn)練讓它逼近一個(gè)相對(duì)準(zhǔn)確的值。為什么2007年以后,這一波的人工智能的高潮會(huì)影響這么大?我們認(rèn)為有三點(diǎn):第一,移動(dòng)互聯(lián)網(wǎng)時(shí)代帶來了大量的數(shù)據(jù)。第二,計(jì)算力的提升。第三,算法的進(jìn)步。
我們把數(shù)據(jù)拿出來單獨(dú)說。我們現(xiàn)在看到大量的數(shù)據(jù),我們利用的只是很小的一部分,還有大量的價(jià)值我們沒有挖掘出來,我們對(duì)于數(shù)據(jù)的認(rèn)識(shí)分成三個(gè)階段:
第一個(gè)最淺的階段叫做結(jié)構(gòu)化數(shù)據(jù)的顯性價(jià)值,這對(duì)應(yīng)了我們的數(shù)據(jù)庫,也就是結(jié)構(gòu)化的數(shù)據(jù)庫。比如張三,男,27歲,這時(shí)候我們只是用這些數(shù)據(jù)本身的表面含義,把它記住,做查詢、刪除,創(chuàng)造一些方便生產(chǎn)生活的價(jià)值。
第二個(gè)階段叫大數(shù)據(jù),非結(jié)構(gòu)化數(shù)據(jù)的隱性價(jià)值,我們可以把大量的數(shù)據(jù)進(jìn)行分析,從而得出一些潛在的規(guī)律。比如說我的一些行為軌跡,我的愛好,我的工作地點(diǎn),我經(jīng)常出差的地方,那么這些數(shù)據(jù)可能寓意了我工作的性質(zhì)。這就是帶來的非結(jié)構(gòu)化數(shù)據(jù)背后的隱性價(jià)值,比如說廣告的推薦,這是對(duì)應(yīng)了技術(shù)就是大數(shù)據(jù)分析。
第三個(gè)階段,那么我認(rèn)為是人工智能,就是非結(jié)構(gòu)化數(shù)據(jù)的內(nèi)在邏輯。什么叫內(nèi)在邏輯?比如我有一千張的圖片,我們通過深度學(xué)習(xí)可以從一千張的圖片里面提取出來這一類圖片的特征是什么?比如一千張圖片都是花,都是蘭花,那么蘭花上的特征是什么?有好幾百個(gè)特征值,我把它提煉出來,你再來一個(gè)蘭花的圖片,我就能根據(jù)這個(gè)特征值去識(shí)別這個(gè)蘭花。
這是我們對(duì)于數(shù)據(jù)的理解,總結(jié)一句話叫數(shù)據(jù)價(jià)值被不斷挖掘,而且對(duì)計(jì)算力的要求是不斷被提高的。所以我們想要從數(shù)據(jù)中獲取價(jià)值,我們的計(jì)算力就需要不斷的去突破。
說到數(shù)據(jù)就不得不提存儲(chǔ)。我這里列了三個(gè),我們現(xiàn)在浪潮的存儲(chǔ)服務(wù)器的產(chǎn)品線分為三個(gè),從2U12到4U36到4U100,它是對(duì)應(yīng)的每TB的存儲(chǔ)容量對(duì)應(yīng)的計(jì)算的核心,這個(gè)比例是不斷的變大,就這個(gè)區(qū)別。那么這種計(jì)算和存儲(chǔ)的不同的配置就對(duì)應(yīng)了不同的數(shù)據(jù)價(jià)值,或者是不同的數(shù)據(jù)溫度,或者使用頻率。比如我熱的數(shù)據(jù)我就用2U12,冷的數(shù)據(jù)4U36,我更冷的數(shù)據(jù)4U100,那么這種叫數(shù)據(jù)分層。
我們浪潮這幾年,包括我這幾年不斷的在跟客戶強(qiáng)調(diào)數(shù)據(jù)分層會(huì)節(jié)省 TCO,很顯然,我有一些冷的數(shù)據(jù),比如備份數(shù)據(jù),我就用大存儲(chǔ),那每TB成本從幾百美金到幾十美金,差了很多,十倍以上的差價(jià),每TB的存儲(chǔ)的成本會(huì)差很多。
所以我們看到現(xiàn)在在中國,我們看到了一個(gè)趨勢(shì),就是數(shù)據(jù)因?yàn)樵朴?jì)算,因?yàn)樵朴?jì)算的存在,也因?yàn)榇罂蛻粼絹碓酱?,?dǎo)致我們數(shù)據(jù)的集中性越來越高,就集中度越來越高,我們叫數(shù)據(jù)寡頭,因?yàn)樗瓶亓舜罅康臄?shù)據(jù),它的數(shù)據(jù)越來越大,比如說 BAT 還有其他的一些客戶。那么這個(gè)數(shù)據(jù)越來越集中就導(dǎo)致現(xiàn)在我們看到的大客戶,像 BAT 這種大客戶的需求,它的數(shù)據(jù)分層就非常的明顯。因?yàn)樗麄儼l(fā)現(xiàn),如果都用2U12盤位服務(wù)器存的話,我已經(jīng)擔(dān)負(fù)不起這個(gè)存儲(chǔ)的成本了,因?yàn)楹芏鄶?shù)據(jù)不是說我存?zhèn)€一年兩年,是永久保存的。而且確實(shí)有些數(shù)據(jù)可能一年調(diào)一次,但這次還是必須調(diào),所以可能就用更好的存儲(chǔ)方式去存。這就是數(shù)據(jù)分層,我相信隨著我們數(shù)據(jù)量不斷的去攀升,這種分層一定會(huì)在更多的客戶那兒去存,這是節(jié)省社會(huì)成本。
那么說完數(shù)據(jù)再說計(jì)算,剛剛提到了,數(shù)據(jù)量的加大,我們對(duì)數(shù)據(jù)價(jià)值的不斷挖掘,需要我們對(duì)計(jì)算力的不斷突破。那么對(duì)于計(jì)算力這個(gè)詞來講,我們長久以來或者很多年以來,我們一直依靠的是摩爾定律,我們依靠的是制程技術(shù)的不斷的提高和突破,從90nm,一直到現(xiàn)在的10nm,這種制程工藝的突破,給我們帶來的好處是什么?可以用相同的成本去獲取更多的計(jì)算力。
隨著數(shù)據(jù)量越來越大,互聯(lián)網(wǎng)的落地場(chǎng)景越來越多,人們對(duì)于互聯(lián)網(wǎng)的要求也越來越高,業(yè)務(wù)在不斷的發(fā)展,技術(shù)遇到瓶頸怎么辦?我們認(rèn)為它會(huì)往多核心的方式走,一核打天下的時(shí)代已經(jīng)結(jié)束了,我們需要面對(duì)不同的應(yīng)用場(chǎng)景去使用不同的計(jì)算分析。那么今天不要講太多,就只講 FPGA。FPGA 和 GPU 什么關(guān)系?什么場(chǎng)景下用 GPU?什么場(chǎng)景下用 FPGA?其實(shí)我們先拋開上層的業(yè)務(wù),我們把業(yè)務(wù)分成兩種,一種叫 SIMD,一種叫 MISD,SIMD 就是單指令流,多數(shù)據(jù)流的;反過來就是單數(shù)據(jù)流,多指令流的。那么單數(shù)據(jù)流,多指令流的時(shí)候適合 FPGA,比如說深度學(xué)習(xí)的線上的 inference 的推理。我們?cè)缟虾灥?,安檢那個(gè)人臉識(shí)別,它就是非常典型的一個(gè)多指令流,單數(shù)據(jù)流,我們每一個(gè)人去往那兒一看,這就是一個(gè)指令,但是我們的數(shù)據(jù)很少,就一張圖片??赡芫蛶装貹,數(shù)據(jù)量很小,但是我們很多人,馬總說六萬人,我們六萬個(gè)指令,每個(gè)指令只有一張圖片,這就是多指令流,單數(shù)據(jù)流。這種情況就非常適合 FPGA 這種。
還有另外一種就是單指令流,多數(shù)據(jù)流,我只要一次指令輸入,但是數(shù)據(jù)量非常大,它對(duì)應(yīng)的典型的業(yè)務(wù)場(chǎng)景就是深度學(xué)習(xí)的線下訓(xùn)練,這就比較適合用 GPU。我要訓(xùn)練一萬張圖片,一萬張圖片可能有很大,TB 級(jí)的數(shù)據(jù),但是我只輸入一次命令,幫我算,幫我訓(xùn)練,點(diǎn)一下就好了,我就不用管了,可能等幾天,它才能算出來,這就典型的 MISD,典型的單指令流,多數(shù)據(jù)流。
下面就是對(duì)于剛才提到的深度學(xué)習(xí),我簡單的介紹一下,對(duì)于深度學(xué)習(xí)來說,現(xiàn)在我們看到的很多客戶的需求是非常多樣化,我們知道對(duì)于人工智能來講,有圖片的識(shí)別,圖片的分類,包括語音的識(shí)別,語音的合成,包括自然語言處理。這些任務(wù)對(duì)于訓(xùn)練的量要求是不一樣的,比如說我們語音的識(shí)別,可能你神經(jīng)網(wǎng)絡(luò)十幾層,大不了幾十層,這么一個(gè)規(guī)模,最多也不過幾十層。但是對(duì)于CNN這種圖象識(shí)別,可能很多就好幾百層,甚至一千層,那么他們對(duì)于這種計(jì)算量和模型的大小,框架的不同,對(duì)于基礎(chǔ)設(shè)施或者對(duì)于我們深度學(xué)習(xí)的服務(wù)器設(shè)備的要求是不一樣的。
那么我們希望能提供一種設(shè)備,這種設(shè)備可以你在不同的場(chǎng)景下,都用它,都用同一個(gè)設(shè)備滿足不同的場(chǎng)景,我們希望有這樣一個(gè)設(shè)備,的它可以實(shí)現(xiàn) CPU 和資源的靈活配比,互聯(lián)的統(tǒng)一架構(gòu)以及集群資源的分配,我有一百臺(tái) GPU 服務(wù)器,我隨時(shí)可以劃出20臺(tái)來干這個(gè)事兒,另外30臺(tái)干這個(gè)事兒,另外30臺(tái)干這個(gè)事兒,這幾個(gè)任務(wù)完全了,再重新打造,再重新分,這樣資源利用率較大。所以我們就做了這么一個(gè)東西,叫 GX4。
它是一個(gè) GPU 資源池化的一個(gè)概念,因?yàn)檫@也應(yīng)該是國內(nèi)唯一一款GPU池化的服務(wù)器。它可以通過和機(jī)頭之間的互聯(lián)來靈活的調(diào)整 CPU 和 GPU 之間的配比,比如說我一臺(tái)2U的標(biāo)準(zhǔn)服務(wù)器,我可以掛一個(gè) box,可以掛兩個(gè),可以掛三個(gè),可以掛四個(gè),這樣就可以四個(gè)卡、八個(gè)卡、十二個(gè)卡、十六個(gè)卡,不同的單機(jī)配置。我們希望通過這種設(shè)備來降低客戶的 TCO,你買同樣一個(gè)設(shè)備,你可以反復(fù)的在不同的場(chǎng)景下使用,而不必受制于某一個(gè)特殊場(chǎng)景。
這就是可能的一些拓?fù)洌热缯f單機(jī)四卡、單機(jī)八卡、單機(jī)十六卡,現(xiàn)在是模塊化集群,什么叫模塊化集群?就是我每一個(gè),比較典型的就是八卡的配置,八卡的配置我都掛在一個(gè)交換機(jī)上,那么這兩個(gè)八卡之間的 GPU 是可以通過 RDMA 去實(shí)現(xiàn) GPU 與 GPU 之間的 P2P 的,不通過 CPU 走,直接進(jìn)入到 GPU,這樣可以降低集群之間的互聯(lián)的代價(jià)。我們未來認(rèn)為應(yīng)該是一種池化集群,什么叫池化集群?我所有的設(shè)備,包括服務(wù)器,X86 的服務(wù)器,包括 GPUBox 就掛在同一個(gè) IP 交換機(jī)上,或者高速交換機(jī)上,我可以通過軟件去靈活的定義我的虛擬服務(wù)器,我用一個(gè) CPU 對(duì)應(yīng)八卡,用兩個(gè) CPU 對(duì)應(yīng)二十卡,隨意,你可以靈活的調(diào)整來適應(yīng)你不同的業(yè)務(wù)場(chǎng)景。
除了GPU 或者除了人工智能以外,浪潮在9月份也發(fā)布了英特爾最新一代的基于 skylake 全新平臺(tái)的服務(wù)器,我們希望通過不斷的去做技術(shù)的創(chuàng)新,通過對(duì)技術(shù)的理解和對(duì)業(yè)務(wù)的理解來為客戶提供最合適的基礎(chǔ)設(shè)施,也希望通過這種方式來給我們的生活帶來更多的支撐和便捷。