国产精品无码一区二区三区太,亚洲一线产区二线产区区别,欧美A区,人妻jealousvue人妻

×

GPU云服務(wù)器深度學(xué)習(xí)性能模型初探

  • 作者:新網(wǎng)
  • 來(lái)源:新網(wǎng)
  • 瀏覽:100
  • 2018-04-26 16:40:05

本文根據(jù)實(shí)測(cè)數(shù)據(jù)初步探討了在彈性GPU云服務(wù)器上深度學(xué)習(xí)的性能模型,希望可以幫助大家科學(xué)選擇GPU實(shí)例的規(guī)格。 得益于GPU強(qiáng)大的計(jì)算能力,深度學(xué)習(xí)近年來(lái)在圖像處理、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域取得了重大突GPU服務(wù)器幾乎成了深度學(xué)習(xí)加速的標(biāo)配。

 本文根據(jù)實(shí)測(cè)數(shù)據(jù)初步探討了在彈性GPU服務(wù)器上深度學(xué)習(xí)的性能模型,希望可以幫助大家科學(xué)選擇GPU實(shí)例的規(guī)格。

 
y2vzmvxcck4.jpg
一、背景
 
得益于GPU強(qiáng)大的計(jì)算能力,深度學(xué)習(xí)近年來(lái)在圖像處理、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域取得了重大突GPU服務(wù)器幾乎成了深度學(xué)習(xí)加速的標(biāo)配。
 
如何提供一個(gè)合適的實(shí)例規(guī)格,從而以最高的性價(jià)比提供給深度學(xué)習(xí)客戶,是我們需要考慮的一個(gè)問(wèn)題,本文試圖從CPU、內(nèi)存、磁盤這三個(gè)角度對(duì)單機(jī)GPU云服務(wù)器的深度學(xué)習(xí)訓(xùn)練和預(yù)測(cè)的性能模型做了初步的分析,希望能對(duì)實(shí)例規(guī)格的選擇提供一個(gè)科學(xué)的設(shè)計(jì)模型。
 
下面是我們使用主流的學(xué)習(xí)框架在NVIDIA GPU上做的一些深度學(xué)習(xí)的測(cè)試。涉及NVCaffe、MXNet主流深度學(xué)習(xí)框架,測(cè)試了多個(gè)經(jīng)典CNN網(wǎng)絡(luò)在圖像分類領(lǐng)域的訓(xùn)練和推理以及RNN網(wǎng)絡(luò)在自然語(yǔ)言處理領(lǐng)域的訓(xùn)練。
 
二、訓(xùn)練測(cè)試
 
我們使用NVCaffe、MXNet主流深度學(xué)習(xí)框架測(cè)試了圖像分類領(lǐng)域和自然語(yǔ)言處理領(lǐng)域的訓(xùn)練模型。
 
2.1 圖像分類
 
我們使用NVCaffe、MXNet測(cè)試了圖像分類領(lǐng)域的CNN網(wǎng)絡(luò)的單GPU模型訓(xùn)練。
 
NVCaffe和MXNet測(cè)試使用ImageNet ILSVRC2012數(shù)據(jù)集,訓(xùn)練圖片1281167張,包含1000個(gè)分類,每個(gè)分類包含1000張左右的圖片。
 
2.1.1 CPU+Memory
 
2.1.1.1 NVCaffe
 
NVCaffe是NVIDIA基于BVLC-Caffe針對(duì)NVIDIA GPU尤其是多GPU加速的開源深度學(xué)習(xí)框架。LMDB格式的ImageNet訓(xùn)練集大小為240GB ,驗(yàn)證集大小為9.4GB。
 
我們使用NVcaffe對(duì)AlexNet、GoogLeNet、ResNet50、Vgg16四種經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)做了圖像分類任務(wù)的模型訓(xùn)練測(cè)試。分別對(duì)比了不同vCPU和Memory配置下的訓(xùn)練性能。性能數(shù)據(jù)單位是Images/Second(每秒處理的圖像張數(shù))。圖中標(biāo)注為10000指的是迭代次數(shù)10000次,其它都是測(cè)試迭代次數(shù)為1000次。
 
2.1.1.2 MXNet
 
MXNet的數(shù)據(jù)集使用RecordIO格式,ImageNet訓(xùn)練集 93GB ,驗(yàn)證集 3.7GB。
 
我們使用網(wǎng)絡(luò)Inception-v3(GoogLeNet的升級(jí)版)做了圖像分類的訓(xùn)練測(cè)試。分別對(duì)比了不同vCPU和Memory配置下的訓(xùn)練性能。數(shù)據(jù)單位是Samples/Second(每秒處理的圖像張數(shù))。
 
2.1.2 磁盤IO
 
我們?cè)?a href="/tag/1325" target="blank">阿里云GN5(P100)實(shí)例上使用NVCaffe測(cè)試了GoogLeNet網(wǎng)絡(luò)模型在NVMe SSD本地盤、SSD云盤和高效云盤上的訓(xùn)練性能,測(cè)試結(jié)果如下(性能數(shù)據(jù)單位是Images/Second):
 
2.2 自然語(yǔ)言處理
 
我們使用MXNet測(cè)試了RNN網(wǎng)絡(luò)的LSTM模型的訓(xùn)練,使用PennTreeBank自然語(yǔ)言數(shù)據(jù)集。PennTreeBank數(shù)據(jù)集的文本語(yǔ)料庫(kù)包含近100萬(wàn)個(gè)單詞,單詞表被限定在10000個(gè)單詞。分別對(duì)比了不同vCPU和Memory配置下的訓(xùn)練性能:
 
三、推理測(cè)試
 
3.1 圖像分類
 
我們使用NVCaffe測(cè)試了圖像分類領(lǐng)域的CNN網(wǎng)絡(luò)的模型推理。
 
測(cè)試使用ImageNet ILSVRC2012數(shù)據(jù)集,驗(yàn)證測(cè)試圖片 50000張。
 
3.1.1 CPU+Memory
 
我們使用NVcaffe對(duì)AlexNet、GoogLeNet、ResNet50、VGG16四種經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)做了圖像分類的推理測(cè)試。分別對(duì)比了不同vCPU和Memory配置下的訓(xùn)練性能。數(shù)據(jù)單位是Images/Second(每秒處理的圖像張數(shù))。
 
3.1.2 磁盤IO
 
我們使用NVCaffe測(cè)試了GoogLeNet網(wǎng)絡(luò)在NVMe SSD本地盤、SSD云盤和高效云盤上的圖像分類推理性能,測(cè)試結(jié)果如下(數(shù)據(jù)單位是Images/Second):
 
四、數(shù)據(jù)預(yù)處理測(cè)試
 
在訓(xùn)練模型之前,往往要對(duì)訓(xùn)練數(shù)據(jù)集做數(shù)據(jù)預(yù)處理,統(tǒng)一數(shù)據(jù)格式,并做一定的歸一化處理。
 
我們使用NVCaffe對(duì)ImageNet ILSVRC2012數(shù)據(jù)集做了數(shù)據(jù)預(yù)處理的測(cè)試,分別對(duì)比了NVMe SSD本地盤、SSD云盤和高效云盤的數(shù)據(jù)預(yù)處理時(shí)間,數(shù)據(jù)單位是秒,數(shù)據(jù)如下:
 
五、數(shù)據(jù)分析
 
5.1 訓(xùn)練
 
5.1.1 圖像分類
 
從NVCaffe和MXNet的測(cè)試結(jié)果來(lái)看,圖像分類場(chǎng)景單純的訓(xùn)練階段對(duì)CPU要求不高,單GPU 只需要4vCPU就可以。而內(nèi)存需求則取決于深度學(xué)習(xí)框架、神經(jīng)網(wǎng)絡(luò)類型和訓(xùn)練數(shù)據(jù)集的大?。簻y(cè)試中發(fā)現(xiàn)NVCaffe隨著迭代次數(shù)的增多,內(nèi)存是不斷增大的,但是內(nèi)存需求增大到一定程度,對(duì)性能就不會(huì)有什么提升了,其中NVCaffe AlexNet網(wǎng)絡(luò)的訓(xùn)練,相比其它網(wǎng)絡(luò)對(duì)于內(nèi)存的消耗要大得多。相比之下MXNet的內(nèi)存占用則要小的多(這也是MXNet的一大優(yōu)勢(shì)),93G預(yù)處理過(guò)的訓(xùn)練數(shù)據(jù)集訓(xùn)練過(guò)程中內(nèi)存占用不到5G。
 
對(duì)于磁盤IO性能,測(cè)試顯示訓(xùn)練階段NVMe SSD本地盤、SSD云盤性能基本接近,高效云盤上的性能略差1%。因此訓(xùn)練階段對(duì)IO性能的要求不高。
 
5.1.2 自然語(yǔ)言處理
 
從MXNet的測(cè)試結(jié)果來(lái)看,對(duì)于PennTreeBank這樣規(guī)模的數(shù)據(jù)集,2vCPU 1GB Mem就能滿足訓(xùn)練需求。由于自然語(yǔ)言處理的原始數(shù)據(jù)不像圖像分類一樣是大量高清圖片,自然語(yǔ)言處理的原始數(shù)據(jù)以文本文件為主,因此自然語(yǔ)言處理對(duì)內(nèi)存和顯存的要求都不高,從我們的測(cè)試來(lái)看,4vCPU 30GB 1GPU規(guī)格基本滿足訓(xùn)練階段需求。
 
5.2 推理
 
5.2.1 圖像分類
 
從NVCaffe的圖像分類推理測(cè)試來(lái)看,除AlexNet 2vCPU剛剛夠用外,其它網(wǎng)絡(luò)2vCPU對(duì)性能沒有影響,而9.4GB的驗(yàn)證數(shù)據(jù)集推理過(guò)程中內(nèi)存占用大概是7GB左右,因此對(duì)大部分模型來(lái)看,2vCPU 30GB 1GPU規(guī)格基本滿足圖像分類推理的性能需求。
 
對(duì)于磁盤IO性能,推理性能NVMe SSD本地盤、SSD云盤很接近,但高效云盤差15%。因此推理階段至少應(yīng)該使用SSD云盤保證性能。
 
5.2.2 自然語(yǔ)言處理
 
對(duì)于自然語(yǔ)言處理,參考訓(xùn)練性能需求,我們應(yīng)該可以推測(cè)2vCPU 30GB 1GPU規(guī)格應(yīng)該也能滿足需求。
 
5.3 數(shù)據(jù)預(yù)處理
 
從NVCaffe對(duì)ImageNet ILSVRC2012數(shù)據(jù)集做數(shù)據(jù)預(yù)處理的測(cè)試來(lái)看,數(shù)據(jù)預(yù)處理階段是IO密集型,NVMe SSD本地盤比SSD云盤快25%,而SSD云盤比高效云盤快10%。
 
六、總結(jié)
 
深度學(xué)習(xí)框架眾多,神經(jīng)網(wǎng)絡(luò)類型也是種類繁多,我們選取了主流的框架和神經(jīng)網(wǎng)絡(luò)類型,嘗試對(duì)單機(jī)GPU云服務(wù)器的深度學(xué)習(xí)性能模型做了初步的分析,結(jié)論是:
 
深度學(xué)習(xí)訓(xùn)練階段是GPU運(yùn)算密集型,對(duì)于CPU占用不大,而內(nèi)存的需求取決于深度學(xué)習(xí)框架、神經(jīng)網(wǎng)絡(luò)類型和訓(xùn)練數(shù)據(jù)集的大小;對(duì)磁盤IO性能不敏感,云盤基本能夠滿足需求。
 
深度學(xué)習(xí)推理階段對(duì)于CPU的占用更小,但是對(duì)于磁盤IO性能相對(duì)較敏感,因?yàn)橥评黼A段對(duì)于延遲有一定的要求,更高的磁盤IO性能對(duì)于降低數(shù)據(jù)讀取的延時(shí)進(jìn)而降低整體延遲有很大的幫助。
 
深度學(xué)習(xí)數(shù)據(jù)預(yù)處理階段是IO密集型階段,更高的磁盤IO性能能夠大大縮短數(shù)據(jù)預(yù)處理的時(shí)間。
 

免責(zé)聲明:本文內(nèi)容由互聯(lián)網(wǎng)用戶自發(fā)貢獻(xiàn)自行上傳,本網(wǎng)站不擁有所有權(quán),也不承認(rèn)相關(guān)法律責(zé)任。如果您發(fā)現(xiàn)本社區(qū)中有涉嫌抄襲的內(nèi)容,請(qǐng)發(fā)送郵件至:operations@xinnet.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),本站將立刻刪除涉嫌侵權(quán)內(nèi)容。

免費(fèi)咨詢獲取折扣

Loading