日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
DockerCompose+GPU+TensorFlow所產(chǎn)生的奇妙火花

Docker 很棒——越來越多的人在開發(fā)與分布中使用它。Docker 有很多優(yōu)勢:即時環(huán)境設(shè)置、獨立于平臺的 app、現(xiàn)成的解決方案、更好的版本控制、簡化的維護。

但是在數(shù)據(jù)科學和深度學習方面,使用 Docker 有一些阻礙。你必須記住所有的 Docker 標志,以在主機和容器之間共享端口和文件,創(chuàng)建不必要的 run.sh 腳本,并處理 CUDA 版本和 GPU 共享。如果你曾經(jīng)見過下面這個錯誤,你就會明白這種痛苦:

 
 
 
 
  1. $ nvidia-smi
  2. Failedto initialize NVML:Driver/library version mismatch

我們的目標

本文的目的在于為你介紹一系列 Docker 實用工具,以及我們經(jīng)常在公司使用的 GPU-ready 樣板文件。

因此,以下結(jié)果將不會出現(xiàn):

 
 
 
 
  1. docker run
  2. --rm
  3. --device /dev/nvidia0:/dev/nvidia0
  4. --device /dev/nvidiactl:/dev/nvidiactl
  5. --device /dev/nvidia-uvm:/dev/nvidia-uvm
  6. -p 8888:8888
  7. -v `pwd`:/home/user
  8. gcr.io/tensorflow/tensorflow:latest-gpu

取而代之的是這種結(jié)果:

 
 
 
 
  1. doc up

酷!

我們實際上想要達到的:

  • 通過一個指令管理我們的應用程序狀態(tài)(運行、停止、移除)
  • 把所有的運行標志保存到我們能夠提交到 git repo 的單個配置文件
  • 忘記 GPU 驅(qū)動程序版本不匹配和共享
  • 在生產(chǎn)工具比如 Kubernetes 或 Rancher 中使用 GPU-ready 的容器

因此,這里是我們強烈推薦給每個深度學習者的工具清單:

1. CUDA

首先,你需要 CUDA 工具包,如果你打算自己動手訓練模型,那這是必須要有的。我們推薦使用 runfile 安裝程序類型而不是 deb,因為它不會在以后的更新中混淆依賴關(guān)系。

(可選)如何檢查它是否工作:

 
 
 
 
  1. cd /usr/local/cuda/samples/1_Utilities/deviceQuery
  2. make
  3. ./deviceQuery #Shouldprint "Result = PASS"

2. Docker

你不想讓海量的庫污染你的計算機,也害怕版本出現(xiàn)問題。同樣,你不必親自構(gòu)建和安裝——通常,軟件已為你創(chuàng)建好了,并包裝在圖像中。安裝 Docker 很簡單:

 
 
 
 
  1. curl -sSL https://get.docker.com/ | sh

3. Nvidia Docker

如果使用 Docker,必須有來自英偉達的實用程序(https://github.com/NVIDIA/nvidia-docker),它真正簡化了在 Docker 容器內(nèi)使用 GPU 的步驟。

安裝非常簡單:

 
 
 
 
  1. wget -P /tmp https://github.com/NVIDIA/nvidia-docker/releases/download/v1.0.1/nvidia-docker_1.0.1-1_amd64.deb
  2. sudo dpkg -i /tmp/nvidia-docker*.deb

現(xiàn)在,不用每次都用下列方式來共享英偉達設(shè)備:

 
 
 
 
  1. docker run --rm --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidiactl:/dev/nvidiactl --device /dev/nvidia-uvm:/dev/nvidia-uvm nvidia/cuda nvidia-smi

你可以使用 nvidia-docker 命令:

 
 
 
 
  1. nvidia-docker run --rm nvidia/cuda nvidia-smi

同樣,你也無需擔心驅(qū)動程序版本不匹配:英偉達的 docker 插件將會幫你解決問題。

4. Docker Compose

超級有用的實用程序,允許你在文件中存儲 docker run 配置,并更輕松地管理應用程序狀態(tài)。盡管它的設(shè)計目的是組合多個 docker 容器,但 docker compose 在你只有一個服務的時候依然非常有用。這里有一個穩(wěn)定版本

(https://github.com/docker/compose/releases):

 
 
 
 
  1. curl -L https://github.com/docker/compose/releases/download/1.15.0/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose
  2. chmod +x /usr/local/bin/docker-compose

5. Nvidia Docker Compose

不幸的是,Docker Compose 并不知道 Nvidia Docker 的存在。幸運的是,有一個解決方法:有一個小的 Python 腳本,可以用 nvidia-docker 驅(qū)動程序生成配置。通過 pip 安裝 Nvidia Docker Compose:

 
 
 
 
  1. pip install nvidia-docker-compose

現(xiàn)在你可以使用 nvidia-docker-compose 命令,而不是 docker-compose 了。

替代選擇

如果你不想使用 nvidia-docker-compose,你可以手動傳遞音量驅(qū)動程序,只需把這些選項添加到 docker-compose.yml:

 
 
 
 
  1. #Yournvidia driver version here
  2. volumes:
  3. nvidia_driver_375.26:
  4. external:true
  5. ...
  6. volumes:
  7. -nvidia_driver_375.26:/usr/local/nvidia:ro

6. Bash 別名

但是 nvidia-docker-compose 需要輸入 21 個字符,這太多了。

很幸運我們可以使用 bash 別名。在你最喜愛的編輯器打開~/.bashrc(有時是~/.bash_profile),輸入以下代碼行:

 
 
 
 
  1. alias doc='nvidia-docker-compose'
  2. alias docl='doc logs -f --tail=100'

通過運行 source ~/.bashrc 更新你的設(shè)置。

開始 TensorFlow 服務

現(xiàn)在我們準備好利用上述所有工具的優(yōu)點。比如,我們運行一個 Tensorflow GPU 啟用的 Docker 容器。

在項目目錄中創(chuàng)建具有以下內(nèi)容的 docker-compose.yml 文件:

 
 
 
 
  1. version:'3'
  2. services:
  3. tf:
  4. image:gcr.io/tensorflow/tensorflow:latest-gpu
  5. ports:
  6. -8888:8888
  7. volumes:
  8. -.:/notebooks

現(xiàn)在我們可以使用單個命令開始 TensorFlow Jupiter:

 
 
 
 
  1. doc up

doc 是 nvidia-docker-compose 的別名——它將使用正確的 volume-driver 生成已修改的配置文件 nvidia-docker-compose.yml,然后運行 docker-compose。

你可以使用相同的命令管理你的服務:

 
 
 
 
  1. doc logs
  2. doc stop
  3. doc rm
  4. #...etc

結(jié)論

但是這值得嗎?下面讓我們看一下其優(yōu)缺點。

優(yōu)點

  • 無需考慮 GPU 設(shè)備共享
  • 不必再為英偉達驅(qū)動程序版本擔憂
  • 擺脫了偏愛干凈、簡單配置的命令標志
  • 再也不需要--name 標志管理容器狀態(tài)
  • 眾所周知已記錄并得到廣泛使用的實用程序
  • 你的配置已為編制工具做好準備,比如理解 docker-compose 文件的編制工具 Kubernetes

缺點

  • 你不得不安裝更多工具

它是生產(chǎn)就緒(production-ready)的嗎

是的。在電影推薦應用 Movix 中,我們使用 GPU 加速的 TensorFlow 網(wǎng)絡(luò)基于用戶輸入計算實時的電影選擇。

我們在 Proxy API 的 Rancher 集群中有三臺帶有 Nvidia Titan X 的電腦。配置儲存在常規(guī) docker-compose.yml 文件中:因此在一個新服務器上部署應用程序或者設(shè)置開發(fā)環(huán)境變得很輕松。目前為止它的表現(xiàn)堪稱***。

為機器學習的未來做好準備吧!

原文:https://hackernoon.com/docker-compose-gpu-tensorflow-%EF%B8%8F-a0e2011d36

【本文是專欄機構(gòu)“機器之心”的原創(chuàng)譯文,微信公眾號“機器之心( id: almosthuman2014)”】


文章標題:DockerCompose+GPU+TensorFlow所產(chǎn)生的奇妙火花
網(wǎng)站鏈接:http://www.dlmjj.cn/article/djoschj.html