新聞中心
CUDA(Compute Unified Device Architecture)是一種由NVIDIA推出的并行計(jì)算平臺(tái)和應(yīng)用程序接口,可用于加速GPU上的科學(xué)計(jì)算、深度學(xué)習(xí)、機(jī)器學(xué)習(xí)等工作負(fù)載。在Linux操作系統(tǒng)下,CUDA版本下載和安裝可能相對(duì)較為復(fù)雜,需要一定的技術(shù)基礎(chǔ)和操作指導(dǎo)。本文將為大家提供一份,幫助大家快速下載和安裝CUDA。

一、CUDA下載
在下載CUDA之前,需要確定您所安裝的Linux版本和NVIDIA顯卡型號(hào)。請(qǐng)確保您的電腦上已安裝了正確版本的NVIDIA顯卡驅(qū)動(dòng)程序。如果您尚未安裝NVIDIA顯卡驅(qū)動(dòng)程序,請(qǐng)先下載合適的驅(qū)動(dòng)程序,然后再安裝CUDA。
您可以在以下網(wǎng)址中下載CUDA版本:
http://developer.nvidi/cuda-downloads
在網(wǎng)站中選擇您需要下載的CUDA版本。請(qǐng)注意,不同的CUDA版本可能有不同的系統(tǒng)要求和顯卡支持范圍。在下載之前,請(qǐng)確保您已認(rèn)真閱讀了系統(tǒng)要求和顯卡支持情況。
二、CUDA安裝
下載完成后,接下來(lái)是安裝CUDA。請(qǐng)通過(guò)以下步驟安裝CUDA:
1.解壓CUDA包:
假設(shè)您將CUDA包保存在/opt目錄下,您可以通過(guò)以下命令解壓縮CUDA包:
sudo tar -zxvf /opt/cuda_x.x.x_linux.run
(請(qǐng)將“x.x.x”替換為您下載的CUDA版本號(hào)碼)
2.掛載設(shè)備顯卡:
在安裝CUDA之前,您需要確保設(shè)備顯卡已正確掛載。您可以通過(guò)以下命令檢查設(shè)備顯卡是否已掛載:
ls /dev/nvidia*
如果沒(méi)有輸出內(nèi)容,請(qǐng)通過(guò)以下命令掛載設(shè)備顯卡:
sudo modprobe nvidia
3.運(yùn)行安裝程序:
您可以通過(guò)以下命令運(yùn)行CUDA安裝程序:
sudo /opt/cuda_x.x.x_linux.run
在安裝過(guò)程中,您可以根據(jù)需要進(jìn)行選擇。安裝選項(xiàng)包括安裝路徑、組件、示例程序和樣本數(shù)據(jù)等。
4.配置環(huán)境變量:
安裝完成后,您需要將CUDA添加到環(huán)境變量中。您可以通過(guò)以下命令編輯環(huán)境變量文件:
sudo nano /etc/profile
在文件末尾添加以下內(nèi)容:
export PATH=/usr/local/cuda-x.x/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-x.x/lib64:$LD_LIBRARY_PATH
(請(qǐng)將“x.x”替換為您的CUDA版本號(hào)碼)
5.保存文件并退出編輯器。
6.更新環(huán)境變量:
您需要通過(guò)以下命令刷新環(huán)境變量:
source /etc/profile
7.驗(yàn)證CUDA是否安裝成功:
您可以通過(guò)運(yùn)行以下命令驗(yàn)證CUDA是否已正確安裝:
nvcc -V
如果正確安裝,則應(yīng)該可以看到與您安裝的CUDA版本相關(guān)的輸出。
:
在Linux系統(tǒng)下,CUDA的安裝相對(duì)來(lái)說(shuō)可能會(huì)有一些困難。但是,只要您按照上面的步驟執(zhí)行,就有可能成功安裝CUDA。如果您遇到問(wèn)題,建議到官方網(wǎng)站或其他相關(guān)技術(shù)論壇尋求幫助。希望本文能幫助到您,讓您快速輕松安裝CUDA。
相關(guān)問(wèn)題拓展閱讀:
- 求助tensorflow下遇到cuda compute capability問(wèn)題
求助tensorflow下遇到cuda compute capability問(wèn)題
首先需要看你的PC配置是否夠,TF的GPU模式只支持N卡,然后計(jì)算能力高于3.0,具體可以查:
安裝教程可以參考:
Ubuntu16.04上gtx1080的cuda安裝
July
目前tensorflow是一個(gè)非常流行的深度學(xué)習(xí)計(jì)算框架,常規(guī)硬件及系統(tǒng)的安裝方法官方的doc已經(jīng)說(shuō)的很清楚了,但是 因?yàn)橄到y(tǒng)是ubuntu16.04,顯卡是GTX1080,所以不可避免的要折騰起來(lái)。在上一篇已經(jīng)在穗高16.04上安裝好了驅(qū)動(dòng)。接下來(lái)其實(shí) 重點(diǎn)安裝的是CUDA和cuDNN.
首先說(shuō)為什么要安裝CUDA和cuDNN,關(guān)于采用GPU計(jì)算比CPU有速度有多少提升的benchmark找找就有,這次重點(diǎn)是怎么讓tensorflow充分用的 上GTX1080能力。具體的就是如何把支持GTX1080的CUDA和cuDNN裝起來(lái),然后讓tensorflow認(rèn)識(shí)我們新裝的CUDA和cuDNN。
首先總體說(shuō)下安裝步驟:
1 首先要注冊(cè)NVIDIA developer的帳號(hào),分別下載CUDA和cuDNN
2 確認(rèn)準(zhǔn)備gcc版本,安裝依賴庫(kù)sudo apt-get install freegl
3 安裝CUDA
4 解壓cuDNN
5 clone tensorflow源碼,configure配置
6 編譯安裝
7 最后一哆嗦,測(cè)試!
準(zhǔn)備工作
在正式開(kāi)始前,需要做幾個(gè)準(zhǔn)備工作,主要是大概先看下文檔
cuda FAQ
tensorflow 的安裝文檔
cuda-gpu的支持列表/計(jì)算能力/FAQ
cudnn 5.1有多牛
cuda tookit下載頁(yè)面
CUDA_Installation_Guide_Linux.pdf
cudnn User Guide
文檔看過(guò)之后接下來(lái)就是實(shí)際動(dòng)手的過(guò)程:
1 注冊(cè)NVIDIA developer的帳號(hào),分別下載CUDA和cuDNN
1.1 下載CUDA 打開(kāi)cuda toolkit下載頁(yè)面,GTX1080 要用的是CUDA 8。先點(diǎn)擊JOIN,注冊(cè)帳號(hào)。 完了后,再回到cuda toolkit下載頁(yè)面。選擇 linux, x86-64, ubuntu, 16.04, runfile(local)
1.2 下載cuDNN 進(jìn)入cudnn的下載頁(yè),一堆調(diào)查,日志寫(xiě)時(shí)下載的是,點(diǎn)開(kāi)選linux,不出意外的話這個(gè)就是下載地址.
2 確認(rèn)GCC版本,安裝依賴庫(kù)
確認(rèn)本機(jī)gcc版本,16.04默認(rèn)的是gcc 5,這里安裝需要的更高是gcc 4.9。接下來(lái)就安裝配置gcc 4.9.
2.1 安裝gcc 4.9,并修改系統(tǒng)默認(rèn)為4.9
sudo apt-get install gcc-4.9 gcc-4.9 g++-4.9 g++-4.9
gcc –version
sudo update-alternatives –install /usr/bin/g++ g++ /usr/bin/g++-4.9 10
sudo update-alternatives –install /usr/bin/cc cc /usr/bin/gcc 30
sudo update-alternatives –set cc /usr/bin/gcc
sudo update-alternatives –install /usr/bin/c++ c++ /usr/bin/g++ 30
sudo update-alternatives –set c++ /usr/bin/g++
gcc –version
2.2 一個(gè)小依賴
sudo apt-get install freegl
3 安裝CUDA
需要注意的是這個(gè)地方有個(gè)選擇安裝低版本驅(qū)動(dòng)的地方,選n 大致的安裝流程如下氏答:
3.1 安猜核尺裝CUDA
chmod +x /cuda_8.0.27_linux.run
./cuda_8.0.27_linux.run
….
Do you accept the previously read EULA?
accept/decline/quit: accept
Install NVIDIA Accelerated Graphics Driver for Linux-x86_64 361.62?
(y)es/(n)o/(q)uit: n
Install the CUDA 8.0 Toolkit?
(y)es/(n)o/(q)uit: y
Enter Toolkit Location
:
Do you want to install a symbolic link at /usr/local/cuda?
(y)es/(n)o/(q)uit: y
Install the CUDA 8.0 Samples?
(y)es/(n)o/(q)uit: y
Enter CUDA Samples Location
: /home/h/Documents/cuda_samples
….
3.2 寫(xiě)入環(huán)境變量
vim ~/.bashrc
#添加下面變量
export PATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda-8.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
3.3 安裝好后簡(jiǎn)單驗(yàn)證
a. 進(jìn)入剛配置時(shí)指定的cuda sample所在文件夾,NVIDIA_CUDA-8.0_Samples/
b. cd 0_Simple/asyncAPI;sudo make
c. NVIDIA_CUDA-8.0_Samples/0_Simple/asyncAPI$ ./asyncAPI – Starting… GPU Device 0: “GeForce GTX 1080” with compute capability 6.1 CUDA device time spent executing by the GPU: 10.94 time spent by CPU in CUDA calls: 0.19 CPU executediterations while waiting for GPU to finish
4 安裝cuDNN
h@h:~/Downloads$ tar xvzf cudnn-8.0-linux-x64-v5.0-ga.tgz
cuda/include/cudnn.h
cuda/lib64/libcudnn.so
cuda/lib64/libcudnn.so.5
cuda/lib64/libcudnn.so.5.0.5
cuda/lib64/libcudnn_static.a
h@h:~/Downloads$ sudo cp -R cuda/lib64 /usr/local/cuda/lib64
h@h:~/Downloads$ sudo mkdir -p /usr/local/cuda/include
h@h:~/Downloads/cuda$ sudo cp include/cudnn.h /usr/local/cuda/include/
sudo chmod a+r /usr/local/cuda/include/cudnn.h /usr/local/cuda/lib64/libcudnn*
5 clone, configure tensorflow
5.1 clone源碼
$ git clone
5.2 configure配置
整個(gè)配置流程應(yīng)該跟下面的基本一樣的
h@h:~/Downloads/tensorflow$ cd ./tensorflow/
h@h:~/Downloads/tensorflow$ ./configure
Please specify the location of python. :
***Do you wish to build TensorFlow with Google Cloud Platform support? N***
No Google Cloud Platform support will be enabled for TensorFlow
***Do you wish to build TensorFlow with GPU support? y***
GPU support will be enabled for TensorFlow
Please specify which gcc nvcc should use as the host compiler. :
**Please specify the location where CUDA toolkit is installed. Refer to README.md for more details. : /usr/local/cuda-8.0 **
**Please specify the Cudnn version you want to use. : 5.0.5**
**Please specify the location where cuDNN 5.0.5 library is installed. Refer to README.md for more details. : /usr/local/cuda**
Please specify a list of comma-separated Cuda compute capabilities you want to build with.
You can find the compute capability of your device at:
**Please note that each additional compute capability significantly increases your build time and binary size.
: 6.1**
Setting up Cuda include
Setting up Cuda lib64
Setting up Cuda bin
Setting up Cuda nvvm
Setting up CUPTI include
Setting up CUPTI lib64
Configuration finished
6 編譯安裝
6.1 編譯工具Bazel安裝配置
先看一眼文檔 然后就執(zhí)行下面的流程:
#安裝java 1.8
sudo add-apt-repository ppa:webupd8team/java
sudo apt-get update
sudo apt-get install oracle-java8-installer
#安裝好后車(chē)參考下
java -version
#添加源
echo “deb stable jdk1.8” | sudo tee /etc/apt/sources.list.d/bazel.list
curl | sudo apt-key add –
#下載
sudo apt-get update && sudo apt-get install bazel
#升級(jí)
sudo apt-get upgrade bazel
6.2 編譯tensorflow的pip版本并安裝
$ bazel build -c opt //tensorflow/tools/pip_package:build_pip_package
# To build with GPU support:
$ bazel build -c opt –config=cuda //tensorflow/tools/pip_package:build_pip_package
$ bazel-bin/tensorflow/tools/pip_package/build_pip_package /tmp/tensorflow_pkg
# The name of the .whl file will depend on your platform.
#注意編譯完成后生成的文件名字和官方doc里面的是不一定一致的
$ sudo pip install /tmp/tensorflow_pkg/tensorflow-0.*-linux_x86_64.whl
i6700k 32g編譯時(shí)間:
只編譯代碼不帶pip INFO: Elapsed time: 967.271s, Critical Path: 538.38s
bazel-bin/tensorflow/tools/pip_package/build_pip_package INFO: Elapsed time: 65.183s, Critical Path: 48.58
7 最后測(cè)試
前面都整完了,現(xiàn)在該測(cè)試了,注意前面有兩個(gè)動(dòng)態(tài)鏈接庫(kù)的位置,cuDNN在/usr/local/cuda/lib64, 而cuda在/usr/local/cuda-8.0/lib64,所以這個(gè)時(shí)候的bashrc應(yīng)該這么寫(xiě):
export PATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:/usr/local/cuda-8.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
寫(xiě)完后,
source ~/.bashrc
cd tensorflow/tensorflow/models/image/mnist
python convolutional.py
成功的話會(huì)出現(xiàn)流暢的跑動(dòng):
h@h:~/Downloads/tensorflow/tensorflow/models/image/mnist$ python convolutional.py
I tensorflow/stream_executor/dso_loader.cc:108> successfully opened CUDA library libcublas.so locally
I tensorflow/stream_executor/dso_loader.cc:108> successfully opened CUDA library libcudnn.so.5.0.5 locally
I tensorflow/stream_executor/dso_loader.cc:108> successfully opened CUDA library libcufft.so locally
I tensorflow/stream_executor/dso_loader.cc:108> successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:108> successfully opened CUDA library libcurand.so locally
Extracting data/train-images-idx3-ubyte.gz
Extracting data/train-labels-idx1-ubyte.gz
Extracting data/t10k-images-idx3-ubyte.gz
Extracting data/t10k-labels-idx1-ubyte.gz
I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:925> successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
I tensorflow/core/common_runtime/gpu/gpu_init.cc:102> Found device 0 with properties:
name: GeForce GTX 1080
major: 6 minor: 1 memoryClockRate (GHz) 1.8475
pciBusID 0000:01:00.0
Total memory: 7.92GiB
Free memory: 7.41GiB
I tensorflow/core/common_runtime/gpu/gpu_init.cc:126> DMA: 0
I tensorflow/core/common_runtime/gpu/gpu_init.cc:136> 0: Y
I tensorflow/core/common_runtime/gpu/gpu_device.cc:838> Creating TensorFlow device (/gpu:0) -> (device: 0, name: GeForce GTX 1080, pci bus id: 0000:01:00.0)
Initialized!
Step 0 (epoch 0.00), 8.4 ms
Minibatch loss: 12.054, learning rate: 0.010000
Minibatch error: 90.6%
Validation error: 84.6%
……
Minibatch error: 0.0%
Validation error: 0.7%
Step 8500 (epoch 9.89), 4.7 ms
Minibatch loss: 1.601, learning rate: 0.006302
Minibatch error: 0.0%
Validation error: 0.9%
關(guān)于cuda版本 linux 下載的介紹到此就結(jié)束了,不知道你從中找到你需要的信息了嗎 ?如果你還想了解更多這方面的信息,記得收藏關(guān)注本站。
成都網(wǎng)站營(yíng)銷(xiāo)推廣找創(chuàng)新互聯(lián),全國(guó)分站站群網(wǎng)站搭建更好做SEO營(yíng)銷(xiāo)。
創(chuàng)新互聯(lián)(www.cdcxhl.com)四川成都IDC基礎(chǔ)服務(wù)商,價(jià)格厚道。提供成都服務(wù)器托管租用、綿陽(yáng)服務(wù)器租用托管、重慶服務(wù)器托管租用、貴陽(yáng)服務(wù)器機(jī)房服務(wù)器托管租用。
當(dāng)前題目:Linux系統(tǒng)下CUDA版本下載指南 (cuda版本 linux 下載)
當(dāng)前路徑:http://www.dlmjj.cn/article/djdeioe.html


咨詢
建站咨詢
