概要

在配置Tensorflow-gpu的过程中,一定要注意版本对应,以及环境变量的修改。

整体架构流程:

首先我的各个文件的版本是一下:Tensorflow-gpu-1.3.0,python3.6,CUDA8.0,CUDNN6,keras2.0.0. 按照你的版本进行下载即可。

一、首先查看keras.json中设置的backend。keras.json路径为

如果要使用tensorflow要将json设置为以下:

然后是tensorflow-gpu的下载。我是在Anaconda的虚拟环境pip下载的。该文件的路径为:C:\Users\。。。\.condarc,下面是我.condarc的内容(pip顺利下载的关键):

以上设置完成后,需要下载tensorflow或者tensorflow-gpu版本,keras,都可以在Anaconda的虚拟环境进行pip下载。

Tensorflow下载完成后,进行CUDA和CUDNN配置。下面是Tensorflow和CUDA、CUDNN的版本对应:

我使用的版本是Tensorflow-gpu-1.3.0 , python=3.6, CUDA8.0,CUDNN6.

1、点击 CUDA去官网来下载安装包。

找到自己的版本,我按我的流程介绍。

下载完成,按照介绍安装即可。如果C盘不够用,可以先在其他盘建立如下文件夹,但要记好路径。下载流程可以去其他文章查看,有很多。文件夹的深度如下:

安装好就可以下载CUDNN:

2、cuDNN的安装程序可在这里下载:cuDNN Archive进入官网,根据电脑系统选择合适的版本,从官网下载(首次下载需要注册NVIDIA账号)。首先需要注册登录。

找到适合自己的版本:

下载好,进行解压。将下面的文件复制:

复制到CUDA文件夹下面:

到这里如果版本对应,安装路径没错,复制路径没错。已经算是大致完成。

然后查看环境变量,但环境变量一般在你安装CUDA的时候就自行匹配了,但还是检查一下比较好,将你要使用的版本上移到最上面即可:

然后可以进行gpu查询,创建一个py文件进行查询gpu,如下:

from tensorflow.python.client import device_lib

# 获取可用 GPU 数量
def get_available_gpus():
    local_device_protos = device_lib.list_local_devices()
    return [x.name for x in local_device_protos if x.device_type == 'GPU']

# 打印可用的 GPU 数量
gpus = get_available_gpus()
print("Num GPUs Available: ", len(gpus))

如果显示有可用的即可:

小结

总结就是版本合适,下载安装流程正确。

Logo

分享最新的 NVIDIA AI Software 资源以及活动/会议信息,精选收录AI相关技术内容,欢迎大家加入社区并参与讨论。

更多推荐