私有云如何运行深度学习?看ZStack+Docker支撑GPU业务实践

QQ截图20201123115905.jpg


前景

ZStack 所聚焦的IaaS ,作为云计算里的底座基石,能够更好的实现物理资源隔离,以及服务器等硬件资源的统一管理,为上层大数据、深度学习Tensorflow 等业务提供了稳定可靠的基础环境。

近年来,云计算发展探索出了有别于传统虚拟化、更贴近于业务的PaaS 型服务,该类型依赖于docker 实现,如K8S 等典型的容器云,可以直接从镜像商店下载封装好业务软件的镜像,更加快捷地实现业务部署。

此外,GPU 场景也是客户业务的典型场景,相比于CPU 的运算特点,在数据分析、深度学习有着明显的优势。

ZStack 是如何与容器结合,以IaaS+PaaS 的组合拳,为上层业务提供支撑的呢?本篇文章带大家了解一下,如何在ZStack  上部署 centos7.6  虚拟机,在虚拟机里部署docker ,以及如何使用nvidia-docker 实现在容器里调用GPU 的业务场景。


环境

虚机系统: Centos 7.6

虚机内核: Linux 172-18-47-133 3.10.0-957.el7.x86_64 #1 SMP Thu Nov 8 23:39:32 UTC 2018 x86_64 x86_64 x86_64 GNU/Linux

docker 版本: docker-ce 19.03

nvidia-docker 版本: nvidia-docker-1.0.11.x86_64

显卡: RTX6000

Cuda 版本: 10.1

显卡驱动: 418

如下图所示:

 

QQ截图20201123115356.jpg


Part 01

显卡驱动安装

 

1 、下载对应版本的CUDA ,并以此安装驱动。CUDA 已经紧密结合了NVIDIA ,以下驱动在centos ubuntu 上面均可执行,并自带绝大部分NVIDIA 型号的显卡驱动,实用性非常强。

wget   http://plan.zstack.io/storage/iso/nvidia/cuda_10.1.168_418.67_linux.run

chmod+x http://plan.zstack.io/storage/iso/nvidia/cuda_10.1.168_418.67_linux.run

GPU 透传给虚拟机的操作步骤,详见在zstack.io 官网可搜索到的《GPU 实践手册》。

特别提醒:平台CPU 模式一定要设置成passthrough !否则后续无法正常调用GPU 做任何操作。

 

2 、安装驱动,会自动禁止使用默认显卡驱动。特殊情况如需手动禁用,可使用如下操作:

QQ截图20201123115404.jpg

echo “blacklist nouveau” >>/usr/lib/modprobe.d/dist-blacklist.conf

echo “options nouveau modeset=0” >>/usr/lib/modprobe.d/dist-blacklist.conf

mv /boot/initramfs-$(uname -r).img /boot/initramfs-$(uname -r).img.bak

dracut /boot/initramfs-$(uname -r).img $(uname -r)

reboot

lsmod|grep nouveau  (为空则不加载默认显卡驱动)

 

3 ./cuda_10.1.168_418.67_linux.run  (安装时除了最后一项外,其他均需选择)

QQ截图20201123115413.jpg

QQ截图20201123115426.jpg

4 、安装完成就表示驱动已安装完毕,可以执行nvidia-smi 命令查看

QQ截图20201123115449.jpg

5 驱动安装完毕后,建议采用CUDA 自带的测试工具来测试,如果测试结果显示 PASS ,表示 CUDA 安装成功。

yum install gcc-c++

yum install cpp

cd /root/NVIDIA_CUDA-10.1_Samples/1_Utilities/bandwidthTest/

make

./bandwidthTest

QQ截图20201123115458.jpg


Part 02

DOCKER-CE 安装:

1 、如果安装docker ,需先卸载,再安装docker-ce

yum remove docker docker-common docker selinux docker-engine

2 、配置docker-ce repo 源:

yum-config-manager --add-repo  https://download.docker.com/linux/centos/docker-ce.repo 

3 、列出可以安装的版本:

yum list docker-ce --showduplicates | sort -r

4 、默认安装即可, 当前为19.03 版本:

yum install docker-ce  (默认安装的是Docker version 19.03.13, build 4484c46d9d

5 、启动服务及开机自启配置:

systemctl start docker

systemctl enable docker

6 、从镜像商店搜索一个带有GPU 驱动的镜像:

docker search nvidia  (镜像商店可以搜索带nvidia 驱动的镜像,用第一个即可)

QQ截图20201123115506.jpg

7 、修改配置文件:

cat >> /etc/docker/daemon.json <

{

    "runtimes": {

        "nvidia": {

            "path": "/usr/bin/nvidia-container-runtime",

            "runtimeArgs": []

        }

    }

}

EOF

 

Part 03

nividia-docker  安装

1 、配置nvidia-docker 相关源:

curl -s -L https://nvidia.github.io/nvidia-docker/centos7/x86_64/nvidia-docker.repo | sudo tee /etc/yum.repos.d/nvidia-docker.repo

2 、搜索nvidia-docker 包的版本:

yum search --showduplicates nvidia-docker

3 、安装nvidia-docker

yum install nvidia-docker-1.0.1-1.x86_64

4 、启动服务,和配置开机自启动:

systemctl start nvidia-docker; 

systemctl enable nvidia-docker;

 systemctl status nvidia-docker

(需确保nvidia-docker 状态一直正常运行,否则无正常使用)

5 、检查相关依赖软件包是否已安装,如果缺失,可执行以下命令安装:

QQ截图20201123115515.jpg

yum install libnvidia-container1

yum install nvidia-container-toolkit

yum install libnvidia-container-tools

6 重启一下docker 服务:

systemctl restart docker


完成测试

nvidia-docker run --rm --gpus all nvidia/cuda:10.1

-base nvidia-smi ( 如下图所示,即为安装成功。此处必须加gpus all 参数 如此才可调用GPU)

QQ截图20201123115527.jpg


使用备注(躺坑日记)

a 、如果需要向容器里传文件,参考一下方式传CUDA 软件进容器,前面是本地文件,后面是容器id 以及内部目录位置。反过来就是从容器里传文件出来。

docker cp /root/cuda_10.1.168_418.67_linux.run ffb6138f3299:/mnt/1.run

b 、排除容器问题,一次性清理所有容器,则使用如下命令:

docker rm -f $(docker ps -aq)

c 、重装驱动步骤:

yum remove nvidia-container-runtime

yum remove nvidia-container-toolkit

yum remove libnvidia-container-tools

yum remove nvidia-docker

./cuda_10.1.168_418.67_linux.run 

yum install nvidia-docker-1.0.1-1.x86_64

systemctl start nvidia-docker; systemctl enable nvidia-docker; systemctl status nvidia-docker

yum install libnvidia-container1

yum install nvidia-container-toolkit

yum install libnvidia-container-tools

nvidia-docker run --rm --gpus all nvidia/cuda:10.1-base nvidia-smi  再跑就可以了

d 、进入容器内部,执行操作使用如下命令:

docker -it nvidia/cuda:10.1-base /bin/bash

e nvidia-docker  服务异常systemctl status nvidia-docker ,报错error cuda all cuda-capable device are busy

此时问题为,平台CPU 模式没有改成直通,修改后需要重启虚拟机才能生效。通过lscpu ,查看并确认虚拟机CPU 必须为物理CPU 型号,而非QEMU 型号CPU

f nvidia-docker  服务异常 systemctl status nvidia-docker , 服务启动后自己停止,原因可能是 GPU 驱动没有装好。一定要经过 CUDA 自带脚本测试,测试通过才能认为显卡状态可用。

QQ截图20201123115535.jpg

2 nvidia-docker run 时报错:如果显示 no options [gpus] , --gpu all  ,这个参数无效,报错原因是docker 版本过低,建议使用19.03 。低版本如17.03 docker-ce  ,因为调用 GPU 参数不同,所以可能被识别无效。

3 、报错提示为缺少nvidia-container-runtime-hook ,如下图,需要执行安装:yum install libnvidia-container1; yum install nvidia-container-toolkit-1.3.0-2.x86_64; yum install libnvidia-container-tools-1.3.0-1.x86_64

QQ截图20201123115544.jpg


结语

历经一天时间,完成了ubuntu 下和centos 下的docker+ GPU +nvidia-docker 的实践安装使用,中间简单的安装了一个Rancher PaaS 平台,进行容器管理。

IaaS PaaS 都有着各自鲜明的优势,很多人总有这么一个疑问:到底该选择IaaS 的资源隔离,来更好的管控硬件、迎合未来的混合云市场?还是选择PaaS ,让应用更轻便、以释放人力到自己的核心业务上呢?最佳答案是:为何不全都要呢。ZStack IaaS 结合PaaS 实现IT 改造,增加对IT 的每一个细节掌控,共同撑起云计算的未来。

ZStack的愿景就是:“让每一家企业都拥有自己的云。”



请使用浏览器的分享功能分享到微信等