距离发布Pytorch-1.0-Preview
版的发布已经有两个多月,Pytorch-1.0最瞩目的功能就是生产的大力支持,推出了C++版本的生态端(FB之前已经在Detectron进行了实验),包括C++前端和C++模型编译工具。
对于我们来说,之后如果想要部署深度学习应用的时候,只需要在Python端利用Pytorch进行训练,然后使用torch.jit导出我们训练好的模型,再利用C++端的Pytorch读取进行预测即可,当然C++端的Pytorch也是可以进行训练的。
因为我们使用的C++版的Pytorch实际上为编译好的动态链接库和头文件,官方提供已经编译好的下载包:
Pytorch官方下载
之后我们将其称之为libtorch,官方对此有个简单的小教程:https://pytorch.org/tutorials/advanced/cpp_export.html
通过这个小教程我们可以了解到这个库的基本用法。
下图是利用Libtorch + OpenCV-4.0.0
在GPU端进行的预测(简单识别手势),所使用的语言为C++,相较python版本的预测速度提升10%。
pytorch-cplusplus-gesture
好了,废话不多少,接下来聊聊如何使用它吧~
正式开始
Pytorch-1.0已经发布两个月了,为什么今天才进行尝试呢——原因很简单,个人比较担心其接口的不稳定性,故稍微多等乐些时间再进行尝试。虽然多等了,但是资料依然很是匮乏,官方的相关教程少之可怜,唯一参考信息的获取只有少数的博客和github上的issue了。
但是有一点好消息,相比于之前,现在尝试libtorch已经几乎没什么问题了,各方面都已经完善,如果大家对libtorch感兴趣,那么这篇文章就比较适合你啦~
另外还有个消息,Pytorch-1.0的稳定版将在这个星期五发布,也就是明天:
TIM截图20181206102739
这样下来,libtorch的接口已经基本稳定,剩下的就让我们感觉尝尝鲜吧。
获取libtorch
获取libtorch的方式有两种:
从官网下载最新的编译好的文件:https://pytorch.org/cppdocs/installing.html
自己进行源码编译
我这里推荐第二种,因为官方编译好的版本为了兼容性,选择了旧式的C++-ABI(相关链接:https://github.com/pytorch/pytorch/issues/13541 ; https://discuss.pytorch.org/t/issues-linking-with-libtorch-c-11-abi/29510),如果你使用的gcc版本>5,那么如果你将libtorch与其他编译好的库(使用gcc-5以及以上)进行联合编译,很有可能出现冲突,为了避免环境上面的问题,建议自己对源码进行编译。当然大家也可以测试下官方的
当然还有一点需要说明,如果你仅仅只单独使用libtorch库(从官方下载,并没有链接其他库,例如opencv),那么你这样编译那么是没有任何问题的。大家可以直接下载官方编译好的包进行快速尝试。
源码编译
源码编译的前提步骤可以参考官方教程:https://github.com/pytorch/pytorch 和 Pytorch-0.4.1-cuda9.1-linux源码安装指南。
安装好所有的依赖件后,我们下载好官方的源码,然后进入Pytorch源码目录环境执行:
git submodule update --init --recursive
有个ISSUE提到必须将源码目录中tools/build_pytorch_libs.sh
第127行左右添加一句(-D_GLIBCXX_USE_CXX11_ABI=1)再进行编译:
THIRD_PARTY_DIR="$BASE_DIR/third_party"
C_FLAGS=””
这个其实并不需要,我们直接编译即可。
这一部其实类似于Pytorch的源码编译,至于其中的细节(cuda、cudnn版本)这里不进行赘述了,大家可以查阅本站相关内页或者根据网上教程来进行安装:
相关内容:
CUDA,CUDNN工具箱多版本安装、多版本切换
如果编译无错之后我们会看到输出信息:
-- Install configuration: "Release"
-- Set runtime path of "/home/prototype/Downloads/pytorch/torch/lib/tmp_install/lib/libmkldnn.so.0.14.0" to "$ORIGIN:/home/prototype/anaconda3/envs/fastai/lib"
-- Set runtime path of "/home/prototype/Downloads/pytorch/torch/lib/tmp_install/lib/libc10.so" to "$ORIGIN"
-- Set runtime path of "/home/prototype/Downloads/pytorch/torch/lib/tmp_install/lib/libc10_cuda.so" to "$ORIGIN"
-- Set runtime path of "/home/prototype/Downloads/pytorch/torch/lib/tmp_install/lib/libcaffe2.so" to "$ORIGIN:/usr/lib/openmpi/lib:/usr/local/cuda/lib64:/home/prototype/anaconda3/envs/fastai/lib"
-- Set runtime path of "/home/prototype/Downloads/pytorch/torch/lib/tmp_install/lib/libcaffe2_gpu.so" to "$ORIGIN:/usr/local/cuda/lib64:/home/prototype/anaconda3/envs/fastai/lib:/usr/lib/openmpi/lib"
-- Set runtime path of "/home/prototype/Downloads/pytorch/torch/lib/tmp_install/lib/libtorch.so.1" to "$ORIGIN:/usr/local/cuda/lib64:/home/prototype/anaconda3/envs/fastai/lib"
-- Set runtime path of "/home/prototype/Downloads/pytorch/torch/lib/tmp_install/lib/libcaffe2_module_test_dynamic.so" to "$ORIGIN:/home/prototype/anaconda3/envs/fastai/lib"
编译好之后的libtorch在path/to/pytorch/torch/lib/tmp_install
中。
我们之后在cmake时需要添加-DCMAKE_PREFIX_PATH=/path/to/pytorch/torch/lib/tmp_install
引入libtorch路径。
不懂什么是Cmake的可以看这里:编译器gcc、clang、make、cmake辨析
简单测试libtorch是否正常工作
这里进行一个简单的测试,测试我们导出的模型在python端和C++端是否一致,其中model的输入为(n,3,224,224)的tensor
,输出为(3)的tensor
,预测三个类别,首先我们在python端导出这个模型权重:
import torch
from Models.MobileNetv2 import mobilenetv2
model = mobildnetv2(pretrained)
example = torch.rand(1, 3, 224, 224).cuda()
此时打印出输出结果:
tensor([[ -1.2374, -96.6268, 19.2590]], device='cuda:0',
grad_fn=<AddBackward0>)
上述导出的’mobilenetv2-trace.pt’的链接:https://pan.baidu.com/s/1neHRHypYq9vbGDlY1WwfJw 提取码:sym8
然后,我们下载官方或者自己编译好libtorch,并且知道其所在的地址:path/to/libtorch
(这只是例子,具体地址每个人不同)。然后编写我们的CmakeLists文件,其中find_package作用为根据我们提供的地址,去寻找libtorch的TorchConfig.cmake
从而将整个libtorch库添加到我们的整体文件中:
cmake_minimum_required(VERSION 3.0.0 FATAL_ERROR)
project(simnet)
find_package(Torch REQUIRED)
message(STATUS “Pytorch status:”)
message(STATUS ” libraries: ${TORCH_LIBRARIES}”)
add_executable(simnet test.cpp)
target_link_libraries(simnet ${TORCH_LIBRARIES})
set_property(TARGET simnet PROPERTY CXX_STANDARD 11)
然后编写我们的C++端的Pytorch,简单读取权重信息然后创建一个tensor
输入权重模型再打印出结果:
我们编译此代码然后读取之前导出的模型,可以发现此时输出:
ok
-1.2374 -96.6271 19.2592
[ Variable[CUDAFloatType]{1,3} ]
通过与之前tensor([[ -1.2374, -96.6268, 19.2590]], device='cuda:0',grad_fn=<AddBackward0>)
进行对比,发现在小数点第三位出略有差别,但总体来说差别不是很大。
注意,两次读取都是在GPU中进行的,我们需要注意下,利用CPU和利用GPU训练的模型是不同的,如果导出使用GPU训练的模型(利用model.cpu()
将模型移动到CPU中导出)然后使用CPU去读取,结果并不正确,必须保证导出和读取的设备一致。
如果使用的libtorch和导出的模型版本不匹配(这个错误经常出现于我们编译libtorch的版本和导出模型的Pytorch版本不同)则会出现这个错误(这个问题可能会在API稳定后解决):
(simnet:7105): GStreamer-CRITICAL **: gst_element_get_state: assertion 'GST_IS_ELEMENT (element)' failed
terminate called after throwing an instance of 'c10::Error'
what(): memcmp("PYTORCH1", buf, kMagicValueLength) != 0 ASSERT FAILED at /home/prototype/Downloads/pytorch/caffe2/serialize/inline_container.cc:75, please report a bug to PyTorch. File is an unsupported archive format from the preview release. (PyTorchStreamReader at /home/prototype/Downloads/pytorch/caffe2/serialize/inline_container.cc:75)
frame
利用OpenCV读取图像传递给libtorch进行预测
这样,我们已经初步使用了libtorch进行了测试,但是实际上我们需要图像库来读取图像或者视频,然后将其转化为Tensor再输入模型进行预测,这时我们就需要将libtorch与其他的库进行联合编译。
这里我们将OpenCV和libtorch一起编译,实现通过OpenCV开启摄像头将帧转化为tensor
进行实时的预测,并判断当前的手势。
编译OpenCV
这里我们仍然推荐在当前的环境下(cmake、make、gcc版本确定情况下)编译自己的OpenCV,如果自己之前已经编译好可以跳过这一步。
至于如何编译OpenCV,可以看这里:Ubuntu下源码安装Opencv完全指南
与OpenCV联合编译
自己环境中存在OpenCV的前提下,同样使用Cmake的find_package命令可以找到,为此,我们修改CmakeLists文件为:
cmake_minimum_required(VERSION 3.12 FATAL_ERROR)
project(simnet)
find_package(Torch REQUIRED)
在Cmake配置后如果正确找到后会显示以下的信息:
-- Caffe2: CUDA detected: 9.2
-- Caffe2: CUDA nvcc is: /usr/local/cuda/bin/nvcc
-- Caffe2: CUDA toolkit directory: /usr/local/cuda
-- Caffe2: Header version is: 9.2
-- Found cuDNN: v7.4.1 (include: /usr/local/cuda/include, library: /usr/local/cuda/lib64/libcudnn.so)
-- Autodetected CUDA architecture(s): 6.1;6.1
-- Added CUDA NVCC flags for: -gencode;arch=compute_61,code=sm_61
-- Pytorch status:
-- libraries: torch;caffe2_library;caffe2_gpu_library;/usr/lib/x86_64-linux-gnu/libcuda.so;/usr/local/cuda/lib64/libnvrtc.so;/usr/local/cuda/lib64/libnvToolsExt.so;/usr/local/cuda/lib64/libcudart_static.a;-lpthread;dl;/usr/lib/x86_64-linux-gnu/librt.so
-- OpenCV library status:
-- version: 4.0.0
-- libraries: opencv_calib3d;opencv_core;opencv_dnn;opencv_features2d;opencv_flann;opencv_gapi;opencv_highgui;opencv_imgcodecs;opencv_imgproc;opencv_ml;opencv_objdetect;opencv_photo;opencv_stitching;opencv_video;opencv_videoio
-- include path: /usr/local/include/opencv4
-- Configuring done
-- Generating done
-- Build files have been written to: /home/prototype/CLionProjects/simnet/cmake-build-release
然后我们的C++代码为:
这样我们的程序就可以运行了~
pytorch-cplusplus-gesture
关于这个libtorch-C++的API的具体讲解,因为篇幅原因没有详细写出来,会在之后的文章中进行说明。
遇到的问题
上述的编译中可能会出现这个问题,或者其他出现一大堆命名定义但显示未定义的函数:
error: undefined reference to `cv::imread(std::string const&, int)'
如果你的OpenCV在单独编译使用时没有错误,但是一块编译就出现问题,那么这代表我们的libtorch库和OpenCV库冲突了,冲突原因可能是OpenCV编译OpenCV的C++-ABI版本和libtorch中的不同,所以建议OpenCV最好和libtorch在同样的环境下编译。
当然还有有很多奇奇怪怪的原因,Pytorch中目前对C++的文档并不是很详细,也比较稀缺,但是可以在Pytorch论坛和github项目中查找相关问题或者提问。
Pytorch的C++端已经接近成熟,C++的预测相比Python端会稍微快一些,也减轻了安装Pytorch包的负担,未来等C++的APi稳定之后,我们可以直接利用torch.jit导出我们训练好的模型,在部署设备上,只需要一个lib库就可以利用GPU进行预测,这样生产效率会将会大大提高。
如果感觉有收获,不妨分享一下吧~
阅读原文
声明:文中观点不代表本站立场。本文传送门:https://eyangzhen.com/202669.html