Paddle推理库(Inference Library)编译爬坑记 C++ GPU版

Paddle推理库(Inference Library)编译爬坑记 C++ GPU版【看完编译畅通无阻】

导读

本文主要介绍Windows C++编译Paddle推理库(Inference Library)可能遇到的一些问题和解决方法,让需要的人减少爬坑时间。
背景介绍

PaddlePaddle官方已经提供了Release版本的推理库libpaddle_infer.lib/dll,可以直接在这里下载:

https://www.paddlepaddle.org.cn/documentation/docs/en/2.0/guides/05_inference_deployment/inference/windows_cpp_inference_en.html

图片

之所以要自己编译是因为有朋友在使用PaddleOCR时,需要将其中的功能整合到自己的项目中调试,只有Release版本调试很不方便,所以笔者就按照官方的方法做了尝试,具体爬坑记录如下。

可能遇到的问题与解决方法

我的环境与版本信息:

Win10 64bit, VS2017, CMake 3.16, CUDA10.0, Paddle-Release-2.0

图片

【1】CMake需要将ON_INFER和WITH_GPU勾选,其他默认即可,警告忽略。

图片

图片

【2】打开paddle.sln不要直接运行生成ALL_BUILD

图片

否则会报一大堆错,提示缺各种头文件之类:

图片

先生成third_party这个项目,生成第三方库所需要的文件

图片

如果网速不好,可能会导致一些包下载失败,常见的下面三个,自己按照错误提示对应的网址,手动下载,然后copy到对应路径下

图片

然后修改CMAKE文件,这样下次就不会去网络下载,而是直接用