Paddle推理库(Inference Library)编译爬坑记 C++ GPU版【看完编译畅通无阻】
导读
本文主要介绍Windows C++编译Paddle推理库(Inference Library)可能遇到的一些问题和解决方法,让需要的人减少爬坑时间。
背景介绍
PaddlePaddle官方已经提供了Release版本的推理库libpaddle_infer.lib/dll,可以直接在这里下载:
图片
之所以要自己编译是因为有朋友在使用PaddleOCR时,需要将其中的功能整合到自己的项目中调试,只有Release版本调试很不方便,所以笔者就按照官方的方法做了尝试,具体爬坑记录如下。
可能遇到的问题与解决方法
我的环境与版本信息:
Win10 64bit, VS2017, CMake 3.16, CUDA10.0, Paddle-Release-2.0
图片
【1】CMake需要将ON_INFER和WITH_GPU勾选,其他默认即可,警告忽略。
图片
图片
【2】打开paddle.sln不要直接运行生成ALL_BUILD
图片
否则会报一大堆错,提示缺各种头文件之类:
图片
先生成third_party这个项目,生成第三方库所需要的文件
图片
如果网速不好,可能会导致一些包下载失败,常见的下面三个,自己按照错误提示对应的网址,手动下载,然后copy到对应路径下
图片
然后修改CMAKE文件,这样下次就不会去网络下载,而是直接用
登录后可查看完整内容,参与讨论!
立即登录