本地运行和部署

Note

请注意, 在 OpenVINO™ 运行时运行推理 是最基本的部署形式。在继续之前,请确保了解如何创建正确的推理配置以及 正确开发应用

本地部署选项

下表显示了不同分发类型适用的不同目标操作系统:

分发类型

操作系统

Debian 程序包

Ubuntu 18.04 长期支持 (LTS),64 位;Ubuntu 20.04 长期支持 (LTS),64 位

RMP 程序包

Red Hat Enterprise Linux 8,64 位

Docker 映像

Ubuntu 18.04 长期支持 (LTS),64 位;Ubuntu 20.04 长期支持 (LTS),64 位;Red Hat Enterprise Linux 8,64 位;Windows Server Core base LTSC 2019,64 位;Windows 10,20H2 版,64 位

PyPI(PIP 程序包管理器)

请参阅 https://pypi.org/project/openvino/

OpenVINO™ 部署管理器

所有操作系统

本地分发

所有操作系统

静态构建 OpenVINO™ 并链接到最终应用

所有操作系统

主要分发类型的粒度

根据分发类型的不同,OpenVINO™ 程序包的粒度可能会有所不同。例如,OpenVINO™ 的 PyPI 分发具有 单一“openvino”程序包 。其中包含所有运行时库和插件,而 本地分发 类型的可配置性更强,因而具有更高的粒度。以下是 OpenVINO™ 运行时程序包中包含的库集合的重要详细信息:

../_images/deployment_simplified.svg
  • 主库 openvino 用于用户的 C++ 应用并与其链接在一起。该库提供所有 OpenVINO™ 运行时公共 API,包括 API 2.0 和以前的推理引擎以及 nGraph API。对于 C 语言应用,分发时还需要 openvino_c

  • openvino_intel_cpu_plugin 等“可选”插件库(匹配 openvino_.+_plugin 模式)用于在特定设备上提供推理功能,或提供附加功能,如 异构执行多设备执行

  • openvino_ir_frontend 等“可选”插件库(匹配 openvino_.+_frontend)用于提供多种功能来读取 OpenVINO™ IR、TensorFlow(查看 TensorFlow 前端功能和限制 )、ONNX 和 PaddlePaddle 等不同文件格式的模型。

此处“可选”是指如果应用不使用插件启用的功能,最终分发中将无需插件库或包含插件的程序包。

构建本地分发将需要更多详细信息,您可在专用文章 本地分发所需的库 中找到这些信息。

Note

根据您的目标 OpenVINO™ 器件,已部署机器可能需要以下配置: 针对 GPU 的配置针对 GNA 的配置针对 NCS2 的配置针对 VPU 的配置