文档¶
本节提供参考文档,指导您使用 OpenVINO™ 工具套件开发您自己的深度学习应用。为了使这些文档充分发挥作用,请先阅读入门指南。
备注
OpenVINO™ 中文文档网站目前仅可提供少量中文页面。如需参阅完整版 OpenVINO 文档,请访问我们的英文文档网站,或在本网站右上角语言选项选择 English。
转换和准备模型¶
在模型下载器和模型优化器指南中,您将学习如何下载预训练模型并对其进行转换,以便与 OpenVINO™ 工具套件配合使用。您可以提供自己的模型,也可以从 Open Model Zoo 中提供的众多模型中选择公共模型或英特尔模型。
部署推理¶
OpenVINO™ 运行时用户指南解释了创建您自己的应用以使用 OpenVINO™ 工具套件运行推理的过程。API 参考定义了面向 Python、C++ 和 C 的 OpenVINO 运行时 API。OpenVINO 运行时 API 可用于创建 OpenVINO™ 推理应用,使用增强的操作集和其他功能。编写应用后,您可以根据使用 OpenVINO 进行部署,将其部署到目标设备。
OpenVINO™ 工具套件的 Web 图形界面¶
您可以选择使用 OpenVINO™ 深度学习工作台。这是一个基于 Web 的工具,可指导您执行转换、测量、优化和部署模型的过程。此工具还可作为工具套件的低门槛入门工具,并提供各种有用的交互图表,以便了解性能。
媒体处理和计算机视觉库¶
OpenVINO™ 工具套件还可与以下媒体处理框架和库配合使用:
英特尔® Deep Learning Streamer(英特尔® DL Streamer)- 基于 GStreamer 的流媒体分析框架,用于创建针对英特尔硬件平台进行优化的复杂媒体分析管道。请访问英特尔® DL Streamer 文档网站了解更多信息。
英特尔® oneAPI Video Processing Library (OneVPL) - 用于进行视频解码、编码和处理,以在 CPU、GPU 和其他加速器上构建可移植媒体管道的编程接口。
您还可以使用优化版本的 OpenCV 在您的应用中添加计算机视觉功能。