模型准备

每个深度学习工作流程都始于获取模型。您可以选择准备自定义模型,使用现成的解决方案并根据需要进行调整,或者从 OpenVINO™ 的 Open Model Zoo 等在线数据库下载并运行预训练网络。

OpenVINO™ 支持多种模型格式 并可将其转换为它自己的 OpenVINO™ IR 格式,同时提供一个专门执行此任务的工具。

模型优化器 会读取原始模型并创建 OpenVINO™ IR 模型(.xml 和 .bin 文件), 以便最终执行推理,而不会由于格式转换而造成延迟。根据需要,模型优化器可以调整模型以使其更适合推理,例如,通过 交替输入形状嵌入预处理切除训练部分

完全转换模型的方法被视为默认选择,因为它支持 OpenVINO™ 的全部功能。训练后优化工具等其他转换和准备工具会使用 OpenVINO™ IR 模型格式,以进一步优化已转换模型。

ONNX 和 PaddlePaddle 模型无需转换,因为 OpenVINO™ 提供 C++ 和 Python API,可用于将这些模型直接导入 OpenVINO™ 运行时。它提供了一种可在推理应用中快速从基于框架的代码切换为基于 OpenVINO™ 的代码的便捷方法。

本部分介绍如何获取和准备模型,以配合使用 OpenVINO 来获得最佳推理结果:

首先,您可能需要 浏览在您的项目中使用的模型数据库