

我们很高兴宣布嵌入式视觉联盟已将 OpenVINO™ 工具包选为 2019 年年度开发者工具!
OpenVINO™ 工具包核心组件已更新至 2019 R1.1 基线
- 深度学习部署工具包更改
- VPU-Myriad 插件源代码现已在存储库中发布!此插件与英特尔® Movidius™ Myriad™ X 开发套件 R7 版本保持一致。
- 推理引擎构建说明已更新,适用于 Linux*、Raspbian* Stretch OS、Windows* 和 macOS* 系统。添加了对 Microsoft Visual Studio* 2019 的支持。
- 并行方案已从 OpenMP* 切换到线程构建块 (TBB),以提高多网络场景下的性能。大多数客户的部署管道执行多个网络组合,TBB 在此类用例中提供了最佳性能(测试显示性能提升高达 3.5 倍)。线程构建块 (TBB) 默认使用。若要使用 OpenMP* 线程构建推理引擎,请设置 -DTHREADING=OMP 选项。
- 添加了对 ONNX*、TensorFlow* 和 MXNet* 框架中许多新操作的支持。现在可以使用深度学习部署工具包运行 Tiny YOLO v3、完整 DeepLab v3、双向 LSTM 等拓扑,以进行优化的推理。
- Open Model Zoo 更改
- 添加了 10 多个新的预训练模型,包括:动作识别编码器/解码器、文本识别和实例分割网络,以扩展到更新的用例。引入了一些使用二进制权重的模型,以进一步提升这些网络的性能。模型和演示的完整列表可在 此处 获得。
- 模型下载器 配置文件已扩展以支持几个新的公共模型。使用
--print_all
选项运行脚本以查看可用的拓扑结构。
注意: 英特尔® 发行版 OpenVINO™ 工具包 仍然以免费商业产品的形式提供。最新版本的文档可在以下位置获得:https://docs.openvinotoolkit.org/
我们很高兴重点介绍 OpenVINO™ 工具包扩展 – 构建围绕 OpenVINO™ 工具包的软件生态系统的独立项目。
- GStreamer* 视频分析插件将深度学习推理功能引入开源框架 GStreamer*,并帮助开发人员构建高效且可扩展的视频分析应用程序。该解决方案
- 使用目标检测、分类和识别 CNN 模型从视频流中提取见解,并将这些元数据发送到应用程序或云服务以进行进一步处理
- 利用硬件加速来执行媒体和推理操作,以及英特尔 CPU 和 GPU 之间的异构执行
- 提供灵活的机制,可以从高度优化的构建块中快速构建视频分析管道
- 可在边缘设备和云基础设施上部署,包括在 Docker 容器中部署
- 可用于各种应用程序,例如视频监控和安全、智慧城市、零售分析、广告插入等
- OpenVINO™ 模型服务器是一个灵活且高性能的推理服务组件,用于人工智能模型。该软件简化了新算法和 AI 实验的部署,同时保持与 TensorFlow Serving 中相同的服务器体系结构和 API。它提供与 OpenVINO™ 工具包支持的模型的开箱即用集成,并允许 AWS Sagemaker 等框架使用 OpenVINO™ 工具包服务 AI 模型。OpenVINO™ 模型服务器支持各种模型存储:本地文件系统、GCS、S3 和 Minio。它可以通过 Docker 容器 轻松部署,并扩展到 Kubernetes 或 Kubeflow 管道 中。
- 请阅读以下内容:
- OpenVINO™ 训练扩展提供了一个方便的环境来训练深度学习模型,并使用 OpenVINO™ 工具包将其转换为优化的推理模型。