
我们很高兴地宣布,OpenCV DNN 模块中的深度学习推理引擎后端现在可以在 ARM CPU 上运行推理。
以前推理引擎仅支持英特尔硬件:CPU、iGPU、FPGA 和 VPU。最近,一个新的 ARM CPU 插件已发布在 GitHub 上。此插件允许推理引擎使用 ARM 计算库 作为后端,在 ARM CPU 上运行深度学习网络。此插件是 OpenVINO 开源版本的组成部分,不包含在英特尔发行版 OpenVINO 工具包中。
有关如何通过 OpenCV DNN 模块使用此插件的详细信息,请参见 OpenCV Wiki。
下面您可以看到来自 Open Model Zoo 的 目标检测演示 的简短预览,该演示使用 ARM CPU 插件在 Raspberry Pi 上运行。