OpenVINO是英特尔提供的AI开源工具包。本课程将介绍OpenVINO的原理和重要组件,如何安装OpenVINO以及基于OpenVINO应用。
【课程大纲】
英特尔OpenVINO介绍
工具包里主要分为三个部分,右上方可以看到传统的电脑视觉库,包含Intel优化过的OpenCV、OpenVX、Samples,可以在推论过程中前处理以及后处理时加速运算。右下方的其它工具集和库。左半边是OpenVINO深度学习推论的核心,即Intel® Deep Learning Deployment Toolkit。OpenVICO除了针对各个深度学习训练好的公开模型之外,针对各种不同的应用,Intel也提供了自行训练的模型,比如行为、表情,及物件侦测等等。
Model Optimizer可以把它想象为翻译机。它能够接收时下最热门的深度学习框架所训练好的模型作为输入,将它做初步的模型优化,并翻译为Inference Engine所能认得的格式,称作Intermediate Representation ,简称IR。Inference Engine利用IR档案获取模型的拓扑及权值,进而将资料送进开发者指定的硬件进行运算。开发者能够利用IE所提供的Common API选择使用C++ / Python进行开发,并且仅需要要简单的程序修改就能将所要执行的运算传送到不同的硬件做处理,轻松的达到程序代码重复应用,以及避免维护多套不同的程序。
OpenCV和OpenVX在OpenVINO的工具包里都已经优化在Intel平台上,拥有最佳的效能。并且提供了数个范例,让学员们能够参考及快速的评估。
Inference Engine提供了单一的Common API给开发者,抽象化了底下的硬件,达到开发一次即可部署到不同硬件上的强大功能。
如图可以看到不同的硬件搭配了不同的插件来实现这个功能。这复杂的实现及优化开发者需不需要操心的,可以把心思放在怎么训练模型和应用。因为这样的设计, Inference Engine提供了另一个功能,开发者能够排序执行运算的硬件,当排序较高的硬件无法执行时, Inference Engine会自动分派运算到第二顺序的硬件做处理。同时, Inference Engine提供了非同步运算方式,让开发者能够在硬件忙碌做推论时,让另一个硬件将下一帧的图片载入并解码。此外,在未来产品规划及衔接,OpenVINO会支援Intel的新产品,未来可以轻松移植到新的平台,享受新科技所带来的效能提升。
通过本地浏览器连接Jupyter Notebook后,开启SpeechRecognition档案就能看到了如图所示画面。
课程学习交流
云服务器(cloud virtual machine,cvm)为您提供安全可靠的弹性计算服务。 只需...
拥有高速计算与图形处理能力的云服务器 gpu 服务器,高性能服务器,视频编解码,图形图像工作站,图形...
fpga 云服务器(fpga cloud computing)是基于fpga(field progr...
课程一经售出,若非平台(即腾讯产业互联网学堂/腾讯云官网)技术原因均不予退款,平台技术原因是指:由平台技术故障引发的连续超过24小时课程无法正常观看,视频无法正常播放、PPT/PDF课程无法观看。如用户个人网络原因、观看设备故障、用户账号丢失等原因不属于平台技术故障。