有关OpenVINO推理引擎的说法错误的是()?
A.读取模型优化器的中间文件进行处理
B.直接读入新数据到中间文件进行推理计算
C.可以使用多个硬件共同承担推理计算任务,提高效率
D.利用训练好的模型,支持用户做高效的机器视觉任务,支持边缘计算的时间要求
A.读取模型优化器的中间文件进行处理
B.直接读入新数据到中间文件进行推理计算
C.可以使用多个硬件共同承担推理计算任务,提高效率
D.利用训练好的模型,支持用户做高效的机器视觉任务,支持边缘计算的时间要求
A.预先训练的模型输入模型优化器后会简化
B.把预训练的模型转化为中间文件
C.预训练的模型可以不经过模型优化器直接由推理引擎高效执行
D.模型优化器会修改预训练模型的结构、权重和偏置
A.模型优化器(modeloptimizer)
B.推理引擎(inferenceengine)
C.训练模型的开源平台,例如TensorFlow等
D.调用OpenVINO的用户程序
A.OpenVINO中无法融合OpenCVDNN
B.OpenCV可以与IR中间文件集成
C.OpenCV主要用于读取图像或视频帧,无法调用推理引擎(IE)
D.OpenVINO中对OpenCV的优化只基于CPU
A.OpenVINO是Intel发布的,并且支持开源和商用免费
B.OpenVINO工具包支持在边缘启用深度学习推理
C.针对计算机视觉标准的优化调用,包括OpenCV、OpenCL和OpenVX
D.OpenVINO工具包支持从2010年后生成的CPU型号
A.它主要应用于计算机视觉,实现深度神经网络模型优化和推理计算加速
B.拥有预置的计算机视觉功能库和预优化的内核
C.支持来自流行的框架Caffe、TensorFlow和MXNet的模型
D.只能在Linux平台运行的机器视觉软件工具包
A.IR完全与硬件无关,只取决于神经网络的架构
B.model.xml中XML文件包含网络架构
C.model.bin文件包含权重参数
D.OpenVINO的推理除了支持IR格式外,还支持PB格式模型
A.OpenVINO支持CPU、VPU、GPU等不同结构的硬件
B.OpenVINO支持CPU、VPU、GPU等不同结构的硬件同时并行推理
C.OpenVINO支持不同硬件之间动态负载均衡
D.异构插件不支持神经网络计算棒二代(NCS2)
A.OpenVINO对硬件要求Intel六代及以后酷睿(CoreTM)
B.OpenVINO支持Python3.6
C.OpenVINO支持MicrosoftVisualStudioC++2019
D.OpenVINO不支持Linux操作系统
A.推理引擎(InferenceEngine)支持硬件指令集模型加速,然后进入模型优化环节
B.对OpenCV图像处理库进行指令集优化,显著提升性能
C.推理引擎将给定的模型转化为标准的IntermediateRepresentation(IR)
D.推理引擎使用插件架构,每个插件的API各不相同