题目
A.模型输入可以通过修改IR的xml文件实现输出类别的增减
B.通过计算softmax的值可以获得类别标签的概率/置信度
C.模型输出类别,不需要额外计算
D.通过np.argsort方法计算类别标签的概率
第1题
A.XML文件中定义了模型的输入样本文件大小
B.XML文件中定义了模型的输入样本的批大小
C.ML文件中定义了模型的运行时间
D.XML文件中定义了模型的存放路径
第2题
A.将预训练好的模型读入内存
B.把模型优化为中间表示形式(IR)
C.中间文件包括描述网络结构的、模型权重和偏置都存储在.xml文件中
D.用户可以调用模型的接口
第3题
A.模型优化后的bin文件可以再次进行编辑和修改
B.模型优化后的mapping文件中定义了模型输入层批大小
C.模型优化后的mapping文件中定义了模型的meta_data信息
D.模型优化后的mapping文件定义了模型转化前后各层的对应关系
第4题
A.在CPU上执行推理,必须加载CPU扩展
B.IENetwork对象加载模型时,必须同时加xml和bin文件
C.IENetwork对象只需要加载bin文件即可执行infer方法
D.YOLO的输出结果只有对象类别和置信度
第5题
A.要先引入IENetwork和IECore对象
B.如果采用GPU设备则需要加载CPU扩展
C.通过IECore的load_network方法加载模型
D.可通过IENetwork读取模型的输入和输出格式
第6题
A.模型优化mo_tf.py输入模型格式可以为PB格式
B.型优化mo_tf.py输入模型格式可以为H5格式
C.模型优化mo_tf.py输入模型格式可以为XML格式
D.其他说法都正确
第7题
A.YOLO通过选择性搜索来减少候选框耗时
B.YOLO采用整张图作为网络输入,耗时更长
C.YOLO采用网格化图像,每个网格都预测类别及其概率
D.YOLO采用NMS实现物体类别的过滤,提高性能
第8题
A.推理引擎(InferenceEngine)支持硬件指令集模型加速,然后进入模型优化环节
B.对OpenCV图像处理库进行指令集优化,显著提升性能
C.推理引擎将给定的模型转化为标准的IntermediateRepresentation(IR)
D.推理引擎使用插件架构,每个插件的API各不相同
第10题
A.BP神经网络是前馈神经网络
B.BP神经网络的参数权重值是由反向传播学习算法进行调整的
C.BP神经网络模型拓扑结构包括输入层、隐层和输出层
D.BP神经网络利用激活函数来实现从输出到输入的非线性映射
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!