博客
关于我
pytorch argmax_从Pytorch 的ONNX到OpenVINO中IR中间层
阅读量:386 次
发布时间:2019-03-05

本文共 2331 字,大约阅读时间需要 7 分钟。

Pytorch ONNX格式支持与OpenVINO模型优化

Pytorch ONNX到OpenVINO IR转换实践指南

在深度学习模型部署中,模型格式的通用性和跨框架兼容性一直是核心关注点。ONNX(Open Neural Network Exchange Format)作为一种轻量级的深度学习模型表示格式,凭借其灵活性和广泛的支持,成为AI开发者和模型部署者的重要选择。当前主流的深度学习框架均已支持ONNX格式,包括PyTorch、Caffe2、MXNet、Cognitive Toolkit等。OpenVINO作为一款专注于模型优化和加速的工具套件,其模型优化器支持将ONNX格式的模型转换为IR(Intermediate Representation)中间层文件。通过这种转换,开发者能够在OpenVINO环境下加速模型推理,实现高效的模型部署。

本文将详细介绍如何将PyTorch模型转换为ONNX格式,并将其转换为OpenVINO支持的IR格式。以ResNet-18模型为例,介绍完整的转换流程及OpenVINO SDK调用实现。

ResNet-18模型的输入格式要求如下: 输入图像大小为224x224,色彩空间为RGB,预处理标准化参数为: mean = [0.485, 0.456, 0.406] std = [0.229, 0.224, 0.225]

Pytorch模型转换为ONNX的具体实现步骤如下:

  • 下载并导入ResNet-18模型 确保PyTorch环境已安装,执行以下代码可下载与使用ResNet-18预训练模型:
  • import torchvision.models as models
    resnet18 = models.resnet18(pretrained=True)
    1. 将模型转换为ONNX格式 通过PyTorch的torch.onnx.export接口将模型转换为ONNX格式。以下是转换代码:
    2. model = torchvision.models.resnet18(pretrained=True).eval()
      dummy_input = torch.randn((1, 3, 224, 224))
      torch.onnx.export(model, dummy_input, "resnet18.onnx")
      1. 将ONNX模型转换为OpenVINO IR格式 下载并安装OpenVINO开发工具套件,执行以下命令将ONNX模型转换为IR格式:
      2. python model_optimizer/mo_onnx.py --input_model D:\python\pytorch_tutorial\resnet18.onnx

        OpenVINO IR模型的调用实现

        在OpenVINO环境下完成模型加速推理的具体实现步骤如下:

      3. 导入OpenVINO Inference Engine
      4. from openvino.inference_engine import IECore
        1. 初始化Inference Engine
        2. ie = IECore()
          1. 加载IR模型
          2. net = ie.read_network(model="resnet18.xml", weights="resnet18.bin")
            1. 准备输入数据
            2. input_blob = next(iter(net.inputs()))
              output_blob = next(iter(net.outputs()))
              1. 读取并预处理输入图像
              2. n, c, h, w = net.inputs[input_blob].shape
                images = np.ndarray(shape=(n, c, h, w))
                src = cv2.imread("D:/images/messi.jpg")
                image = cv2.resize(src, (w, h))
                image = np.float32(image) / 255.0
                image[:, :, :] -= (np.float32(0.485), np.float32(0.456), np.float32(0.406))
                image[:, :, :] /= (np.float32(0.229), np.float32(0.224), np.float32(0.225))
                image = image.transpose((2, 0, 1))
                1. 加速推理
                2. exec_net = ie.load_network(network=net, device_name="CPU")
                  res = exec_net.infer(inputs={input_blob: [image]})
                  1. 解析输出结果
                  2. label_index = np.argmax(res, 1)
                    label_txt = labels[label_index[0]]
                    cv2.putText(src, label_txt, (10, 50), cv2.FONT_HERSHEY_SIMPLEX, 1.0, (255, 0, 255), 2, 8)
                    cv2.imshow("ResNet18-from PyTorch image classification", src)
                    cv2.waitKey(0)
                    cv2.destroyAllWindows()

                    本文详细介绍了PyTorch模型转换为ONNX格式的实现方法,并展示了如何将其转换为OpenVINO IR模型,完成了模型加速推理的实现。通过本文的实践指南,开发者能够快速实现PyTorch模型在OpenVINO环境下的高效部署。

    转载地址:http://ujjg.baihongyu.com/

    你可能感兴趣的文章
    NodeJs单元测试之 API性能测试
    查看>>
    nodejs图片转换字节保存
    查看>>
    nodejs在Liunx上的部署生产方式-PM2
    查看>>
    nodejs基于art-template模板引擎生成
    查看>>
    nodejs字符与字节之间的转换
    查看>>
    NodeJs学习笔记001--npm换源
    查看>>
    NodeJs学习笔记002--npm常用命令详解
    查看>>
    nodejs学习笔记一——nodejs安装
    查看>>
    vue3+Element-plus icon图标无法显示的问题(已解决)
    查看>>
    NodeJS实现跨域的方法( 4种 )
    查看>>
    nodejs封装http请求
    查看>>
    nodejs常用组件
    查看>>
    nodejs开发公众号报错 40164,白名单配置找不到,竟然是这个原因
    查看>>
    Nodejs异步回调的处理方法总结
    查看>>
    NodeJS报错 Fatal error: ENOSPC: System limit for number of file watchers reached, watch ‘...path...‘
    查看>>
    nodejs支持ssi实现include shtml页面
    查看>>
    Nodejs教程09:实现一个带接口请求的简单服务器
    查看>>
    nodejs服务端实现post请求
    查看>>
    nodejs框架,原理,组件,核心,跟npm和vue的关系
    查看>>
    Nodejs概览: 思维导图、核心技术、应用场景
    查看>>