rknn模型(rknn模型推理)

rknn模型(rknn模型推理)欢迎学习 RKNN 系列相关文章 从模型转换 精度分析 评估到部署 推荐好资源 一 Ubuntu 系统上安装 rknn toolkit 二 使用 rknn toolkit 将 Pytorch 模型转为 RKNN 模型 三 RKNN 模型的评估和推理测试 四 RKNN 模型量化精度分析及混合量化提高精度 五 RKNN 模型性能评估和内存评估 六 rknn toolkit lite2 部署 RKNN 模型到开发板上 python 版 七



欢迎学习RKNN系列相关文章,从模型转换、精度分析,评估到部署,推荐好资源:
一、Ubuntu系统上安装rknn-toolkit
二、使用rknn-toolkit将Pytorch模型转为RKNN模型
三、RKNN模型的评估和推理测试
四、RKNN模型量化精度分析及混合量化提高精度
五、RKNN模型性能评估和内存评估
六、rknn-toolkit-lite2部署RKNN模型到开发板上(python版)
七、RKNN C API开发板上落地部署RKNN模型
八、RKNN零拷贝API开发板落地部署RKNN模型


在这里插入图片描述

模型格式
非RKNN模型需要先转换成RKNN模型才能在RKNN推理框架中进行推理。RKNN模型格式是一种专为RKNN推理框架设计的模型格式,可以有效提高推理效率。目前,RKNN支持的模型格式包括:

Caffe
Tensorflow
Onnx
Pytorch
Mxnet
MindSpore

非RKNN模型在转换成RKNN模型时,可以选择量化或浮点两种精度模式。量化模式可以有效降低模型的存储空间和计算资源消耗,但可能会降低模型的推理精度。浮点模式可以获得更高的推理精度,但需要更大的存储空间和计算资源消耗。

非RKNN模型在转换成RKNN模型时,可以对模型进行优化,以提高推理性能。RKNN提供了多种优化选项,包括:
算子融合
内存优化
并行计算

非RKNN模型在转换成RKNN模型后,可以部署到各种硬件平台上进行推理,包括:
CPU
GPU
NPU

注:非RKNN模型经过转换得到的RKNN模型可以在模拟器上推理,也可以在开发板上推理;而直接加载的RKNN模型不能再模拟器上推理,只能在开发板上推理。

以上区别总结起来,可以用下面表格表示:

在这里插入图片描述

本教程配套的源码包获取方法为文章末扫码到公众号中回复关键字:RKNN评估与推理。获取下载链接。

源码包下载解压后的样子如下:

在这里插入图片描述

加载非RKNN模型推理的流程图如下所示:

在这里插入图片描述

需要修改的地方如下:

在这里插入图片描述

代码对应源码包中的inference_pytorch.py,具体代码见下:

 
 

运行脚步后输出的结果:

在这里插入图片描述

打开imagnet1000标签.txt文件查找812,预测结果正确,如下:

在这里插入图片描述

加载RKNN模型进行模型推理的流程图如下:

在这里插入图片描述

需要修改的地方如下:

在这里插入图片描述

代码对应于源码包中的inference_rknn.py脚本,具体代码如下:

 
 

以上就是RKNN模型的评估和推理测试详细过程,希望能帮到你!

总结不易,多多支持,谢谢!

编程小号
上一篇 2025-04-04 12:33
下一篇 2025-04-09 09:11

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/bian-cheng-ri-ji/45442.html