[deploee] upload your train config #1854
Replies: 5 comments 5 replies
-
对不起。还是不太明白如果我想在这个平台上测试魔改过的mmseg(已经转换成了tensorrt),想测试tensorrt的速度,应该怎么上传配置文件呢?还有就是对本地的mmdeploy版本有要求吗?看网页提示是上传mmdeploy的zip,但试了几次似乎都不太对,出的报告里面有error。不知道zip里具体应该包含哪些内容。 |
Beta Was this translation helpful? Give feedback.
-
请问这里的意思是,如果加了一些自定义模块在mmseg原始配置文件里,比如CBAM,这个平台就不能用了吗?需要提交PR才行吗。谢谢您的回答! |
Beta Was this translation helpful? Give feedback.
-
您好!就比如我想测试ddrnet的tensorrt,它里面有个DAPPM结构,我修改了DAPPM,但这在配置文件里体现不出来,应该怎么上传正确的文件呀?🙁🙁 |
Beta Was this translation helpful? Give feedback.
-
Beta Was this translation helpful? Give feedback.
-
这是 mmdeploy 和 mmcls 等算法的版本对照表在哪里维护?我用的mmdeploy1.3.1 |
Beta Was this translation helpful? Give feedback.
Uh oh!
There was an error while loading. Please reload this page.
Uh oh!
There was an error while loading. Please reload this page.
-
注意版本
注意版本
注意版本
这是 mmdeploy 和 mmcls 等算法的版本对照表。硬件模型库用的是这些:
例如硬件模型库安装了如下版本组合,需要你也用这套版本:

用 openmmlab 自带训练配置
训练配置,就是训练模型用的配置。不要不要不要提交 mmdeploy 文件夹里的任何文件。
如果用 mmlab 自带的配置和权重,输入配置文件在 codebase(如 mmdet/mmpretrain/mmpose) 里的 相对路径 即可 。
以 mmpretrain mobilenet_v2 为例,输入

configs/mobilenet_v2/mobilenet-v2_8xb32_in1k.py
(不要用 windows 的右斜杠 \)模型训练配置
UI 输入框失焦后,UI 会尝试自动填充 pth 地址,3 秒内找不到就不填如果没有填充,就要自己给地址,例如 https://download.openmmlab.com/mmclassification/v0/mobilenet_v2/mobilenet_v2_batch256_imagenet_20200708-3b2dc3af.pth ;当然也可以传自己训的 pth
上传自己的训练配置和 pth
你可能要轻微修改分类个数、微调模型结构,这时要上传个人训练配置和 pth。
mmengine.Config
配置文件是嵌套的、有相对路径引用。所以要消除引用关系,形成一个独立的 config 文件。毕竟我不知道你改了什么
以 mobilenetv2 为例,先加载自己魔改过的训练配置、形成独立文件:
独立的 config.py 可以点击这里下载。
../xxxx.py
这种相对引用mmpose 和注意事项
wget
下载的链接完整的任务配置参考,转好的 mmpose/projects/rtmdet/person/nano 下载链接:
【知识介绍】如何选择 runtime
tensorrt
nvidia 的 tensorrt 是最快的。
但几乎没有兼容性(trt841 不兼容 trt840),例如 cu102+trt841+cudnn76 转出来,是绑定版本的,使用的时候必须安装 cuda10.2/trt8.4.1/cudnn7.6; 同理 jetson 也是
sm 的意思:nvidia GPU 之间有个微弱的兼容性,叫 compute capability。只要环境配对,3080 和 3090 的 sm 相同其实能兼容。如果还没懂,看这个官方文档
ncnn
ncnn 兼容性非常好,已适配过新老手机、服务器、PC、工控、几十元小板子。
ncnn 尽管性能不是最优的,一旦转换出来,一定是场景最广的
onnxruntime
onnxruntime 实现了 onnx 几乎所有算子,所以选择 onnxruntime,转换成功率是最高的。缺点在性能优化,其实很慢
openvino
只有 intel x86 CPU 能用,适合工控机。 如果要跑在 mac 上,要注意某些 mac 是 arm CPU
torchscript
就是 pytorch 的 C++ 端。作为另一种中间表达,pnnx 很喜欢。或许适合搞研究,没有直接的业务价值
FAQ
1. 想用老版本的 mmcls v0.x.y 版本怎么办?
2. 如果改了 codebase 源码、或加了自定义 backbone,而不只调整配置怎么办?
3. 个人私有的 config 和 pth 保存么?
work_dir
在/tmp
目录,系统随时会清理Beta Was this translation helpful? Give feedback.
All reactions