GitHub
文档
MMEngine
MMCV
MMEval
MIM
MMAction2
MMPreTrain
MMDetection
MMDetection3D
MMagic
MMOCR
MMPose
MMSegmentation
MMTracking
MMFlow
MMFewShot
MMHuman3D
MMRazor
MMDeploy
MMRotate
MMYOLO
OpenMMLab
官网
开放平台
GitHub
推特
知乎
Table of Contents
0.x
快速上手
操作概述
编译
源码手动安装
使用 Docker 镜像
一键式脚本安装
cmake 编译选项说明
运行和测试
如何转换模型
如何写模型转换配置
如何 Profile 模型
如何量化模型
更多工具介绍
Benchmark
模型支持列表
精度速度测试结果
边、端设备测试结果
TVM 测试
量化测试结果
支持的算法框架
mmcls 模型支持列表
mmdet 模型支持列表
mmdet3d 模型支持列表
mmedit 模型支持列表
mmocr 模型支持列表
mmpose 模型支持列表
mmrotate 模型支持列表
mmseg 模型支持列表
mmction2 模型支持列表
支持的推理后端
ncnn 支持情况
onnxruntime 支持情况
OpenVINO 支持情况
PPLNN 支持情况
支持的 RKNN 特征
SNPE 支持情况
TensorRT 支持情况
TorchScript 支持情况
Core ML 支持情况
自定义算子
ncnn 自定义算子
onnxruntime 自定义算子
TRT 自定义算子
开发者指南
mmdeploy 各目录功能
如何支持新的模型
如何支持新的后端
为推理 ops 添加测试单元
测试模型重写
如何拆分 onnx 模型
如何进行回归测试
实验特性
ONNX export Optimizer
新人解说
第一章:模型部署简介
第二章:解决模型部署中的难题
第三章:PyTorch 转 ONNX 详解
第四章:在 PyTorch 中支持更多 ONNX 算子
第五章:ONNX 模型的修改与调试
第六章: TensorRT 模型构建与推理
第七章: TensorRT 自定义插件
附录
Ubuntu18.04 交叉编译 NDK snpe 推理服务
常见问题
FAQ
语言切换
English
简体中文
API 文档
apis
apis/tensorrt
apis/onnxruntime
apis/ncnn
apis/pplnn
Docs
>
索引
Read in English
Shortcuts
索引
Read the Docs
v: 0.x
Versions
latest
stable
1.x
v1.1.0
v1.0.0
0.x
v0.14.0
Downloads
On Read the Docs
Project Home
Builds
Free document hosting provided by
Read the Docs
.
GitHub