兄弟们,最近群里天天有人问模型选型,今天简单唠唠几个关键点,不整虚的。
**1. 任务需求定调子**
- 图像类(分类/检测):首选ResNet、YOLO系列,轻量用MobileNet;
- NLP(文本/生成):BERT系打底,小模型上DistilBERT,部署快一半;
- 实时推理(边缘端):别碰大模型,TFLite/ONNX转成INT8,帧率直接翻倍。
**2. 部署环境决定上限**
- GPU服务器:PyTorch + FP16,活用TorchScript加速;
- 移动端/嵌入式:TensorFlow Lite或NCNN,记得剪枝+量化;
- 低功耗场景:别硬上Transformer,试试SVM或XGBoost,精度够用就行。
**3. 踩过的坑说两句**
- 别迷信“SOTA”,调参成本可能比模型本身还高;
- 量化时小心精度掉落,先跑validation再上线;
- ONNX转模型常遇到op不兼容,备好手工替换预案。
最后问一句:你们最近部署模型,是优先保精度还是保速度?评论区聊聊 👇 |