021、玩转预训练模型:站在巨人的肩膀上

张开发
2026/4/18 9:24:45 15 分钟阅读

分享文章

021、玩转预训练模型:站在巨人的肩膀上
昨天调一个图像分类的demo,同事跑过来问:“为啥我用VGG16跑自己数据,准确率还不如随便搭的3层CNN?” 我看了眼他的代码,好家伙,加载预训练模型之后直接全量训练,最后一层全连接层都没改对。这问题太典型了,今天咱们就聊聊怎么真正“站在巨人肩膀上”,而不是被巨人踩在脚下。预训练模型不是黑盒子很多人把torchvision里的预训练模型当魔法调用,以为pretrained=True就万事大吉。其实这里有个关键细节:ImageNet预训练模型的最后一层输出是1000类,你的任务要是只有10类呢?# 错误示范 - 这样你的新全连接层是随机初始化的model=torchvision.models.vgg16(pretrained=True)model.classifier

更多文章