目录
- 参考链接
- 1. 训练过程中中断了,继续训练
- 如果觉得数值差不多稳定了,但是距离最终设置的epoch还很远,所以想要停止训练但是又得到yolov5在运行完指定最大epoch后生成的一系列map、混淆矩阵等图
- 2. 训练完原有epoch,但还继续训练(与参考链接操作不同)
参考链接
- yolov5 继续训练
- yolov5ds:Yolov5同时进行目标检测和分割分割(yolov5ds作者的博客介绍)
- github地址:yolov5ds
- 训练yolov5ds案例:用YOLOv5ds训练自己的数据集——同时检测和分割
两种情况:
- 训练过程中中断了,继续训练
- 训练完了,但是未收敛,在这个基础上,还想用这个权重、学习率等参数继续训练多一些批次
不再需要断点训练后,就一定要记得把以下修改全部都恢复成原状!!!
1. 训练过程中中断了,继续训练
断电、或者什么原因中断了,比如设定epoch为200,但是在90这里中断了,想从断点这里继续训练到 200个epoch
直接在trainds.py
设置参数--resume
的defualt=True
即可(在代码 517行附近)
parser.add_argument('--resume', nargs='?', const=True, default=True, help='resume most recent training')
或者参考这个芒果大佬的方式:直接调用命令行开始resume,他还变了加载的权重(我没有变,但是也能行,保险起见还是参照大佬的方式吧,我是从这篇博文里面摘录过来的:手把手调参最新 YOLOv7 模型 训练部分 – 最新版本(二))
python train.py --resume D:\Pycharm_Projects\yolov7\runs\train\exp19\weights\last.pt
如果觉得数值差不多稳定了,但是距离最终设置的epoch还很远,所以想要停止训练但是又得到yolov5在运行完指定最大epoch后生成的一系列map、混淆矩阵等图
- (虽然yolov5默认有早停机制,但是是要再多训练100轮如果结果还是没改善才会自动停止)
- 先终止训练
- 找到
run/train/exp
(注意找对文件夹,exp
是本轮训练时生成的文件夹)中的opt.yaml
文件,修改其中的epochs
为最近的一个比较大的数值,比如现在我训练到了169轮,我就先终止训练,然后将这个epochs改成了170,再将resume的default值改为True继续训练 - 如上,直接在
trainds.py
设置参数--resume
的defualt=True
即可(在代码 517行附近)
2. 训练完原有epoch,但还继续训练(与参考链接操作不同)
训练完原有epoch后,但还继续训练,比如设置epoch为200,已经训练完了,但是没有收敛等原因想使用训练了200 epoch的权重继续训练100个epoch, 总共就是300个epoch
- 不是直接在train.py设置weight参数为训练好的权重(last.pt),然后设置epoch为100,这样不行,因为学习率等超参数启动时还是按照默认的。。。(自己把一些超参数设置好也可以,但感觉有点烦)
- 在train.py代码里面设置就可以使用原有200 epoch的权重后继续训练到300epoch
❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀❀
以训练了5个epoch后,想继续训练到15个epoch为例:
step1:
(同1.)先将--resume
的defualt
改为True
,再将--epochs
设为想要继续训练到的epochs,即defualt=300
(在trainds.py代码的513行附近)
parser.add_argument('--epochs', type=int, default=15)
step2:
在trainds.py
文件中,按下Ctrl+F
搜索Epochs
定位到大概200行的位置,做以下两处修改:
- 添加一行代码:
ckpt['epoch'] = 5
- 修改代码:
start_epoch = ckpt['epoch']
(后面不加1)
注意:这两处修改是为了断点训练,如果不再需要断点训练,请将这两处修改都还原。
step3:
可以直接简化为下面的操作:
找到
run/train/exp
(注意找对文件夹,exp
是本轮训练时生成的文件夹)中的opt.yaml
文件,修改其中的epochs
为你想要改为的最大的epoch值
#——————————–这个编辑代码的步骤可以省略了———————————————#
在trainds.py
文件中,按下Ctrl+F
搜索replace
定位到大概565行的位置,做以下两处修改:
- 如图添加一行代码:
init_epochs = opt.epochs
(记录最开始由epochs参数设定的数值15,因为replace这行代码,将epochs替换成了原始的epochs数值5) - 修改代码:如图进行添加,reinstate恢复成设定的epochs
#—————————————————————————————————————–#
做完以上3个修改,训练就会从第5个epoch的基础上进行继续训练到15个epoch,和直接设置epoch为15一样
老师让我测试了一下:这个继续训练对数据集发生变化的有效没有” />经测试,是有效的,能够继续训练且正确,可参看以下3张图片: