当前位置:网站首页 > 深度学习 > 正文

深度学习训练时网络不收敛的原因分析总结_神经网络训练不收敛

很多同学会发现,为什么我训练网络的时候loss一直居高不下或者准确度时高时低,震荡趋势,一会到11,一会又0.1,不收敛。 又不知如何解决,博主总结了自己训练经验和看到的一些方法。

首先你要保证训练的次数够多,不要以为一百两百次就会一直loss下降或者准确率一直提高,会有一点震荡的。只要总体收敛就行。若训练次数够多(一般上千次,上万次,或者几十个epoch)没收敛,则试试下面方法:

1. 数据和标签

数据分类标注是否准确?数据是否干净?数据库太小一般不会带来不收敛的问题,只要你一直在train总会收敛(rp问题跑飞了不算)。反而不收敛一般是由于样本的信息量太大导致网络不足以fit住整个样本空间。样本少只可能带来过拟合的问题

2. 学习率设定不合理

在自己训练新网络时,可以从0.1开始尝试,如果loss不下降的意思,那就降低,除以10,用0.01尝试,一般来说0.01会收敛,不行的话就用0.001. 学习率设置过大,很容易震荡。不过刚刚开始不建议把学习率设置过小,尤其是在训练的开始阶段。在开始阶段我们不能把学习率设置的太低否则loss不会收敛。我的做法是逐渐尝试,从0.1,0.08,0.06,0.05 ......逐渐减小直到正常为止,

有的时候候学习率太低走不出低估,把冲量提高也是一种方法,适当提高mini-batch值,使其波动不大。,

 3.网络设定不合理

如果做很复杂的分类任务,却只用了很浅的网络,可能会导致训练难以收敛,换网络换网络换网络,

到此这篇深度学习训练时网络不收敛的原因分析总结_神经网络训练不收敛的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!

版权声明


相关文章:

  • 深度学习——卷积神经网络(CNN)简介2024-10-30 15:24:27
  • Code For Better 谷歌开发者之声 ——Tensorflow与深度学习2024-10-30 15:24:27
  • 深度学习面试题2024-10-30 15:24:27
  • 深度学习入门2024-10-30 15:24:27
  • 【赠书第3期】用ChatGPT轻松玩转机器学习与深度学习2024-10-30 15:24:27
  • 深度学习基础入门2024-10-30 15:24:27
  • 深度学习结合SLAM的研究思路/成果整理之(一)使用深度学习方法替换SLAM中的模块2024-10-30 15:24:27
  • 【记录】一个深度学习算法工程师的成长之路(思考和方法以及计划)2024-10-30 15:24:27
  • 【深度学习】因果推断与机器学习的高级实践 | 数学建模2024-10-30 15:24:27
  • 计算机视觉结合深度学习项目-智能停车场空车位实时识别2024-10-30 15:24:27
  • 全屏图片