过拟合的解决方法
目录
- 数据增强,即增加样本,也可以半监督如UDA。
- 正则化(Dropout等)
- Batch norm。本质是加快训练,让训练更稳定,但也可以缓解过拟合。配合relu也会缓解dead relu问题。
- early-stop,在过拟合之前停下来。
- 降低模型复杂度,与第2点类似。
- 学习率衰减,按照固定的epoch后衰减学习率。
- 特征选择,选择主要的特征进行训练,本质也是降低模型复杂度。