多层神经网络遭遇寒冬
相关报告
- 数据更新中...
多层神经网络难以训练,相关研究受到冷落。尽管在早期神经网络一般最多也就做到2到3个隐层,但却已经遇到了当时几乎无法解决的过拟合、局部最优、梯度扩散等问题。算法本身面临的解决能力瓶颈,导致神经网络逐渐陷入寒冬。
①、欠拟合/过拟合问题。如果可用来训练的数据量不够,或者在神经网络中节点(神经元)过少,
学习效果就会比较粗糙,无法很好地表达样本数据的规律,称之为“欠拟合”;而如果隐层节点太多,一方面由于计算能力限制会导致学习训练所需要的时间过长,另一方面会使得训练得到的模型
泛化能力很差,仅能对训练数据集中的实例进行判断,无法处理未遇到过的案例,这种“过犹不及”的情形称之为“过拟合”。
图6:
以“树叶分类”为例看“过拟合”与“欠拟合”

以“树叶分类”为例看“过拟合”与“欠拟合”

②、局部最优问题。后来人们选择增加隐层的数量,利用每一层相对少一些的神经元数量来拟合更
加复杂的函数。但是,随着神经网络层数的加深,越来越容易陷入局部最优难以自拔从而导致找不
到全局最优。在训练神经网络寻找最优参数时常用的方法是寻找使得整体误差最小的方案,一般从
随机选定的一个初始位置出发,按照一定规则在其周围寻找使得误差变小到不能再小的点。但传统做法一旦陷入到如图所示的局部最优以后就会停止搜索,于是也就错过了全局最优的点。
随着层数增加,神经网络容易陷入局部最优

③、梯度扩散问题。另一个问题则是层数的增加导致在训练过程出现停滞、训练效果变差,在专业
术语中称之为“梯度扩散”。在训练神经网络时,一般都会将误差从靠近输出端的神经元向靠近输入端的神经元传递(即BP误差反向传播算法),通过不断迭代寻找使得误差最小的参数(前面提
过的权值、阈值等),但所使用的方法在多层神经网络中不稳定,经常在误差传播到中间某一层时罢工不再起作用,甚至会出现层数增加反而训练效果变差的情形。
本文地址:http://www.zwzyzx.com/show-336-224858-1.html
上一篇:神经网络发展几经波折
下一篇:深度学习正式面世并持续发展
相关资讯
- 惯性技术的主要特点介绍(2014-06-08)
- 人工抄表必将被淘汰,智能水表的远程抄表是未来趋势(2016-11-11)
- 全球机器人需求继续保持快速增长(2016-09-06)
- 半导体产业向中国转移(2016-07-04)
- 2013年度北京地区软件和信息技术服务业主要经济指标分析(2014-03-16)
- 我国车载电子系统行业进入的主要壁垒(2014-06-08)
- 全球集成电路设计业的发展概况及规模(2016-01-14)
- 国内医疗信息化行业的周期性、区域性和季节性特征(2015-05-14)
合作媒体
最新报告
定制出版
热门报告
免责声明
中为咨询所引述的资料是用于行业市场研究以及讨论和交流,并注明出处,部分内容是由相关机构提供。若有异议请及时联系本公司,我们将立即依据相关法律对文章进行删除或作相应处理。查看详细》》