多层神经网络算法的工作原理
相关报告
- 数据更新中...
一般而言,在输入层和输出层之间包含至少1个隐层即可称之为多层。下图是一个双隐层神经网络结构示意图。其中输入层神经元仅接受外界输入信号,不进行函数处理,隐层和输出层神经元为功能神经元,对信号进行加工处理,最终结果由输出层神经元输出。
双隐层神经网络结构示意图

多层神经网络的学习过程同样是根据样本训练数据来对神经元之间的连接“权值”以及每个神经元的决策阈值进行调整,多层神经网络结构中的单个“神经元”工作机制与单层感知机非常相似。
多层神经网络的训练借助了“误差反向传播算法”。多层神经网络的训练通过将最后一层输出结果与实际结果之间的误差分配给前一个层,如果存在不止一个隐层,则在刚才分配的基础上将误差继
续向靠近输入端的隐层分配。这样神经网络中每一个参数的调整都会带来整体误差的变化,通过优
化技巧找出最小化误差,从而完成多层神经网络的训练,这也正是在神经网络算法发展史上有着里程碑式作用的“误差反向传播算法”。
本文地址:http://www.zwzyzx.com/show-336-224852-1.html
上一篇:感知机,神经网络开始的地方
下一篇:神经网络发展几经波折
相关资讯
- 工业以太网向非流程行业的拓展将提升在工业通信市场的份额(2015-08-27)
- 公有云市场:巨头的游戏(2016-08-31)
- 国内测绘地理信息行业相关政策(2015-04-17)
- 全球固定式POS扫描器市场发展情况(2016-03-24)
- 上海新阳半导体材料领域龙头企业(2016-09-19)
- 普思(Pulse)(2014-08-07)
- 政务云参与者:互联网厂商(2016-08-04)
- 我国数字电视接收设备行业供给情况及变动(2014-06-17)
合作媒体
最新报告
定制出版
热门报告
免责声明
中为咨询所引述的资料是用于行业市场研究以及讨论和交流,并注明出处,部分内容是由相关机构提供。若有异议请及时联系本公司,我们将立即依据相关法律对文章进行删除或作相应处理。查看详细》》