多层神经网络算法的工作原理
相关报告
- 数据更新中...
一般而言,在输入层和输出层之间包含至少1个隐层即可称之为多层。下图是一个双隐层神经网络结构示意图。其中输入层神经元仅接受外界输入信号,不进行函数处理,隐层和输出层神经元为功能神经元,对信号进行加工处理,最终结果由输出层神经元输出。
双隐层神经网络结构示意图

多层神经网络的学习过程同样是根据样本训练数据来对神经元之间的连接“权值”以及每个神经元的决策阈值进行调整,多层神经网络结构中的单个“神经元”工作机制与单层感知机非常相似。
多层神经网络的训练借助了“误差反向传播算法”。多层神经网络的训练通过将最后一层输出结果与实际结果之间的误差分配给前一个层,如果存在不止一个隐层,则在刚才分配的基础上将误差继
续向靠近输入端的隐层分配。这样神经网络中每一个参数的调整都会带来整体误差的变化,通过优
化技巧找出最小化误差,从而完成多层神经网络的训练,这也正是在神经网络算法发展史上有着里程碑式作用的“误差反向传播算法”。
本文地址:http://www.zwzyzx.com/show-336-224852-1.html
上一篇:感知机,神经网络开始的地方
下一篇:神经网络发展几经波折
相关资讯
- 科大讯飞:语音识别龙头,打造“AI+”生态圈(2016-08-16)
- BAXTER机器人与双臂机器人(2016-09-06)
- 国内消费电子产品行业管理及行业政策(2015-06-10)
- 中国集成电路专用设备市场供给情况(2016-02-18)
- 中国移动互联网市场规模将持续增长(2015-04-11)
- 全球推行电子驾照的国家和地区市场前景广阔(2014-07-09)
- 中国成为全球电子产品重要的生产基地,IC制造产业向中国转移(2016-08-08)
- 图像识别与视频分析简介(2016-08-16)
合作媒体
最新报告
定制出版
热门报告
免责声明
中为咨询所引述的资料是用于行业市场研究以及讨论和交流,并注明出处,部分内容是由相关机构提供。若有异议请及时联系本公司,我们将立即依据相关法律对文章进行删除或作相应处理。查看详细》》