线上期刊服务咨询,发表咨询:400-808-1701 订阅咨询:400-808-1721

神经网络原理8篇

时间:2022-04-07 11:20:18

神经网络原理

神经网络原理篇1

关键词:神经;人工神经网络;计算机;神经网络计算机;硬件实现

中图分类号:TP183文献标识码:A 文章编号:1009-3044(2009)13-3527-02

1 引言

很长时间以来,在我们生活中所接触到的大部分计算机,都是一种被称为“电脑”的冯诺依曼型计算机。这种计算机在运算等很多方面确实超越了人类大脑的水平,但是基于串行控制机构的冯诺依曼型计算机在图像处理、语音识别等方面远不如大脑的处理能力。于是,在人类对大脑的不断探索中,一种更接近人脑思维方式的神经网络计算机走进人们的视线。

2 大脑的研究

大脑活动是由大脑皮质许许多多脑神经细胞的活动构成。

神经细胞由一个细胞体、一些树突 、和轴突组成,如图1所示。神经细胞体是一颗星状球形物,里面有一个核。树突由细胞体向各个方向长出,本身可有分支,是用来接收信号的。轴突也有许多的分支。轴突通过分支的末梢和其他神经细胞的树突相接触,形成所谓的突触,一个神经细胞通过轴突和突触把产生的信号送到其他的神经细胞。每个神经细胞通过它的树突和大约10,000个其他的神经细胞相连。这就使得人脑中所有神经细胞之间连接总计可能有1,000,000,000,000,000个。

神经细胞利用电-化学过程交换信号。输入信号来自另一些神经细胞。这些神经细胞的轴突末梢(也就是终端)和本神经细胞的树突相遇形成突触,信号就从树突上的突触进入本细胞。信号在大脑中实际怎样传输是一个相当复杂的过程,但就我们而言,重要的是把它看成和现代的计算机一样,利用一系列的0和1来进行操作。就是说,大脑的神经细胞也只有两种状态:兴奋和不兴奋。发射信号的强度不变,变化的仅仅是频率。神经细胞利用一种我们还不知道的方法,把所有从树突上突触进来的信号进行相加,如果全部信号的总和超过某个阀值,就会激发神经细胞进入兴奋状态,这时就会有一个电信号通过轴突发送出去给其他神经细胞。如果信号总和没有达到阀值,神经细胞就不会兴奋起来。

尽管这是类似0和1的操作方式,由于数量巨大的连接,使得大脑具备难以置信的能力。尽管每一个神经细胞仅仅工作于大约100Hz的频率,但因各个神经细胞都以独立处理单元的形式并行工作着,使人类的大脑具有非常明显的特点:

1) 能实现无监督的学习。

2) 对损伤有冗余性

3) 善于归纳推广。

4) 处理信息的效率极高:神经细胞之间电-化学信号的传递,与一台数字计算机中CPU的数据传输相比,速度是非常慢的,但因神经细胞采用了并行的工作方式,使得大脑能够同时处理大量的数据。这个特点也是神经网络计算机在处理方法上最应该体现的一点。

3 人工神经网络基础

对于脑细胞的活动原理,用简单数学语言来说, 一次乘法和累加就相当于一个神经突触接受一次信息的活动。许许多多简单的乘法和累加计算, 就形成了脑细胞决定是激活状态还是抑制状态的简单数学模型。从这种模型出发, 任何复杂的大量的脑神经细胞活动与只是大量乘法、累加和判别是否达到激活值的简单运算的并行与重复而已。因此用这种大量并行的简单运算就可以来模拟大脑的活动, 这就是人工神经网络。

神经网络的基本单元是人工神经元,它是根据人脑的工作原理提出的。图2所示为一个人工神经元,可由以下方程描述

σi =WijXj + Si2θi , Ui = f(σi) ,Yi = g(Ui)

Xi 为输入信号;

Yi 为输出信号;

Ui 为神经元的内部状态;

θi 为阈值;

Si 为外部控制信号输入(控制神经元的内部状态Ui ,使之保持一定的状态);

Wij 为神经元的连接权值。

其中,可通过学习改变连接权Wij ,使得神经元满足或接近一定的非线性输入输出关系。

4 神经网络计算机的实现

对于神经网络计算机实现,目前主要有以下三种实现途径:

4.1 用软件在通用计算机上模拟神经网络

在SISD(单指令流、单数据流,如经典个人计算机)、SIMD(单指令流、多数据流,如连接机制机器)或MIMD(多指令流、多数据流,如在Transputer网络上)结构的计算机上仿真。

这种用软件实现神经网络的方法,灵活而且不需要专用硬件,但是基于此方法实现的神经网络计算机速度较慢,一般仅适合人工神经网络的研究,另一方面,它在一定程度上使神经网络计算机失去了它的本质,体现不出并行处理信息的特征。

4.2 对神经网络进行功能上的仿真

以多个运算单元节点进行运算,在不同时间模拟各异不同的神经元,串并行地模拟神经网格计算。换句话说,即用M个物理单位去模拟N个神经元,而M

虚拟实现的神经网络计算机主要可分为:协处理机,并行处理机阵列及现有的并行计算机等。目前已经有多种产品及系统问世,包括MARK V神经计算机、GAPP系统、GF11、基于Transputer的系统以及基于DSP的系统。它们各有特点,技术已日益成熟。

但是这种实现方式仍以神经网络仿真为主要目标,另外其速度,容量等性能的提高则以增加处理机等费用为代价,较难成为神经网络的最终应用产品。

4.3 利用全硬件实现

4.3.1 基于CMOS, ,CCD工艺和浮栅工艺的神经网络全硬件实现

在微电子芯片上作上许多具有模拟神经元功能的单元电路,按神经网络模型的拓扑结构在芯片上联成网络,这类神经网络芯片上的电路与所模拟神经网络种的各个神经元和神经突触等都有一一对应的关系,神经网络中的各个权值也都存贮在同一芯片上。

我国1995年开发的预言神一号就是一台实现了全硬件的通用神经网络处理机。它以PC机作为宿主机,通过编程实现前馈网络、反馈网络、SOM等人工神经网络的模型和算法,在网络运算过程中预言神一号神经计算机还具备随时修改网络参数及神经元非线性函数的功能。

但是这类芯片受硅片面积的限制,不可能制作规模庞大的神经网络硬件。如果一个数万个神经元的全联接网络,其互联线将达到10亿根;若以1微米三层金属布线工艺来计算,仅仅布线一项所占硅片面积将达到数十平方米。因此,在微电子技术基础上用这种一一对应的方式实现规模很大的神经网络显然不现实。

4.3.2 用光学或光电混合器件实现神经网络硬件系统

光学技术在许多方面有着电子技术无法比拟的优点:光具有并行性,这点与神经计算机吻合;光波的传播交叉无失真,传播容量大;可实现超高速运算。现在的神经计算机充其量也只有数百个神经,因此用“电子式”还是可能的,但是若要把一万个神经结合在一起,那么就需要一亿条导线,恐怕除光之外,任何东西都不可能完成了。但是光束本身很难表示信号的正负,通常需要双层结构,加之光学相关器件体积略大,都会使系统变得庞大与复杂。

5 小结

人类对自身的不断探索,以及神经网络的发展,使得神经网络计算机呼之欲出。笔者认为,神经网络计算机发展的趋势是全硬件的实现,虽然在硬件实现上还有未能解决的问题,但这种趋势是不可阻挡的。随着电子、光电等器件工艺的发展,我们期待神经网络计算机代替冯诺依曼型计算机,真正走进我们的生活。

参考文献:

[1] 王守觉.神经计算机――真正的电脑[J].科学(上海),1996,48(2):45-46.

[2] 黄笑鹃,余颖.神经计算机综述[J].计算机与现代化,2003(9):17-18.

[3] 鲁华祥,王守觉.半导体人工神经网络的研究与发展[J].电子科技导报,1996(9):10-12.

[4] 王守觉,曹文明.半导体神经计算机的硬件实现及其在连续语音识别中的应用[J].电子学报,2006,34(2):267-271.

[5] 布克兰德.游戏编程中的人工智能技术[M].北京:清华大学出版社,2006.

[6] 赵子都.非冯_诺依曼型计算机[J].电脑爱好者,1994(6):40-41.

[7] 王守觉,鲁华祥,陈向东,曾玉娟.人工神经网络硬件化途径与神经计算机研究[J].深圳大学学报:理工版,1997,14(1):8-13.

[8] 王柏勇,田军,杨灿,虞厥邦.柔性电子神经网络计算机结构和原理[J].计算机研究与发展,1994,31(3):23-28.

[9] 陈志祥.神经网络计算机[J].电脑技术-HELLO-IT,1995(4):2-3.

[10] 章锦文,马远良.神经网络计算机的现状与发展趋势[J].计算机科学,1993,20(6):24-27.

李雪(1988-),女,江苏徐州人,研究方向:自动化方向;

神经网络原理篇2

[关键词] 灰色神经网络 GNNM(1,1) 原理 应用

一、灰色神经网络GNNM (1,1)模型

灰色理论模型。灰色系统建模使用最多的是GM(1,1)模型,它是对经过一次累加生成的数列建立的模型,其灰微分方程为

Δx(1)(K)/Δt+ax(1)(k)=u(1)

其中,a,u为待定参数。白化GNNM(1,1)灰色神经网络模型。设参数已经确定,对灰微分方程(1)求解可得到其时间响应函数

[x1(1)(0)-u/a]exp(-ak)+u/a (2)

白化灰微分方程(1)的参数的思路是:将方程(1)的时间响应函数(2)映射到一个BP网络中,对这个BP网络进行训练,当网络收敛时,从训练后的BP网络中提取出相应的方程系数,从而得到一个白化的微分方程,进而利用此白化的微分方程,对系统进行深层次的研究,或对此微分方程求解。要将式(2)映射到BP网络中,对其做如下变换:对等式两边同除1+exp(-ak),化简得:

(3)

经过变换后可将式(3)映射到BP网络中相应的BP网络权值可进行如下赋值(令u/a=6)

W11=a W21=-x1(1) W31=1+exp(-ak) W12=a W22=2b (4)

由式(3),LB层神经元激活函数取为sigmoid型函数

f(x=1/[1+exp(-x)](5)

该函数为S型函数,存在一个高增益区,能确保网络最终达到稳定态,其他层激活函数取线性的。经过式(4)赋值及BP网络激活函数确定为式(5)后,可对网络中各个结点计算为:

b1=f(ak)=1/[1+exp(-ak)]=b2 (6)

故,(7)LD层仅一个节点,其作用只是对Y 进行放大,使之与式(2)相符合。考虑到灰色BP网络与灰微分方程(1)的对应关系,因此在设计灰色BP网络的学习算法时要注意以下几点:①学习算法采用标准BP算法,由于有一些神经元所用激活函数为线性的,因此计算误差时要利用线性函数的求导。②由于W21=x1(1)(0),故在BP网络训练过程中,权值W21始终保持不变。③W31直接由输入与W11、W12得到,并且连接y1y只是将误差前向传递到第3层,其本身不修改W31。

二、灰色神经网络GNNM (1,1)的应用

GNNM(1,1)模型用于城市年用电量预测时,年份编号为输入量k, 城市年用电量的一阶累加序列为输出量Y,用城市年用电量历史数据的一阶累加序列对模型进行训练,通过不断地修正网络权值,使模型模拟的用电量与历史数据误差达到最小。当模型收敛时,对训练好的网络输入预测年份编号,输出数据经一阶累减还原计算可得到所预测的城市年用电量。为验证GNNM (1,1)模型的适应性和预测精度,作者选取5组城市年用电量数据。其中包括前3组增长率各不相同的E型电量数据;第4组的G 型电量数据,第5组的S型电量数据,如表1所示。其中,前10a的数据作为原始数据序列,年份编号为20的数据是l0a后的未来值,用于对预测结果进行评估。GM (1,1)及其改进模型和GNNM(1,1)模型的预测结果如表2所示。

对于城市电网中长期规划,当年用电量预测的相对误差小于10% 时为高精度预测,10%~20%时为好的预测。表2可知,对于G 型电量、E 型和S型电量,GNNM(1,1)模型均达到高精度预测水平,与GM(1,1)模型相比,GNNM(1,1)模型具有更强的适应性。同时,与GM(1,1)模型相比,GNNM(1,1)模型具有更高的预测精度。所以,GNNM(1,1)模型适用于城市年用电量预测。

参考文献:

[1]袁曾任:人工神经元网络及其应用[M].北京:清华大学出版社,1999

[2]吴今培肖健华:智能故障诊断与专家系统[M].北京:科学出版社,1997

[3]邓聚龙:灰色系统基本方法[M].武汉:华中理工大学出版社,1987

神经网络原理篇3

[关键词]神经网络 多层感知器 层位标定 地震属性 油气预测

中图分类号:TE328 文献标识码:A 文章编号:1009-914X(2016)03-0025-01

1.人工神经网络的基本原理

目前人工神经网络有四十种左右,结构、性能各不相同,但无论差异如何,它们都是由大量简单的基本处理单元广泛连接而成的。这种基本处理单元称为神经元,也称为节点,它是生物神经元的模拟物。最简单的节点是所有输入的加权和,并通过一个非线性函数输出结果

决定一个神经网络性质的要素有三个,即神经元特性、网络结构、训练方法(或叫学习方法)。所谓训练方法是指网络作什么方法适应或学习自动地形成网络中各个节点之间相互连接的权系数及各个节点的阀值。由于这三个要素的不同形成了丰富多彩的各种网络。在该项目的研究中,使用的神经网络是多层感知器(Multilayer Perceptron)。

2.多层感知器

多层感知器是一种层状结构有前馈神经网络,它由输入层,输出层,一个或多个隐蔽层(hidden layer)组成,隐蔽层也称为中间层,每个节点只与邻层节点相连接,同一层间的节点不相连。一个三层感知器可产生任意复杂的判定区,多层感知器使用的激活函数是S型函数。按训练方法多层感知器属于监督学习型,训练方法多采用误差反传播算法,简称BP算法。

3.误差反传播算法

函数(costfunction)最小化,估价函数等于期望输出与网络实际输出差的平方和。只有对应当前输出所属类的那个输出节点的期望输出是1.0,其余所有输出节点期望输出是0.0。网络训练时,开始取一些小的随机数(计算机自动生成),以这些随机数作为网络内部各个节点之间连接的权系数和各个节点上的阈值的初始值,然后,输入所有训练样本数据,根据网络求得输出结果,计算实际输出与期望输出的差值,并按照一定的规则,不断地修改节点间的连接权系数和节点内部的阈值,反复这一过程,直至权值收敛,并使估价函数降至可接收值。研究指出,真正的梯度下降法要求采取无穷小步长,权值改变的比例常数是学习率,学习率越大,权值改变量越大,网络收敛速度越快,但学习率大会产生震荡。为了增大学习率而不导致振荡,可增加一个冲量项(momentum term)。

4.神经网络油气预测

本次研究对三维地震资料进行了层位标定和构造解释,在构造解释的基础上分别提取地震属性,按其XY坐标重新进行网格化,将所提地震属性合并为一个整体。

该工区面积为1272平方千米,测线号1977-4639,共2664线,样点数为1905242点。预测层位为孔二段(EK2)。根据所选样本射孔井段深度及其试油结论,落实该段的含油气井和干井。统计结果表明:

在EK2内选择45口 (g107x1、g108、g143、g146x1、g2209、g61、g63、g68、g87、g89、g95、g996、g998、g999、n18、n20、n21、n22x1、n24、n59、n63、n69、n70、n73、n89、n91、wu7、y23、z19、z23、z25、z28、z31、z32、z34、z45、z46、z48、z49、z50、z52、z87、z88、z89、zx58)含油气井;

应用神经网络进行油气预测,首先应用Landmark软件提取地震层位属性,其后的实现步骤为:

①将每个地震属性在工区范围内作归一化处理,在此基础上可获得每一个地震道对应的地震属性样本。

②根据试油结论、地质分层数据表、射孔井段、井口坐标和井斜数据制作各砂层组和各井在该砂层组内的含油气性数据表,以便生成供神经网络学习用的训练样本集。上述数据及地震解释层位数据的可靠性都将影响预测结果准确性。

③训练样本集构成的参考原则:选取部分井旁样本组成训练样本集,留一部分井作为检验井,考核预测结果的可靠性。具体做法是:以射孔井段处的井下坐标在地面上的投影为原点,在指定的搜索半径范围内和指定产油气井旁抽取若干个样本作为含油气样本子集;在产油气井周边选择部分无油气井、并在无油气井旁抽取若干个样本作为无油气样本子集;将这两个样本子集合并在一起,便生成了训练样本集。

④将训练样本集提交给神经网络,让神经网络学会有油气和无油气的分类方法,即计算神经网络节点间的权系数。

⑤对工区内逐个样本进行分类,从而得到油气预测平面分布图。

EK2训练样本集是由含油气样本和干样本两个子集构成,从45口产油气井旁各抽取1-2个样本(其中g998、n20、n70抽取了两个样本),组成48个含油气样本,又从c14、g129、z37等22口干井旁各抽取1-4个样本(其中c14、g136、g137、g139、g157、g158、g194、jia6、x6、x7、y11抽取了2个样本,g128、g9、g990、wu15、z37抽取了3个样本,wucan1抽取了4个样本)组成48个干井样本,该层训练样本集的样本总数为含油气样本和干样本之和(96)。生成的训练样本集供神经网学习,“学习成绩”可以用不在训练样本集中井的含油气性来评判,即EK2的训练样本集共用67口井,用余下123口井(其中35口井为含油气井,其余88口井为干井)的含油气性来评价预测结果的可靠性。得到了EK2的油气预测图及顶面构造(等值线)与该层的油气预测叠合图。训练样本集选用了45口含油气井和22口干井,其余123口井作为验证井,EK2油气预测成果图(图7-9)显示,除了少数油气井(如g120、w38)在油气预测含油气边界处外,其余33口井均得到很好的验证,表明预测结果具有较高的符合程度(即符合度为33/35*100%=94%)。

5.结论

本次研究对三维地震资料进行了层位标定和构造解释,神经网络对工区内逐个样本进行分类,从而得到油气预测平面分布图。从分析结果看出,EK2含油气的地方,其预测值大部分都落在0.5至1的范围内,油气预测成果图展示了含油气区域的有利范围。从此次研究上看来利用神经网络预测油气是可行的。

参考文献

[1] 林畅松,李思田,任建业,断陷湖盆层序地层研究和计算机模拟――以二连盆地乌里雅斯太断陷为例,地学前缘,1995,2(3):124-132

神经网络原理篇4

关键词:人工神经网络 化工安全评价

化工生产具有易燃、易爆、易挥发、易中毒、有腐蚀性等特点,因而较其他工业生产部门有更大的危险性,安全评价工作是安全生产和安全管理的重要环节,安全评价方法的选择是安全评价工作的关键,直接关系到评价的深度和准确度,影响评价的效果。小波神经网络具有自适应、自组织、自学习的功能和非线性问题的处理能力,可以通过小波神经网络对化工企业安全评价中的评价指标体系进行建模分析与评判。通过MATLAB工具能够方便快速准确地建立小波神经网络,不需要繁琐工作,这让化工安全评价具有了较强的实用价值与现实意义。

本文根据某大型炼油化工有限公司的主要生产工段提供的安全状态原始指标数据,在对整个企业进行安全评价的数据整理和分析基础之上,进行安全评价网络结构、相应参数以及网络训练过程参数的设计,对网络性能进行综合测试,以达到适应石化企业安全评价的目的。根据对某大型炼油化工有限公司提供的原油脱盆脱水工段、减压蒸馏工段、催化裂化_T一段、催化重整工段、加氢裂化工段、延迟焦化工段、炼厂气加工工段的生产装备因素指标安全原始数据进行分析和整理,得出20个实例样本,其中15个样本用来完成对神经网络的训练,5个样本用来结果验证。原始数据的训练结果期望目标值与评价结果的输出如下表(安全评价输出结果等级划分对照表):

一,安全评价系统神经网络结构的确定

人工神经网络的拓扑结构是由网络的层数、各层的节点数以及节点之间的连接方式组成的。本研究拟采用小波神经网络对化工企业安全生产进行建模评价。如前所述,小波神经网络只有相邻层上的节点相互连接,所以,在设计网络的结构时,关键的参数只涉及到网络的层数和各层的神经元个数。

网络的层数对网络的性能具有重要的影响,确定网络层数的方法是通过大量对实际问题的求解来寻求最合适的网络层数。在确定了网络的层数之后,各层的神经元个数同样也是需要确定的关键参数,神经元的个数对网络的训练及网络收敛速度存在很显著的影响,如果隐含层的节点数太少,网络不能建立复杂的判断界,从而无法识别以前没有的样本,且容错性差;而节点数过多,则学习时间长,使网络的泛化能力降低。在函待解决的评价问题上,对应于各评价指标体系,网络的输入层和输出层的神经元个数是确定的,可以调整的参数是隐含层及隐含层神经元的个数。

在前面分析的基础上,综合考虑整个评价问题,决定采用三层神经网络结构模型。由于化工企业安全评价指标体系中各个单元的评价指标数目不同,在对网络进行训练时隐含层的神经元个数根据各评价单元的收敛情况进行适当的调整。

二、网络样本输入数据的初始化

1,数据初始化的方法

在神经网络的训练过程中,传递激活函数是网络训练的关键环节。传递函数的特征要求输入的信息数据必须在区间[0,1]之内,因此必须对网络训练所需要的原始数据进行初始化处理,使它们转化为分布在[0,1]区间范围内的数据。初始化的具体方法取决于原始数据的数量级,根据每组输入数据中的最大值来确定初始化的数量级,并根据下式确定用于网络输入的数据。

2,网络训练样本数据的准备

根据相关的评价指标体系各单元指标以及对人工神经网络进行理论分析的结果,准备基于神经网络的安全评价模型的训练样本数据。根据对某大型炼油化工有限公司提供的原油脱盐脱水工段、减压蒸馏工段、催化裂化工段、催化重整工段、加氢裂化工段、延迟焦化工段、炼厂气加工工段的安全原始数据进行分析和整理,得出20个实例样本,应用这些实例样本完成对小波神经网络的训练。

在神经网络的训练过程中,传递激活函数是网络训练的关键环节。传递函数的特征要求输入的信息数据必须在区间[O,1]之内,因此必须对网络训练所需要的原始数据进行初始化处理,使它们转化为分布在[O,1]区间范围内的数据表。

3,网络训练过程及结果

根据上面的训练样本数据使用MATLAB6.5软件对网络进行训练,使误差落在要求的范围之内并确定网络内部结构参数权值。网络结构参数表示为(L一M一N),其中,L为网络输入矢量的个数,M为隐含层神经元的个数,N为输出层神经元的个数,在本训练中均为5。网络结构参数确定之后,将获得的原始数据输入,对各因素的网络进行训练,由此可以实现从因素到结果之间映射知识的获取,即分别获得网络单元之间的连接权值向量及各隐含层的阈值向量。

生产装备因素。网络结构参数为(4-11-5),网络迭代次数n=3824.

生产人员素质因素。网络结构参数为(10-12-5),网络迭代次数n=2348.

管理因素。网络结构参数为(3-10-5),网络迭代次数n=3407.

环境条件因素。网络结构参数为(3-7-5),网络迭代次数n=2986.

通过训练获得的神经网络模型即可用于对新的输入进行结果的预测评价。由此可知,蕴藏于神经网络中的知识的获取可以通过计算机软件的学习来实现,参与安全评价的专家只需要提供一定数量的实例以及它们所对应的解,并且只需要知道实例与解之间存在着某种特定关系,而对于究竟具体是何种关系,可以由计算机学习来获得,只要所使用的实例样本空间足够大,就可以比较准确地模拟人的思维判断。

参考文献:

[1]李延渊,吴文新等编著,MATLAB神经网络仿真与应用【M】,科学出版社,2003

神经网络原理篇5

只有清楚地了解电梯控制系统的运行原理才能够及时准确的诊断出电梯故障原因,因此清楚的了解电梯运行原理,每一个电梯维修人员必须要做到。电梯运行过程总体上可分为以下几个阶段:第一、登记层外召唤信号和登记内选指令阶段;第二、电梯门关闭或者电梯按照系统指令停运阶段;第三、启动阶段;第四、在到达信号记录的楼层前进行减速制动;第五、平层开门阶段。在整个过程中电梯需要从外界接收信号并处理,然后完成相应的指令或者输出信号,由此可以将电梯看作是一个完整的独立的系统,只需要外界给予相应的信号就可以自动的做出动作。电梯系统内部复杂的构件紧密的结合在一起,正是如此才使得电梯系统故障具有了复杂性、层次性、相关性以及不确定性的特点。

二、神经网络技术基本原理

生物学上的神经是由一个个简单的神经元相互连接进而形成了复杂的庞大的神经系统,同理,神经网络就是由大量简单的处理单元相互连接形成的复杂的智能系统。单独的处理单元类似于一个神经元,是一个可以接受不同信息但是只输出一种信息的结构单位。神经网络系统与生物学神经系统相似的是具有自我修改能力,它可以同时接收大量的数据并进行统一的分析处理,进而输出相应的处理结果。这就使得神经网络系统具有了高度容错性、高度并行性、自我修改性、学习性以及高度复杂性,也正是由于这些特性才使的利用神经网络技术能够及时准确的查明电梯故障原因并得出故障解决方案。电梯故障诊断中应用的神经网络模型分为三个层次:输入层、接收外部信号或者是电梯自我检测信息(如载重信息);隐含层、对接收到了大量数据进行相应的分析处理;输出层、将记录着动作命令的数据传送出来。在电梯出现故障时,首先可以通过神经网络模型快速确定故障发生在哪一层达到节约时间的目的。但是神经网络也会因为收敛速度过于慢、训练强度太大或者是选择的网络模型不好等问题导致诊断结果受到影响。

三、神经网络模型在电梯故障诊断中的应用分类

神经网络模型已经成为了如今电梯故障诊断中应用最广泛的技术模型,相比于传统方式它具有诊断速度快、故障原因命中率高的优点,因此引起了各方面专业人士的强烈关注,并在他们的不懈努力下得到了发展与创新。它跨越多个专业领域、通过对各种复杂的高难度工作的不断的发展与改进出现了越来越多的应用模型,下面主要介绍了当前应用最普遍的BP网络模型,并且简单的引入并介绍了近年来新兴的模糊神经网络模型和遗传小波神经网络模型。

(一)BP网络模型

BP神经网络作为神经网络应用最广泛的一种,它多应用的误差反向传播算法使其在模式识别、诊断故障、图像识别以及管理系统方面具有相对先进性。基于BP网络的电梯故障诊断技术就是通过学习故障信息、诊断经验并不断训练,并将所学到的知识利用各层次之间节点上的权值从而表达出来。BP网络系统的主要诊断步骤主要可以分为三步。第一步:对输入输出的数据进行归一化处理,将数据映射到特定的区间。第二步:建立BP网络模型,训练BP网络模型。第三:通过已经训练好的网络模型对原来的样本进行全面的检测。算法步骤:a、在一定的取值范围内对数据进行初始化;b、确定输入值数值大小,计算出预期输出量;c、用实际输出的值减去上一步得到的数值;d、将上一步得到的误差分配到隐含层,从而计算出隐含层的误差;e、修正输出层的权值和阈值,修正隐含层的权值;f、修正隐含层的阈值,修正隐含层和输入层的权值。

(二)遗传小波神经网络模型

遗传算法运用了生物界的优胜劣汰、适者生存的思想对复杂问题进行优化,适用于复杂的故障,起到了优化简化问题的作用。对局部数据进行详细的分析是小波法最大的特点,所以它被誉为“数字显微镜”。遗传算法小波神经网络就是运用小波进行分解的方法分解模拟故障信号,将得到的数据进行归一化,将归一化后的数值输入到神经网络模型中。它融合了神经网络、小波分析和遗传算法三者所有的优点。基于遗传小波神经网络的电梯故障诊断的一般步骤为:测试节点信号采样、小波分解、故障特征量提取、归一化得到训练样本集、遗传算法优化、得到故障类型。遗传小波神经网络模型在故障原因复杂、数据信息量巨大的电梯系统的应用中能够发挥更大的作用。

(三)模糊神经网络模型

模糊神经网络模型就是创新性的将神经网络与模糊理论结合到一起。它采用了广义的方向推理和广义的前向推理两种推理方式。与其它两种模型不同的是,它的语言逻辑、判断依据和结论都是模糊的。但是它的数据处理能力还有自我学习能力并没有因此而变差,反而更加丰富了它的定性知识的内容。在处理实际问题的过程中,首先要建立所有可能发生的故障的完整集合,其次将所有的故障发生原因归入到同一个集合中去,最后就是建立故障和原因的关系矩阵。分别叫做模糊故障集、模糊原因集、模糊关系矩阵。相较于BP网络模型,这种模型更加的简单易行,充分发挥了神经网络和模糊逻辑的优点,不会因为故障原因过于复杂而失去诊断的准确性,在原本丰富定性知识和强大数据处理能力的基础上具有了很大的自我训练能力。

四、结语

神经网络原理篇6

只有清楚地了解电梯控制系统的运行原理才能够及时准确的诊断出电梯故障原因,因此清楚的了解电梯运行原理,每一个电梯维修人员必须要做到。电梯运行过程总体上可分为以下几个阶段:第一、登记层外召唤信号和登记内选指令阶段;第二、电梯门关闭或者电梯按照系统指令停运阶段;第三、启动阶段;第四、在到达信号记录的楼层前进行减速制动;第五、平层开门阶段。在整个过程中电梯需要从外界接收信号并处理,然后完成相应的指令或者输出信号,由此可以将电梯看作是一个完整的独立的系统,只需要外界给予相应的信号就可以自动的做出动作。电梯系统内部复杂的构件紧密的结合在一起,正是如此才使得电梯系统故障具有了复杂性、层次性、相关性以及不确定性的特点。

二、神经网络技术基本原理

生物学上的神经是由一个个简单的神经元相互连接进而形成了复杂的庞大的神经系统,同理,神经网络就是由大量简单的处理单元相互连接形成的复杂的智能系统。单独的处理单元类似于一个神经元,是一个可以接受不同信息但是只输出一种信息的结构单位。神经网络系统与生物学神经系统相似的是具有自我修改能力,它可以同时接收大量的数据并进行统一的分析处理,进而输出相应的处理结果。这就使得神经网络系统具有了高度容错性、高度并行性、自我修改性、学习性以及高度复杂性,也正是由于这些特性才使的利用神经网络技术能够及时准确的查明电梯故障原因并得出故障解决方案。电梯故障诊断中应用的神经网络模型分为三个层次:输入层、接收外部信号或者是电梯自我检测信息(如载重信息);隐含层、对接收到了大量数据进行相应的分析处理;输出层、将记录着动作命令的数据传送出来。在电梯出现故障时,首先可以通过神经网络模型快速确定故障发生在哪一层达到节约时间的目的。但是神经网络也会因为收敛速度过于慢、训练强度太大或者是选择的网络模型不好等问题导致诊断结果受到影响。

三、神经网络模型在电梯故障诊断中的应用分类

神经网络模型已经成为了如今电梯故障诊断中应用最广泛的技术模型,相比于传统方式它具有诊断速度快、故障原因命中率高的优点,因此引起了各方面专业人士的强烈关注,并在他们的不懈努力下得到了发展与创新。它跨越多个专业领域、通过对各种复杂的高难度工作的不断的发展与改进出现了越来越多的应用模型,下面主要介绍了当前应用最普遍的BP网络模型,并且简单的引入并介绍了近年来新兴的模糊神经网络模型和遗传小波神经网络模型。

(一)BP网络模型

BP神经网络作为神经网络应用最广泛的一种,它多应用的误差反向传播算法使其在模式识别、诊断故障、图像识别以及管理系统方面具有相对先进性。基于BP网络的电梯故障诊断技术就是通过学习故障信息、诊断经验并不断训练,并将所学到的知识利用各层次之间节点上的权值从而表达出来。BP网络系统的主要诊断步骤主要可以分为三步。第一步:对输入输出的数据进行归一化处理,将数据映射到特定的区间。第二步:建立BP网络模型,训练BP网络模型。第三:通过已经训练好的网络模型对原来的样本进行全面的检测。算法步骤:a、在一定的取值范围内对数据进行初始化;b、确定输入值数值大小,计算出预期输出量;c、用实际输出的值减去上一步得到的数值;d、将上一步得到的误差分配到隐含层,从而计算出隐含层的误差;e、修正输出层的权值和阈值,修正隐含层的权值;f、修正隐含层的阈值,修正隐含层和输入层的权值。

(二)遗传小波神经网络模型

遗传算法运用了生物界的优胜劣汰、适者生存的思想对复杂问题进行优化,适用于复杂的故障,起到了优化简化问题的作用。对局部数据进行详细的分析是小波法最大的特点,所以它被誉为“数字显微镜”。遗传算法小波神经网络就是运用小波进行分解的方法分解模拟故障信号,将得到的数据进行归一化,将归一化后的数值输入到神经网络模型中。它融合了神经网络、小波分析和遗传算法三者所有的优点。基于遗传小波神经网络的电梯故障诊断的一般步骤为:测试节点信号采样、小波分解、故障特征量提取、归一化得到训练样本集、遗传算法优化、得到故障类型。遗传小波神经网络模型在故障原因复杂、数据信息量巨大的电梯系统的应用中能够发挥更大的作用。

(三)模糊神经网络模型

模糊神经网络模型就是创新性的将神经网络与模糊理论结合到一起。它采用了广义的方向推理和广义的前向推理两种推理方式。与其它两种模型不同的是,它的语言逻辑、判断依据和结论都是模糊的。但是它的数据处理能力还有自我学习能力并没有因此而变差,反而更加丰富了它的定性知识的内容。在处理实际问题的过程中,首先要建立所有可能发生的故障的完整集合,其次将所有的故障发生原因归入到同一个集合中去,最后就是建立故障和原因的关系矩阵。分别叫做模糊故障集、模糊原因集、模糊关系矩阵。相较于BP网络模型,这种模型更加的简单易行,充分发挥了神经网络和模糊逻辑的优点,不会因为故障原因过于复杂而失去诊断的准确性,在原本丰富定性知识和强大数据处理能力的基础上具有了很大的自我训练能力。

四、结语

神经网络原理篇7

 

关键词:  人工神经网络; 类风湿关节炎; 预测

类风湿关节炎(Rheumatoid arthritis ,RA)是一种以关节滑膜发生慢性炎性病变的自身免疫性疾病,其病程多呈进行性进展,致残率高,治愈率低下[1],早期临床表现不典型,单项自身抗体检测的灵敏度和特异性均有不足,类风湿因子的检出率也偏低,容易造成误诊[2,3]。因此医务人员主要是通过敏感性互补的几个检验指标和临床表现对类风湿关节炎作出诊断[4],但在疾病的诊断中往往带有很多的主观因素。近年来发展起来的人工神经网络是种理论化的数学模型,是模仿人脑神经的网络结构及其功能而建立起来的一种信息处理系统,具有自行学习、联想记忆、错误容纳和强大的非线性处理能力[5]。因此人工神经网络常常被应用到临床医学疾病的诊断上。本研究结合类风湿关节炎诊断的8个主要指标,设计一种基于人工神经网络类风湿关节炎的诊断方法,通过对150例样本的网络运算,探讨了人工神经网络对类风湿关节炎诊断的可行性。

1 人工神经网络基本原理

人工神经网络可以通过对外界信息的学习,以特定的方式对这些信息进行处理和概括,从而具备了对这些信息的识别功能,并产生了一个相对应的结论。因此,再次给人工神经网络这样一个相似的条件时,神经网络就会根据已学到的知识,自行推理判断,得到一个我们需要的结果。

1.1 人工神经元

人工神经元是组成人工神经网络的基本处理单元,简称为神经元。如图1显示了一个具有r个输入分量的人工神经元模型[6]。

图1中p(r=1,2,…,r) 为该神经元的输入数据;Wr 为该神经元分别与各输入数据间的连接强度,称为连接权重,权重值的大小代表上一级神经元对下一级神经元的影响程度。b为该神经元的阈值,f(x)为作用于神经元的激励函数,通常采用的是S 型函数,其数学表达式见式(1)[7]:

f(x)=(1+e-Qx)-1(1)

a为神经元的输出数据。神经元将接收信息pi与连接权重wi 的点乘积求和构成其总输入, 在神经元阈值b的作用下经函数f(x)的作用,产生信号输出a。

图1 人工神经元模型

1.2 人工神经网络

人工神经网络是由多个不同的神经元连接而成,一般含有多个层次,每个层次又包含了多个神经元,上一层次的神经元只能对下一层的神经元产生作用,同层神经元间无相互作用[7]。根据神经元的不同连接方式,就形成了不同功能的连接网络模型。比如BP神经网络,Kohonen神经网络,Hopfield神经网络等等,多达数十种。在医学中应用比较广泛的是BP神经(Back Propagation),也就是误差逆向传递网络[8],本研究中采用的也是BP神经网络。BP神经网络一般由输入层,隐含层和输出层构成,其结构模型如图2所示。

神经网络输入层的神经元是接受外界信息的端口,不包括数据运算功能,他将外界的输入数据通过一个连接权重传递给下一隐含层的神经元。隐含层是神经网络的核心部分,数量上可以有一个或多个层次,随着层次的增多,网络结构变得更复杂,网络数据处理功能也增强。网络的最后一层是输出层,输出层接收到隐含层的各项信息,然后经过转换把信息传给外界。

输入层 隐含层 输出层

图2 BP人工神经网络模型

神经网络原理篇8

关键词:人工神经网络 遗传算法 模拟退火算法 群集智能 蚁群算法 粒子群算

1 什么是智能算法

智能计算也有人称之为“软计算”,是们受自然(生物界)规律的启迪,根据其原理,模仿求解问题的算法。从自然界得到启迪,模仿其结构进行发明创造,这就是仿生学。这是我们向自然界学习的一个方面。另一方面,我们还可以利用仿生原理进行设计(包括设计算法),这就是智能计算的思想。这方面的内容很多,如人工神经网络技术、遗传算法、模拟退火算法、模拟退火技术和群集智能技术等。

2 人工神经网络算法

“人工神经网络”(ARTIFICIAL NEURAL NETWORK,简称ANN)是在对人脑组织结构和运行机制的认识理解基础之上模拟其结构和智能行为的一种工程系统。早在本世纪40年代初期,心理学家McCulloch、数学家Pitts就提出了人工神经网络的第一个数学模型,从此开创了神经科学理论的研究时代。其后,F Rosenblatt、Widrow和J. J .Hopfield等学者又先后提出了感知模型,使得人工神经网络技术得以蓬勃发展。

神经系统的基本构造是神经元(神经细胞),它是处理人体内各部分之间相互信息传递的基本单元。据神经生物学家研究的结果表明,人的一个大脑一般有1010~1011个神经元。每个神经元都由一个细胞体,一个连接其他神经元的轴突和一些向外伸出的其它较短分支——树突组成。轴突的功能是将本神经元的输出信号(兴奋)传递给别的神经元。其末端的许多神经末梢使得兴奋可以同时传送给多个神经元。树突的功能是接受来自其它神经元的兴奋。神经元细胞体将接受到的所有信号进行简单处理(如:加权求和,即对所有的输入信号都加以考虑且对每个信号的重视程度——体现在权值上——有所不同)后由轴突输出。神经元的树突与另外的神经元的神经末梢相连的部分称为突触。

2.1 人工神经网络的特点

人工神经网络是由大量的神经元广泛互连而成的系统,它的这一结构特点决定着人工神经网络具有高速信息处理的能力。人脑的每个神经元大约有103~104个树突及相应的突触,一个人的大脑总计约形成1014~1015个突触。用神经网络的术语来说,即是人脑具有1014~1015个互相连接的存储潜力。虽然每个神经元的运算功能十分简单,且信号传输速率也较低(大约100次/秒),但由于各神经元之间的极度并行互连功能,最终使得一个普通人的大脑在约1秒内就能完成现行计算机至少需要数10亿次处理步骤才能完成的任务。

人工神经网络的知识存储容量很大。在神经网络中,知识与信息的存储表现为神经元之间分布式的物理联系。它分散地表示和存储于整个网络内的各神经元及其连线上。每个神经元及其连线只表示一部分信息,而不是一个完整具体概念。只有通过各神经元的分布式综合效果才能表达出特定的概念和知识。

由于人工神经网络中神经元个数众多以及整个网络存储信息容量的巨大,使得它具有很强的不确定性信息处理能力。即使输入信息不完全、不准确或模糊不清,神经网络仍然能够联想思维存在于记忆中的事物的完整图象。只要输入的模式接近于训练样本,系统就能给出正确的推理结论。

正是因为人工神经网络的结构特点和其信息存储的分布式特点,使得它相对于其它的判断识别系统,如:专家系统等,具有另一个显著的优点:健壮性。生物神经网络不会因为个别神经元的损失而失去对原有模式的记忆。最有力的证明是,当一个人的大脑因意外事故受轻微损伤之后,并不会失去原有事物的全部记忆。人工神经网络也有类似的情况。因某些原因,无论是网络的硬件实现还是软件实现中的某个或某些神经元失效,整个网络仍然能继续工作。

人工神经网络是一种非线性的处理单元。只有当神经元对所有的输入信号的综合处理结果超过某一门限值后才输出一个信号。因此神经网络是一种具有高度非线性的超大规模连续时间动力学系统。它突破了传统的以线性处理为基础的数字电子计算机的局限,标志着人们智能信息处理能力和模拟人脑智能行为能力的一大飞跃。

2.2 几种典型神经网络简介

2.2.1 多层感知网络(误差逆传播神经网络)

在1986年以Rumelhart和McCelland为首的科学家出版的《Parallel Distributed Processing》一书中,完整地提出了误差逆传播学习算法,并被广泛接受。多层感知网络是一种具有三层或三层以上的阶层型神经网络。典型的多层感知网络是三层、前馈的阶层网络,即:输入层I、隐含层(也称中间层)J和输出层K。相邻层之间的各神经元实现全连接,即下一层的每一个神经元与上一层的每个神经元都实现全连接,而且每层各神经元之间无连接。

但BP网并不是十分的完善,它存在以下一些主要缺陷:学习收敛速度太慢、网络的学习记忆具有不稳定性,即:当给一个训练好的网提供新的学习记忆模式时,将使已有的连接权值被打乱,导致已记忆的学习模式的信息的消失。

推荐期刊