收藏 分享(赏)

人工神经网络在机械故障诊断中的应用.doc

上传人:幼儿教育老师 文档编号:21759350 上传时间:2024-04-22 格式:DOC 页数:16 大小:473.39KB
下载 相关 举报
人工神经网络在机械故障诊断中的应用.doc_第1页
第1页 / 共16页
人工神经网络在机械故障诊断中的应用.doc_第2页
第2页 / 共16页
人工神经网络在机械故障诊断中的应用.doc_第3页
第3页 / 共16页
人工神经网络在机械故障诊断中的应用.doc_第4页
第4页 / 共16页
人工神经网络在机械故障诊断中的应用.doc_第5页
第5页 / 共16页
亲,该文档总共16页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、人工神经网络在机械故障诊断中的应用摘要:针对传统的机械故障诊断方法的局限性,提出将人工神经网络应用于机械故障诊断中。由于BP算法存在收敛速度慢及易陷入局部极小等缺陷,利用实数编码改进遗传算法对神经网络的权值和阈值进行优化训练,并把训练好的神经网络用于机械振动信号预测及机械故障诊断中。通过对机械设备振动信号的预测,可以及早发现故障,及时消除故障隐患,为企业节省大量的维修时间和维修费用,提高企业的生产率。关键词:遗传算法; 神经网络; 机械故障诊断The Application of Artificial Neural Networksin the Mechanical Fault Diagnos

2、isAbstract: For the limitations of traditional methods in the mechanical fault diagnosis, it is proposed in this paper that the artificial neural network is used in the mechanical fault diagnosis. Because BP algorithm has the defects of slow convergence rate and easy trapping in local minimum, a rea

3、l- coded improved genetic algorithms is proposed to train the weights and threshold of neural network, and the trained neural network is applied in the prediction for the mechanical vibration signals and the mechanical fault diagnosis. By the prediction for the mechanical fault diagnosis, it can det

4、ect the faults and eliminate hidden trouble earlier, and it can save a lot of maintenance time and maintenance costs for enterprises and improve productivity for enterprises.Key words: Gene tic Algorithms; Neural Network; Mechanical Fault Diagnosis0前言随着科学技术的发展, 现代化机械设备的工作强度不断增大,生产效率、自动化程度也越来越高,设备更加复

5、杂的同时,各部分的关联也愈加紧密,某处微小故障可能会导致整台设备甚至与设备有关的环境遭受灾难性的毁坏。近年来,设备预防维修制度正逐步向设备预知维修制度过渡,与设备预防维修制度相比,预知维修制度以振动监测和故障诊断技术为基础,可以做到及早发现故障并消除故障隐患,防止故障的进一步发展,能预防和减少恶性事故的发生,保障人身和设备安全;可以节省设备维修时间,增加设备运行时间,节约维修资金,进而提高企业的生产率与经济效益。传统的诊断方法和诊断理论对单过程、单故障和渐发性故障的简单系统可以发挥较好的作用,但对于多过程、多故障和突发性故障以及复杂庞大、高度自动化的大型设备和系统就具有很大的局限性。将人工智能

6、的理论和方法应用于机械故障诊断,发展智能化的机械故障诊断技术,是机械故障诊断的一个新途径。其中,人工神经网络具有容错、联想、推测、记忆、自适应、自学习和处理复杂多模式的功能,在对非线性时间序列的预测中有一定通用性。振动是机械设备在运行过程中(正常运行与异常运行)所表现出来的一种信息,通过对机器主要部位的振动值如位移、速度、加速度、转速及相位值等进行测定,与标准值进行比较,就可宏观地评定机器的运行状况。然后对测得的振动量进行特征分析,确定故障的性质,最后进一步进行分析就可以确定故障的原因及部位1 。利用人工神经网络对机械振动信号进行预测,将预测结果作为检验设备是否发生故障的依据,也是对设备进行机

7、械故障诊断的重要依据。目前,人工神经网络已逐步应用到机械故障诊断领域,并成为机械故障诊断领域的一个研究热点。1人工神经网络概述1.1人工神经网络的原理人工神经网络(Artificial Neural Network,简称ANN)是生物神经网络(Biological Neural Networks,简称BNN)的模型化,并不是简单的BNN模型,而是对结构及功能大大简化后保留其主要特性的抽象与模型。引用了原生物神经网络的思维和方式、方法,但为达到一定的目的功能有所改变。生物神经网络是人工神经网络导向性的知识,却非原则。人工神经网络是在模拟生物神经网络的基础上构建的一种信息处理系统2,具有强大的信息

8、存贮能力和计算能力,是一种非经典的数值算法。ANN在1943年由Mc Culloch和PittS提出,在29世纪80年代进入了一个发展高潮,至今已开发出Hopfield网络、误差反向传播(BP)网络、对向传播网络(CPN)、径向基函数网络(RBF)、Kohonen网络等30多种典型的模型,其中以BP网络模型应用最广3。由于其计算方法具有自组织、自适应、并行性、非线性和容错性等特征,ANN已经成为人工智能领域的前沿技术,在函数逼近、模式识别、信号处理等领域应用广泛。甚至,在医学、环境科学以及其他领域的重大作用也日益凸显。初步显示出其广阔的应用前景。故障诊断就是人工神经网络应用领域之一,它通过网络

9、将输入信号矢量空间映射到输出矢量空间,输出矢量经过处理得到故障原因和排除故障方法。它集机械学、计算机学以及统计学等多门学科于一体。目前, 在众多神经网络中,前馈型神经网络因其良好的逼近能力和成熟的训练方法得到泛的应用,它的学习算法是误差反向传播( Back Propagat ion ,BP)算法。两层前馈型神经网络的结构如图1 所示。设网络的输入层、隐含层和输出层的节点个数分别为,和。设输入向量为,则信息的向前传播过程为:(1) 隐含层中第个神经元的输出:(2)输出层中第个神经元的输出:1(3)定义误差函数:其中, 分别是隐含层和输出层的激活函数。图1 两层BP网络的结构图一般情况下, 隐含层

10、采用S 型激活函数, 而输出层采用线性激活函数4 。神经网络是模拟生物神经系统建立起来的自适应非线性动力学系统, 具有可学习性和并行计算能力, 能够实现分类、自组织、联想记忆和非线性优化等功能。由于时间序列预测可以理解为一种由历史记录计算未来趋势的数学映射问题, 因此具有映射逼近能力的神经网络在解决预测问题时得到了广泛应用。虽然反向传播算法应用广泛, 但在实际应用中BP算法存在收敛速度慢, 目标函数存在局部极小点的缺陷。因此出现了一些改进的方法, 主要有附加动量法、自适应学习速率、带有动量法和自适应的梯度下降法等。虽然这些改进方法对BP算法的性能有了一定的改善, 但它们的基本方法仍然是梯度下降

11、法,不能从根本上摆脱陷入局部最小的问题。为克服基于梯度下降法对前向神经网络训练时存在的不足, 考虑到遗传算法的全局寻优特性, 将其对神经网络的权值和阈值进行优化, 就可以弥补BP 算法的缺陷。1.2人工神经网络模型BNN信息传递过程中,信号为脉冲,当脉冲到达突出前膜时,前膜释放化学物质,结果在突触后产生突触后电位,其大小与脉冲密度有关,即时间总合效应。同时,各通道都对电位产生影响,即空间总合效应。ANN等效模拟电压近似BNN脉冲密度,仅有空间累加无时间累加。 图2 神经网络工作原理上图2是模拟生物神经元结构与功能的数学模型示意图,它是一个多输入、单输出的非线性模型,其输出输入的关系可用数学函数

12、描述为: (1)式中:为神经元输出;为第j到第i神经元的连接权值;为输入信号;为神经元的阈值;为输入信号数目;为传递函数3。1.3人工神经网络构成神经网络的基本模型如下图3所示:图3 神经网络工作原理网络的拓扑结构决定了神经元的连接方式和信息的传递途径,人工神经网络结构主要有以下几种:(1)前向网络前向网络的特点是神经元分层排列,可以有多层;同一层神经元间无连接;方向具有单一性,由入到出。应用最为广泛。(2)回归网络回归网络有两种。一种是有反馈的前向网络,特点是输出反馈到输入,内部与前向网络特点相同;另一种是全反馈网络,除了输出反馈到输入外,同一层的元之间可以互相连接,比前向网络复杂,例如自组

13、织竞争型和遗传型神经网络。(3)互联网络互联网络每个元都可以与其它元相连,分为局部互联和全互联。如Hopfield网络。1.4人工神经网络学习及分类ANN研究中的核心问题是如何确定加权系数。总的来说,有两种规则,直接设计计算和学习得到。人工神经网络的类型较多,目前已知的不下几十种,较著名的有:RBF网络(径向基函数网络)、BP网络(前向多层神经网络)、Hopfield网络、MLP网络(多层感知器网络)、ART网络(自适应共振网络)、 LVQ网络(学习向量量化网络)以及与其他前沿技术相结合的网络,如小波神经网络、概率神经网络、模糊神经网络等4。以下对三种典型的神经网络作出简要介绍:(1) BP神

14、经网络图4 BP神经网络在确定了BP神经网络的拓扑结构之后,就可以利用训练样本集对其进行训练,训练过程由正向传播和反向传播组成。在正向传播过程中,输入信号从输入层经隐层逐层处理,传向输出层,每一层神经元的状态只影响下一层神经元的状态。如果输出层不能得到期望的输出,则网络转为反向传播并同时计算误差。将误差沿原来的通路返回,以调整网络的权值和阈值,使得误差满足要求,实现给定的输入到输出的映射关系。(2) RBF网络图5 RBF神经网络RBF网络由3层结构组成,即输入层、隐含层和输出层,其结构如图所示。输入层节点只传递输入信号到隐含层,隐含层节点通常采用高斯函数作为传递函数,而输出层节点一般是线形函

15、数。RBF的基本思想:用RBF作为隐单元的“基”构成隐含层空间,这样就可将输入矢量直接(即不通过权连接)映射到隐空间。当RBF的中心点确定以后,这种映射关系也就确定了。而隐含层空间到输出空间的映射是线性的,即网络的输出是隐单元输出的线性加权和。此处的权即为网络可调参数。由此可见,从总体上看,网络由输入到输出的映射是非线性的,而网络输出对可调参数而言却又是线性的。这样网络的权就可由线性方程组直接解出或用RLS方法递推计算,从而大大加快学习速度并避免局部极小问题。(3)Hopfield网络图6 Hopfield网络Hopfield网络是单层对称全反馈网络(自联想记忆),根据激活函数(作用函数)选取

16、的不同,可分为离散型(DHNN)和连续性(CHNN)两种。DHNN:作用函数为hadlim,主要用于联想记忆。CHNN:作用函数为S型函数,主要用于优化计算。组合优化问题,就是在给定约束条件下,求出使目标函数极小(或极大)的变量组合问题。 将Hopfield网络应用于求解组合优化问题,就是把目标函数转化为网络的能量函数,把问题的变量对应于网络的状态。这样当网络的能量函数收敛于极小值时,问题的最优解也随之求出。2 机械故障诊断技术所谓故障是设备丧失其规定的功能。故障不等于失效更不等于损坏, 失效与损坏是严重的故障。对于现代化设备来说, 故障是不可避免的, 如果能做到及早发现、防患于未然, 可为企

17、业节省大量的维修费用。早期的维修方式主要采用以时间为基础的定期维修, 不该修的修了, 造成了很多不必要的浪费, 该修的不能及时修, 从而导致事故。以时间为基础的定期维修必然要过渡到以状态为基础的状态监测维修制度。作为状态监测的支承技术-机械故障诊断技术必将被大家所接受、认同。设备故障诊断技术应保证设备在将有故障或已有故障时, 能及时诊断出来并进行相应的正确维修, 以减少维修时间, 提高维修质量, 节约维修费用。设备诊断技术的首要任务是通过测取设备的信息来识别设备的状态。在运转的机械设备中, 振动是最重要的信息来源, 在振动信号中包含了各种故障信息。研究表明: 振动的强弱及其包含的主要频率成份和

18、故障类型、部位和原因等有着密切的联系。利用振动信号对设备状态进行判别, 从振动信号中提取有用的特征信号, 再利用信号处理技术对振动信号进行判别。机器的转速很高, 许多起警告性的振动会出现在高频段, 因此, 只有用仪器才能检测出来。在机器运行良好的状况下, 具有一个典型的振级和频谱特征。当机器出现故障时, 机器的动态过程以及机器零件上的一些作用力也随着变化, 从而影响机器的振动能级和频谱的图形。通过对振动的测量和分析, 可以知道机器工作状态的变化以及是否需要维修5 。3 人工神经网络在故障诊断技术中的应用利用遗传算法来优化神经网络的权值和阈值, 可以弥补BP神经网络的缺陷。对于机械故障诊断中测得

19、的设备振动信号, 其属于非线性时间序列, 很难用固定的模型来进行描述, 可利用经遗传算法优化的人工神经网络来进行预测。以某台机械设备采集的一组振动位移的采样数据6为例, 来证实遗传神经网络在机械故障诊断中的有效性和实用性。选取前100个数据作为训练样本,后100个数据作为测试样本。选用2 层BP 网络, 输入单元数为3, 隐含层数目为5, 输出层单元数为1, 待优化的权值和阈值总数为26个。输入层到隐含层的激活函数采用对数S型函数, 隐含层到输出层的激活函数采用线性函数。表1、图7、8同时给出了标准BP算法、改进BP算法和遗传神经网络算法对训练样本和测试样本的预测结果。从表1、图7、8中可以得

20、出如下结论: 标准BP算法预测效果最差, 改进的BP算法预测效果有所改善,遗传神经网络预测的效果最好, 最接近实际值。采用实数编码的遗传算法, 运行结果稳定, 收敛速度能快且能达到全局收敛。虽然改进的BP算法仿真结果也能基本接近真实值, 收敛速度也较快, 但每次运行结果并不稳定, 会出现陷入局部最小等问题。图7 三种不同方法对训练样本的预测结果 图8 三种不同方法对测试样本的预测结果表1 几种不同方法的预测结果模型训练样本测试样本最大绝对误差均方差最大绝对误差均方差标准BP算法15.75164.778015.28103.8123改进的BP算法7.30022.13458.259322.5844遗

21、传神经网络7.08232.07226.65092.3218由此可见, 遗传神经网络在机械振动信号预测中是一种有效可行的方法。可根据已经测得的振动信号, 来预测机械设备未来的发展趋势, 从而确定设备是否发生故障; 再结合信号处理手段对预测的信号进一步分析就可以确定故障的性质和内容, 最终对故障进行定位, 进而解决。4 结 论从以上分析可以看出, 利用遗传算法优化的神经网络克服了遗传算法收敛至最优解速度较慢和神经网络易陷入局部解的缺陷, 收敛速度快、仿真结果稳定。作为一种机械故障诊断技术, 在工程实际中有一定的理论指导及应用价值。目前, 遗传神经网络作为一种机械故障诊断技术只是一种可行性理论, 要

22、将其真正用于解决实际工程问题仍需做大量的工作。参 考 文 献1 王江萍. 机械设备故障诊断技术及应用M. 西安: 西北工业大学出版社, 2001.2 陈安,罗亚田.人工神经网络方法在环境科学领域应用进展J.重庆环境科学,2003,25(9):1.3 董长虹.神经网络与应用,国防工业出版社,2010:1.4 高 隽. 人工神经网络原理及仿真实例M . 北京: 机械工业出版社, 2003.5 王桂荣. 机械故障诊断技术简介J. 电站设备自动化, 2006,12(4):24- 26.6 杨叔子, 吴 雅. 时间序列分析的工程应用M. 武汉: 华中理工大学出版社, 1992.课程作业要求训练神经网络1

23、)训练集:X = 2*pi*rand(1,300);Y = sin(X) + 0.2*randn(1,length(X)plot(X,Y,+)测试集:X2 = 2*pi*rand(1,300);Y2 = sin(X2) + 0.2*randn(1,length(X2)plot(X2,Y2,o)2) 网络结构:输入:1; 隐含:7 tanh元; 输出 1 线性元训练算法: BP算法3) 要求:a) 比较一般BP算法(trainbp),自适应变步长BP算法(trainbpa),给出每一次迭代后的性能指标;b) 测试以上模型的精度。c) 比较20个隐含元的神经网络建模精度,初始权值的影响,得出你的结

24、论。课程作业解答网络结构:输入:1; 隐含:7 tanh元; 输出 1 线性元1、 一般BP算法(trainbp)1)程序代码%训练集X=2*pi*rand(1,300);Y=sin(X)+0.2*randn(1,length(X);%建立网络n=7; %设置网络隐单元的神经元数目net=newff(minmax(X),n,1,tansig purelin,traingd);%绘制网络输出曲线并与原函数比较%网络训练net.trainParam.show=50; %显示迭代过程net.trainParam.lr=0.03; %学习率net.trainParam.epochs=5000; %训练

25、次数net.trainParam.goal=0.03; %训练精度net,tr=train(net,X,Y);%网络测试Y2=sim(net,X); %仿真训练好的网络%绘制网络输出曲线并与原函数曲线相比较figure;plot(X,Y,bh, X,Y2,ro)title(原函数曲线以及训练后网络的输出曲线 )2)运行结果TRAINGD, Epoch 0/5000, MSE 3.0595/0.03, Gradient 6.0222/1e-010TRAINGD, Epoch 50/5000, MSE 0.150506/0.03, Gradient 0.199409/1e-010TRAINGD,

26、Epoch 100/5000, MSE 0.113363/0.03, Gradient 0.127955/1e-010TRAINGD, Epoch 150/5000, MSE 0.0940516/0.03, Gradient 0.100774/1e-010TRAINGD, Epoch 200/5000, MSE 0.0814017/0.03, Gradient 0.0834641/1e-010TRAINGD, Epoch 4800/5000, MSE 0.0369912/0.03, Gradient 0.0025104/1e-010TRAINGD, Epoch 4850/5000, MSE 0

27、.0369821/0.03, Gradient 0.00240079/1e-010TRAINGD, Epoch 4900/5000, MSE 0.0369738/0.03, Gradient 0.00229607/1e-010TRAINGD, Epoch 4950/5000, MSE 0.0369663/0.03, Gradient 0.00219609/1e-010TRAINGD, Epoch 5000/5000, MSE 0.0369594/0.03, Gradient 0.00210071/1e-010TRAINGD, Maximum epoch reached, performance

28、 goal was not met.2、 自适应变步长BP算法(traingda)1) 程序代码%训练集X=2*pi*rand(1,300);Y=sin(X)+0.2*randn(1,length(X);%建立网络n=7; %设置网络隐单元的神经元数目net=newff(minmax(X),n,1,tansig purelin,traingda);%绘制网络输出曲线并与原函数比较%网络训练net.trainParam.show=50; %显示迭代过程net.trainParam.lr=0.03; %学习率net.trainParam.epochs=5000; %训练次数net.trainPar

29、am.goal=0.03; %训练精度net,tr=train(net,X,Y);%网络测试Y2=sim(net,X); %仿真训练好的网络%绘制网络输出曲线并与原函数曲线相比较figure;plot(X,Y,bh, X,Y2,ro)title(原函数曲线以及训练后网络的输出曲线 )2) 输出结果TRAINGDA, Epoch 0/5000, MSE 1.58955/0.03, Gradient 5.10807/1e-006TRAINGDA, Epoch 50/5000, MSE 0.0543699/0.03, Gradient 0.0433919/1e-006TRAINGDA, Epoch

30、100/5000, MSE 0.0427909/0.03, Gradient 0.106035/1e-006TRAINGDA, Epoch 150/5000, MSE 0.0407093/0.03, Gradient 0.111799/1e-006TRAINGDA, Epoch 200/5000, MSE 0.0454861/0.03, Gradient 0.361268/1e-006TRAINGDA, Epoch 4800/5000, MSE 0.0333791/0.03, Gradient 0.0416298/1e-006TRAINGDA, Epoch 4850/5000, MSE 0.0

31、415463/0.03, Gradient 0.380283/1e-006TRAINGDA, Epoch 4900/5000, MSE 0.0333217/0.03, Gradient 0.0467533/1e-006TRAINGDA, Epoch 4950/5000, MSE 0.0338066/0.03, Gradient 0.105669/1e-006TRAINGDA, Epoch 5000/5000, MSE 0.0368966/0.03, Gradient 0.255673/1e-006TRAINGDA, Maximum epoch reached, performance goal

32、 was not met.网络结构:输入:1; 隐含:20 tanh元; 输出 1 线性元1、 无初始权值的一般BP算法(trainbp)1) 程序代码%训练集X=2*pi*rand(1,300);Y=sin(X)+0.2*randn(1,length(X);%建立网络n=20; %设置网络隐单元的神经元数目net=newff(minmax(X),n,1,tansig purelin,traingd);%绘制网络输出曲线并与原函数比较%网络训练net.trainParam.show=50; %显示迭代过程net.trainParam.lr=0.03; %学习率net.trainParam.ep

33、ochs=4000; %训练次数net.trainParam.goal=0.03; %训练精度net,tr=train(net,X,Y);%网络测试Y2=sim(net,X); %仿真训练好的网络%绘制网络输出曲线并与原函数曲线相比较figure;plot(X,Y,bh, X,Y2,ro)title(原函数曲线以及训练后网络的输出曲线 )2) 运行结果TRAINGD, Epoch 0/4000, MSE 5.52748/0.03, Gradient 12.3627/1e-010TRAINGD, Epoch 50/4000, MSE 0.161774/0.03, Gradient 0.26965

34、2/1e-010TRAINGD, Epoch 100/4000, MSE 0.10668/0.03, Gradient 0.137831/1e-010TRAINGD, Epoch 150/4000, MSE 0.0861789/0.03, Gradient 0.100213/1e-010TRAINGD, Epoch 200/4000, MSE 0.0740102/0.03, Gradient 0.0807711/1e-010TRAINGD, Epoch 3800/4000, MSE 0.0411811/0.03, Gradient 0.0038706/1e-010TRAINGD, Epoch

35、3850/4000, MSE 0.0411588/0.03, Gradient 0.00383927/1e-010TRAINGD, Epoch 3900/4000, MSE 0.0411369/0.03, Gradient 0.00380848/1e-010TRAINGD, Epoch 3950/4000, MSE 0.0411153/0.03, Gradient 0.00377819/1e-010TRAINGD, Epoch 4000/4000, MSE 0.041094/0.03, Gradient 0.00374833/1e-010TRAINGD, Maximum epoch reach

36、ed, performance goal was not met.2、含初始权值的一般BP算法1)程序代码%训练集X=2*pi*rand(1,300);Y=sin(X)+0.2*randn(1,length(X);%建立网络n=20; %设置网络隐单元的神经元数目net=newff(minmax(X),n,1,tansig purelin,traingd);%初始化权值W=net.iw1,1net.iw1,1=0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0;%绘制网络输出曲线并与原函数比较%网络训练net.trainParam.show=50; %显示迭代过程n

37、et.trainParam.lr=0.03; %学习率net.trainParam.epochs=4000; %训练次数net.trainParam.goal=0.03; %训练精度net,tr=train(net,X,Y);%网络测试Y2=sim(net,X); %仿真训练好的网络%绘制网络输出曲线并与原函数曲线相比较figure;plot(X,Y,bh, X,Y2,ro)title(原函数曲线以及训练后网络的输出曲线 )3) 运行结果W = -8.9714 -8.9714 8.9714 -8.9714 -8.9714 8.9714 8.9714 -8.9714 8.9714 8.9714

38、-8.9714 -8.9714 -8.9714 -8.9714 8.9714 8.9714 8.9714 8.9714 -8.9714 -8.9714TRAINGD, Epoch 0/4000, MSE 8.77126/0.03, Gradient 26.4843/1e-010TRAINGD, Epoch 50/4000, MSE 0.4192/0.03, Gradient 0.217465/1e-010TRAINGD, Epoch 100/4000, MSE 0.342233/0.03, Gradient 0.226193/1e-010TRAINGD, Epoch 150/4000, MSE

39、 0.279247/0.03, Gradient 0.173973/1e-010TRAINGD, Epoch 3850/4000, MSE 0.131224/0.03, Gradient 0.0121074/1e-010TRAINGD, Epoch 3900/4000, MSE 0.131008/0.03, Gradient 0.0119216/1e-010TRAINGD, Epoch 3950/4000, MSE 0.130798/0.03, Gradient 0.0117409/1e-010TRAINGD, Epoch 4000/4000, MSE 0.130594/0.03, Gradi

40、ent 0.0115651/1e-010TRAINGD, Maximum epoch reached, performance goal was not met.结论1、 程序中的主要参数选取原则 大的学习速率可能导致系统的不稳定;但小的学习速率导致较长的训练时间,可能收敛很慢,不过能保证网络的误差值不跳出误差表面的低谷而最终趋于误差最小值。所以一般情况下倾向于选取较小的学习速率以保证系统的稳定性。一定程度上讲,训练次数越多,输出结果与原函数越接近。期望误差当然希望越小越好,但是也要有合适值。2、结果分析比较对于同为含7个隐含元,无初始权值的BP网络,一般BP算法训练5000次达到精度0.0369594,而自适应变步长BP算法精度0.0368966,自适应步长算法训练速度更快。对于同样的算法,采用7个隐含元和20个隐含元的训练结果相比,20个隐含元的神经网络精度达到0.0318238,隐含元越多精度高,而且收敛速度越快。同样采用一般BP算法,神经元数目同为20,无初始化权值的神经网络训练4000次精度达到0.041094,初始化权值的网络精度仅达到0.130594,可见无初始化权值的网络精度更高,且收敛更快。在程序训练过程中发现同样的参数设置,训练后的输出结果却不一样,可见神经网路训练具有随机性。16

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 高中资料

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:文库网官方知乎号:文库网

经营许可证编号: 粤ICP备2021046453号世界地图

文库网官网©版权所有2025营业执照举报