前言:一篇好文章的诞生,需要你不断地搜集资料、整理思路,本站小编为你收集了丰富的神经网络的本质主题范文,仅供参考,欢迎阅读并收藏。
Abstract: The technology of affecting the output accuracy of artificial neural network model has affected widespread ettention,and influence researches of sample quality to neural network output accuracy are very few,and the majority of these researcher about neural network structure. This paper analyses the influence of the sample to the output of artificial neural network,having important significance to improve accuracy of neural network output.
关键词: 人工神经网络;局部影响;BP神经网络;算法
Key words: artificial neural networks;local influence;BP neural network;algorithm
中图分类号:TP393.092 文献标识码:A文章编号:1006-4311(2010)07-0144-02
0引言
神经网络应用到预测有许多问题需要解决, 其中最为突出的问题就是没有一个确定的最合适的神经网络结构的标准方法,由于影响神经网络预测能力的参数很多,本文针对最为常用的BP神经网络,对影响神经网络预测精度的样本质量进行了详细分析和研究, 并在此基础上,给出优化样本后的具体例子。
1样本质量对网络的影响
用于神经网络的样本分为训练样本和测试样本,训练样本的质量在一定程度上决定着预测精度。首先,训练样本和待预测样本的均值存在较大差异, 预测误差会随着长时间的训练而增大。其次,训练误差会随着训练样本和待预测样本均值间差异的增大而增大。再次,训练误差会随着训练样本和待预测样本方差间差异的增大而增大[1]。下面是文献[1]对样本质量分析的方法。
文献[1]的人工神经网络预测误差为e=em+et+er,其中,e为预测误差;em为模型误差,它由所建回归模型与实际系统的差异引起的;et为最终的训练误差;er为人工神经网络训练和预测过程中引入的随机误差。et和er的存在是不可避免的,而em为:em=ef+ed,式中ef为实际输出值与预测输出值之间的误差,它反映了样本质量;为由不正确的嵌入维数引起的误差, 它可通过选择合适的输入神经元数来消除。
为了评价训练样本质量,根据ef提出“一致度”的指标。文献[1]定义了伪距离DCTP-D,但计算伪距离是相当复杂的,难于实现对样本质量的分析和应用。下面用协方差比统计量分析训练样本对预测精度的影响。
设训练样本为θ,是神经网络的输出,i是从θ中剔除第i个数据点的神经网络输出。则剔除第i个数据点的协方差比统计量CR=cv()cv()表明了剔除第个数据点对神经网络输出精度的影响,从精度方面刻画了第i个数据点的重要程度。CRi-1的值越大,对预测精度(神经网络输出)的影响越大。在使用PB神经网络预测时先对训练样本进行筛选,剔除对网络输出结果影响小的样本点。
样本精简:矩阵初等行变换能保持矩阵列向量之间的线性关系,利用这个结论我们可以用来进行样本数据的精简,这样精简后的样本数据能够保持各属性字段之间的线性关系。神经网络的训练实际上是一个通过给定样本实时调整网络连接权重的过程,样本预处理的结果对于网络训练的收敛性起到关键的作用。
2实例分析
本文采用麻省理工大学林肯实验室的测试数据KDDCUP99,它是专门用来进行入侵检测评估的。我们采用数据集上的一个子集10%作为实验数据源,它一共包含有494021条网络连接,其中正常连接97277 条,异常连接396744条。
下面我们针对DOS攻击类型数据(DOS攻击类型编码为“0 0 0 1”)进行分析。
设A为样本数据矩阵,其中每一行向量表示一条样本数据,则该行向量含34个数据,假设有a条样本,则A为a行34列矩阵;由于每条样本数据输入网络后都会有一条对应的输出,加上本实例为DOS攻击类型以编码“0 0 0 1”表示,则期望输出矩阵B为a行4列矩阵(暂时先不考虑阈值,只考虑权重问题)。本文BP神经网络的输入节点数为34个,隐含层节点数为15个,输出层节点数为4个虽然神经网络的连接权重可以用一个实数串进行表示,但在进行网络的训练时,还需要将实数串分为两部分,设输入层到隐含层的连接权重矩阵为W1,则W1为34行15列矩阵;同理,隐含层到输出层的连接权重矩阵W2为15行4列矩阵。于是我们可以得到公式(1)。
AWW=B(1)
如式(2)所示,A和B是系数矩阵 ,C是增广矩阵。经过带约束初等行变换后如式(3)所示。
C=[AB](2)
C=[AB]A′B′C D(3)
式(3)中,C、D为零矩阵,经过处理以后,由原先的A对应输出B变成了现在的A′对应输出B′,通过这样的处理,我们就可以将大样本变为小样本,从而使计算更加快速,样本数据更加精简。 为了能使样本应用于本文提出的分类检测器同步检测模型,我们将样本数据先进行归类合并,分别构造出DOS、PROBE、U2R、R2L四大类攻击样本数据集,这样四个检测器分别检测四大类攻击。为了降低可疑攻击数,即四大攻击类型数据集之间的重叠记录数要少。精度过大会增加计算量,从而会降低学习速度;精度过小,会使记录重叠数增加,从而造成可疑攻击数增加,影响训练结果。
对训练样本用上述方法进行优化后,利用矩阵初等行变换能保持矩阵列向量之间的线性关系这个结论,我们可以进一步对样本数据的精简,这样精简后的样本数据能够保持各属性字段之间的线性关系。神经网络的训练实际上是一个通过给定样本实时调整网络连接权重的过程,样本预处理的结果对于网络训练的收敛性起到关键的作用。
3结论
(1)分析神经网络进行非线性预测多变量预测的优越性以及神经网络用于预测的缺点所在。
(2)提出了影响网络预测能力的五个重要参数:样本质量、样本归一化、输人层节点数、隐层节点数及网络训练允许误差目标值。
(3)在一定允许训练误差的情况下,研究了无个参数对网络预测精度的影响,发现存在一个最优的样本、输入层节点数和隐层节点数,这样的网络具有较强的预测能力。
(4)本文用遗传算法构造了同时优化影响神经网络预测精度的参数(输入层节点数、隐层节点数及样本允许训练误差)的算法, 得到了较优的网络预测模型最后, 用算例验证了本文分析结果的正确性。
参考文献:
[1]陈果.神经网络模型的预测精度影响因素分析[J].北京: 模式识别与人工智能,2005,18(5):528-533.
[2]蒋林,陈涛,屈梁生.训练样本质量对人工神经网络性能的影响[J].北京:中国机械工程,1979,8(2):50-53.
[3]李敏强,徐博艺,寇纪淞.遗传算法与神经网络的结合[J].北京:系统工程理论与实践,1999(2).
[4]吴怀宇,宋玉阶.非线性回归分析中的神经网络方法[J].武汉:武汉冶金科技大学学报,1998,21(1):90-93.
【关键词】建筑经济管理;神经网络
中图分类号:TU198文献标识码: A
一、前言
建筑经济管理在我国是一个非常重要的行业,为社会的进步提供了夯实的基础,但是在神经网络的应用这方面还是存在一定的问题,所以,科学技术人员在这个方面还是很努力的研究,并且促使这个技术发展更为全面。
二、神经网络的特征及其信息处理特点
人工神经网络(Application of Neural Network,即:ANN)是一种对人脑中枢神经系统的生物神经结构进行的功能性抽象,在模式识别和分类领域显示了强大的能力,它们以“黑箱”模式工作,不需要先验模型,具有自适应能力,可以从数据中捕捉和学习规律,其计算能力在预测和评估、模式识别和优化等领域得到了广泛验证。神经网络尤其适合解决那些采用传统的数学方法和手段建模困难的复杂问题,并已被证明是解决复杂非线性问题的一种有效工具。
1、神经网络的基本特征
(1)内在并行性。神经网络是一个高度并行的非线性系统,其并行性不仅体现在结构上,它的处理运行过程也是并行的。神经网络从单个处理单元到整个系统,在理论和实践上都反映了并行性,计算是分布在多个处理单元上同时进行的。
(2)分布式存储。与传统计算机不同,神经网络中信息并非存储在一个特定的存储区域,而是分布存储在整个系统中。神经网络的每一个神经元都只是整体概念的一个部分,每一个单元都包含着对整体的贡献,而每一个单元都无法决定整体的状态。
(3)容错性。因为信息是分布存储在整个系统中,而不是驻留在某一个特定的存储区域内,因此,网络中部分神经元的误差不会在很大程度上影响改变整个系统的行为。
(4)学习与自适应性。神经网络的一个重要特点是具有很强的学习能力,它可以通过对数据的监督或非监督学习,实现任意复杂的函数关系,而且整个网络具有自适应性,即进行自我调节的能力。
2、神经网络的信息处理特点
神经网络的基本特征使其在信息处理上具有与传统信息处理技术不同的特点。
(1)数据驱动、“黑箱”建模方式。神经网络通过训练能够直接从数据中发现规则和特征,实现任意复杂的函数映射。这种学习能力使得神经网络分析和建模过程相当于一个“黑箱”,既无需模型结构设计和参数估计过程,而且在没有输入模式先验信息的情况下,通过数据驱动取得优良的结果。
(2)非编程、自适应的工作方式。神经网络的学习是便利而且可塑的,在网络整体结构不变的情况下,只需调整权值即可完成任意关系的学习,通过递进补充训练样本即可跟踪和适应外界环境的不断变化。因此,神经网络的工作方式可以是实时的和自适应的。
(3)信息处理与存储合二为一。神经网络在运行时信息处理与存储同时完成,信息的隐含特征和规则分布于神经元状态和权值之上,通常具有冗余性。这样,当不完全信息或含噪信号输入时,神经网络就可以根据这些分布记忆进行联想以恢复全部信息。同时,这种合二为一的方式从本质上消除了软件和算法的“瓶颈效应,”提供了实现高速信息处理的手段。
(4)实时信息处理。神经网络是一个大规模非线性动力学系统,具有高维、高密度的并行计算结构。大量神经元的微观活动构成了神经网络的整体宏观效应。这种集体运算能力使得神经网络可以完成高维数据的在线实时处理。
三、建筑经济管理研究面临的问题
1、对系统的非线性认识不足
(1)忽视了系统内各变量之间复杂的非线性关系,过分强调先验假设。建筑活动在理论和实践中有明显的非线性和复杂性。建筑经济管理问题的本质上是因为现实的复杂性导致的非线性。建筑活动随时代和环境的变迁表现出其非线性特征。一方面,建筑经济管理问题的线性假没体现了系统特殊性。但另一方面,系统建模时所使用的理论总是落后于现实,这是因为其相关理论发展的滞后性,而这又是由于其非线性和复杂性引起的。
(2)忽视数据本身效用,过分依赖理论指导。模型的函数形式很难仅仅通过理论考虑获得。在实践中选择理论框架既是十分重要又是十分困难的。
2、对系统变量自身特征的认识不足
(1)变量(数据)的高噪声。采集、编制建筑经济管理数据时会有很多误差,再加上诸多外在因素的冲击造成了波动强烈变形,所以数据是包含有许多“奇异点”而且是高噪声。
(2)变量的高度不确定性。目前经济学界对不确定性没有一个统一的定义,一般情况下有2种不确定性的定义。一种定义是变量的不确定性通过随机变量的方差来定义,通常称为概率型不确定性,也可称为“风险”。另一种定义是一种没有稳定概率的随机事件,称为非概率型不确定性。
(3)变量不同程度的模糊性。一定的模糊性是大多数建筑管理问题变量的特点。现实中的不分明现象就是模糊性。而从一种状态过度到另一种有差异的状态的过程中,中间发生了量变到质变的连续过程。总之,常常需要解决建筑管理中的决策、优化等非线性问题,由于它们的一次性、高度动态性和复杂性的特点,建筑管理的信息是随机的,具有非线性和时变性,相应的变量也有不确定性、高噪声和模糊性的特点,因此搜集数据、分析因素等方面有相当大的难度。
四、ANN在建筑工程项目管理中的应用研究
1、ANN在造价预测方面的应用
汪应洛,杨耀红(2004年)总结了ANN在费用估计方面的应用。采用BP网络,用40个公路工程样例训练网络,并用工程实例进行验证,发现效果比传统方法好。Tarek Hegazy(1998年)等用MS-Excel表格进行ANN模拟,并在输入层和隐含层加入了偏置神经元来促进网络学习。其缺点是由于网络学习时的训练样本数据中有噪声,会造成过度学习现象,运用规范化网络可以解决这个问题。周丽萍,胡振锋(2005年)在研究BP神经网络在建筑工程估价中的应用时指出,可以利用神经网络“特征提取器”的作用,从大量过去的工程资料中自动提取工程特征与预算资料的规律关系;由于神经网络具有高度的容错性,因而对于过去的工程资料中由于人为的或其他因素造成的偏差有自动纠偏功能;此外由于神经网络是并行处理数据的,因而其处理速度相当快,这点满足了快速估算要求,实践证明是有效的。
2、ANN在工程项目管理绩效评价中的应用
闫文周(2005年)等运用ANN中的BP网络对工程项目管理绩效评价问题进行研究,建立了一个综合考虑项目工期、质量、费用、安全四大控制指标的工程项目管理绩效评价模型。实例分析表明,其评价结果更加全面、更加符合实际情况,从而有助于促进工程项目管理水平的提高。基于BP神经网络的工程项目管理绩效评估模型,将影响工程项目管理绩效的主要因素进行整合,通过神经网络反映了工程项目工期、质量、成本、安全与项目绩效之间复杂的非线性关系,从而使项目管理绩效的评价更客观。
3、Hop field网络模型在建设工程评标中的应用
建设工程评标是一个多目标决策过程,评标过程中存在着大量的定性和模糊的因素,评标人很难快速做出准确客观的评判。朱玉涛(2006年)等用ANN作为新型信息处理工具,在建设工程评标中可应用于优选中标企业。介绍了Hop field网络模型构造及算法设计,包括进行方案优劣排序、换位矩阵以及能量函数构造、神经元之间连接和输出,并用实例说明了该方法的优越性和实用性。应用Hop field网络对非定量因素进行科学的分析,可以消除一些人为因素的影响,使评选结果更加合理。
4、BP网络模型在建设工程招投标管理中的应用
BP网络以其自学习、自联想功能的优点在建设工程招投标中得到广泛应用。杨中宣(2006年)结合人工神经网络基本理论,介绍了它在工程招投标的招标价格、风险因素分析以及竞标单位资格审查等方面的应用,指出利用人工神经网络具有的高度并行处理和可完成复杂输入输出的非线性映射能力,不仅可以保证高的中标率,且可避免招标过程中不确定性因素的影响。
五、人工神经网络的发展趋势
人工神经网络在建筑管理中的应用与研究,解决了不少该领域中的难题,显现出广阔的应用前景。但是,神经网络作为新兴学科,在理论和实践中,还有很多不完善和不成熟的地方,又在一定程度上制约了它的实际应用。因此在利用人工神经网络解决问题时,需要选定合适的网络模型及网络算法,同时还要加深人工神经网络基础理论方面的研究。
六、结束语
总而言之,就建筑经济管理中神经网络的应用这方面而言,这项技术的发展不仅使建筑经济管理体系更加的完善,更加使人们的生活带来了许多的便利条件,通过科学技术人员的不断努力,会使为社会发展做出巨大的贡献。
参考文献
[1]王其文,刘广灵.人工神经网络与线性回归的比较 决策与决策支持系统,2008(4):22-26.
关键词:BP神经网络;计算机实验室管理;评价指标分析
中图分类号:TP183 文献标识码:A 文章编号:1674-7712 (2013) 04-0088-01
一、BP神经网络
从本质上讲,BP神经网络算法是以网络误差平方和为目标函数,运用梯度法求目标函数达到最小值的算法。纠错原则是BP算法最为基本的一个原理,将网络输出的误差进行反向传播,运用梯度下降法,对网络的连接权值进行调整和修改,使其误差最小。在学习过程中,BP算法可以划分为两个阶段,一是前向计算,一是误差反向传播。在这里我们主要通过具体的来分析,假设一个两层的 BP神经网络,其输入为p,输入神经元有r个,隐含层内神经元有s1个,激活函数为F1,输出层内有神经元s2个,对应的激活函数为F2,输出为A,目标矢量为T,那么信息在进行正向传递时,具体的情况如下:
二、模型设计
其次是模型设计。BP神经网络的建立,在确定了相关指标体系以后,就需要将确定相关的结点数,如输入结点数、隐含结点数、输出结点数、每一层的结点数等,在起初建立时,需要根据初始网络参数,适当地调整网络结构,通过网络训练,使得整个学习过程更加稳定,与此同时,对于指定的误差进行调整,并且规定最大值,并且利用相关的测试数据来进行BP神经网络的优化处理,确定其达到设计的准确性与规范性,那么一个BP神经网络模型就建立起来了。第三是模型确立。对于模型的确立主要体现在三个方面,这里作简单分析,一是输入输出神经元个数确立,通常情况下,实验室管理指标主要有13个二级指标和4个一级指标,其中,这13个指标就是输入神经元的个数,同时将输出的神经元作业评价的结果,由于评价的结果只有一个,那么输出神经元的个数也只有1个。二是隐含神经元个数确立。
三、仿真分析
根据以上分析我们知道,BP神经网络算法是以网络误差平方和为目标函数,运用梯度法求目标函数达到最小值的算法。为此,对于仿真分析,需要根据纠错原则,确定网络输出的误差的反向传播,并且结合梯度下降法,优化网络的连接权值,调整和修改误差值,通过Matlab软件编程,构造BP神经网络,确定指标体系后,确定相关的结点数,设置权值,nntool中input的value设置,根据初始网络参数,调整网络结构,并指定的误差进行调整,利用相关的测试数据来进行BP神经网络的优化处理,确定其达到设计的准确性与规范性。
四、总结
总而言之,BP神经网络评价模型的建立,不仅可以促进实验室管理的规范化,而且有利于提高实验室日常管理水平,因此,要对其模型建立进行具体分析,优化其结构和和功能,最大限度发挥其价值和作用。
参考文献:
[1]李俊青,陈鹤年,严丽丽,季文天.基于BP神经网络的计算机实验室管理评价指标[J].实验室研究与探索,2011(04):71-73.
人工神经网络是由大量的简单基本元件-神经元相互联接而成的自适应非线性动态系统。每个神经元的结构和功能比较简单,但大量神经元组合产生的系统行为却非常复杂。人工神经网络的基本结构模仿人脑,反映了人脑功能的若干基本特性,能够自身适应环境、总结规律、完成某种运算、识别或过程控制。人工神经网络具有并行处理特征,可以大大提高工作速度。
人工神经网络的特点和优越性,主要表现在三个方面:
第一,具有自学习功能。
第二,具有联想存储功能。
第三,具有高速寻找优化解的能力。
1 神经网络的学习方法
神经网络的学习也称为训练,指的是神经网络在外界环境的刺激作用下调整网络自由参数,并以新的方式来响应外部环境的过程。能够从环境中学习并在学习中提高自身性能是神经网络最有意义的性质。理想情况下,神经网络在每一次重复学习后,对它的环境有了更多的了解。
(1) 监督学习(有教师学习)
在学习时需要由教师提供期望输出,通常神经网络对于周围的环境未知而教师具有周围环境的知识,输入学习样本,教师可以根据自身的知识为训练样本提供最佳逼近结果,神经网络的自由参数在误差信号的影响下进行调整,其最终目的是让神经网络模拟教师。
(2) 非监督学习(无教师学习)
它也称为自组织学习,系统在学习过程中,没有外部教师信号,而是提供给一个关于网络学习性质的度量,它独立于学习任务,以此尺度来逐步优化网络,一旦网络与输入数据的统计规律达成一致,那么它将发展形成用于输入数据编码特征的内部表示能力,从而自动创造新的类别。
(3)强化学习(激励学习)
在强化学习系统中,对输入输出映射的学习是通过与外部环境的不断交互作用来完成学习,目的是网络标量函数值最小,即外部环境对系统输出结果只给出评价信息(奖或罚)而不是给出正确答案,学习通过强化那些受奖的动作来改善自身性能。
神经网络针对学习问题修改网络自由参数的过程称为学习规则(学习算法),设计学习规则的目的是训练网络来完成某些任务,没有一个独特的学习规则可以完成所有的学习任务。神经网络有5个基本的学习规则:误差--修正学习,基于记忆的学习,Hebb学习,竞争学习,随机学习。
2 神经网络的研究趋势
(1) 利用神经生理与认知科学研究大脑思维模式及智能机理过程
深入研究神经网络理论神经网络在一定程度上揭示人类智能和了解人脑的工作方式,由于人类对神经系统的了解非常有限,而且对其自身脑结构及其活动机理的认识不完善,故而神经网络只能是模仿人脑的局部功能,而对人脑作为一个整体的功能解释,神经网络起不到任何作用。神经科学,心理学和认识科学等方面提出的一些重大问题,是向神经网络理论研究提出的新挑战,这些问题的解决有助于完善和发展神经网络理论,因此利用神经生理和认知科学研究大脑思维及智能机理,如有新的突破将会改变智能和机器关系的认识。
(2) 神经网络领域的数学研究趋于重要
随着神经科学基础理论研究的深入,用数理方程探索智能水平更高网络模型将是研究的趋势所在,神经元以电为主的生物过程在认识上一般采用非线性动力学模型,其动力演变过程往往是非常复杂的,神经网络这种强的生物学特征和数学性质,要求有更好的数学手段,而对于神经网络这样非线性模型,需要用数学方法研究网络新的算法和网络性能,如稳定性、收敛、容错性、鲁棒性等,开发新的网络数理理论,如神经动力学、非线性神经场等。研究人员断言一种更简洁、更完善和更有效的非线性系统表达与分析的数学方法是这一领域主要目标之一。
(3) 神经网络软件模拟、硬件实现的研究以及神经网络在各个科学技术领域应用的研究
目前,数字计算机在计算方面的能力已远远超出入的大脑,但在自然语言理解、图像辨识、信息处理等方面都显得笨拙,原因是基于冯・偌依曼思想的计算机结构及其运算方式与人的大脑有本质的区别,而神经计算机(第六代计算机)以神经网络为理论基础,用于模拟神经网络,具有自学习、自组织和自适应能力,能更有效地处理复杂问题,其实现过程用光学、生物芯片的方式,现在光学神经计算机和分子计算机的研究是神经网络的前沿课题。
(4) 神经网络和其它算法结合的研究
神经网络和其它算法的结合和交叉,研究新型神经网络模型也是发展方向之一。如神经网络和模糊逻辑结合,建立模糊神经网络;将混沌理论和神经网络结合建立混沌神经网络;将遗传算法和神经网络结合;利用遗传算法优化神经网络的结构或权值;将小波分析和神经网络结合建立小波神经网络;专家系统,贝叶斯学习以及粗糙集理论和神经网络结合等,这些都是神经网络研究的热点。
3 结束语
神经网络虽已在许多领域应用中取得了广泛的成功,但其发展还不十分成熟,还有一些问题需进一步研究。比如:神经计算的基础理论框架以及生理层面的研究仍需深入;新的模型和结构的研究;神经网络的可理解性问题;神经网络技术与其他技术更好的结合等。
关键词:宏观经济;预测模型;BP神经网络;非线性
中图分类号:TP183;F015 文献标识码:A
文章编号:1006-4311(2009)11-0088-03
0引言
利用经济指标的准确预测是国家对宏观经济正确调控的必要前提。但经济系统,特别宏观经济系统是非常复杂的系统,广泛存在着非线性、时变性和不确定作用关系;而在计量经济学理论基础上建立的各种宏观经济模型,大都是线性模型,很难把握宏观经济系统中的非线性现象,必然导致经济预测的误差加大。学者们因此对各种线性模型做了不少改进,如建立分段线性模型、参数时变线性模型等,但结果并不理想。于是人们寻求一些非线性工具进行宏观经济建模。而神经网络具有并行计算、分布式信息存储容错能力强、自适应学习功能等优点,在处理复杂的人工智能和非线性问题上显示了优越性。
1基于BP神经网络的预测模型
BP(Back-Propagation)神经网络结构是前向的多层网络,含有输入层节点、输出层节点和一层或多层的隐层节点,同层的各神经元之间互不连接,相邻层的神经元则通过权值连接。当有信息输入BP神经网络时,信息首先由输入层节点传递到第一层的隐层节点,经过特征函数(人工神经元)作用之后,再传至下一隐层,这样一层一层传递下去,直到最终传至输出层进行输出。其间各层的激发函数要求是可微的,一般是选用S型函数。最基本的BP神经网络包括输入层,隐层,输出层这三层节点的前馈网络,其结构如图1所示。
BP神经网络使用一组样例对网络连接权值进行学习训练,每个样例都包括输入及期望的输出。在正向传播过程中,首先将训练样例的信息输入到网络中,输入信息从输入层经隐层节点逐层计算处理后,传至输出层。在计算处理过程中,每一层神经元的状态只影响下一层神经元的状态,如果在输出层得到的结果不是所期望的输出,那么就转为反向传播。反向传播把误差信号沿原连接路径返回,并按照一定原则对各层神经元连接权值进行适当修改,直至第一个隐层;这时再开始进行正向传播,利用刚才的输入信息进行正向网络计算。如果网络输出达到了误差要求,则学习过程结束;如果达不到误差要求,则再进行反向传播的连接权值调整。这一过程不断往复,直到网络正向计算输出结果达到误差要求为止,学习就告结束。网络训练结束后,在用于求解实际问题时就只须使用正向传播。
2具体应用
2.1 样本获取
神经网络建模关键之一是网络训练样本的选取。在模式识别征抽取是一个重要环节,抽取稳定且有效的特征是识别系统成功的关键。神经网络建模也就是对系统进行模式识别,神经网络中的特征抽取也就是样本的选取,包含原始数据收集、数据分析、变量选择及数据预处理;只有经过这些步骤后,才能对神经网络进行有效的学习训练。训练样本质量直接影响网络应用效果,应根据实际情况选取合适的能表达对象全面特征的样本,好的训练样本能提高网络学习速度和效果,并提高网络泛化能力。建立本预测模型时选取样本,首先是建模必须建立在一个基本固定的环境下; 其次是样本选取应涵盖系统特征的信息,要能够包含在控制中的输入输出特征,能给神经网络提供较为全面的边界信息。本模型旨在对西安市14个指标2008年的数值进行预测:GDP、全社会固定资产投资、居民消费价格指数、零售总额、工业增加值、财政收入、财政预算、可支配收入、农民人均纯收入、城镇新增就业人数、进出口总额、出口、外商直接投资、工业出厂价格指数。在排除各年可能发生异常情况下,用各指标前几年数据预测紧接着下一年的各指标数据。
2.2 神经网络模型结构
关键词:汽车尾气;自组织特征映射(SOM);竞争学习;聚类分析
中图分类号:U467.5+21文献标文献标识码:A文献标DOI:10.3969/j.issn.2095-1469.2013.05.06
持续增长的汽车保有量给城市发展带来各种形式的环境压力,特别是其尾气排放所引起的空气污染问题[1]。大量文献指出汽车尾气会给人类健康造成许多负面影响,并且随着暴露在这些污染物中的人群数量的增加,这些负面影响在城市中日益加剧[2-3],
于是针对汽车尾气更严格的排放标准[4]得以实施。为满足这一新标准,学术界和工程界的专家学者提出许多方法和技术以降低汽车尾气中有害气体的排放量[5-6]。然而,极少有研究从“大数据”的角度[7]关注汽车尾气的污染评估模型。事实上,职能监管部门更关心的是在真实行驶条件下对汽车尾气排放的大数据进行分析,借此评估汽车尾气对城市环境的影响程度,进而为新标准的有效执行提供决策依据。
由于燃料在发动机中的物理化学反应极其复杂,加之车辆驾驶方式因人而异,以及车辆行驶环境的多样性,导致汽车排放的尾气具有复杂的非线性、时变性和随机性等特征,从而使基于发动机中物化反应原理的汽车尾气排放模型无法满足对排放水平高可靠分析的需要。作为一种非线性数据分析工具,神经网络广泛应用于数据分析的各个领域[8]。事实上,通过分析汽车尾气数据以实现对排放水平的评估,本质上可看成是一个数据聚类问题。众所周知,自组织映射神经网络(Self-Organizing Map Network,SOM NN)在数据的聚类、分类问题中得到广泛关注,并取得良好的应用效果[9-10]。然而,SOM网络所采用的固定邻域半径的学习方式容易造成训练“死区”,使某些神经元无法得到合适的训练,进而影响数据聚类、分类的准确性[11-12]。
针对上述问题,本文提出一种在自组织特征映射下的汽车尾气排放水平评估方法。该方法将汽车尾气按不同的城区行驶速度划分为不同的排放种类,每种行驶速度对应着一种排放水平,通过SOM神经网络的拓扑有序映射将高维的排放数据映射到一个二维的特征空间,以描述汽车在真实条件下不同速度的排放水平。为提高数据聚类的准确性,在SOM神经网络采用的固定邻域半径的基础上,通过引入权值与输入向量之间的夹角来定义一种新的弹性邻域半径。该弹性邻域半径可自适应地缩放竞争层神经元的学习区域,避免这些神经元因权值在初始化过程中离输入向量太远而进入训练死区。
1 具有弹性邻域半径的SOM神经网络
由于SOM神经网络中邻域半径的更新过程采用固定的缩放方式,使网络训练容易形成训练死区,为了提高对汽车排放数据聚类的准确性,本文提出一种具有弹性邻域半径的SOM神经网络。该网络的拓扑结构与Kohonen提出的SOM网络相同,只是在竞争学习过程中采用弹性邻域半径来缩放学习区域。
1.1 SOM神经网络的拓扑结构
荷兰学者Kohonen提出的自组织特征映射,本质上属于一种无监督竞争学习的动态映射方式[13-15]。由此产生的SOM神经网络中,一次仅有一个神经元被“激活”。图1给出了这种网络常用的拓扑结构(从一维的输入到二维的映射输出),其基本思想是:来源于原始事件空间中的输入信号被由自适应单元所构成的简单网络接受,输入信号以某种表示方式被自动映射为一系列输出响应,这种输出响应保持了与原始事件相同的拓扑排序的方式。因此,SOM神经网络能自动形成对事件属性的正确拓扑映射。换言之,SOM神经网络能以拓扑有序的方式,将任意维数的输入模式变换成一维或二维的特征映射[16-17]。
值得指出的是,在图1所示的结构中,即使输出神经元之间没有侧向连接,但与输入具有最佳匹配的神经元(即获胜神经元)邻域内的其它神经元被更新,使这个邻域内的神经元与其以前所处的状态相比,更像获胜神经元那样响应。网络中的神经元并不是以相互独立的方式,而是以拓扑相关的方式进行学习。这种学习方式对于形成有序映射来说是至关重要的。
1.2 改进的竞争学习算法
SOM神经网络的竞争学习算法可通过下述推导加以描述。图1中的SOM神经网络的输入可写成向量形式。
。
二维阵列中的神经元i的突触权值向量由下式给出。
。
式中,m是二维阵列中的输出神经元总数。在Kohonen的竞争学习算法中,输入向量x与突触权值向量wi的最佳匹配由下式确定。
。
这里的q(x)表示输出神经元阵列的索引,特别指定为获胜神经元,是欧几里德范数,也是获胜神经元所在的邻域半径。然而,这种固定邻域半径容易形成训练死区,使某些神经元因初始权值向量离输入向量太远以至于它从未在竞争中获胜,即从未参与竞争学习而形成毫无用处的死神经元。为此,本文提出一种弹性邻域半径ri(k),并将其定义为
。
式中,表示Kohonen的竞争学习中的固定半径,而是输
入向量与竞争层神经元权值之间的相似系数。当输入向量与权值相似较大时,会放大邻域半径,扩大竞争学习区域;当相似较小时,会缩小邻域半径,使竞争层神经元尽快进入学习区域。
那么,输入向量x与突触权值向量wi的最佳匹配可以定义为
。
式中,。竞争学习算法的下一步是更新与获胜神经元相联系的突触权值向量和获胜神经元的确定邻域内的神经元的突触权值向量。相应的学习规则可表示为
式中,学习率参数0
2 数值试验
为验证本文所提方法的有效性,本节选取一种轻型车在真实行驶条件下的不同批次排放测试数据为对象开展数值试验。通过SOM神经网络的拓扑有序映射,将排放数据按照不同速度的行驶模式聚类,每种行驶模式所得到的数据种类便代表了一种排放水平。
2.1 数据介绍
数值试验所使用的排放数据来源于一种轻型车按国家标准GB 18352.3―2005进行的测试。根据该标准,从同种类型的轻型车抽样出若干样本,驾驶这些抽样的轻型车分别在城市和郊区环境中按照指定速度行驶,最终获取该类汽车在相同行驶条件下不同车次的排放数据。图2给出了汽车尾气排放数据采集过程。其中,城区环境分为4个循环单元,每个单元的速度设置相同,并都采集195个数据样本;而郊区环境仅采集400个数据样本,整个数据长度为1 180个样本点。在同一辆车的1 180个数据样本中,所测试的排放气体包括以下几种类型:COL(g/100 km)、NOx(g/100 km)、THC(g/100 km)和CO2(g/100 km)。
需要指出的是,上述指标的排放数据并未全部在本文中使用。事实上,通过分析数据的组合分布,最终选择的排放指标为THC(g/100 km)和CO2(g/100 km)。此外,由于城区的污染较为严重,因此本文关注车辆在城区环境的排放情况,而车辆在郊区的排放数据不予考虑。图3给出了数值试验中所采用的THC和CO2数据样本。
图3中的所有数据均为同种轻型车的5辆车在相同的真实条件下进行1次测试得到的排放数据。这些数据在归一化之后,将被提交给SOM神经网络以完成网络的训练。
2.2 网络训练
根据图3所示的数据采样过程,这类轻型车的排放情况按照市区运转循环单元中的速度条件可分为12类。因此,SOM神经网络的神经元个数设置为12,每个神经元的输出代表一种排放水平。训练过程可按如下步骤完成。
(1)将输入的排放数据样本归一化到[-1,1]之间,并随机初始化网络的权值,设置学习率参数为1,邻域初值为1。
(2)指定500次的学习次数为停止条件,检查停止条件,如果失败,则继续,如果成功,则退出。
(3)对于每个训练样本,执行(4)~(7)步。
(4)按照式(5)计算与输入向量匹配最好的权值向量。
(5)按照式(6)更新计算权值向量。
(6)调整学习率参数。
(7)适当缩减拓扑邻域Nq(k)。
(8)设置kk+1,然后转到步骤(2)。
需要说明的是,为使本文的方法更具说服力,采用固定邻域半径的SOM神经网络在相同数据集的基础上,除输入向量最佳匹配按式(4)计算外,同样按照上述步骤完成数值试验。基于固定邻域半径和弹性邻域半径的SOM神经网络的训练结果由图4给出。
图4中的数据类别与汽车尾气排放水平一一对应,只要确定排放数据的种类便能确定其相应的排放水平。从图4所示的训练结果来看,采用固定邻域半径的SOM神经网络在排放数据的聚类中明显出现数据类别(排放水平)的混叠现象。例如,图4(b)中具有排放水平4~6的尾气数据聚类中出现不同程度的混叠。其中,数据种类5与数据种类6的混叠较为严重,导致部分具有排放水平5和排放水平6的数据区分出现错误。因此,相比于图4(a)所示的采用弹性邻域半径学习的聚类效果而言,图4(b)中所示的采用固定邻域半径学习的SOM神经网络较差。
为进一步分析两种学习方式的训练结果,带有距离分布的竞争层神经元拓扑结构由图5给出。
图5中的蓝色六角形代表神经元,红线为各神经元之间的连接线,而包含红线的菱形表示各神经元之间距离的远近,从黄色到黑色,随着颜色加深距离越近。图中神经元编号从左下角开始(0,0)为1号神经元,右下角(0,3)为4号神经元,第2行第4列(1,3.5)为5号神经元,依次类推,左上角(0,1.75)为12号神经元。从图5(a)所示的拓扑结构可看出,在采用弹性邻域半径的SOM神经网络中,竞争层的各个神经元彼此隔离,距离较远,各个数据类别能较好地分开。而图5(b)所示的采用固定邻域半径的SOM神经网络中,4~5与5~6号神经元的距离较近,导致排放数据所对应的类别相互纠缠。这也正是图4中混叠现象出现的原因。
2.3 网络测试
完成SOM神经网络的训练后,选取第1辆车和第2辆车在相同条件下的另一次排放测试数据分别提交给采用弹性邻域半径和固定邻域半径的SOM神经网络。图6给出了两种学习方式下的聚类结果。
从图6(a)与图6(b)的对比结果来看,采用固定邻域半径的SOM神经网络聚类效果低于采用弹性邻域半径的SOM神经网络。图6(b)清晰地显示出排放水平5和排放水平6存在着混叠,也就是说原本属于排放水平5的数据被错误地划分到排放水平6中。类似的,具有排放水平4的数据也被错误地划分到排放水平5中。这与网络的训练结果相吻合。值得注意的是,在测试中,排放水平2与排放水平3也出现了混叠,这是由于网络的泛化性能不足造成的。解决该问题的一个有效途径是增加训练回合数,但这会增加时间的消耗。从这一点来说,采用弹性邻域半径的SOM神经网络在与采用固定邻域半径的SOM神经网络保持相同聚类准确度的条件下,前者需要的训练回合数更少。表1给出了在数值试验中,两种学习方式进行排放数据聚类的总体比较情形。
从表1看出,在网络设置相同的前提下,采用弹性邻域半径学习的SOM神经网络在网络训练与测试的过程中,对排放数据的聚类效果都要优于采用固定邻域半径学习的SOM神经网络网络。在网络测试过程中的数据样本总数为3 900个,在网络测试过程中的数据样本为1 560个。其中,采用弹性邻域半径的学习方式下,网络训练过程中聚类正确的样本个数为3 587,测试过程中聚类正确的样本个数为1 410;采用固定邻域半径学习方式下,网络训练过程中聚类的样本个数为3 452,测试过程中聚类正确的样本个数为1 348。因此,在训练过程中,采用弹性邻域半径和固定邻域半径的网络训练过程中的聚类正确率分别为91.97%和88.51%,而测试过程中的聚类正确率分别为90.38%和86.41%。
3 结论
本文提出了一种基于SOM神经网络的汽车尾气排放水平的评估方法,其主要贡献在于通过引入相关系数来设计弹性邻域半径,进而自适应地更新竞争层神经元的学习邻域,避免这些神经元陷入训练死区,以提高对汽车排放数据聚类的准确性。在数值试验中,根据汽车在城区行驶的不同速度将排放数据分为不同的类,每个数据类代表一种排放水平。通过与采用固定邻域半径的SOM神经网络的对比,以某轻型车排放数据为对象的数值试验结果表明,采用弹性邻域半径的SOM神经网络对于汽车尾气排放水平的评估具有较高的准确性。
参考文献(References)
PANDIAN S,GOKHALE S,GHOSHAL A K. Evaluating Effects of Traffic and Vehicle Characteristics on Vehicular Emissions Near Traffic Intersections[J]. Transportation Research Part D,2009(14):180-196.
POPE C A,DOCKERY D W. Health Effects of Fine Par-ticulate Air Pollution:Lines That Connect[J]. Journal of Air and Waste Management Association,2006(56):709-742.
MEISTER K,JOHANSSON C,FORSBERG B. Estimated Short-Term Effects of Coarse Particles on Daily Mortality in Stockholm,Sweden[J]. Environmental Health Perspectives,2011(120):431-436.
GB 18352.3―2005. 轻型汽车污染物排放限值及测量方法[S]. 北京:中国标准出版社,2005.
GB 18352.3―2005. Limits and Measurement Methods for Emissions from Light-Duty Vehicles(Ⅲ,Ⅳ)[S]. Beijing:
China Standard Press,2005. (in Chinese)
ZAMBONI G,CARRARO C,CAPOBIANCO M. On-road Instantaneous Speed Measurements on Powered Two-Wheelers for Exhaust Emissions and Fuel Consumption Evaluation[J]. Energy,2011(36):1039-1047.
WEILENMANN M F,SOLTIC P,HAUSBERGER S. The Cold Start Emissions of light-Duty-Vehicle Fleets: a Simplified Physics-Based Model for the Estimation of CO2 and Pollutants[J]. Science of the Total Environment, 2013(444):161-176.
VIKTOR M, KENNETH C.大数据时代:生活、工作与思维的大变革[M]. 盛杨燕,周涛,译.杭州:浙江人民出版社,2012.
VIKTOR M,KENNETH C. A Revolution That Will Transform How We Live,Work,and Think[M]. Sheng Yangyan,Zhou Tao,Translate. Hnagzhou:Zhejiang People's Publishing House,2012.(in Chinese)
HYV?RINEN A,OJA E. Independent Component Analy-sis:Algorithms and Applications[J]. Neural Networks,2000,13 (4-5):411- 430.
GHASEMINEZHAD M H, KARAMI A. A Novel Self-Organizing Map(SOM) Neural Network for Discrete Groups of Data Clustering[J]. Applied Soft Computing, 2011,11(4):3771-3778.
HSU K C,LI S T. Clustering Spatial Temporal Precipi-tation Data Using Wavelet Transform and Self-Organizing Map Neural Network[J]. Advances in Water Resources,2010,33(2):190-200.
MAY R J,MAIER H R,DANDY G C. Data Splitting for Artificial Neural Networks Using SOM-Based Stratified Sampling[J]. Neural Networks,2010,23(2):283-294.
JIANG X,LIU K,YAN J,et al. Application of Improved SOM Neural Network in Anomaly Detection[J]. Physics Procedia,2012(33):1093-1099.
KOHONEN T. Self-Organized Formation of Topologically Correct Feature Maps[J]. Biological Cybernetics,1982, 43(1):59-69.
KOHONEN T. The Self-organized Map[J]. IEEE Procee-dings,1990(78):1464-1480.
KOHONEN T. Self-organization and Associative Memory
(3rd ed.)[M]. Berlin:Springer Verlag,1989.
华.量子计算在动态递归与自组织神经网络中的机理及应用研究[D].重庆:重庆大学,2012.
Li Penghua.Study on the Mechanism for Dynamic Recur-sive & Self-Organizing Neural Networks Using Quantum Computing and Its Application[D]. Chongqing:Chongqing University,2012. (in Chinese)
关键词:小波分析;神经网络;故障定位;配电网
作者简介:李晓东(1975-),男,宁夏吴忠人,宁夏电力公司吴忠供电局,助理工程师。(宁夏 吴忠 751100)
中图分类号:TM726 文献标识码:A 文章编号:1007-0079(2013)26-0201-03
配电网直接联系用户,其可靠供电能力和供电质量既是电力企业经济效益的直接体现,又对应着不可估量的社会效益。配电网故障自动定位作为配电自动化的一个重要内容,对提高供电可靠性有很大影响,也得到了越来越多的重视。本文在分析研究小波神经网络特征的基础上利用小波的时频分析能力与神经网络的非线性拟合能力来建立故障特征与故障点的映射,确定故障点的位置。
一、配电网的故障特点
配电网络拓扑结构复杂,节点众多且分布广泛。负荷沿配电线路分布不均匀,而且负荷性质也有很大差异,因此配网故障定位是一项十分艰巨的任务。配电网发生故障的几率远大于输电网,因为配电网的设备为分散分布,采集信号相对困难,而且信号传输的距离越远越容易发生畸变。配电网直接面向广大的用户,最易受到用户端多种多样不确定因素的影响,所以配电网的故障频率及操作频率都较高,运行方式和对应的网络拓扑经常发生变化。[1]同时,配电网具有闭环设计开环运行的特点,有时会出现短暂的闭环运行,给故障定位带来困难。
二、神经网络在配网故障诊断中的应用原理
人工神经网络(ANN)是一种连接机制模型,它是由大量人工神经元广泛互联而成的网络,是在微观结构上模拟人的认识能力,其知识处理所模拟的是人的经验思维机制,决策时它依据的是经验,而不是一组规划,特别是在缺乏清楚表达规则或精确数据时神经网络可产生合理的输出结果。ANN的最大特点是依靠并行调节人工神经元之间的连接权值来隐含地处理问题,具有很强的自适应和自学习能力、非线性映射能力、鲁棒性和容错能力。
应用神经网络进行电力系统报警处理和故障定位能在保护装置误动、数据丢失以及出现其他未考虑的报警类型时也能给出较精确的定位结果。[2,3]还可以结合小波分析比较精确地定位出故障位置进行隔离。
由于神经网络自身具有很多的优点,应用现代数学工具通过准确地提取故障电气量特征信息作为神经网络的输入进行训练来提高神经网络的定位性能将是一个很好的发展方向。
基于神经网络的诊断系统结构图如图1所示。
三、小波变换
小波变换是继Fourier变换之后又一有效的时频分析方法,可以在一个时间和频域的局域变换所以能有效地从信号中提取信息,可以对信号进行多尺度的细化分析。
小电流接地系统发生单相接地故障时,暂态接地电容电流幅值经常大于稳态时的几倍到几十倍,补偿的电感电流也会增大。[4]这种情况下小波变换可以将暂态信号映射到由小波伸缩而成的一组基函数上。该函数具有很好地频带分割性,再根据小电流接地系统发生故障时零序电流分量的特点,即故障线路上的电流幅值比非故障线路幅值大得多且极性相反这一特征来进行故障点的定位。
四、小波神经网络
1.小波神经网络的拓扑结构
小波函数作为神经网络的激励函数与普通神经网络的激励函数在本质上是一致的,但是小波神经网络只要尺度、位移以及权重的初始值设置得当,其函数逼近的效果更优于简单的神经网络。
在文献[5]中对小电流接地系统单相接地故障暂态信号用prony方法进行分析时,已证实故障点位置不同时对应的故障暂态信号的特征分量也不同,它们之间存在着特定的对应关系。根据这个原理就可以利用小波分析来获得故障暂态信号定时频窗特征,将它映射到距离平面上实现故障定位。
小波神经网络的结构如图2所示,共有四层,分别为输入层、小波变换层、隐含层、输出层。小波变换层选取的神经元激励函数为Morlet小波:
则在函数空间L2(R)中,一个信号f(t)的小波变换:
对网络的输出并不仅仅是简单的加权求和,而是先对网络隐含层小波节点的输出值进行加权求和,再通过Sigmoid函数变换,最终得到的网络输出,有利于处理分类问题,[6,7]同时降低训练过程中发散的可能性。
小电流单相接地故障检测系统的小波神经网络模型如图2所示,输入层的每一节点对应故障暂态时序序列,输出包含的单个神经元,其值反映的是故障点的位置。
2.小波神经网络的学习算法
进行训练时需要在权值和阈值的修正算法中加入动量项,利用前一步得到的修正值来平滑学习路径,防止陷入局部极小值,加速学习速度。[8]当逐个对样本进行训练时会引起权值与阈值修正时发生振荡,为避免这种情况的发生可以采用成批训练方法。
在式(1)中,当a>0时,信号f(t)可离散化fN(i),式(1)变为:
式子中,N为电流序列点总和,为信号的时间窗宽度。
前向运算:输入采样时间序列,小波变换层的输出为:
按照上式的算法,分别计算出小波变换层的输出量,其中j为小波变换层的总节点数。
隐层的输入矢量,其中K表示隐层节点个数。;隐含层输出矢量:;故障距离输出。
给定P(P=1,2,3……p)组输入输出样本,学习率为,动量因子是目标误差函数为:
式中:——输出层第n个节点的期望输出;——网络实际输出。
算法要实现的目标就是不断调整网络的各项参数,使最终的误差函数获得最小值。
隐含层与输出层之间的权值调整式:
输入层与隐层结点之间的权值调整式:
伸缩因子调整式:
平移因子调整式:
五、小波与神经网络在配网故障诊断中的应用
1.系统整体设计
本文采用EMTP/ATP软件进行仿真。设计系统为中性点不接地系统,母线电压等级为35kV,仿真时间是0.1S,故障发生时间是0.05S,采样频率是4000Hz,可充分满足暂态电容电流自由振动频率的要求;线路参数:正序阻抗;正序容纳;零序阻抗;零序容纳。图3为小电流接地系统。
变化故障点位置和接地电阻形成的学习故障模式集为:在配电网全程线路上选择故障点,是距离变化的步长,;故障过渡电阻。
2.故障定位效果分析
为了较好地检测训练后神经网络的真实定位效果,需要选取网络的非学习样本来检验。选取故障点故障过渡电阻。进行组合20×2=40个测试故障模式,按照与形成学习样本相同的预处理方法形成输入矢量集合,经过网络的前向运算得到故障的定位结果。
接地电阻时,故障定位结果,如表1所示。
接地电阻时,故障定位结果,如表2所示。
由表1和表2可得,经过训练后的小波神经网络可以很好地拟合输入矢量和故障点的位置对应关系。对于神经网络测试的样本,该误差基本在1%以下,具有较满意的定位结果。此故障定位方案之所以精确是因为两方面的原因:一是小电流接地系统通常情况下是直接面向用户的,为单电源系统,虽然具有复杂多变的运行方式,但大多数运行参数可知,该方案在一定程度上降低了运行参数的模糊性;二是小波神经网络在故障之后暂态高频信息的提取与应用是定位原理的关键所在。因此,经过训练后的小波神经网络故障定位精确可靠。
六、结论
本文利用小波神经网络的特点解决配电网故障定位中的问题,小波神经网络具备小波与神经网络共同的特点,既具有对非平稳随机信号所具有的优越的时频局部特性又具有非线性拟合能力,具有充分的理论依据。在对所建立的小电流接地系统进行仿真的结果分析可知,该定位方案精确度较高、方便可靠。
参考文献:
[1]郭三中.基于小波神经网络的配电网故障定位研究J].电力系统自动化,2010,(12):27-30.
[2]季涛,孙同景,薛永端.配电网故障定位技术现状与展望[J].继电器,2005,33(24):32-37.
[3]张振飞,夏利民.基于神经网络的滚动轴承故障诊断智能方法[J].信息技术,2008,(8):35-55.
[4]李振然.基于小波变换与BP神经网络相结合的配电网单相接地故障定位方法[J].继电器,2004,32(9):24-26.
[5]郜洪亮,杨学昌.一种配电线路单相接地故障测距算法[J].清华大学学报(自然科学版),1999,39(9):33-36.
[6]李玉,潘亚平,魏海平.小波神经网络及其研究进展[J].科技信息,2006,(9):24-25.
随着科技的不断进步,国内外各领域专家学者相互努力共同打造了智能机器人。模糊神经网络理论通过自身所拥有的归纳等能力,有效地帮助了人们更好地控制机器人。使其具备自我学习和联想能力,通过蚁群算法优化的模糊神经网络理论能够更好地控制特种机器人,有效地应对工作中随机出现的变化问题。
关键词:
特种机器人;蚁群算法;人工智能控制;模糊神经网络
1创建机器人的数学模型
任何机械物体的运动都需要理论与实践的支持,而特种机器人的研究也是如此,对特种机器人进行操控就需要对它的各个运动构件的方位、位置、速度等建立一个合理有序的关系。而机器人的空间坐标、运动等可以通过数学模型来呈现。
1.1特种机器人的空间坐标
首先,描述特种机器人的空间坐标,可以用X,Y,Z轴方向的向量表示。其次,对于机器人的运动和操作,方位的准确明了非常关键。而特种机器人的方位也可用坐标系来表示。设一直角坐标系{B}与此刚体固接,坐标系{B}的三个主轴方向的单位矢量XB、YB、ZB相对于坐标系{A}的方向余弦组成的3×3矩阵称为ABR旋转矩阵:ABR=[AxBAyBAzB]=r11r12r13r21r22r23r31r32r33333333333333333333(1)式中,R的上标A和下标B表示R是{B}相对于{A}的关系;r为矢量矩阵的单位向量。而刚体{A}的位姿可通过上述所说的坐标系{B}在坐标系{A}中的各个方位和位置来阐述,进而{B}的原点根据其在坐标系{B}、{A}中的方位,分别表示了刚体在其中的位置和方向,式(2)表示{B}的位置矢量,用ABR和APBORG来描述坐标系{B},其中APBORG是确定坐标系{B}的位置矢量,建立公式(2):{B}={ABR,APBORG}(2)
1.2机器人运动方程
连杆坐标系、动力学方程、运动学方程都是操控机器人运动所需要的。特种机器人中的机械臂系统是一种涉及各杆、各关节、机械臂末端相对于绝对坐标的位姿、运动等的多刚体系统。其中,连杆坐标系的建立则为更好地操控机器人,使其高效长久地运动、工作做出了巨大的贡献,图1则为连杆坐标图。虽然建立了连杆坐标系,但是其中的杆与杆的关系则要建立一个齐次变换阵来连接。通过这个矩阵,机器人末端连杆在笛卡尔坐标系里的位置和位姿便可得出。
1.3机器人动力学方程
机械臂系统的运动学模型建立以后,还需建立动力学模型来控制。而动力学解决的问题是2种相对问题:若已知关节的施加力或力矩,求其速度、位移、加速度等;反之,则求力或矩阵。牛顿的欧拉方程等都是为了更好地操控特种机器人而建立的动力学。
2模糊神经网络理论研究
机器人系统功能多且复杂,对于各种生产运作过程中出现的一些问题很难控制。对此,模糊控制和神经网络相结合而成的模糊神经网络具备了解决一些问题的特别优势。模糊控制系统主要通过语言的描述控制机器人的运动,而语言描述能够充分地将专家的经验、知识转化为控制规则,模糊控制器由以下几个高功能的部分构成。
2.1神经网络理论
用于控制特种机器人的神经网络是根据人类大脑的思维模式和构造而设计,其中,神经元是大脑组织、信息处理的基本单位,而人工制作的神经网络则会根据企业、国家、个人的不同需求进行设计和分类,前馈网络和递归神经网络是其中的两大类。前馈网络不但层次感强,其常用的感知器、BP网络也能非常有针对性地解决一些问题;递归神经网络包含积分、反馈等功能,反馈机制是其在信息传输中的一大特点。
2.2模糊神经网络控制系统系统的输入及各种运作
实验证明:模糊系统与神经网络之间具有很多相似点,可以相互转化。模糊神经网络系统使其对数据的计算等更快并且更加正确,通过模糊控制也使其自身的容错力增强。模糊神经网络(FNN)模型的设计经过专家利用各种经验和知识的打造,能够更好地通过BP网络、建立样本等方式控制特种机器人的运作。
3蚁群算法优化训练的模糊神经网络
特种机器人控制蚂蚁算法是模仿生物界中蚁群通过交流、协作、共同搜寻获取实物活动的仿生优化算法。在蚂蚁工作的过程中,他们通过一种“信息素”交流。
3.1蚁群算法的本质
蚂蚁算法是通过分析、实践、探索蚂蚁群体活动得出的,是一种随机算法。蚂蚁算法分适应阶段和调解阶段,在这2个阶段中他们不断地优化自身的机构、积累需要的信息、寻求最佳解。蚂蚁算法中的人工蚂蚁不但有自组织性,还有协作、竞争的关系,在这过个程中,需要不断地协作、改进、更新。
3.2蚁群算法优化模糊神经网络
蚂蚁算法具有全局优化的特点,可以有效地训练FNN,避免了BP的缺陷。它在模糊控制系统和神经网络系统结合后,不但提高了整体优势,也增加了一些功能和特点。这些优化的改变,使某些工作的计算更加便捷。同时BP的缺陷及一些神经网络系统无法解决的问题,它也能很好地解决。而蚂蚁算法通过蚂蚁群体机智有效的协作,总结并融合了一些思想,通过这些思想,特种机器人能够自我选择方便、快捷、有效的工作路径[1]。蚂蚁算法为进一步控制特种机器人提供了更加合理有效的措施,也优化了各种运作系统。
3.3蚁群算法优化的结果
通过各种实验结果表明,蚂蚁算法优化的模糊神经网络系统更加稳定,也更加高效快速。通过实验比较发现:在普通的模糊神经网络中,把基本臂和期望主臂的轨迹长度比较后发现,被蚂蚁算法优化的模糊神经网络控制系统运行的轨迹更短效果更好更明显。
4结语
随着人类文明的发展,机械的运用与不断的创新随处可见,这个时代对特种机器人的需求也在不断增加。而国内外对特种机器人的研发也在不断地创新和投入,对此,涌现了大批的类型、功能不一的特种智能机器人。被蚂蚁算法优化过的系统很好地解决了一些问题,能够全面地优化各个方面,这种算法,为人类更好地发展特种机器人研究机器人做出了巨大的贡献。
参考文献:
为了解决语音信号中帧与帧之间的重叠,提高语音信号的自适应能力,本文提出基于隐马尔可夫(HMM)与遗传算法神经网络改进的语音识别系统.该改进方法主要利用小波神经网络对Mel频率倒谱系数(MFCC)进行训练,然后利用HMM对语音信号进行时序建模,计算出语音对HMM的输出概率的评分,结果作为遗传神经网络的输入,即得语音的分类识别信息.实验结果表明,改进的语音识别系统比单纯的HMM有更好的噪声鲁棒性,提高了语音识别系统的性能.
关键词:
隐马尔可夫模型;神经网络;语音识别;遗传算法
随着语音识别技术的发展,人们对语音识别的技术要求越来越高,隐形马可夫模型(HiddenMarkovModel,简称HMM),在语音识别中已经广泛得到应用.但是,其自适应能力差,抗噪性也不是十分理想,仅靠单一的HMM进行语音识别存在诸多困难[1,2].而现在广泛应用的人工神经网络(ArtificalNeuralNet-work,简称ANN)[3,4],在自适应、抗噪性方面具有良好的特性,克服了HMM中存在的不足.反向传播神经网络(BP)虽然已经是神经网络中前向神经网络的核心部分,并且得到了广泛的应用[5].然而,BP神经网络也存在诸多缺点,比如学习收敛速度太慢,使其只能解决小规模的问题,也不能保证收敛到全局最小点,使得训练结果达不到全局最优性.遗传算法优化后的反向传播神经网络(GA-BP)[6-9]的混合模型语音识别方法,有效地保证训练结果的全局最优性,在语音识别的速度方面也有大幅度的提高,但在噪声环境下,遗传算法优化后的反响传播神经网络噪声鲁棒性并不是十分理想,因此也对语音识别系统的性能带来了影响[10].本文运用小波神经网络结构简单、收敛速度快的优点,对MFCC系数进行训练,从而得到新的MFCC系数,再进行特征提取后作为遗传算法优化后的输入.然后利用优化后的遗传神经网络获得语音的分类识别信息进行语音识别.实验结果表明,基于HMM与遗传神经网络改进的语音识别系统进一步提高了语音识别系统的自适应性和噪声鲁棒性.
1隐马尔可夫模型语音识别原理
隐马尔可夫模型是一种利用相关参数来表示,并用于描述随机过程中统计特性的概率模型[11].它的本质是一种基于统计分布一致性的聚类分析,每个隐含的状态就是一个聚类,对HMM进行训练的过程就是寻找每个聚类之间的相关联的过程.它由两部分组成:一个是隐含的马尔可夫链,即为隐含层;另一个是实际的观测量,即为观测层.HMM基于参数统计理论,利用概率密度函数计算出语音参数对模型的输出概率,找到最佳状态序列以后,用最大后验概率为准则进行识别.语音参数和隐马尔可夫模型关系如下图图1所示.
2基于遗传算法的神经网络优化算法
BP神经网络是人工神经网络中应用最为广泛的算法,但在广泛运用的同时,也逐渐出现一些不足之处,比如收敛速度慢、不能保证收敛到全局最小点等等.另外,网络结构,初始连接权值与阈值的选取对网络训练带来的影响也非常大,但是又无法准确获得.针对这些特点可以采用遗传算法对神经网络进行优化.
2.1传统遗传算法传统遗传算法实现步骤如下:1)随机产生一定数量的初始个体,这些随机产生的初始个体总体数目组成一个种群.2)用评价函数来评价每个个体的优劣,每个个体的适应程度(称为适应度)作为遗传操作的依据.3)从现有的种群中选取一定的个体作为新一代的个体,个体适应程度越高,被选择的机会越大.4)对于新生成的种群进行交叉、交异操作.
2.2用遗传算法优化神经网络权值的学习过程遗传算法(GeneticAlgorithm,GA)是模拟著名天文学家达尔文的遗传选择和生物进化的计算模型,具有很强的宏观搜索能力和良好的全局优化性能[12,13].因此采取遗传算法与BP神经网路相结合,训练时先用遗传算法对神经网络的权值进行寻找,将搜索范围缩小后,再利用BP网络来进行精确求解,可以达到全局寻找和快速高效的目的,并且避免局部最小问题.算法结束后,由群体中最优个体解码即可得到优化后的网络连接权值系数.
3基于HMM与遗传神经网络改进的语音识别系统设计
现有的语音识别系统只能处理平稳信号,而人说话的语言频率不一样使得语音信号是一个准稳态信号,这时就要把语音划分成若干帧以达到信号稳定的要求.但这存在的不足之处就是并没有考虑到语音信号的动态特性,根据神经网络在非线性映射方面有比较好的效果,同时神经网络也具有小波多分辨分析的性能,从而可以从样本中提取出来新的特征信息.本文采用基于HMM与遗传神经网络改进的语音识别系统,对输入语音信号进行预处理后,利用小波神经网络训练MFCC系数,然后根据HMM参数库进行Viterbi译码,归一化处理以后作为优化后遗传神经网络的输入,即将HMM中全部状态累计概率作为优化后的遗传神经网络特征输入,再根据神经网络的非线性映射能力对语音信号识别出所需要的结果.改进后的语音识别系统流程图如图3所示.
4仿真实验及结果分析
实验语音文件从十个人中采集,一个文件有中文数字1-9组成.每个人录了四次,其中三个用于培训和一个用于测试.记录格式的采样频率8kHz,单通道16位采样点,采取的帧长为256点.记录后,点检测去除无声段,其次是预加重.然后,语音段划分为20个帧,从每一帧中提取的特征参数.一个帧有10个特征.因此,每一个数字都会有200特点.实验训练集采取100个不同人员的净语音样本;在不同的信噪比下取50个不同人员的语音信息;在不同的环境下,采用的语音数据的信噪比分别为40、35、30、25、20、15、5和0dB.实验时,为了验证改进的语音识别系统的有效性,在Matlab7.0上分别对HMM,HMM与优化后的遗传神经网络和本文改进后的混合语音识别模型算法做对比.实验分为两次实验过程,第一次在加性高斯噪声下;第二次在学校餐厅学生就餐时人声为噪声背景.实验分别得出语音在加性高斯噪声下识别率如表1和图4;在学校餐厅时实验结果如表2和图5所示.由表1和表2中的实验数据可以看出,改进以后的混合算法相比单一的HMM和优化的遗传神经网络相比具有更好的识别效果,尤其对那些容易混淆的词语识别率也有所提高.对于识别系统的信噪鲁棒性方面也有了明显的改变,提高了语音识别系统的自适应能力.神经网络的收敛速度是衡量语音识别的一个重要标准,因此遗传神经优化算法与BP算法收敛速度作了如图6、图7的比较,实验结果表明,优化算法收敛速度得到明显改善.
5结论
本文提出了基于隐马尔可夫HMM与遗传算法的神经网络改进的语音识别系统,在隐马尔可夫模型与遗传网络算法优化的基础上,引入小波神经网络训练MFCC系数,充分利用了隐马尔可夫模型强大的时间建模能力与遗传算法优化后的收敛速度快、分类识别能力强的优点.小波神经网络训练出的MFCC新系数应用到优化后的神经网络具有更高的识别率,提高了识别系统的自适应能力.
参考文献
1吕军,曹效英,徐宝国.基于语音识别的汉语发音自动评分系统的设计与实现.计算机工程与设计,2007,28(5):1232–1235.
2郭超,张雪英,刘晓峰.支持向量机在低信噪比语音识别中的应用.计算机工程与应用,2013,49(5):213–215.
3SemanN,BakarZA,BakarNA.TheoptimizationofArtificialNeuralNetworksconnectionweightsusinggeneticalgorithmsforisolatedspokenMalayparliamentaryspeeches.2010InternationalConferenceonComputerandInformationApplication(ICCIA).IEEE.2010.162–166.
4LanML,PanST,LaiCC.Usinggeneticalgorithmtoimprovetheperformanceofspeechrecognitionbasedonartificialneuralnetwork.FirstInternationalConferenceonInnovativeComputing,InformationandControl(ICICIC’06).IEEE.2006,2.527–530.
5王晓东,薛宏智,马盈仓.基于自适应遗传算法的神经网络字符识别.西安工程大学学报,2008,22(2):210–213.
6钟林,刘润生.新神经网络结构及其在数码语音识别中的应用.清华大学学报(自然科学版),2000,40(3):104–108.
7包亚萍,郑骏,武晓光.基于HMM和遗传神经网络的语音识别系统.计算机工程与科学,2011,33(4):139–144.
8冯宏伟,薛蕾.基于HMM和新型前馈型神经网络的语音识别研究.计算机工程与设计,2010,(24):5324–5327.
9肖勇,覃爱娜.改进的HMM和小波神经网络的抗噪语音识别.计算机工程与应用,2010,(22):162–164.
10PanST,WuCH,LaiCC.Theapplicationofimprovedgeneticalgorithmonthetrainingofneuralnetworkforspeechrecognition.SecondInternationalConferenceonInnovativeComputing,InformationandControl(ICICIC’07).IEEE,2007.168–168.
11AggarwalRK,DaveM.ApplicationofgeneticallyoptimizedneuralnetworksforHindispeechrecognitionsystem.2011WorldCongressonInformationandCommunicationTechnologies(WICT).IEEE.2011.512–517.
12AnM,YuZ,GuoJ,etal.TheteachingexperimentofspeechrecognitionbasedonHMM.The26thChineseControlandDecisionConference(2014CCDC).IEEE.2014.2416–2420.