公务员期刊网 精选范文 如何学习神经网络范文

如何学习神经网络精选(九篇)

前言:一篇好文章的诞生,需要你不断地搜集资料、整理思路,本站小编为你收集了丰富的如何学习神经网络主题范文,仅供参考,欢迎阅读并收藏。

如何学习神经网络

第1篇:如何学习神经网络范文

关键词: 神经网络;模拟电路;故障智能诊断

Applications of Neural network in analog circuit fault intelligent diagnosis

Huang Qian1 ,Lu Li2

Nanchang institute of technology JiangXi NanChang 330029

Abstract: The article mainly describe development course of neural network simulation circuit and the common method of fault diagnosis of simulation power based on neural network at this stage, the focus analysised BP neural network fault dictionary method and the SOM neural network fault dictionary method and respective of calculation method, and basic thought, and technology difficulties analysis, discussed application problem of neural network method in in analog circuit fault intelligent diagnosis, last talk about development trend of simulation circuit neural network diagnosis method.

Keyword: Neural network;Analog circuits;Intelligent fault diagnosis

引 言

随着神经网络等人工智能技术的发展, 模拟电路故障诊断的研究又开辟了一条新路, 基于神经网络的模拟电路故障诊断方法已经成为新的研究热点。20世纪80年代末期起有学者研究将人工神经网络应用到模拟电路的故障诊断中,现阶段已经提出多种基于神经网络的模拟电路故障诊断方法,有些方法如BP( Error Back Propagation Network)神经网络故障字典法已经能有效应用于滤波电路、模拟放大电路等非线性容差电路的故障诊断, 效果优于传统的故障字典法。

1神经网络故障字典法

神经网络故障字典法把模拟电路的故障诊断看成是一个分类问题, 利用神经网络的分类功能来诊断故障。在测前把神经网络训练成一部故障字典, 字典的信息蕴含在网络的连接权值中, 只要输入电路的测量特征, 就可以从其输出查出故障。

1.1 BP 神经网络故障字典法

BP 是一种多层网络误差反传学习算法。

1)初始化,随机给定各连接权[w],[v]及阀值θi,rt。

(2)由给定的输入输出模式对计算隐层、输出层各单元输出

式中:bj为隐层第j个神经元实际输出;ct为输出层第t个神经元的实际输出;wij为输入层至隐层的连接权;vjt为隐层至输出层的连接权。

式中:dtk为输出层的校正误差;ejk为隐层的校正误差。

(3)计算新的连接权及阀值,计算公式如下:

(4)选取下一个输入模式对返回第2步反复训练直到网络设输出误差达到要求结束训练。

应用BP 神经网络故障字典法进行模拟电路故障诊断步骤如下:

(1)确定待测电路的故障集和状态特征参量, 采用电路仿真或实验的方法获取电路每一故障状态下的状态特征数据, 经筛选和归一化处理后构造训练样本集。设计BP 神经网络并进行训练。

(2)用训练样本集中的样本训练好网络, 即完成学习的过程。一般采用3 层BP 神经网络, 输入层节点数与电路状态特征参量的维数相同, 输出层节点数可与电路待测故障类别数相同,也可小于待测故障类别数, 隐层节点数则需按经验公式试凑。实际诊断时给被测电路加相同的测试激励, 将测得的实际状态特征参量输入到训练好的BP 神经网络, 则其输出即可指示相应的故障状态。

1.2 SOM神经网络故障字典法

SOM (Self - organizing Feature Map)神经网络是芬兰教授Kohonen于1981 年提出的一种自组织特征映射神经网络。这种自组织特征映射神经网络通过对输入模式的反复学习,使连接权矢量空间分布密度与输入模式的概率分布趋于一致, 即连接权矢量的空间分布密度能反映输入模式的统计特性。

SOM二维网络拓扑结构图

SOM 网络能对输入模式自动分类,通过输入模式的自组织学习, 在竞争层将分类结果表示出来。应用SOM 神经网络建立模拟电路故障诊断字典的具体步骤如下:

(1)确定电路的故障集和激励信号。通过仿真获取电路在每一故障状态下的状态特征向量, 并进行预处理得到训练样本数据。

(2) 确定SOM 网络结构。 SOM 网络只有输入层和输出层两层, 没有隐层,输入层的形式与BP 网络相同, 其结点数应与电路状态特征向量的维数相同。输出层即竞争层的神经元一般采用二维平面阵结构排列, 也可采用一维线阵或三维栅格阵的结构排列。采用一维线阵时, 输出层结点数可与电路的故障类别数相同。

(3)经过SOM 训练形成具有容差的故障字典。SOM 网络的学习算法可采用标准的Kohonen 算法。可以看出, SOM 网络法与BP 网络法构建故障字典的方法步骤完全相似,SOM 网络法一般适用于交流电路, 以电路响应的频域参量为状态特征,它能更有效地克服容差因素对故障定位的影响,SOM 网络法实际诊断时容易出现模糊故障集, 诊断过程要比BP网络法复杂。

1.2神经网络故障字典法难点

同经典的故障字典法相比, 神经网络故障字典法突出的优点是测后诊断速度快,实时性强,其原因是该方法利用了神经网络高度并行的信息处理能力。经典的故障字典法需要进行繁琐的模糊集分割处理, 且一般只能诊断硬故障。而神经网络故障字典法由于神经网络的泛化能力,可以诊断容差模拟电路, 而且对软故障情况也有很好的应用前景。应用该方法难点包括以下几个方面:

(1)神经网络的结构和参数等只能依据经验反复调试, 难以确定所设计的神经网络是最优的。

(2)数据预处理技术和训练样本集的筛选至关重要,神经网络故障字典法的诊断效果主要依赖于此。如何根据实际电路对原始数据进行预处理以突出故障特征信息及如何优选训练样本。

2 神经网络优化诊断法

传统的优化诊断法依据被测电路的解析关系, 按照一定的判据(目标函数) , 估计出最有可能出现故障的元件。优化诊断法是一种测后模拟的逼近法, 可在较少的测量数据下诊断故障,避免元件的容差问题, 可以诊断软故障和多故障但传统优化诊断法存在一个复杂的重复过程, 需要多个优化过程和多次电路模拟, 测后计算量很大。

神经网络优化诊断法对传统方法进行改进, 利用Hopfield 神经网络的优化计算功能寻优, 克服了传统的优化诊断方法测后计算量大、实时性差的缺点。由于该方法最终是通过求解元件参数或参数增量来判定故障元件的。

神经网络优化诊断法的基本思想是将模拟电路的故障诊断方程转换为带约束条件的优化问题, 然后利用Hopfield 神经网络进行优化问题的求解。将优化问题映射到一种神经网络的特定组态上, 此组态相应于优化问题的可能解, 然后再构造一个适合于待优化问题的能量函数(对应于目标函数), 当Hopfield 神经网络从某一初始状态沿着能量函数减小的方向运动, 其稳定平衡解即对应于优化问题的解。对于线性电阻电路, 可以以元件参数增量和可测节点电压变化量建立故障诊断方程, 该诊断方程通常为一组欠定方程。

应用Hopfield 神经网络求解此类带约束条件的优化问题的步骤如下:

(1)分析问题: 分析网络输出与问题的解相对应。

(2)构造网络能量函数: 将实际待解决优化问题的目标函数表达成能量函数的相应形式, 能量函数最小值对应问题最佳解。

(3)设计网络结构: 将能量函数与目标函数相比较, 求出能量函数中的权值和偏流。

(4)运行网络求出稳定平衡态: 由网络结构建立网络的电子线路, 运行该电子线路直至稳定, 所得稳态解即为优化问题所希望的解。

3 其它神经网络故障诊断法

ART (Adaptive Resonance Theory)神经网络故障诊断法。ART 神经网络是一种基于自适应共振理论ART的学习算法, 包括ART1 型、ART2 型和ART3 型三种结构形式。文献三中的作者探讨了一种采用ART1 型神经网络进行模拟电路故障诊断的方法,将电路的各种故障分出层次,并按一定特征给故障类型进行编码形成故障数据样本,将故障数据样本输入ART1型神经网络进行训练, 训练完成后该ART 网络即可用于诊断。ART最大的特点是既能识别已有的故障模式, 又能较好地诊断新发故障。基于神经网络的网络撕裂法。网络撕裂法是一种大规模模拟电路分层诊断的方法, 将网络撕裂法与神经网络故障字典法相结合就形成基于神经网络的网络撕裂法。

ART的基本思路是, 当电路网络分解到一定程度后, 电路子网络继续分解往往越来越困难, 这时可以引入神经网络故障字典法, 分别为每一电路子网络构建一个神经网络, 则电路子网络级的诊断采用神经网络故障字典实现。

与传统的网络撕裂法相比, 该方法测后工作量小, 诊断过程更加简单,诊断速度加快。基于神经网络求解非线性方程的模拟电路故障诊断方法。

4 模拟电路神经网络诊断法发展趋势

近年来, 一个值得重视的现象是神经网络与专家系统、模糊控制、遗传算法和小波分析等技术相结合应用于模拟电路的故障诊断领域的研究。如神经网络与模糊逻辑理论相结合, 即所谓的“模糊神经网络”用于模拟电路的故障诊断, 其基本思想是在BP 神经网络的输入层与输出层中间增加1到2 层模糊层构造模糊神经网络,利用神经网络处理低层感知数据, 利用模糊逻辑描述高层的逻辑框架,其对模拟电路软故障的诊断效果优于单一的神经网络分类器。又如小波分析与神经网络结合应用于模拟电路的故障诊断。

小波与神经网络的结合有以下两个途径:

(1) 辅助式结合, 比较典型的是利用小波分析对信号进行预处理, 然后用神经网络学习与判别。

(2)嵌套式结合, 即把小波变换的运算融入到神经网络中去, 其基本思想是用小波元代替了神经元,即激活函数为已定位的小波函数基, 通过仿射变换建立小波变换与神经网络的联接,小波神经网络由于把神经网络的自学习特性和小波的局部特性结合起来,具有自适应分辨性和良好的容错性。

参考文献

[1] 王显强.谈谈神经网络在模拟电路故障诊断中的应用问题[J]

电路技术.2012(06)

[2] 刘华.基于神经网络的模拟电路故障诊断方法研究[J]微电子学报.2010(03)

[3]董伟.谈ART1 型神经网络进行模拟电路故障诊断方式分析. [J]电路科技. 2012(05)

[4]王承. 基于神经网络的模拟电路故障诊断方案探究.[J]电路科技. 2013(06)

[5]张宇. 基于神经网络的模拟电路故障诊断方案探究.[J]计算机测量与控制. 2012(07)

[6]王承. 基于神经网络的模拟电路故障诊断方案探究.[J]电路故障. 2013(02)

[7]刘盛灿. 神经网络的模拟电路故障的应用.[J]电路科技. 2013(06)

[8] 万磊.神经网络在模拟电路故障诊断中的应用若干问题探讨[J]

电路技术.2011(08)

[9] 郭明强.神经网络在模拟电路故障诊断中的发展历程分析[J]电路技术.2013(08)

第2篇:如何学习神经网络范文

关键词:Matlab;BP神经网络;预测

中图分类号:TP183文献标识码:A文章编号:1009-3044(2008)19-30124-02

Based on Matlab BP Neural Network Application

YANG Bao-hua

(Institute of Information and Computer, Anhui Agricultural University, Hefei 230036, China)

Abstract: BP learning algorithm is a one-way transmission of multi-layer to the network, Matlab toolbox is based on the theory of artificial neural network, based on Matlab toolbox, with watermelon-heavy forecasts, BP neural network forecast the feasibility of re-watermelon is verified, and fast convergence, small error, should be promoted in the forecast crop growth.

Key words: Matlab; BP Neural Networks; Forecast

1 引言

人工神经网络是人工构造的模拟人脑功能而构建的一种网络,BP神经网络是结构较简单、应用最广泛的一种模型,BP神经网络是Rumelhart等在1986年提出的。它是一种单向传播的多层前向网络,一般具有三层或三层以上的神经网络,包括输入层、中间层(隐层)和输出层[1],其模型见图1所示。

图1 BP网络模型

Matlab中的神经网络工具箱是以人工神经网络理论为基础,利用Matlab语言构造出许多典型神经网络的传递函数、网络权值修正规则和网络训练方法。网络的设计者可根据自己的需要调用工具箱中有关神经网络的设计与训练的程序,免去了繁琐的编程过程。

红籽瓜(Red-seed Watermelon)种子即瓜子富含有蛋白质、脂肪、钙、磷及多种维生素,含油率达55%左右,营养颇为丰富,经过精细加工,味道鲜美,市场十分畅销[4]。为了提高瓜子的产量,需要关注很多因素,这些因素的改变会影响瓜子的产量,所以确定哪些因素能预测产量,如何预测是本文研究的内容。本文利用红籽西瓜的测量数据,以单果重,种子数,千粒重,种子重作为输入因子,仁重为输出因子,选择合适的隐层,构建影响红籽西瓜种仁重量的BP网络模型,运用Matlab软件进行预测。

2 BP神经网络设计的基本方法

Matlab的NNbox提供了建立神经网络的专用函数newff()[5]。用newff函数来确定网络层数、每层中的神经元数和传递函数,其语法为:

net=newff(PR,[S1,S2,…,SN],{TF1,TF2,…,TFN},BTF,BLF,PF)

式中:PR表示由每个输入向量的最大最小值构成的R×2矩阵;Si表示第i层网络的神经元个数;TF表示第i层网络的传递函数,缺省为tansig,可选用的传递函数有tansig,logsig或purelin;BTF表示字符串变量,为网络的训练函数名,可在如下函数中选择:traingd、traingdm、traingdx、trainbfg、trainlm等,缺省为trainlm;BLF表示字符串变量,为网络的学习函数名,缺省为learngdm;BF表示字符串变量,为网络的性能函数,缺省为均方差“mse”。

2.1 网络层数

BP网络可以包含不同的隐层,但理论上已经证明,在不限制隐层节点数的情况下,两层(只有一个隐层)的BP网络可以实现任意非线性映射。

2.2 输入层节点数

输入层起缓冲存储器的作用,它接受外部的输入数据,因此其节点数取决于输入矢量的维数。

2.3 输出层节点数

输出层节点数取决于两个方面,输出数据类型和表示该类型所需的数据大小。在设计输人层和输出层时,应该尽可能的减小系统规模,使系统的学习时间和复杂性减小。

2.4 隐层节点数

一个具有无限隐层节点的两层BP网络可以实现任意从输入到输出的非线性映射。但对于有限个输入模式到输出模式的映射,并不需要无限个隐层节点,这就涉及到如何选择隐层节点数的问题,至今为止,尚未找到一个很好的解析式,隐层节点数往往根据前人设计所得的经验和自己进行试验来确定。一般认为,隐层节点数与求解问题的要求、输入输出单元数多少都有直接的关系。另外,隐层节点数太多会导致学习时间过长;而隐层节点数太少,容错性差,识别未经学习的样本能力低,所以必须综合多方面的因素进行设计。

隐层节点数的初始值可先由以下两个公式中的其中之一来确定[2,3]。

1=■+a (1)

或 1=■(2)

式中,m、n分别为输入结点数目与输出结点数目,a为1~10之间的常数。

2.5 数据归一化

因为原始数据幅值大小不一,有时候还相差比较悬殊。如果直接投人使用,测量值大的波动就垄断了神经网络的学习过程,使其不能反映小的测量值的变化。所以,在网络训练之前,输人数据和目标矢量都要经过归一化处理。

根据公式可将数据“归一化”,即限定在[0,1]区间内。归一化公式为:

■ (3)

也可以使用归一化函数Premnmx,及反归一化函数Postmnmx。

3 BP学习算法及实例

3.1 BP学习算法

1) 初始化网络及学习参数;

2) 从训练样本集合中取一个样本,并作为输入向量送入网络;

3) 正向传播过程,对给定的输入样本,通过网络计算得到输出样本,并把得到的输出样本与期望的样本比较,如有误差超出限定范围,则执行第4步;否则返回第2步,输入下一个样本;

4) 反向传播过程,即从输出层反向计算到第一隐层,修正各神经元的连接权值,使用误差减小。

3.2 实例

为了提高瓜籽产量,需要关注很多因素,滤去相关度过低的因子,根据经验确定输入因子为单果重,种子数,千粒重,种子重,输出因子为仁重。现以表1所示的2000~2002年测量数据作为训练样本进行训练,对2003年的数据进行预测。输出层结点代表仁重量,神经网络的预测模型采用4-4-1,即输入层4个神经元,根据公式(2)计算隐层神经元数确定为4,1个输出神经元。设定最大的迭代次数为500次,系统全局误差小于0.001。传递函数为tansig,训练函数为trainlm。

根据经典的BP算法,采用Matlab编程,样本训练结果见图2,2003的数据作为预测样本,预测结果如下:

TRAINLM, Epoch 0/500, MSE 0.316381/0.001, Gradient 2.8461/1e-010

TRAINLM, Epoch 4/500, MSE 0.00056622/0.001, Gradient 0.0830661/1e-010

TRAINLM, Performance goal met.

SSE = 0.0102

y = 0.269 0.267 0.27 0.269 0.2679 0.2679

表1 红籽西瓜数量性状表

瓜籽仁重实际值为0.265,0.282,0.264,0.269,0.265,0.287,误差为0.0102,当样本较少时可以接受的误差范围内。并且收敛速度快。

图2训练函数为trainlm的训练结果

采用traingd函数进行训练,则5000次仍未达到要求的目标误差0.001,说明该函数训练的收敛速度很慢。见图3所示。所以训练函数的选择也非常关键。

图3 训练函数为traingd的训练结果

4 结论

用Matlab编编写的基于BP网络的仁重预测程序,计算结果表明,误差较小,预测值与实测值吻合较好,所建立的模型具有较好的实用性,说明单果重,种子数,千粒重,种子重的数据影响瓜子的产量,同时验证BP算法可以用于瓜仁产量的预测。

目前所进行的预测试验中数据的样本较少,且生长动态变化,今后拟建立一个动态预测系统,为红籽瓜品种培育、提高产量提供新的方法,值得在预测作物生长中推广。

参考文献:

[1] 飞思科技产品研发中心.神经网络理论与Matlab 7实现[M].北京:电子工业出版社.2006:100-105.

[2] 徐庐生.微机神经网络[M].北京:中国医药科技出版社,1995.

[3] 高大启.有教师的线性基本函数前向三层神经网络结构研究[J].计算机学报,1998,21(1):80-85.

[4] 钦州农业信息网:.

第3篇:如何学习神经网络范文

关键词:RBF神经网络;数据挖掘;遗传算法

中图分类号:TP18 文献标识码:A 文章编号:1009-3044(2016)07-0151-03

Research on Data Mining Method Based on RBF Neural Network

CAO Jia-jie, YANG Meng, XU Xin-yu

(Beijing Satellite Manufacturing Plant, Beijing 100000, China)

Abstract: The rapid development of Internet technology and database technology is widely used at the same time, human through information technology to collect data is more and more strong, and how to from a lot of data mining valuable information and knowledge has become particularly urgent. In order to solve the above problems, data mining technology arises at the historic moment. It is found that the data mining the data for the nonlinear, messy and the presence of noise data, neural network is by virtue of the degree of fault tolerance, distributed storage, parallel processing, adaptive and robust feature is widely used to deal with some of the data mining problems. Accordingly, in this case, the author first introduces the data mining and RBF neural network of the relevant theoretical knowledge, and then focus on the RBF neural network based on the data mining method for peer reference.

Key words: RBF neural network; data mining; genetic algorithm

数据挖掘是从大量数据中挖掘有价值的信息和知识,以便为管理决策和战略部署提供数据支撑。数据挖掘作为信息技术发展的结果,其应用前景相当广泛。数据库技术主要研究数据的组织、存储、获取和处理,而信息技术主要经历以下发展历程:数据的简单收集和数据库的初期建设数据的存储与检索、数据库的事务处理数据的分析与理解,此时便出现数据挖掘技术。基于上述研究背景,下文首先分别介绍数据挖掘与RBF神经网络的相关理论知识,并在此基础上,讨论基于RBF神经网络的数据挖掘方法,目的是为了研究数据挖掘所用到的分类算法。关于神经网络,作为一种人工智能技术,其一方面可以省去繁琐的数学建模和数学推理,另一方面在处理含噪声的非线性数据时表现出无与伦比的优越性。

1 数据挖掘

数据挖掘是非平凡的数据处理过程,即识别数据集中具有潜在价值、新颖有效且最终可被理解的模式,其中潜在价值指的是挖掘出的知识具有实际效用;新颖是指识别出的模式新颖;有效是指识别出的模式在一定程度上是正确的;最终可被理解是指识别出的数据可被用户理解。图1所示为数据挖掘的工作流程。

如图1所示,数据挖掘主要经历数据准备、模式提取、结果解释与评估等阶段,其中数据准备的步骤为:数据清洗数据选取数据预处理数据表示;数据提取阶段又称数据挖掘阶段,其实现步骤为:确定数据挖掘的目标或任务选取适宜的数据挖掘工具或算法进行数据挖掘操作;结果解释与评估阶段主要对所识别的数据进行评估、筛除。一般来讲,数据挖掘质量主要与以下影响因素有关:数据挖掘技术的可靠性与有效性;目标数据的数量与质量。总之,数据挖掘是一个反复反馈的过程,而可视化贯穿在数据挖掘的全过程。

数据挖掘的方法一般分为统计型、机械学习型两大类,而较为常用的算法包括遗传算法、神经网络等。遗传算法是一种以生物进化理论为基础的优化空间搜寻法,其在数据挖掘中,通常以搜索问题的形式来表述具体的任务,并通过选择、交叉、变异遗传等操作寻得最优解。神经网络是一种与人类大脑重复学习类似的方法,即通过学习和训练一些事先给出的样本,产生与样品有所区别的特征和模式,其中样本集应具有代表性。研究表明,神经网络具有准确预测复杂的问题、有效处理存在噪声的数据等优点。神经网络一般分为自组织、反馈式和前馈式神经网络,目前正被广泛应用于商业领域。

2 RBF神经网络

RBF网络结构是一种由输入层、隐含层和输出层组成的三层前向网络,其中输入层包含信号源结点;隐含层主要由节点数目描述的具体问题而定;输出层主要响应输入模式的具体作用。图2所示为RBF神经网络的拓扑结构模型。

如图2所示,RBF网络由输入层向隐含层变换的过程具有非线性的特征,而由隐含层向输入层变化的过程具有线性的特征。据此可知,RBF神经网络是一种基于前馈网络的拓扑结构。研究发现,RBF神经网络拓扑结构会对自身的性能产生影响,而以下因素又会对RBF网络拓扑结构产生影响:RBF的隐节点数目、中心矢量、径向基函数宽度和隐含层与输出层的权值矩阵。

RBF网络具有较强的非线性逼近性能。得益于此,其目前主要用来实现非线性系统的建模与数据挖掘、贝叶斯规则和连续输入/出数据对的映射建模。与其他前向神经网络相比,RBF神经网络具有以下优点:

1)RBF神经网络能逼近任意非线性映射,也能处理系统内部的规律性问题。就无噪声数据而言,RBF神经网络模型的预测精度高且拟合能力强;而就存在噪声的数据来讲,RBF神经网络模型的预测误差和拟合误差均偏低,且收敛速度相当快。得益于此,RBF神经网络在时序建模和分析中的应用十分广泛。

2)RBF神经网络的拓扑结构加快了学习速度和规避了局部极小的问题。RBF神经网络采用核函数,特别是高斯函数的使用使得核函数的优点更为突出:表示简单、光滑性好和解释性好等。

3)RBF神经网络的可解释性好。目前,以下理论均可用于RBF网络参数和拓扑结构的解释中:RBF网络能够对输入层转向输出层进行映射;核回归能够逼近存在噪声的函数噪声数据插值能够逼近输入缺少函数;规则化可以通过在一般化与精确匹配中寻求平衡;贝叶斯规则可以根据前概率计算出后概率。

3 基于RBF神经网络的分类数据挖掘

关于RBF神经网络的研究,其主要表现在以下两个方面: RBF网络结构模型; RBF神经网络学习算法。

3.1 RBF网络结构模型

在实际应用中,RBF模型的应用范围更广,其核函数使用的是高斯函数。但研究发现,在上述结构模型中,训练算法的优劣会对模型的应用效果和RBF网络性能的高低产生决定作用。鉴于此,研究人员提出一些具有新特点和新性能的网络模型,具体包括:

1)高斯型核函数一般化。当隐含层RBF采用以下高斯条函数时,将大大改善RBFN的综合性能:[Φ?x)=exp-(x-cj?T(x-cj)]/2σ2j]。对于普通高斯函数,其拥有半径相同的变量轴和超球面状的函数曲面。但与此相比,高斯条核函数拥有超椭球面状的函数曲面和半径不同的变量轴,因此它具有更强的样本点逼近能力和更大的网络训练工作量。

2)WNN(小波神经网络)。WNN是一种基于小波函数的函数连接型网络,因此在一定程度上应被看作RBFN的推广形式。WNN的激活函数为小波函数,具体以仿射变换的方式创建网络参数与小波变换之间的联系,因此所表现出的特点与RBFN有所差异。此外,WNN具有极佳的时频特征,因此被广泛应用于图像处理和模式识别等领域。

3)RBPNN(径向基概率神经网络)。RBPNN作为RBFNN与PNN综合发展的结果,其学习收敛速度比RBFN更快,同时也将模式之间的交错影响考虑其中。关于RBPNN,其结构主要由2个隐含层、1个输入层、2个输出层组成,其中第一个隐含层为非线处理层,具体包括隐中心矢量,此乃网络结构优化的核心对象;在输出层得出输入样本概率密度的估算值,可降低计算的复杂度。

4)GRNN(广义回归网络)。GRNN使用的也是高斯型径向基函数,一般被看作RBFN的变换形式。GRNN的结构主要由模式层、输入层、加和层、输出层组成,其中核函数所包含的平滑因子需采用优化或经验方法来选定。

3.2 RBF神经网络学习算法

在RBF网络设计中,最为核心的问题是如何合理确定中心点的位置、数目和训练网络权值。通常情况下,中心点的确定与权值的训练既可分开实现,又可同时进行。鉴于此,RBF网络可以采用以下两类学习算法:

3.2.1 静态学习算法

静态学习算法是一种离线学习算法,即在离线设计RBF网络时,中心点的确定与权值的训练分开进行。

1)随机确定RBF中心点,即随机从训练数据集中选取RBF中心点。当RBF选取以下高斯函数:[G(X-Cj2=exp(-m/d2maxX-Cj)j=1,2,...,m],其中,[Cj]――RBF的中心点;[m]――中心数;[dmax]――相邻中心点最大的间隔距离,因此高斯径向基函数的宽度[σ=dmax/2m]。利用上述算法,可以避免RBF的形状出现过平或过陡两种极端现象。如此一来,便可通过计算线性方程组的方式来确定输出层与隐含层的连接权值。

2)自组织学习确定RBF中心点。混合学习过程主要包括自组织学习阶段、监督学习阶段,其中自组织学习阶段的任务是采用聚类算法来估计隐含层RBF的中心点;监督学习阶段主要通过对输出层线性权重进行估计来设计网络,具体采用最小二乘法。输出层节点的LMS算法与隐含层节点的K-均值聚类同时进行,以加速学习过程。

3)有监督学习确定RBF中心点,即通过有监督学习解得RBF的中心点和自有参数,具体使用牛顿法或梯度下降法等。如果使用梯度下降法,则应从参数空间的某一有效区域开始进行搜索,即先利用RBF网络得到高斯分类算法,再以分类结果为搜索点,以免学习程收敛至局部极小。

3.2.2 动态学习算法

动态学习算法是一种在线学习算法,其主要在在线数据挖掘环境中使用。由于在在线数据挖掘环境中,通常不会全部给定训练样本,因此如果隐含层中心点与单元数目的确定采用静态学习算法,则解算结果不一定最优,而在线学习算法支持动态删除或加入隐含层节点,且隐含层中心点的确定和权值的训练同时进行,因此可以动态构造网络。

1)以分组优化策略为基础的在线学习法。训练神经网络是约束优化的过程,则需对特定的神经网络类型进行深入探讨。以下内容为在线隐含层单元的确定策略:当输入的训练样本同时满足以下条件时,则为之分配相应的隐含层但愿你:网络输出误差比误差的设定阀值大;输入样本与隐层中心点之间的距离比距离的设计阀值大。如果在RBF神经网络在线训练方式中引入分组优化策略,则网络输出与网络权值之间存在线性关系,同时与隐含层单元的宽度、中心点之间存在非线性关系,表明尽量采取不同的优化方法来处理两部分的参数。

2)最近邻聚类算法。最近邻居类算法作为动态自适应聚类学习算法,由其聚类得出的RBF网络不仅最优,且支持在线学习。最近邻聚类算法的实现过程为:

① 设定高斯函数宽度为r,定义矢量A(l)存放输出矢量的总和,定义计数器B(l)统计样本数量,其中类别数目为l。

② 对于数据对[(x1,y1)],于[x1]上创建1个聚类中心,并令[x1=c1],[y1=A(1)],[B(1)=1],那么在RBF网络中便仅存在1个中心为[c1]的隐含层单元,且隐含层单元与输出层的权矢量[w1=A(1)/B(1)]。

③ 对于数据对[(x2,y2)],解得[x2]与[c1]之间的距离[x2-c1]。假设[x2-c1≤r],那么[x2]的最近邻聚类为[c1],假设[A(1)=y1+y2],[B(1)=B(1)+1],[w1=A(1)/B(1)];假设[x2-c1>r],那么以[x2]为新的聚类中心,同时假设[c2=x2],[A(2)=y2],[B(2)=1]。根据上述要求创建的RBF网络,再在其中加入一个隐含层单元,其与输出层之间的权矢量[w2=A(2)/B(2)]。

④ 假设第k个数据对[(xk,yk)(k=3,4,...,n)]的聚类中心数为M,相应的中心点为[c1,c2,...,cm],则由此创建的RBF网络中便存在M个隐含层单元。据此,解得[xk]与M个聚类中心的间距为[xk-ci,i=1,2,...,M],假设两者的减小间距为[xk-ci],那么[xk]的最近邻聚类为[ci]。根据第一、二数据对的计算步骤,解得当[xk-ci>r]时,第M个隐含层单元与输出层之间的权矢量[wM=A(M)/B(M)];当[xk-ci≤r]时,隐含层单元与输出层之间的权矢量[wi=A(i)/B(i),i=1,2,...,M]。研究发现,动态自适应RBF网络的难易程度由r所决定,即聚类数目与r呈负相关,即r越小,聚类数目越多,则计算量越大和精度越高,反之亦然。总之,最近邻聚类法具有性能优点、计算量小河学习时间短等优点,不仅可以通过确定隐含层来建立RBF神经网络,还可以在动态输入模式在线学习中得到有效应用。

综上,RBF网络是一种具有最佳拟合和全局逼近性能的前向型神经网络,其无疑具有广阔的应用前景,但在实际应用中,应当考虑到局部极小问题的存在,进而保障其应用效果。

参考文献:

[1] 储兵,吴陈,杨习贝,等.基于RBF神经网络与粗糙集的数据挖掘算法[J].计算机技术与发展,2013,23(7):87-91.

[2] 宫晓曼,滕荣华.基于神经网络的数据挖掘在煤矿选煤中的应用[J].煤炭技术,2013(9):127-128.

[3] 魏文轩.改进型RBF神经网络在股票市场预测中的应用[J].统计与决策,2013(15):70-72.

[4] 曹东方,王玉恒.数据挖掘在员工考评管理信息系统中的应用[J].河北工业科技,2012,29(5):323-326.

[5] 姚应水,叶明全.RBF神经网络与logistic回归模型的对比研究[J].中国卫生统计,2011,28(4):397-399.

[6] 张会敏,叶明全,罗永钱等.基于RBF神经网络的老年痴呆症智能诊断研究[J].中国数字医学,2015(6):38-41.

[7] 习勤,米帅军.指标筛选技术在神经网络数据挖掘模型中的应用[J].统计与决策,2011(10):163-165.

[8] 林涛,葛玉敏,安玳宁等.基于 RBF 神经网络的钢构件质量追溯系统研究[J].计算技术与自动化,2015(1):20-24.

第4篇:如何学习神经网络范文

关键词:人工神经网络;教学实践;教学方法;生物信息学

中图分类号:G642.0 文献标志码:A 文章编号:1674-9324(2014)17-0208-03

人工神经网络是在神经生理学、生物学、数学、计算机学等学科发展的基础上提出的,模拟人类大脑的结构和思维方式处理、记忆信息的一门学科。具体来说,早在20世纪40年代,随着医学、生物学家们对人脑神经的结构、组成以及信息处理的工作原理的认识越来越充分,有学者提出以数学和物理方法对人脑神经网络进行抽象,并建立简化的模型,用以进行信息处理,这种应用类似于大脑神经突触联接的结构进行信息处理的数学模型,称之为人工神经网络ANN(Artificial Neural Network)[1]。

在人工神经网络中,各种待处理的对象(数据、特征、字符、抽象的模式等等)都可用神经元处理单元表示。这些神经元主要可以分为输入神经元、隐含神经元和输出神经元三大类。其作用各不相同,作为输入神经元的处理单元用来与外界产生连接,接收外界的信号输入;隐含神经元处于中间层,为信息处理的不可见层;输出神经元主要实现结果的输出。神经元之间相互连接,连接的权重反映了各神经元之间的连接强度,神经元之间的连接关系中蕴含着信息的表示和处理。人工神经网络主要是在不同程度、不同层次上模拟大脑处理信息的风格,具有非程序化、较强的适应性、自组织性、并行分布式等特点,其实现主要是通过网络的变换和动力学行为,涉及数学、生物学、人工智能、计算机科学、非线性动力学等多个学科[1]。作为一门活跃的边缘叉学科,在处理信息方面,相比于传统人工智能方法具有非线性适应性,成功地应用于神经专家系统、模式识别、组合优化、预测等多个领域,尤其在生物信息学领域得到了广泛的应用。生物信息学是20世纪末发展起来的一极具发展潜力的新型学科。人类的基因中蕴含着大量有用信息,利用神经网络可以对这些海量的信息进行识别与分类,进而进行相关的生物信息学分析。如利用神经网络分析疾病与基因序列的关系,基于神经网络对蛋白质结构的预测,基因表达谱数据的分析,蛋白质互作位点的预测等等,都取得了很好的效果[2]。

因此,在生物信息相关专业的本科生中开设人工神经网络课程尤为重要。经过多年的研究发展,已经提出上百种的人工神经网络模型,这就需要教师针对不同的专业背景,不同层次的学生,讲授不同模型的核心思想、推导过程、实际应用等等。本文主要根据人工神经网络在生物信息学相关专业的教学实践,从以下几个方面进行探讨。

一、引导式教学,激发学生的学习积极性

神经网络作为一门偏于理论分析的学科,传统的教学模式,即首先讲解模型的起源,接下来介绍模型的核心思想,然后就是一连串的数学公式推导,面对满黑板的公式,学生很难提起兴趣去认真学习相应的模型。所以,如何激发起学生的学习积极性,让学生重视这门课程,更好地掌握课程内容,掌握相关的模型理论基础、核心思想,更好地服务于本专业,是人工神经网络教学者亟待解决的问题。

首先,在导课的时候要生动,以引起学生对将要学习的内容的好奇心,让学生有兴趣投入到课堂学习内容中去。布卢姆说过:“最大的学习动机莫过于学生对所学知识有求知的兴趣。”只有在这种动机下的学习,才会提高自身的主动性与自觉性,达到提高教学质量的目的[3]。例如,在讲解hopfield神经网络的时候,通过举例对苹果、橘子的质地、形状、重量等特征的描述,运用“0,1”进行量化描述,然后应用神经网络就可以进行有效地分类;对于旅行商TSP问题,也可以通过hopfield神经网络寻找到最优路径。那么,这些问题是如何解决的呢?就需要大家来一起揭开hopfield神经网络的神秘面纱。其次,由于神经网络涉及大量的数学公式与数学方法,学生往往会有畏惧的心理,这就需要教师帮学生澄清思想误区,现在很多用于数据分析与计算的软件,如matlab工具箱、R软件里面都有很成熟的人工神经网络软件包,所以,学生只需要理解其工作原理、核心思想,学会使用现成的人工神经网络软件包处理数据,在熟练应用程序包的基础上,对相应的神经网络模型进行优化,改进,并且与其他的人工智能算法相结合,更好地为本专业服务。第三,在讲授人工神经网络理论内容的时候,要摒弃传统的呆板式的推导过程,以往的神经网络教学方法注重理论分析,通常是一连串的公式推导,公式中又涉及大量的符号,计算起来复杂又烦琐,学生会觉得索然无趣,厌学情绪严重。在教学过程中,教师要精心设计,创设出特定的问题环境,将所学内容与本专业相结合起来,多讲应用,启发和诱导学生选取合适的神经网络模型来解决本专业的实验数据分析与处理等问题。

二、理论教学与实验教学相结合

除了在理论课堂上将基本的理论知识传输给学生,教师还应该安排若干实验教学内容,让学生以实验为主,将理论课上所学的知识运用到解决实际问题中来,理论联系实际,主动操作思考,观察,分析,讨论,以培养学生解决问题的能力。一旦学生自己动手处理一些问题后,很自然地就会对人工神经网络产生一种亲切感,并能强烈激发起学生继续探究下去的兴趣。对于同一问题,可以让学生选取不同的网络模型,设置不同的参数,甚至可以让学生自己动手编写相应的网络模型程序,并且给予改进,根据得出的结果来评价模型在解决实际问题时的好坏,以及模型改进的效果。作为授课教师,需要不断优化实验教学内容,在生物信息学专业开设人工神经网络课程,实验教学主要是针对生物信息专业的海量生物数据处理与分析的实际需要,培养学生综合运用人工神经网络方法和生物信息学知识,进行信息的分析与处理。除了在实验课堂上给学生最大的自由发挥空间外,课后作业也尽量以开放式问题的形式给出,比如,可以让学生选取相应的网络模型处理本专业的一些实际问题,例如,数据的分类、聚类等等,其中,数据来源可以不同,类型也可自由选取,最后给出相应的模型参数设置、方法的改进、实验结果,也可以安排学生自己查询文献进行学习,并安排学生作报告。这样,学生可以在世界范围内了解神经网络的在本专业的应用情况,又能提高英语的读写能力,还能锻炼学生做科研报告的能力。

三、加强师资队伍建设以及其他基本条件的建设

由于生物信息学是一门新兴的交叉学科[4],这就要求人工神经网络的授课教师要熟练掌握生物信息相关专业的知识,教师的业务水平必须得到充分保证,才能给学生以全面透彻的指导。学院应该本着自主培养与重点引进的原则,优化教师队伍的专业结构和学历结构,提高教师的自身修养。授课教师要将课堂的理论知识联系实际生物问题进行讲授,让学生感受到人工神经网络在本专业的应用,提高学生的学习效率,同时也需要阅读大量的专业文献,提高编程技巧和数据库应用能力,让自己成为一名合格的复合型教师。同时,人工神经网络课程的实验,高度依赖于计算机网络等设备,因此,相关的软硬件设施的建设也必不可少,由于,基因组测序技术的发展,目前生物信息学研究所用的数据都是海量的,神经网络训练起来所需时间太长,不能用普通的电脑完成,需要专门的服务器来处理,学校有关部门应在条件允许的情况下,配备机房,购买服务器,以及相关的软件,为学生创造良好的环境,让学生完成课程内容。

最后,人工神经网络涉及数学、计算机、人工智能和神经学等专业知识,因此,需要授课教师加强与其他相关专业教师的交流与合作,并渗透到授课过程中去,让学生在学习人工神经网络网络时能将各专业联系起来,更好地解决生物信息学中的问题,要想成为一名合格的人工神经网络课程教师,首先要成为一名复合型的教师,不仅要具备教学和科研能力,同时也要具备计算机、生物学、信息学等多学科的知识。

参考文献:

[1]朱大奇,史慧.人工神经网络及其应用[M].北京:科学出版社,2006.

[2]朱伟,史定华,王翼飞.人工神经网络在蛋白质二级结构预测中的应用[J].自然杂志,2003,(3):167-171.

[3]赵俊,李晓红.趣味教学法在预防医学教学中的运用[J].现代医药卫生,2005,21(15):2089-2090.

第5篇:如何学习神经网络范文

(一)BrainCell

神经网络基本原理本文主要应用了BrainCell神经网络软件来实现B2B电子商务供应链协同绩效评价模型的计算与分析。BrainCell神经网络采用误差反向传播学习算法,算法从两个方面(信号的前向传播和误差的反向传播)反复进行迭代学习。其基本原理是输入层各神经元在接收外接的信息后,传递给隐含层的神经元,根据减少目标输出与实际输出误差的方向,从输入层经过隐含层逐层修正各连接的权值,直到将误差调整到能够接受的程度,这不仅是各层权值不断修正的过程,也是学习训练神经网络的过程,若学习样本的计算输出提前达到预期的结果,则训练过程结束,否则将学习到预先设定的学习次数为止,最后由输出层输出信息处理的结果,如上图所示。

(二)BrainCell神经网络实现步骤

1.网络层数的确定根据Kolmogrov理论可知,含有一个隐含层的三层神经网络可以以任意精度逼近一个从输入到输出的映射关系。因此,在BrainCell神经网络中采用含有单隐层的三层神经网络。2.网络节点的确定输入层节点的多少与评价指标个数是相对应的。因此,根据构建好的B2B电子商务供应链协同绩效评价指标体系,可以将一级指标与二级指标进行合并,作为输入层的节点数,其指标数如表1所示,因此输入层节点数为19个。输出层节点则为1个,在此以B2B电子商务供应链协同绩效等级结果作为输出值。3.网络训练本文采用的训练函数为trainscg,将网络训练的精度设置为10-4并初始化权值和阈值后,从15个样本中选取12个作为训练样本进行批处理训练,开启网络进行学习训练。其具体步骤如下。假设训练样例是形式(a,b),其中a为输入向量,b为输出值。N为输入节点数,M为输出层节点数。从单位i到单位j的输入表示aij,单位i到单位j的权值表示Wij。(1)创建具有N个输入单位,M个输出单位的BrainCell神经网络。(2)用随机数(0或1)初始化某些数字变量网络权值Wij。(3)对于第k个训练样例(a,b),把输入跟着网络前向传播,并计算网络中每个单元x的输出Qx,使误差沿着反向传播。(4)对于每个输出单元u,计算它的误差项。(5)对于每个隐含单元h,计算它的误差项。(6)利用误差项更新调整每个网络权值。(7)重复(3)到(6),直到完成指定的迭代次数或者是其误差值达到可接受的范围。4.网络检验将剩下的3个验证样本数据输入到训练好的网络中,将其训练结果与实际结果相比较,检验BrainCell神经网络得到的输入与输出间的关系是否正确,从而反映出该绩效评价体系的准确性和可靠性。

二、实证研究与分析

(一)确定绩效评价等级

由于各个企业供应链自身发展的情况不同,各具特点,其形式、结构各异,因此如何划分绩效评价等级,如何更好地反映绩效评价等级至关重要。本文以绩效考核成绩最好为1,最低为0为临界值,由高到低划分5个等级,并通过绩效等级系数来体现,见表2所示。

(二)指标数据获取和处理

本文以天猫商城中某珠宝饰品有限责任公司为例,该公司有比较稳定的供应商,且与多家企业都有长期合作关系。根据公司的实际管理情况,整理出该公司供应链协同管理的绩效指标评价体系研究的基础数据,应用BrainCell软件对这些基本数据进行计算。为使各指标在整个系统中具有可比性,本文利用效应系数将指标在闭区间[0,1]上进行同趋势化无量纲化和定性指标定量化处理。结果表明,该公司的供应链整体绩效基本良好,其绩效评价等级系数主要都集中在[0.5,0.8]这部分区间内,与该公司所处供应链实际情况相符。该公司运作情况基本令人满意。

三、结语及展望

第6篇:如何学习神经网络范文

关键词:地形面 自由曲面 神经网络 BP算法 模拟退火

1 引言

在水利及土木工程中经常会遇到地形面,地形面是典型的空间自由曲面,地形面在给出时,往往只给出一些反映地形、地貌特征的离散点,而无法给出描述地形面的曲面方程。然而有时需要对地形面进行描述,或者当给出的地形面的点不完整时,需要插补出合理的点。以往大多用最小二乘法或其它曲面拟合方法如三次参数样条曲面、Bezier曲面或非均匀有理B样条曲面等,这些拟合方法的缺点是:型值点一旦给定,就不能更改,否则必须重新构造表达函数;在构造曲线曲率变化较大或型值点奇异时,容易产生畸变,有时需要人为干预;此外,这些方法对数据格式都有要求。

神经网络技术借用基于人类智能(如学习和自适应)的模型、模糊技术方法,利用人类的模糊思想来求解问题,在许多领域优于传统技术。用神经网络进行地形面构造,只要测量有限个点(可以是无序的),不需要其它更多的地形面信息和曲面知识,当地形面复杂或者是测量数据不完整时,用神经网络方法更具优势,而且还可以自动处理型值点奇异情况。

本文提出用BP神经网络结合模拟退火算法进行地形面的曲面构造。

2 模型与算法的选择

为了对地形面进行曲面构造,首先要有一些用于神经网络训练的初始样本点,对所建立的神经网络进行学习训练,学习训练的本质就是通过改变网络神经元之间的连接权值,使网络能将样本集的内涵以联结权矩阵的方式存储起来,从而具有完成某些特殊任务的能力。权值的改变依据是样本点训练时产生的实际输出和期望输出间的误差,按一定方式来调整网络权值,使误差逐渐减少,当误差降到给定的范围内,就可认为学习结束,学习结束后,神经网络模型就可用于地形面的构造。

BP网是一种单向传播的多层前向网络。网络除输入输出节点外,还有一层或多层的隐层节点,同层节点中没有任何耦合。输入信号从输入层节点依次传过各隐层节点,然后传到输出节点,每一层节点的输出只影响下一层节点的输出。其节点单元传递函数通常为Sigmoid型。BP算法使神经网络学习中一种广泛采用的学习算法,具有简单、有效、易于实现等优点。但因为BP算法是一种非线性优化方法,因此有可能会陷入局部极小点,无法得到预期结果,为解决BP算法的这一缺点,本文将模拟退火算法结合到BP算法中。

模拟退火算法是神经网络学习中另一种被广泛采用的一种学习算法。它的基本出发点就是金属的退火过程和一般组合优化问题之间的相似性。在金属热加工过程中,要想使固体金属达到低能态的晶格,需要将金属升温熔化,使其达到高能态,然后逐步降温,使其凝固。若在凝固点附近,温度降速足够慢,则金属一定可以形成最低能态。对优化问题来说,它也有类似的过程,它的解空间中的每一个点都代表一个解,每个解都有自己的目标函数,优化实际上就是在解空间中寻找目标函数使其达到最小或最大解。

(如果将网络的训练看成是让网络寻找最低能量状态的过程,取网络的目标函数为它的能量函数,再定义一个初值较大的数为人工温度T。同时,在网络的这个训练过程中,依据网络的能量和温度来决定联结权的调整量(称为步长)。这种做法与金属的退火过程非常相似,所以被称为模拟退火算法。)

模拟退火算法用于神经网络训练的基本思想是,神经网络的连接权值W可看作物体体系内的微观状态,网络实际输出和期望输出的误差e可看作物体的内能,对网络训练的目的就是找到恰当的状态W使其内能e 最小,因此设置一个参数T来类比退火温度,然后在温度T下计算当前神经网络的e与上次训练的e的差e,按概率exp(-e/T)来接受训练权值,减小温度T,这样重复多次,只要T下降足够慢,且T0,则网络一定会稳定在最小的状态。

模拟退火算法虽然可以达到全局最优,但需要较长时间,BP算法采用梯度下降方式使收敛速度相对较快。为取长补短,我们将两种算法结合起来,采用BP算法的梯度快速下降方式,同时利用模拟退火算法技术按概率随机接受一个不成功的训练结果,使梯度快速下降过程产生一些随机噪声扰动,从而既保证了网络训练的快速度下降,又保证了训练结果的最优性。  3网络结构与学习算法

3.1网络结构

如何选择网络的隐层数和节点数,还没有确切的方法和理论,通常凭经验和实验选取。本文采用的BP网络结构如图1所示,输入层两个节点,分别输入点的x坐标和y坐标;两层隐层,每层10个节点,输出层一个节点,输出点的z坐标。

3.2 学习算法

学习算法的具体过程如下:

其中Out_node为输出神经元集合.

4计算实例

为了检验本文算法的有效性, 我们用本文算法对黄河下游河滩地形面进行曲面构造, 地形面数据按截面给出, 我们用奇数截面上的点为学习样本, 偶数截面上的点用于检验本算法的精度. 表1给出了测量值z1与本文算法计算结果z2, z2为本算法经过大约3500次迭代的结果. 由这些数据可以看出,本文算法计算出的值与测量值的误差大约在0.02左右. 完全可以满足实际工程要求的精度.

5 结语

用神经网络进行地形面的曲面构造, 不必求出曲面的方程, 只需知道有限个点即可, 而且这些点可以是散乱点. 与传统方法相比, 神经网络方法具有很强的灵活性.

本文将BP算法和模拟退火算法结合起来, 解决了BP算法容易陷入局部极小的致命缺点. 但仍然没有解决BP算法收敛速度慢的缺点.

NEURAL NETWORK METHOD TO CONSTRUCT TERRAIN SURFACE

Abstract

This paper presents an artificial neural network approach to solve the problem of terrain surface construction. This method takes advantage of the global minimum property of Simulated Procedure on the basis of BP algorithm, thus can jump out of the local minimum and converge to the global minimum..This method were validated by simulating bottomland terrain of Yellow River.

Key words: terrain surface; freeform surface; neural network; BP algorithm; simulated annealing

参考文献

[1] 王铠,张彩明. 重建自由曲面的神经网络算法[J]. 计算机辅助设计与图形学学报,1998,10(3):193-199

第7篇:如何学习神经网络范文

关键词:神经网络;感兴趣区域;自动分割;自组织特征映射;多模态上下文关联

中图分类号:TP391文献标识码:A文章编号:1009-3044(2011)25-6209-03

An Automatic Segmentation Approach for CT Image Based on Neural Network

CHU Jian, YU Wen-xue

(The Image Technology Laboratory, Southeast University, Nanjing 210096, China)

Abstract: Neural network is hot in pattern recognition theory, and useful for image segment. The way to extracting the region of interest (ROI) from medical images and automatically identifying is difficult. With the in-depth analysis of neural network algorithm, it’s proposed that self-organizing map (SOM) and multi-module contextual (MMC) combined neural network method to achieve automatic segmentation in CT images. Using the prior knowledge of anatomy combined with the image, it sets the feature descriptors and evaluation of criteria, to automatically identify the image region of interest, tissues and organs.

Key words: neural network; region of interest; automatic segmentation; self-organizing map; multi-module contextual

图像分割是指根据区域内的相似性及区域间的不同,将图像分成各具特性的区域,并提取出感兴趣区域的技术和过程。而医学图像分割在医学和解剖上更具有明确的意义,是当前医学图像领域的热点和前沿课题,也是医学图像处理和分析过程中的关键技术,更是进行图像识别、图谱匹配、可视化、定量分析和计算机辅助诊断等处理的必要前提[1]。目前,医学图像分割主要以各种细胞、组织与器官的图像作为处理的对象。例如磁共振颅脑图像的分割,其目的就在于清晰地描绘出颅脑各个解剖结构的边界,如灰质、白质、脑脊液以及MR图像中的其它组织。如何从医学图像中将感兴趣区域(病灶、组织器官等)提取出来,是图像分析和识别首要解决的问题,也是制约医学图像处理中其它技术发展和应用的瓶颈。传统的医学图像分割停留在人机交互水平,处理时间较长且受人为因素影响,而自动分割正是解决此问题的方法,也是近年来的研究热点,代表着医学图像分割未来的发展方向[2]。

结合目前热点研究神经网络理论,利用其可学习训练和反馈特性,对医学图像像素进行分类,并提取感兴趣区域(Region of Interest,ROI)轮廓。而神经网络方法分割图像的思想是用训练样本集对神经网络进行训练以确定节点间的连接和权值,再用训练好的神经网络分割新的图像数据。本文给出一种结合多模态上下文关联神经网络(Mutimodule Contextual Neural Network,MMC)算法和Kohonen自组织映射神经网络(Self-organizing Map,SOM)算法的方法,对目标医学图像进行分割,得到可能的组织轮廓。再依据图像解剖结构的先验知识,设定判定准则和特征描述子计算,提取出感兴趣区域轮廓。本文提出的神经网络自动分割方法,实现对腹部CT的自动分割,并自动提取感兴趣区域组织轮廓。

1 神经网络自动分割

根据文献[3-5]中所提出的多模态上下文关联神经网络(MMC)算法所描述,可以结合Kohonen自组织映射神经网络(SOM)方法[6-7],再利用图像灰度信息和邻域相关信息,将图像像素分类,从而实现感兴趣区域分割的方法。下面就这个方法过程进行阐述,并加以改进和实现。

1.1 MMC神经网络分割

首先,将图像像素大小设为n,并将其划分为m个分类。假设n个像素概率向量集合P={P1,P2,…,Pi,…Pn},其中1≤i≤n,Pi=[pi1,pi2,…,pik,…pim]T。则集合P中向量元素Pi表示为像素i隶属于m个分类的概率向量,而向量Pi中的元素pik表示像素i隶属于第k类的概率。根据概率向量归一性,Pi满足下式:

(1)

对应于神经网络,每个神经元即代表某个唯一像素。对于第i个神经元的分类模型k概率值pik(t+1) ,由其当前概率值pik(t)和相邻神经元的影响值vik(t)所决定,则pik(t+1)的迭代公式可表示如下式:

(2)

其中模型输出函数f(x)定义成:

(3)

公式(2)中分母满足归一化条件,使得结果pik(t+1)在式(1)成立。

同时公式(2)中的vik(t)可由下式获取:

(4)

其中,表示当前神经元(像素)i的邻域,l则表示i邻域神经元的个数。同时,权重矩阵W=[W1,W2,…,Wi,…Wm]T=[wi,j],1≤i, j≤m ,wi,j即为两个神经元之间的权重系数。

由公式(4)分析可知,若Wk(1≤k≤m)具有较大的兼容性,则结果会是正值,同时概率向量Pi+δ中的元素 Pi+δ,k的值比较大,那么vik的值将是较大的正数;若Wk只有较小的兼容性,则结果为负,同时概率向量Pi+δ中元素 Pi+δ,k比较大,那么vik的值将是较小的负数。但如果Pi+δ,k偏小,则可以它忽略其对vik的影响。此外,可以简单的定义权重矩阵为:

(5)

由迭代式2可知,第 k 类的神经元 i 重复迭代,不停接收邻域神经元的响应,并产生新的输出pik(t+1)。运用此方法之前,每个像素分类隶属度应该明确,即初始概率向量Pi(0)在迭代开始之前,就应该计算出来。而下一小节阐述的自组织映射(SOM)神经网络算法,则可以分析图像像素灰度的分布情况,并且计算出每个像素隶属分类的初始概率向量Pi(0),即作了预分割处理。

1.2 SOM神经网络分割

经典的SOM算法包含训练和回调两个部分,下面给予算法公式和分析。

1)训练过程。首先,设图像的灰度值集合A={I1, I2,…,Ii,…In},其中Ii就是像素i的灰度值,n仍然表示图像像素大小,即训练的样本容量。再将灰度Ii与SOM神经网络第k个神经元的权重系数表示为Lk (1≤k≤m),其中m仍为分类数。权重系数Lk也是图像的模糊聚类中心。则在对图像进行聚类分析时,SOM神经网络依据下式进行训练:

(6)

其中下表索引c即为获胜神经元(最优匹配)。而获胜神经元相邻的权系数由下式进行迭代:

(7)

其中α(t)为训练学习效率,Nc(t)为获胜神经元c在当前t时刻的邻域函数。训练过程中,α(t) 和Nc(t) 一直在衰减,且0

2)回调过程。由式(6)可知,像素i 对应的获胜神经元c通过训练学习可以确定下来。其隶属于每个分类的初始概率向量Pi(0),也可以通过高斯分布N(c,σ)进行初始化。Pi(0)的初始化式为:

(8)

其中标准方差σ即是控制初始概率的扩散因子。式中分母则起到归一化作用,使得pik满足式(1)。

由式(8)的结果可知,在Pi(0)初始概率向量中,获胜神经元所代表元素pic的值很大,而其它元素较小,这是由变量σ和|k-c| 的大小所决定。

通过初始概率向量Pi(0)和神经网络权重矩阵W设置,代入式(2)迭代运算,直到Pi=[pi1, pi2, …, pik,…pim]T满足如下收敛条件:

(9)

其中ε取值很小,以保证迭代能够中止。

1.3 图像解剖结构的先验知识判定

医学图像通过上述神经网络算法进行轮廓分割后,得到可能的组织轮廓结果。此时利用组织区域的判定特性和相关特征条件,可以从所有轮廓中对比识别感兴趣器官或组织。而这些组织器官区域的特征,是由图像解剖结构的先验知识所确定的。本文处理图像是腹部CT,其中重要组织器官特征如下所示[8]:

1) 脊椎:一般位于图像中底部,且离图像中心点较近。最突出的是,脊椎属于骨骼高密度组织,其灰度值最大。故很容易定位和作参考,一般可以用作固定标记点,即切片中描述感兴趣区域相对位置的参考点。

2) 脊髓:通常在脊椎内,属于密度偏小的软组织,在CT图像中其灰度值相对脊椎小很多,黑白对比明显,很容易区分。但部分切片中,脊椎被分成上下两块,上一块较圆,下一块倒三角形,而脊髓处于条缝里。此时脊髓的分割轮廓分散,通过特殊条件处理才能识别。

3) 肾脏:两个肾脏恰好分布在脊椎两侧,对应于左肾和右肾。肾脏形状相对规则,组织区域的紧密度也较大,轮廓边界清晰。

4) 肝脏:位于右肾的右上方。若切片没有右肾,则定位于脊椎右上方,且距离脊椎较远。肝脏的面积和紧密度都比较大,部分切片中肝脏还可能分成数个区域,故位置和组织范围变化较大,必要时给予区域合并。

上述解剖结构位置和大小,及图像中的灰度分布情况,可以转换成组织器官识别的判定准则。针对腹部CT图像,组织器官识别顺序是脊椎,脊髓,肾脏(左肾和右肾),肝脏。

有了组织解剖结构条件做先验知识判定,再定义一组相关特征描述子来对ROI进行量化分析,常用描述子有相对距离、周长、面积、相对位置、组织密度、紧密度等,这里不再细述。

2 实验结果及分析

依据上节的理论算法分析,可以给出相应的神经网络算法实现过程,如图1。

由上述算法公式和图1流程图,通过程序实现单张CT切片神经网络自动分割。首先,关注实验过程中的重要参数设置:

a)窗口调节参数:窗宽 W=380,窗位 L=10;

b)图像像素隶属分类数:m=7;

c)SOM神经网络参数(公式6):Nc(t)神经元作用半径r=1,学习效率α(t)=0.2,SOM学习迭代次数(最长时间)Epoch=500;

d)MMC神经网络参数(公式2,6):高斯分布扩散因子σ=1.5,MMC学习迭代次数nIter=3。

通过上述参数设置,针对单张腹部CT切片进行自动分割识别。先将16位原图调整窗宽窗位,并压缩至8位灰度图,提高学习效率。输入到神经网络,先SOM算法进行初始分割,通过训练回调确定分类中心初始值,再通过MMC算法训练迭代确定分类概率向量,并由此提取组织轮廓。最后由先验知识判定规则,实现ROI的自动识别,并对识别组织器官轮廓进行平滑处理。图2给出完整的单张切片分割识别处理图(a-d),由图2(c)可见神经网络分割所得可能的分类组织轮廓清晰,且边界光滑,所有分割轮廓数是64;再由图2(d)所示,显示轮廓数是5,且成功识别腹部重要器官,并提取组织轮廓。实验条件在CPU2.40GHZ,内存2G的PC机上执行,算法所耗用时间为10S,适用于临床使用和辅助治疗。

(a)原始16位图 (b)压缩8位图(W=380,L=10)(c)分类组织轮廓 (d)组织器官识别

图2CT图像神经网络自动分割

(W=380,L=10,m=7,r=1,α(t)=0.2,Epoch=500,σ=1.5,nIter=3)

3 结论

本文通过多模态上下文关联和自组织映射神经网络相结合的方法,实现对CT图像的自动分割,并利用解剖先验知识对分割结果进行组织识别,最终提取感兴趣区域组织轮廓。该方法实验成功,下一步研究将针对神经网络样本可学习性,实现序列切片的有效率自动分割。

参考文献:

[1] 章毓晋. 图象分割[M].北京:科学出版,2001:1-4.

[2] 姜晓彤,罗立民,汪家旺,等.一种肺部肿瘤CT图象序列的自动分割方法[J]. 中国图象图形学报, 2003,8(9):1028-1033.

[3] Lin W C, Tsao E C K, Chen C T. Constraint satisfaction neural networks for image segmentation[J].Pattern Recognit., 1992,25(7):679-693.

[4] Haring S, Viergever M A, Kok J N. Kohonen networks for multiscale image segmentation[J].Image Vision Comput.,1994,12(6):339-344.

[5] Rosenfeld A, Hummel R A, Zucker S W. Scene labeling by relaxation operations[J].IEEE Trans. Syst., Man, Cybern.,1976,(SMC-6):420-433.

[6] Valli G. Artificial neural networks for t he segmentation of medical images [R].Technical Report No.940702,1994.

第8篇:如何学习神经网络范文

关键词:瓦斯突出;微粒群算法;RBF神经网络;MATLAB

中国分类号: TP183;文献标识码: A

前言

瓦斯突出的产生机理和预测过程比较复杂, RBF神经网络在瓦斯突出预测中起到了很重要的作用。煤矿瓦斯突出的影响指标很多,并且各个指标与瓦斯突出之间的关系为非线性的关系,因此要求RBF神经网络具有很好的非线性逼近能力。

RBF神经网络是以函数逼近理论为基础构造的一类前向网络,网络结构自适应确定,输入与初始值无关,结构简单,训练简洁,能够逼近任意非线性函数,而且在逼近能力、分类能力和学习速度方面均优于BP网络。RBF神经网络网络的设计包括三部分:神经元功能函数的设计,神经元之间的连接形式的确定以及网络训练方式的确定。在这三部分中隐单元RBF的设计是比较重要的。RBF函数是一种局部分布的对中心点径向对称的非负非线性函数。但是在神经元功能函数的设计中,RBF功能函数的中心ci的确定有很大的难度。

通常使用随机选取固定中心法,中心的自组织选择法等,但是由于这些学习训练方法的局限性,通过这些方法得到的神经网络适用性和泛化能力比较差,不能满足瓦斯突出预测的要求。本文利用微粒群算法来计算出通过学习训练得到的RBF神经网络的隐单元RBF的中心ci的适应度的方法来确定最后的隐单元RBF的中心ci,并且不断的在以后的实践应用中更新学习训练所用的数据库,系统根据数据库的变化,可以优化原有的隐单元RBF的中心ci ,提高了神经网络的逼近能力,有效的客服了RBF神经网络局部最优的缺点。

1、微粒群算法

1.1基本微粒群算法

微粒群算法(particle swarm optimization,PSO)是1995年由美国社会心理学家J.Kennedy和电气工程师R.Heppner共同提出的,其基本思想是受鸟类群体行为研究结果的启发,并利用了生物学家F.Heppner的生物群体模型[2]。算法原理如下:

微粒群算法主要是使用微粒的适应度大小进行寻找全局最优和优化参数。他将种群中的每个个体看作是N维空间的一个没有质量和体积的微粒,并且在搜索空间以一定的速度飞行,在飞行过程中不断根据环境的改变来改变自身的速度和方向,直到找到适应度最好的位置。假设Xi=(xa1,xa2,xa3,……xan为微粒i的当前位置,Vi=(va1,va2,va3,…… van)代表微粒当前的飞行速度,Pi=(pa1,pa2,pa3,……pan)表示微粒经历的适应度最好的位置,这是局部最优位置。

当f(xi(a+1))≥f(Pi(a)) 时Pi(a+1)= Pi(a)

当f(xi(a+1) <f(P(a)) 时Pi(a+1)= Xi(a+1) 所以全局最优位置P(a)=min{f(P0(a) ,P1(a)……Pn(a)}。同时可以得出进化方程为:vij (t+1)=vij (t)+c1v1j(t)[pij (t)-xij (t)]+c2r2j(t)[pgj (t)-xij (t)]

为了更好的确定和优化RBF的中心ci,计算每个数据库得到的中心ci的均方误差,计算出每个中心ci的适应度:

E(Xp)=[Yk,p(Xp)-tk,p]

有适应度来确定的适应度函数如下:

f(x)=

1.2带惯性权重的微粒群算法

在全局搜索过程中,搜索能力和收敛速度是相对立的,如果搜索能力高了,收敛速度就会相对变慢,为了解决这一问题,在速度进化方程中引用了惯性权重,具体公式如下:

vij(t+1)=wvij(t)+c1v1j(t)[pij(t)-xij(t)]+c2r2j(t)[pgj(t)-xij(t)] 式中w称为惯性权重。

在全局搜索利过程中,惯性权重w可以根据要求按照一定趋势改变,这样就既能保证搜索能力又能加快收敛速度。

2、RBF神经网络

人工神经网络是对人类大脑系统一阶特性的一种描述,有类似人的神经元的处理单元通过各种连接方式连接起来构成,整个网络同时具有一个或是多个的输入和输出,能够对信息进行并行和分布处理。人工神经网络主要包括三方面的内容:激活函数,神经元之间的连接形式,网络的学习或者是训练。

激活函数为径向基函数(RBF)的神经网络为RBF神经网络,RBF神经网络是一个单隐层的三层前馈网络,分别为输入层,隐含层,输出层。隐含层的传递函数为radbas。径向基网络结构如图1所示。实验已经证明:径向基网络能够以任意精度逼近任意连续函数。每个RBF的节点有一个“参考”输入x*i,f是输入与“参考”输入的距离d(x*i,xi )的函数,函数中的距离有节点输出y =f(d(x*i,xi ))来计算。

RBF神经网络的学习主要有两种:中心自组织选择法和中心的监督选择发。中心的自组织选择法是一种无导师,也称非监督学习,是对所有的输入进行聚类,求得各隐单元RBF的中心ci。中心的监督选择法是一种有导师的学习,也称为监督学习算法。主要是通过一个有导师或是有监督的学习过程来确定隐单元RBF的中心ci。

3、RBF神经网络隐单元RBF的中心ci 的确定和优化的过程

本文利用普通的学习训练法和带惯性权重的微粒群算法相结合的方法来进行RBF神经网络隐单元RBF的中心ci的确定和优化。具体过程如图1所示。

(1)用一定数量的与瓦斯突出有关信息组成一个数据库,并且将这个数据库分为若干个子数据库.使用这些子数据库分别对RBF神经网络进行训练,得到隐单元RBF的中心c1,c2,c3……。

(2)将上面得到的若干个隐单元RBF的中心作为一个个体(微粒),有这些个体组成一个种群,其中每个个体代表先前计算出的一个隐单元RBF的中心。初始化Gbest和Lbest。

(3)使用带惯性权重的微粒群算法来确定最后的隐单元中心,通过计算每个微粒适应度来确定中心ci,然后通过适应度函数来优化中心ci,最后形成RBF神经网络。

(4)把井下测得的数据作为输入,来进行瓦斯突出预测,并且把井下的信息和预测结果,作为下次更新数据库和优化隐单元中心的依据。

(5)每进行一次预测,数据库的信息就根据实际情况和预测结果进行一次更新,根据更新的数据库,对得到的隐单元中心进行优化,提高了系统的适应能力和自学习能力。

4、带惯性权重的微粒群算法的Matlab程序设计和瓦斯突出预测

使用Matlab进行程序时所用到的函数如下:

PSO:主函数,用于调用微粒群算法。

DrawSwarm:绘图函数,主要用来反映每个微粒的进化过程。

psoOption:参数显示函数,主要用于显示带惯性权重的微粒群算法的参数设置情况。

使用多个函数形成函数模块,实现对隐单元RBF的中心ci的确定和优化。带惯性权重的微粒群算法进行确定和优化神经网络隐单元RBF的中心ci的函数模块为:[fxmin,xmin,Swarm,history]=pso(input,psoOptions);

选取一定量的信息形成数据库,然后随机的划分为若干个子数据库,通过学习训练来产生一些中心c1,c2,c3……,然后再组成种群,利用函数模块来确定和优化RBF的中心。具体实验数据如下表1所示:

利用Matlab运行该函数模块来确定和优化RBF神经网络时,算法程序运行时出现的最优适应度值随着迭代次数的变化如图2所示。

当函数模块算法程序运行时出现的适应度值满足要求时,说明此时的ci的最优化完成,可以来确定RBF神经网络。

把上面经过优化神经网络来进行瓦斯突出预测,需要预测的样本数据如下表2所示:

其中运行结果用1表示安全,-1表示突出。

运用MATLAB对样本数据进行测试,测试代码如下:

pl=[0.809.011.530.2 ];

p2=[0.153.51.27.3]:

y1=sim(net,p1) ;

y2=sim(net,p2) ;

最后预测结果是y1=-0.9908,y2=1.005;

可见该系统能够准确的预测出瓦斯突出。

总结

使用RBF神经网络来进行瓦斯突出预测比其他方式的预测具有很好的效果,但是由于煤矿的环境比较特殊,瓦斯突出产生的机理比较复杂,并且不同煤矿的影响瓦斯突出的因素也不相同,所以要求神经网络具有很好的适应性和自学习能力。但是RBF神经网络的隐单元RBF的中心ci的确定是基于数据空间局部的信息,很难都到全局最优,严重影响了RBF神经网络的适应性和自学习能力。本文利用带惯性权重的微粒群算法来确定和优化RBF神经网络,惯性权重w能起到保证全局最优和局部搜索能力的平衡的作用,能够在保证全局最优的前提下,提高搜索全局最优的速度,提高了预测的准确度。

参考文献

第9篇:如何学习神经网络范文

关键词 交直流输电;阻尼调制;神经网络

中图分类号TM7 文献标识码A 文章编号 1674-6708(2011)49-0186-02

0 引言

电力系统是一个复杂而庞大的非线性动力学系统,它对运行安全、稳定、经济性要求极高。由于电力系统的庞大与复杂,参数的不确定,频繁的噪声与干扰,网络结构的不断调整与变化等种种不确定因素严重制约了各种确定型或自适应控制的实际控制性能,使已有的控制器始终未能达到理想的效果。基于神经网络的控制可以根据在线样本自动调整自身行为,从原理上来本文利用说应具备在线自我调整和不断自我完善的能力。

本文利用神经网络学习电力系统逆动态,设计出一种神经网络在线自学习直流阻尼控制器,并基于MATLAB仿真软件对其在交直流混合输电系统的控制效果进行分析与验证。

1 神经网络在线自学习的意义

研究基于神经网络的交直流系统实时控制的在线自学习,具有以下重要意义:

1)对交直流混合输电系统而言,模型仿真手段无论如何力求精确,也始终无法和实际系统动态行为完全一致,因而离线训练设计的神经网络控制器在线运行中性能总会有偏移。在线自学习使神经网络控制器可以根据控制目标不断调整自身控制行为,产生越来越好的控制效果;

2)在线自学习可使神经网络控制器产生不同于最初训练的控制性能,从而摆脱对于其它控制原理的依赖,拥有自己独特的品质;

3)在线自学习使基于神经网络的直流阻尼控制器拥有自我改进,自我完善的能力,从而真正成为智能控制器。

2在线自学习方案的设计

2.1 获取在线样本的新思路

很多研究已经表明,已有的在线自学习方案在如何获取上已经陷入了困境。因此,文献[4]提出了一种解决该困境的新思路,设计出一种逆动态神经网络控制器(),如图1所示,取(y,u )构成训练样本训练,可以得到相同的训练效果

2.2控制方案的实现

本文即采用图2所示的方案来实现逆系统NNHVDC的设计并探讨其在线自学习的实现及学习效果。该方案的输入中包含了控制目标,这样控制行为将主要由yd的值决定。文献[4]已经提出了这种模型中控制的实现与在线自学习样本的生成方案并给予了一定的理论证明。当yd选取得当时,经过不断的在训练,网络的控制输出将逐步逼近期望输出yd。因而其控制最终应该是稳定的。

以往研究表明交直流系统逆动态是存在的,而且可以由BP网络以要求的精度逼近。具体实现如下:采用6-6-1三层BP网络作为控制主体,选取NN输入变量集为:

NN的输出为t时刻的控制信号。如何确定和是获取NN输入的两个关键。

本文选择直流调制中最常用的以两侧交流系统发电机转速差为调制信号的作为NN的初始训练器来训练神经网络,控制器参数。应此可得到直流调制控制规律为:

本文所采用的参考模型是由同步发电机转子运动方程推算而得,描述如下:

式中为采样/控制周期,单位为秒;为功率变化值,可由功率变送器获得,D为期望的系统阻尼,由用户根据控制性能的要求设定,取值越大,表明设计者希望有扰动引起的系统振荡衰减越快,本文取D=0.5。

具体仿真步骤如下:

1)选取任意一种可接受的控制器作为初始训练器,对IDNNHVDC进行初步的离散训练,其目的是不至于一开始就生成电力系统不能接受的控制输出;

2)将离线训练后的NNHVDC(计为NNHVDC1)置入交直流系统,记录其在各种扰动的控制性能;

3)对于选定的扰动,以NNHVDC1的控制响应构成在线训练样本集,用以训练NNHVDC得到NNHVDC2;

4)对NNHVDC2重复[step2]~[step 3]的控制过程的NNHVDC3;5)重复(4)直到NNHVDCi的控制响应令人满意为止。

3 仿真模型的建立

本文基于软件Matlab/Simulink/ SimPower Systems工具箱搭建一个交直流并联输电系统模型,示意图如图3所示。系统包括两个区域,发电机M1区域由两条交流输电线路和一条直流线路向发电机M2区域输电。发电机M1、M2包含有励磁控制,机端电压为13.8kV,通过升压变压器变成500kV,向系统供电。区域间的距离为500km,在M2区域包括一个5000mW的负载,由M1和M2供电。另外系统中还包含三相断路器,可以模拟交流系统故障。

直流系统的额定传输容量为1000MW,两侧额定电压为500kV,滤波电抗器为0.5H,直流线路长为500km。在换流站设置的无功补偿和滤波装置包

括一个500 Mvar的电容器和150 Mvar的11 次滤波器、13次滤波器和高通滤波器。

4仿真结果与分析

根据第3节仿真步骤进行仿真计算,系统模型如图4所示,选取以下扰动来训练神经网络:整流侧发电机机端发生2s时三相短路故障,2.3s后故障切除。以上小节介绍的作为初始训练器,用以上故障时的系统状态变量根据式(1)构成NN的输入集,离线训练后得到IDNNHVDC1,仿真结果表明,按step1到step5的步骤经过仅仅五次自学习之后,所得NNHVDC5的控制性能已经远远超过了常规直流调制CHVDC,达到了令人满意的程度。

选取以下2个扰动来测试所设计的IDNNHVDC的控制性能:

扰动一:t=2s时一交流线路首端发生三相短路,0.1s后保护动作切除该回路,0.2s后重合闸合并恢复到双回线运行。

扰动二:t=2s时一条交流线路首端三相短路,0.3s后故障排除;t=6s时该回交流线路中端又发生三相短路,0.1s后故障排除。

通过IDNNHVDC和CHVDC作用下发电机功角的变化过程的对比,结果表明,经过五次训练后IDNNHVDC的控制效果已远远优于常规CHVDC控制,从而进一步证实了IDNNHVDC的优越性能,通过以上仿真结果可得出以下几个结论:

1)随着训练次数的增加,该NN控制器控制性能不断改善,由此表明,该控制器具有很好的在线自学习能力;

2)IDNNHVDC控制器能有效增强直流系统两侧交流系统的阻尼,很好的抑制直流两侧交流系统振荡。对各种大、小扰动均表现出明显的抑制作用,具有很强的鲁棒性;

3)通过在线训练后的IDNNHVDC在各扰动下的控制性能表明,图2所示以逼近受控系统逆动态为目标的神经网络控制方案在交直流混合输电系统实时控制中是可行的。

5 结论

本文利用神经网络学习电力系统逆动态,由参考模型产生期望控制响应,实时采样值构成在线训练样本的在线训练方案。由于在纯交流系统电力系统稳定器的运用中,该方案的的控制效果已经得到很好的验证,而其在直流阻尼调制的运用与研究中尚属空白。因此,笔者把该方案运用于交直流系统直流阻尼调制之中,设计出双CPU神经网络在线自学习直流阻尼控制器。不仅从理论上分析证明了该方案的有效性,而且仿真结果表明,所设计的IDNNHVDC控制器能有效增强直流系统两侧交流系统的阻尼,很好的抑制直流两两侧交流系统振荡。在在线自学习调整过程中,该NN控制器控制性能不断改善,对各种大、小扰动均表现出明显的抑制作用

参考文献

[1]管霖,程时杰,陈德树.神经网络电力系统稳定器的设计与实现[J].中国电机工程学报,1996,16(6):384-387.