公务员期刊网 精选范文 卷积神经网络的概念范文

卷积神经网络的概念精选(九篇)

前言:一篇好文章的诞生,需要你不断地搜集资料、整理思路,本站小编为你收集了丰富的卷积神经网络的概念主题范文,仅供参考,欢迎阅读并收藏。

卷积神经网络的概念

第1篇:卷积神经网络的概念范文

【关键词】深度神经网络 序列到序列网络 卷积网络 对抗式生成网路

1 深度神经网络起源

人工神经网络(ArtificialNeuralNetworks,ANN)研究是人工智能领域的一个重要分支,在对生物神经网络结构及其机制研究的基础上,构建类似的人工神经网络,使得机器能直接从大量训练数据中学习规律。其研究最早可以追溯到1957年Frank Rosenblatt提出的感知机模型,他在《The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain》建立了第一个人工神经网络数学模型,19世纪80年代末期反向传播(Back Propagation)算法的发明更是带来了ANN的学习热潮,但由于理论分析难度较大,训练方法及技巧尚不成熟,计算机运算能力还不够强大,这个时期ANN结构较为简单,大部分都可等价为单隐层神经网络,主要是进行浅层学习(Shallow Learning)研究。

2006年Geoffrey Hinton在《A Fast Learning Algorithm for Deep Belief Nets》中提出了逐层贪婪预训练(layerwise greedy pretraining),显著提高了MNIST手写数字识别的准确率,开创了深度学习的新方向;随后又在《Reducing the Dimensionality of Data with Neural Networks》中提出了deep autoencoder结构,在图像和文本降维实验上明显优于传统算法,证明了深度学习的正确性。以这两篇论文为开端,整个学术界掀起了对深度学习的研究热潮,由于更多的网络层数和参数个数,能够提取更多的数据特征,获取更好的学习效果,ANN模型的层数和规模相比之前都有了很大的提升,被称之为深度神经网络(Deep Neural Networks,DNN)。

2 深度神经网络的现代应用

2010年以来,随着理论不断创新和运算能力的增长,DNN被应用到许多领域并取得了巨大的成功。2011年微软和谷歌的研究员利用DNN将语音识别的错误率降低了20%~30%;2012年在ImageNet图像识别挑战赛(ILSVRC2012)中DNN更是将识别错误率从26%降到了15%;2016年3月DeepMind团队研发的围棋软件AlphaGO以4:1的巨大优势战胜了世界围棋冠军李世石,2017年1月初AlphaGO的升级版Master以60:0的战绩击败了数十位中日韩围棋高手。当前对DNN的研究主要集中在以下领域:

2.1 语音识别领域

微软研究院语音识别专家邓立和俞栋从2009年开始和深度学习专家Geoffery Hinton合作,并于2011年宣布推出基于DNN的识别系统,彻底改变了语音识别的原有技术框架;2012年11月,百度上线了第一款基于DNN的语音搜索系统,成为最早采用DNN技术进行商业语音服务的公司之一;2016年微软使用循环神经网络语言模型(Recurrent Neural Network based Language Modeling,RNN-LM)将switchboard的词识别错误率降低到了6.3%。

2.2 图像识别领域

早在1989年,YannLeCun和他的同事们就提出了卷积神经网络(Convolution Neural Networks,CNN)结构。在之后的很长一段时间里,CNN虽然在诸如手写数字问题上取得过世界最好的成功率,但一直没有被广泛应用。直到2012年10月,Geoffrey Hinton在ILSVRC2012中使用更深的CNN将错误率从26%降到15%,业界才重新认识到CNN在图像识别领域上的巨大潜力;2012年谷歌宣布基于CNN使得电脑直接从一千万张图片中自发学会猫脸识别;2013年DNN被成功应用于一般图片的识别和理解;2016年DeepMind团队基于CNN研发了围棋AI,并取得了巨大成功。

2.3 自然语言处理领域

2003年YoshuaBengio等人提出单词嵌入(word embedding)方法将单词映射到一个矢量空间,然后用ANN来表示N-Gram模型;2014年10月NEC美国研究院将DNN用于自然语言处理(Natural language processing,NLP)的研究工作,其研究员Ronan Collobert和Jason Weston从2008年开始采用单词嵌入技术和多层一维卷积的结构,用于POS Tagging、Chunking、Named Entity Recognition、Semantic Role Labeling等四典型NLP问题;2014年IlyaSutskever提出了基于LSTM的序列到序列(sequence to sequence,seq2seq)网络模型,突破了传统网络的定长输入向量问题,开创了语言翻译领域的新方向;2016年谷歌宣布推出基于DNN的翻译系统GNMT(Google Neural Machine Translation),大幅提高了翻译的精确度与流畅度。

3 深度神经网络常见结构

DNN能够在各领域取得巨大成功,与其模型结构是密不可分的,现代DNN大都可归纳为三种基本结构:序列到序列网络、卷积网络、对抗式生成网络,或由这三种基本网络结构相互组合而成。

3.1 序列到序列网络

序列到序列网络的最显著特征在于,它的输入张量和输出张量长度都是动态的,可视为一串不定长序列,相比传统结构极大地扩展了模型的适应范围,能够对序列转换问题直接建模,并以端到端的方式训练模型。典型应用领域有:自动翻译机(将一种语言的单词序列转换为另一种语言的单词序列),语音识别(将声波采样序列转换为文本单词序列),自动编程机研究(将自然语言序列转换为语法树结构),此类问题的特点在于:

(1)输入和输出数据都是序列(如连续值语音信号/特征、离散值的字符);

(2)输入和输出序列长度都不固定;

(3)输入输出序列长度没有对应关系。

其典型如图1所示。

网络由编码器(encoder)网络和解码器网络(decoder)两部分连接构成:

3.1.1 编码器网络

编码器网络通常是一个递归神经网络(Recurrent Neural Networks,RNN),网络节点一般使用长短期记忆模型(Long Short Term Memory,LSTM)实现,序列中里第t个张量xt的输出yt依赖于之前的输出序列(y0、y1…yt-1),输入序列(x0、x1、x2…)那爸梁笠来问淙胪络,整个序列处理完后得到最终的输出Y以及各层的隐藏状态H。

3.1.2 解码器网络

解码器网络是一个与编码器网络结构相同的RNN网络,以解码器的最终输出(Y,H)为初始输入,使用固定的开始标记S及目标序列G当作输入数据进行学习,目标是使得在X输入下Y和G尽量接近,即损失度函数f(X)取得最小值。

解码器网络属于典型的监督学习结构,可以用BP算法进行训练,而编码器网络的输出传递给了解码器网络,因此也能同时进行训练。网络模型学习完毕后,将序列X输入编码器,并将起始标记S输入解码器,网络就会给出正确的对应序列。

3.2 卷积神经网络

卷积神经网络将传统图像处理的卷积运算和DNN相结合,属于前馈神经网络,是在生物视觉皮层的研究基础上发展而来的,在大型图像处理上有出色表现。CNN一般由多个结构相似的单元组成,每个单元包含卷积层(convolution layer)和池化层(poolinglayer),通常网络末端还连接全联通层(fully-connected layer,FC)及Softmax分类器。这种结构使得CNN非常适合处理二维结构数据,相比其它DNN在图像处理领域上具有天然优势,CNN的另一优势还在于,由于卷积层共享参数的特点,使得它所需的参数数量大为减少,提高了训练速度。其典型结构如图2所示:

3.2.1 卷积层(Convolutional layer)

卷积层由若干卷积核构成,每个卷积核在整个图像的所有通道上同时做卷积运算,卷积核的参数通过BP算法从训练数据中自动获取。卷积核是对生物视觉神经元的建模,在图像局部区域进行的卷积运算实质上是提取了输入数据的特征,越深层的卷积层所能提取到的特征也越复杂。例如前几个卷积层可能提取到一些边缘、梯度、线条、角度等低级特征,后续的卷积层则能认识圆、三角形、长方形等稍微复杂的几何概念,末尾的卷积层则能识别到轮子、旗帜、足球等现实物体。

3.2.2 池化层(Poolinglayer)

池化层是卷积网络的另一重要部分,用于缩减卷积层提取的特征图的尺寸,它实质上是某种形式的下采样:将图像划分为若干矩形区块,在每个区块上运算池化函数得到输出。有许多不同形式的池化函数,常用的有“最大池化”(maxpooling,取区块中数据的最大值)和“平均池化”(averagepooling,取区块中数据的平均值)。池化层带来的好处在于:

(1)减小了数据尺寸,降低参数的数量和计算量;

(2)模糊了各“像素”相对位置关系,泛化了网络识别模式。

但由于池化层过快减少了数据的大小,导致,目前文献中的趋势是在池化运算时使用较小的区块,甚至不再使用池化层。

3.3 生成式对抗网络(Generative Adversarial Network,GAN)

生成式对抗网络最初由Goodfellow等人在NIPS2014年提出,是当前深度学习研究的重要课题之一。它的目的是收集大量真实世界中的数据(例如图像、声音、文本等),从中学习数据的分布模式,然后产生尽可能逼真的内容。GAN在图像去噪,修复,超分辨率,结构化预测,强化学习中等任务中非常有效;另一重要应用则是能够在训练集数据过少的情况下,生成模拟数据来协助神经网络完成训练。

3.3.1 模型结构

GAN网络典型结构如图3所示,一般由两部分组成,即生成器网络(Generator)和识别器网络(Discriminator):

(1)生成器网络的目标是模拟真实数据的分布模式,使用随机噪声生成尽量逼真的数据。

(2)识别器的目标是学习真实数据的有效特征,从而判别生成数据和真实数据的差异度。

3.3.2 训练方法

GAN采用无监督学习进行训练,输入向量z一般由先验概率概率pz(z)生成,通过生成器网络产生数据G(z)。来自训练集的真实数据的分布为pdata (x),GAN网络的实质是学习该特征分布,因此生成的数据G(z)必然也存在对应的分布pg (z),而识别器网络则给出数据来自于真实数据的概率D(x)以及D(G(z) )。整个训练过程的实质就是生成器网络和识别器网络的博弈过程,即找到

4 深度神经网络研究展望

DNN虽然在各大领域都取得了重大的成功,甚至宣告了“智能时代”的来临,但是与人类大脑相比,DNN在许多方面仍有显著差距:

4.1 识别对抗样本的挑战

对抗样本是指在数据集中添加微小的扰动所形成的数据,这些数据能使网络以极高的置信度做出错误的判别。在网络实际使用过程中会带来非常大的问题,比如病毒制造者可能刻意构造样本来绕过基于DNN的安全检查网络。部分研究指出问题的根因可能在于DNN本身的高度非线性,微小的扰动可能在输出时产生巨大的差异。

4.2 构造统一模型的挑战

DNN虽然在很多领域都取得了巨大的成功,但无论是序列到序列网络、卷积网络、还是对抗式生成网络都只适应于特定领域,与此相对的则是,人类只用一个大脑就能完成语音、文本、图像等各类任务,如何构建类似的统一模型,对整个领域都是极大的挑战。

4.3 提高训练效率的挑战

DNN的成功依赖于大量训练数据,据统计要使得网络学会某一特征,平均需要50000例以上的样本,相比而言人类只需要少量的指导即可学会复杂问题,这说明我们的模型和训练方法都还有极大的提高空间。

参考文献

[1]ROSENBLATT F.The perceptron:a probabilistic model for information storage and organization in the brain [M].MIT Press,1988.

[2]HINTON G E,OSINDERO S,TEH Y W.A fast learning algorithm for deep belief nets [J].Neural Computation,1989, 18(07):1527-54.

[3]HINTON G E,SALAKHUTDINOV R R. Reducing the Dimensionality of Data with Neural Networks[J].Science, 2006,313(5786):504.

[4]SEIDE F,LI G,YU D.Conversational Speech Transcription Using Context-Dependent Deep Neural Networks; proceedings of the INTERSPEECH 2011, Conference of the International Speech Communication Association, Florence,Italy,August,F,2011 [C].

[5]OQUAB M,BOTTOU L,LAPTEV I,et al. Learning and Transferring Mid-level Image Representations Using Convolutional Neural Networks; proceedings of the Computer Vision and Pattern Recognition,F,2014 [C].

[6]SILVER D,HUANG A,MADDISON C J,et al.Mastering the game of Go with deep neural networks and tree search [J].Nature,2016,529(7587):484.

[7]XIONG W,DROPPO J,HUANG X,et al.The Microsoft 2016 Conversational Speech Recognition System[J].2016.

[8]LECUN Y,BOTTOU L,BENGIO Y,et al. Gradient-based learning applied to document recognition [J].Proceedings of the IEEE,1998,86(11):2278-324.

[9]BENGIO Y,DELALLEAU O, LE R N,et al.Learning eigenfunctions links spectral embedding and kernel PCA [J].Neural Computation,2004,16(10):2197-219.

[10]LEGRAND J,COLLOBERT R.Recurrent Greedy Parsing with Neural Networks [J].Lecture Notes in Computer Science,2014,8725(130-44.

[11]SUTSKEVER I,VINYALS O,LE Q V. Sequence to Sequence Learning with Neural Networks [J].Advances in Neural Information Processing Systems,2014,4(3104-12.

[12]WU Y,SCHUSTER M,CHEN Z,et al. Google's Neural Machine Translation System:Bridging the Gap between Human and Machine Translation [J]. 2016.

[13]GOODFELLOW I J,POUGETABADIE J,MIRZA M,et al.Generative Adversarial Networks [J].Advances in Neural Information Processing Systems,2014,3(2672-80.

作者挝

第2篇:卷积神经网络的概念范文

【关键词】人工智能 医学领域

1 引言

人工智能(AI)是上世纪50年展起来的新兴学科,主要内容包括:知识表示、自然语言理解、机器学习和知识获取、知识处理系统、计算机视觉、自动推理和搜索方法、智能机器人、自动程序设计等方面。在过去的几十年里人工智能涌现出了大量的方法,大致可分为两大类:第一类是基于Newell和Simon的物理符号系统假说的符号处理方法。这种方法大多采用从知识阶段向下到符号和实施阶段的自上而下的设计方法,第二类是采用自下而上设计的“字符号”方法。

2 人工智能的发展

全球对人工智能的研发经历了已经有70年的发展,从上个世纪的50年代开始一直到今天,历经了两次大起大落,但伴随着深度学习的重燃、庞大的大数据支撑以及计算能力的不断提升和成本的不断下降这些因素的出现,尤其是在摩尔定律、大数据、互联网和云计算、新方法这些人工智能进步的催化剂作用下,将迎来人工智能新的春天。

3 人工智能在医学领域上的应用

3.1 在神经网络中人工智能的应用

在医学诊断中人工智能的应用会出现一些难题,例如知识获取比较难、推理速度慢、自主学习以及自适应变化能力弱。研究人脑连接发现了以人工神经为特点可以解决在获取知识中所出现的瓶颈和知识种类繁琐问题,能够提高对知识的推理能力,包括自主学习,自组织等方面的能力,促进了神经网络在医学专家系统中的快速发展。

人工智能领域ANN,有不同于其他人工智能的方法,在传统的结构上,它只是AI分支中的一个,只能通过逻辑符号来模拟人脑的思维方式,进一步来实现人工智能,与之相比,不同的ANN是学习和训练为一体来达到智能的。ANN具有学习的能力及特殊方法,用户不用编写复杂的程序来解决所遇到的问题,只用提供有效的数据就可以完成。迄今为止,医学领域中对大部分的病理原因无法解释,无法确定病理原因,加上各种疾病的表现种类复杂多变。在医学的日常实践中,疾病相应的治疗只能以经验为基础来判断。所以,ANN有着记忆,学习和归纳总结为一体的人工智能服务,在医学领域有很好的应用发展趋势。

3.2 在中医学中人工神经网络的应用

在中医学中,所提出的“辨证论治”中的“证”具有模棚性、不确定性的特点,主观性比较强,因此中医的诊断方法和治疗手段与医师的经验水平有很大联系。数年来在实验研究,临床观察,文章整理,经验总结上,都有着对“证”的研究思想的深入调查。一部分“辨证”的过程可以用人工神经网络来替换使用。恰当的中医症状可以作为基本输入和适当人工神经网络模型,人工神经网络能够根据以往的学习“经验”来进行综合分析,从而提出中医诊断方法。

由神经元结构模型、网络连接模型、网络学习算法等几个要素组成了人工神经网络。具有某些智能系统的功能。 按照网络结构来划分,人工神经网络有很多不同的种类,例如感知器、BP网络、Hopfield网络等,目前应用最为广泛的神经网络就是其中的BP网络。这种前沿网络非 BP网络所属,网络的结构与权值能够表达复杂的非线性 I/0映射关系。凭借 BP网络优良的自主学习功能,既可以通过误差的反向传播方法,对照已知样本反复进行训练,也可以调整网络的权值,直到网络的 I/0关系在某一块训练指标下最接近样本为止。

3.3 人工智能在临床医疗诊断中的应用

计算机编写的程序主要根据专家系统的设计原理和方法来模拟医生的医学诊断,以及通常治疗手段的思维过程来进行。医疗专家系统是临床医疗诊断中人工智能的很好体现,不仅能够处理较为复杂的医学治疗问题,还能当做医生诊断疾病的重要工具,更重要的是传承了专家们的宝贵医学治疗经验。

3.4 人工智能技术在医学影像诊断中的应用

目前,在医学影像中存在着的问题,比如:误诊率高、缺口大。这些问题需要通过人工智能的方法来解决。在医学影像技术领域人工智能的应用包括主要的两个方面,分别是:第一个方面为图像识别,第二个方面为深度学习,其中人工智能应用最核心的部分实深度学习。这两个部分都是基于医学影像大数据所进行的数据上的挖掘和应用。这两个方面所进行的数据挖掘及其应用都是依据医学影像大数据来完成的。

Geoffrey Hinton教授是神经网络领域的大师,2006年,他与其博士生在《Science》和相关的期刊上发表了论文,第一次提出了“深度信念网络”的概念。2012年,由斯坦福大学Fei-Fei Li教授举办的ImageNet ILSVRC大规模图像识别评测任务是由Hinton教授的研究团队参加的。这个任务包括了120万张高分辨率图片,1000个类比。Hinton教授团队使用了全新的黑科技多层卷积神经网络结构,将图像识别错误率突破性地从26.2%降低到了15.3%。 这个革命性的技术,让神经网络深度学习以迅速的速度进入了医疗和工业的领域范围,随后这一技术被陆续出现的医疗影像公司使用。例如:国际知名的医学影像公司Enlitic和国内刚刚获得有峰瑞资本600万天使轮融资的DeepCare。都是不断积累大量影像数据和诊断数据,继续对神经元网络进行深度的学习训练,从而有效的提高了医生诊断的准确率。

人工智能不仅能使患者的健康检查快速进行,包括X光、B超、核磁共振等。另外还能大量减少医生的读片时间,提升了医生的工作效率,降低误诊率。

4 总结

人工智能软件工作效率远远超过了人类大脑,不仅能够更快速的找到数据的模式和相似性,还能有效帮助医生和科学家提取重要的信息。随着人工智能的发展及其在医学领域的逐渐普及和应用,两者的互相融合在未来必定成为医学发展的重要方向。

参考文献

[1]冯伍,张俊兰.人工智能在医学上的应用[J].电子设计工程,2010(01).

[2]杨琴,陈家荣.人工智能在医学领域中的应用[J].科技风,2012(12),100-101.

[3]王宇飞,孙欣.人工智能的研究与应用[J].信息与电脑,2016(05).

[4]铅笔道.人工智能与影像诊断相结合的医生界阿尔法狗,2016(03).

第3篇:卷积神经网络的概念范文

关键词:人工智能 机器 学习 情感识别

中图分类号:TP18 文献标识码:A 文章编号:1674-098X(2016)06(a)-0077-02

人工智能是一门涵盖多学科知识,而又被当今社会广泛应用于多领域,给人带来便捷、高效的同时,又让业界为其担心的交叉学科知识的综合产物。随着各种智能机器人开始服务于各大领域,有超强力量的机械手臂,高效解决问题的专家系统,公众日常可接触到的可穿戴智能设备,从智能手机到各类功能的3D打印技术,从谷歌眼镜到全息投影,各类机器设备如雨后春笋不断涌出。

1 人工智能的发展

“人工智能”简称AI,是集心理认知,机器学习,情感识别,人机交互以及数据保存、决策等于一身的多学科技术。其最早被提出是由McCarthy在20世纪中叶的达特茅斯会议上,这也成为人工智能正式诞生的标志。在人工智能经历两个低谷后的最近一个阶段,从1993年开始,人工智能其实取得了一些里程碑似的成果。比如在1997年,国际象棋冠军卡斯帕罗夫被深蓝战胜;英国皇家学会举行的“2014图灵测试”中“尤金・古斯特曼”第一次“通过”图灵测试,而这一天恰为计算机科学之父阿兰・图灵(Alan Turing)逝世60周年纪念日。2015年以来,“人工智能”开始成为诸多业界人士关注的焦点之一。2016年3月AlphaGo在首尔以4∶1战胜围棋世界冠军李世石,继而引发了人工智能将如何改变人类社会的思考。

2 从AlphaGo看人工智能的“情感机制”与人类的关系

机器学习算法的本质是选择一个万能函数建立预测模型[1]。首先用户输入大量训练样本数据,机器对模型进行训练,选择可以使预测的模型达到最优的参数集,从而使模型能够更好地拟合训练样本数据的空间分布[2]。谷歌公司在训练AlphaGo时,收集了20万职业围棋高手的对局,在经过不同版本AlphaGo之间的自我对弈,生成了3 000多万个对局,包含了人类围棋领域所积累的所有丰富和全面的知识与经验。相比IBM“深蓝”战胜国际象棋卡斯帕罗夫,其依靠了强大的运算能力取得了胜利,AlphaGo的最大进步是从“计算加记忆”进化到“拟合加记忆”法则[2]。智能设备具有了海量数据存储和高速的计算本领,人机交互(human-computer interaction)系统研发过程遇到的瓶颈仍是识别和表达情感方面。

情感在人际交往中扮演着重要的角色,情绪的识别主要是识别人类传递情绪的信号。既可以通过语言直接传递,也可以通过语调、面目表情、姿势等进行表达。机器具有智能,“情感”是十分重要的一环。这要求机器具有对认知的解释与建构,而认知的关键问题则是自主和情感意识。

对人工智能的威胁霍金总结说:“人工智能在短时间内发展取决于应用它的人,长远来看到底其能否被控制是我们需要关注的内容。”针对人类对于“人工智能终将超越人类”的担忧可以概括为以下两点:(1)蠹生于木,而反食于木。恰如部分美国科幻片中所展现的场景,人类创造的机器因被赋予人类情感智力而脱离人类控制。(2)机器因其具有人类交互的情感且很少产生人工失误而逐渐取代人类的劳动,致使人类无用武之地而待业失业。从技术飞速发展过程来看,智能设备的应用往往只是其在某一功能极大化的使用,如,专家系统其解决的只是某一领域内复杂问题解决方案的决策提供;虚拟现实技术是生活场景的实体化展现,以方便用户更好地体验现实场景;服务领域的机器人,提供的只是某一行业的服务,恰如汽车提供的只是快速的代步工具而不能与人交流一样,智能机器只是发挥其某一单方面的优势,从而更好地辅助人类完成特定的工作。在未来社会,那些简单重复性的劳动将被机器所取代;此外,还有一些通过大量数据进行判别决策类的输出,从而更好地为人类提供建议;同时对社会生活中重大、复杂工业系统中的故障处理,这些存在危险的领域中有智能设备的存在其实质是对人类安全及人类价值的礼遇;而对于那些与人交流密切的服务领域内,则更需要人与人的沟通,才能更好地服务于人。这些机器的存在解放了人的身体,进而可以使人类投入更多精力在科研领域。而人工智能与人类之间的关系,可以用“共存”一词进行概括,即按劳分配,取长补短[2]。

3 机器学习理论

目前最受社会关注的智能算法,当属日本学者福岛教授基于Hubel Wiese的视觉认知模型提出的卷积神经网络模型(Convolution Neural Network,CNN),是一种深度监督学习下的机器学习模型。深度学习的概念来源于人工神经网络,常见的深度学习算法包括:受限波尔兹曼机(Restricted Boltzmann Machine,RBN),Deep Belief Networks(DBN),卷积网络(Convolutional Network),堆栈式自动编码器(Stacked Auto-encoders)。该算法的提出是为解决起初基于1943年,美国心理学家W.S.McCulloch和数学家W.A.Pitts生物神经元计算模型(M-P)[2]的早期人工神经网络中,网络层超过4层后,用传统反向传递算法训练而无法收敛的问题而提出。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成高层属性类别或特征,从而发现数据的分布特征。重要的人工神经网络算法包括:感知器神经网络(Perceptron Neural Network),反向传递(Back Propagation),Hopfield网络,自组织映射(Self-Organizing Map,SOM),学习矢量量化(Learning Vector Quantization,LVQ)。

简单介绍一下神经网络:

对应公式为,通过不同权重的多输入,得到输出,该单元也被称为逻辑回归模型。当多个单元相互关联,并进行分层后即形成了神经网络模型。

4 人工智能的未来

当前,人才辈出的社会促进技术手段的不断创新,大数据,物联网,虚拟现实、云计算等技术发展与机器人人工智能领域不断融合发展,这无疑将推动产业方式发生改变。

而针对人工智能,李开复老师针对机器越发智能化而带给人类的危机表示:人工智能的真实危机在于未来机器将养活无所事事的人。这也在激励着人类,机器的智能,在代替人类部分劳动后,需要我们潜心于高科技的发展,进而不被社会所淘汰。斯特罗斯说“人工智能之于人类,最需要担心的是其自发意识。无人机并不能杀人,指导无人机的坐标并投射地狱火导弹的人才能杀人。”这一说法表明其认为人类已经生活在后人工智能世界了,但人们还没有意识到人工智能都是我们的人。这足以表明,人工智能产品的设计,一方面是为人类带来了更加绿色,智能,方便的生活方式,而另一方面其法律规范意识,以及人才价值观及道德的培养更值得社会关注。

参考文献

[1] 于玲,吴铁军.LS-Ensem:一种用于回归的集成算法[J].计算机学报,2006(5):719-726.

第4篇:卷积神经网络的概念范文

关键词:图像分割 阈值分割 遗传算法 小波变换

中图分类号:TP391 文献标识码:A 文章编号:1002-2422(2010)02-0001-03

图像分割是按照一定的规则把图像划分成若干个互不相交、具有一定性质的区域,把人们关注的部分从图像中提取出来,进一步加以研究分析和处理。图像分割的结果是图像特征提取和识别等图像理解的基础,对图像分割的研究一直是数字图像处理技术研究中的热点和焦点。图像分割使得其后的图像分析,识别等高级处理阶段所要处理的数据量大大减少,同时又保留有关图像结构特征的信息。图像分割在不同的领域也有其它名称,如目标轮廓技术、目标检测技术、阈值化技术、目标跟踪技术等,这些技术本身或其核心实际上也就是图像分割技术。

1 经典图像分割方法

1,1阈值分割方法

阈值分割是常见的直接对图像进行分割的算法,根据图像像素的灰度值的不同而定。对应单一目标图像,只需选取一个阈值,即可将图像分为目标和背景两大类,这个称为单阈值分割:如果目标图像复杂,选取多个阈值,才能将图像中的目标区域和背景被分割成多个,这个称为多阈值分割,此时还需要区分检测结果中的图像目标,对各个图像目标区域进行唯一的标识进行区分。阈值分割的显著优点,成本低廉,实现简单。当目标和背景区域的像素灰度值或其它特征存在明显差异的情况下,该算法能非常有效地实现对图像的分割。闽值分割方法的关键是如何取得一个合适的阈值,近年来的方法有:用最大相关性原则选择阈值的方法、基于图像拓扑稳定状态的方法、灰度共生矩阵方法、最大熵法和谷值分析法等,更多的情况下,阈值的选择会综合运用两种或两种以上的方法,这也是图像分割发展的一个趋势。

1,2基于边缘的图像分割方法

边缘总是以强度突变的形式出现,可以定义为图像局部特性的不连续性,如灰度的突变、纹理结构的突变等。边缘常常意味着一个区域的终结和另一个区域的开始。对于边缘的检测常常借助空间微分算子进行,通过将其模板与图像卷积完成。两个具有不同灰度值的相邻区域之间总存在灰度边缘,而这正是灰度值不连续的结果,这种不连续可以利用求一阶和二阶导数检测到。当今的边缘检测方法中,主要有一次微分、二次微分和模板操作等。这些边缘检测器对边缘灰度值过渡比较尖锐且噪声较小等不太复杂的图像可以取得较好的效果。但对于边缘复杂的图像效果不太理想,如边缘模糊、边缘丢失、边缘不连续等。噪声的存在使基于导数的边缘检测方法效果明显降低,在噪声较大的情况下所用的边缘检测算子通常都是先对图像进行适当的平滑,抑制噪声,然后求导数,或者对图像进行局部拟合,再用拟合光滑函数的导数来代替直接的数值导数,如Mart算子、canny算子等。在未来的研究中,用于提取初始边缘点的自适应阈值选取、用于图像层次分割的更大区域的选取以及如何确认重要边缘以去除假边缘将变的非常重要。

1,3基于函数优化的分割方法

此方法是图像分割中另一大类常用的方法。其基本思路是给出一个目标函数,通过该目标函数的极大化或极小化来分割图像。GA.Hewer等人提出了一个具有广泛意义的目标函数。统计学分割方法、结合区域与边缘信息的方法、基于贝叶斯公式的分割方法等是目前几种活跃的函数优化方法。

统计学分割方法是把图像中各个像素点的灰度值看作是具有一定概率分布的随机变量,且观察到的实际物体是作了某种变换并加入噪声的结果。统计学分割方法包括基于马尔科夫随机场方法、标号法、混合分布法等。

区域增长法和分裂合并法是基于区域信息的图像分割的主要方法。区域增长有两种方式,一种是先将图像分割成很多的一致性较强的小区域,再按一定的规则将小区域融合成大区域,达到分割图像的目的。另一种实现是给定图像中要分割目标的一个种子区域,再在种子区域基础上将周围的像素点以一定的规则加入其中,最终达到目标与背景分离的目的;分裂合并法对图像的分割是按区域生长法沿相反方向进行的,无需设置种子点。其基本思想是给定相似测度和同质测度。从整幅图像开始,如果区域不满足同质测度,则分裂成任意大小的不重叠子区域,如果两个邻域的子区域满足相似测度则合并。

2 结合特定工具的图像分割算法

虽然图像分割目前尚无通用的理论,但是近年来大量学者致力于将新概念、新方法应用于图像分割,结合特定理论的图像分割方法在图像分割方面取得了较好的应用效果。如小波分析和小波变换、神经网络、遗传算法等数学工具的利用,有效地改善了分割效果。

2,1基于遗传算法的图像分割

遗传算法是模拟自然界生物进化过程与机制求解问题的一类自组织与自适应的人工智能技术。对此,科学家们进行了大量的研究工作,并成功地运用于各种类型的优化问题,在分割复杂的图像时,人们往往采用多参量进行信息融合,在多参量参与的最优值求取过程中,优化计算是最重要的,把自然进化的特征应用到计算机算法中,将能解决很多问题。遗传算法的出现为解决这类问题提供了新而有效的方法,不仅可以得到全局最优解,而且大量缩短了计算时间。王月兰等人提出的基于信息融合技术的彩色图像分割方法,该方法应用剥壳技术将问题的复杂度降低,然后将信息融合技术应用到彩色图像分割中,为彩色分割在不同领域中的应用提供了一种新的思路与解决办法。

2,2基于人工神经网络技术的图像分割

基于神经网络的分割方法的基本思想是先通过训练多层感知器来得到线性决策函数,然后用决策函数对像素进行分类来达到分割的目的。近年来,随着神经学的研究和进展,第三代脉冲耦合神经网络(PCNN)作为一种新型人工神经网络模型,其独特处理方式为图像分割提供了新的思路。脉冲耦合神经网络具有捕获特性,会产生点火脉冲传播,对输入图像具有时空整合作用,相邻的具有相似输入的神经元倾向于同时点火。因此对于灰度图象,PCNN具有天然的分割能力,与输入图像中不同目标区域对应的神经元在不同的时刻点火,从而将不同区域分割开来。如果目标区域灰度分布有重叠,由于PCNN的时空整合作用,如果灰度分布符合某种规律,PCNN也能克服灰度分布重叠所带来的不利影响,从而实现较完美的分割。这是其一个突出的优点,而这恰恰是其他的分割方法所欠缺的,其在未来的图像分割中将起主导作用。

2,3基于小波分析和变换的图像分割

近年来,小波理论得到了迅速的发展,而且由于其具有良好的时频局部化特性和多分辨率分析能力,在图像处理等领域得到了广泛的应用。小波变换是一种多尺度多通道分析工具,比较适合对图像进行多尺度的边缘检测。从图像处理角度看,小波变换具有“变焦”特性,在低频段可用高频率分辨率和低时间分辨率,在高频段可用低频率分辨率和高时间分辨率,小波变换在实现上有快速算法具有多分辨率,也叫多尺度的特点,可以由粗及精地逐步观察信号等优点。近年来多进制小波也开始用于边缘检测。另外,把小波变换和其它方法结合起来的图像分割技术也是现在研究的热点。

3 图像分割的应用现状

在图像处理中,图像分割是一种重要的技术,是图像分析的基础。随着图像分割技术研究的深入,其应用日趋广泛,几乎出现在有关图像处理的所有领域,并涉及各种类型的图像。凡属需要对图像目标进行提取、测量的工作都离不开图像分割。通常,图像分割是为了进一步对图像进行分析、识别、压缩、编码等,图像分割的准确性将直接影响后继的工作,因此,分割的方法和精确程度是至关重要的。目前,图像分割在图像工程中占据非常重要的位置,图像分割已在交通、医学、遥感、通信、军事和工业自动化等诸多领域得到广泛应用。表1是应用领域表。

第5篇:卷积神经网络的概念范文

独立分量分析(ICA)是统计信号处理近年来的一项发展。顾名思义,这是一种分解技术,其特点是把信号分解成若干相互独立的成分。主分量分析(PCA)和奇异值分解(SVD)是人们较熟悉的分解信号的线性代数方法,ICA与它们的主要不同之处表现在:

(1)后者只要求分解出来的各分量互相正交(不相关),但并不要求它们互相独立。用统计信号处理的语言来表达,即:后者只考虑二阶统计特性,而前者则要更全面考虑其概率密度函数的统计独立性。

(2)后者按能量大小排序来考虑被分解分量的重要性。这样的分解虽然在数据压缩和去除弱噪声方面有其优点,但分解结果往往缺乏明确的生理意义。前者虽然分解出的分量其能量大小存在不确定性,但当测量值确实是由若干独立信源混合而成时,分解结果往往具有更好的生理解释。由于测得的生理信号往往是若干独立成分的加权迭加(例如,诱发脑电总是被自发脑电所淹没,而且常伴随有心电、眼动、头皮肌电等干扰),此ICA是一项值得注意的分解方法。

此外,神经生理研究认为,人类对认知、感知信息的前期处理有“去冗余”的特点。ICA在这方面也表现出类似特性,因为互相独立的分量之间互信息是最少的。ICA是伴随着盲信号处理,特别是盲信源分离发展起来。其研究热潮方兴未艾,也正在引起生物医学工程界的注意,IEEETransBME正在组织出版以它为重点的专辑。就国际范围看,以下几个研究单位目前工作比较领先:(1)美国加州大学生物系计算神经生物学实验室,(2)日本Riken脑科学研究所脑信息研究室,(3)芬兰赫尔辛基工业大学计算机及信息科学实验室,目前发表有关文献较多的刊物有IEEETrans的SP和NN以及NeuralComputation等。本文目的是对ICA的原理、算法及应用作一简述,以引起国内同行对它的关注。将侧重于概念说明,而不追求数学上的严谨性。

2原理

2.1问题的提法,s-(n)是一组互相独立的信源,A是混合矩阵,x-(n)是观察记录,即x-(n)=As-(n)。问题的任务是:在A阵未知且对s-(n)除独立性外无其它先验知识的情况下,求解混矩阵B,使得处理结果y-(n)=Bx-(n)中各分量尽可能互相独立,且逼近s(n)。容易理解,解答不是唯一的,它至少受以下条件的限制:(1)比例不定性:s-(n)中某一分量大K倍时,只要使相应的A阵系数减小K倍,x-(n)便保持不变。

因此,求解时往往把s-(n)假设成具有单位协方差阵,即s-中各分量均值为零,方差为1,且互相独立。(2)排序不定性:y-与s-中各分量排序可以不同。因为只要对调B阵中任意两行,y-中相应元素的位置也便对调。(3)s-(n)中至多只能有一个高斯型信源:这是因为高斯信源的线性组合仍是高斯型的,因此混合后便无法再区别。(4)信源数目N只能小于或等于观测通道数M。N>M情况目前尚未解决。以下讨论设M=N。因此,y-(n)只是在上述条件下对s-(n)的逼近。换名话说,任务的实质是优化问题,它包括两个主要方面:优化判据(目标函数)和寻优算法。

2.2目标函数

这一领域的研究者已经从不同角度提出了多种判据。其中以互信息极小判据(MinimizationofMutualInformation,简记MMI)和信息或熵极大判据(Informax或MaximizationofEntropy,简记ME)应用最广。由于最基本的独立性判据应由概率密度函数(probabilitydensityfunction,简记pdf)引出,而工作时pdf一般是未知的,估计它又比较困难,因此通常采用一些途径绕过这一困难。

常用的方法有两类:①把pdf作级数展开,从而把对pdf的估计转化为对高阶统计量的估计;②在图1的输出端引入非线性环节来建立优化判据。后一作法实际上隐含地引入了高阶统计量。(1)互信息极小判据:统计独立性的最基本判据如下:令p(y-)是y-的联合概率密度函数,pi(yi)是y-中各分量的边际概率密度函数。当且仅当y-中各分量独立时有:p(y-)=∏Ni=1pi(yi)因此用p(y-)与∏i=1pi(yi)间的Kullback-Leibler散度作为独立程度的定量度量:I(y-)=KL[p(y-),∏Ni=1pi(yi)]=∫p(y-)log[p(y-)∏Ni=1pi(yi)]dy-(1)显然,I(y-)0,当且仅当各分量独立时I(y-)=0。因此,互信息极小判据的直接形式是:在y-=Bx-条(文秘站:)件下寻找B,使(1)式的I(y-)极小为了使判据实际可用,需要把I(y-)中有关的pdf展成级数。

由于在协方差相等的概率分布中高斯分布的熵值最大,因此展开时常用同协方差的高斯分布作为参考标准。例如,采用Gram-Charlier展开时有:P(yi)PG(yi)=1+13!k2yih3(y-i)+14!k4yih4(yi)+…式中PG(yi)是与P(yi)具有同样方差(σ2=1)和均值(μ=0)的高斯分布。k3yi、k4yi是yi的三、四阶累计量(cumulant),hn(yi)是n阶Hermit多项式。此外还有许多其他展开办法,如Edgeworth展开,利用负熵(Negentropy)等。不论采用何种展开方式,经推导后总可把式(1)近似改成k3、k4的函数:I(y)=F(k3y-,k4y-,B)(1)’F(·)的具体形式多种多样,视推导时的假设而异。

这样就得到互信息判据的实用近似形式:在y-=Bx-条件下寻找B,使式(1)的I(y-)极小(2)Infomax判据:这一判据的特点是在输出端逐分量地引入一个合适的非线性环节把yi转成ri(如图2)。可以证明,如果gi(·)取为对应信源的累积分布函数cdf(它也就是概率密度函数的积分),则使r-=(r1…rN)T的熵极大等效于使I(y-)极小,因此也可达使y-中各分量独立的要求。从而得到Infomax判据:在选定适当gi(·)后,寻找B使熵H(r-)极大需要指出的是,虽然理论上gi(·)应取为各信源的cdf,但实践证明此要求并不很严格,有些取值在0~1之间的单调升函数也可以被采用,如sigmoid函数、tanh(·)等。估计H(r-)固然也涉及pdf,但由于其作用已通过gi(·)引入,所以可以不必再作级数展开而直接用自适应选代寻优步骤求解。文献中还提出了一些其他判据,如极大似然、非线性PCA等,但它们本质上都可统一在信息论的框架下,所以不再一一列举[1]。

3处理算法优化算法

可大致分为两类,即批处理与自适应处理。

3.1批处理批处理比较成熟的方法有两类。较早提出的是成对旋转法[2],其特点是把优化过程分解成两步。先把x-(n)经W阵加以“球化”得z-(n),使z-(n)T=IN,即:各分量不相关且方差为1,然后再寻找合适的正交归一阵U达到使y-各分量独立的目的。前一步类似于PCA,后一步则可利用Givens旋转,根据目标函数,将z-中各分量两两成对反复旋转直到收敛。这种方法计算量较大。1999年,Gadoso提出几种方法对它作了进一步改进[3],其中包括:Maxkurt法、JADE法、SHIBBS法等,限于篇幅,本文不再叙述。近年来,提出的另一类方法是所谓“固定点”法(FixedPointMethod)[4,5

],其思路虽来源于自适应处理,但最终算法属于批处理。

简单地说,通过随机梯度法调节B阵来达到优化目标时,有:B(k+1)=B(k)+ΔB(k)ΔB(k)=-μεkB(k)式中k是选代序号,εk是瞬时目标函数。当到达稳态时必有[E是总集均值算子]:E[ΔB(k)]=0(2)如果ΔB(k)与B(k)有关,就可由(2)式解出B的稳态值。不过由于(2)式总是非线性方程,因此求解时仍需要采用数值方法(如牛顿法、共轭梯度法等)迭代求解。实践证明,不论是收敛速度还是计算量,此法均优于前一种方法,而且它还可以根据需要逐次提取最关心的yi,因此是一类值得注意的方法。

3.2结合神经网络的自适应处理结合神经网络的自适应处理算法的框图。1994年Cichocki提出的调节算法是:B(k+1)=B(k)+ΔB(k)ΔB(k)=μk[I-Ψ(y-k)ΦT(y-k)]B(k)式中Ψ、Φ都是N维矢量,其各元素都是单调升的非线性函数:Ψ(yk)=sgnyk·y2k,ΦTy-k=3tanh(10yk)所得结果虽令人鼓舞,但是方法是经验性的。其后学者们从理论上沿着这一方向作了更深入的讨论,并发展出多种算法。概括地说,主要发展有以下几点:

(1)引入自然梯度(或相对梯度)。按照最陡下降的随机梯度法推导出的系数调节公式往往具有如下一般形式:ΔB(k)=μk[B-T(k)-Ψ(y-k)x-Tk]式中的Ψ(y-k)视具体算法而异。Infomax法中Ψ(·)由所选用的g(·)决定;MMI法中则与yk的三、四阶矩有关。B-T(k)是矩阵求逆再转置,它的计算量很大。Amari[7]在1998年提出将最陡下降梯度改为“自然梯度”,两者间关系是:[自然梯度]=[最陡下降梯度]·BT(k)B(k)于是有:ΔB(k)=μk[B-T(k)-Ψ(y-k)x-Tk]BT(k)B(k)=μk[I-Ψ(y-k)y-Tk]B(k)由于此式避免了矩阵求逆,因此计算量明显降低且收敛加快。目前,这一作法已被普遍接受。

(2)引入自然梯度后,采用不同的优化判据得出的调节公式虽各有千秋,但大致都可表示为如下的“串行更新”形式:B(k+1)=B(k)+ΔB(k)=[I+H(y-k)]B(k)只是H(y-k)的具体形式各不相同。串行矩阵更新的算法还具有一些理论上值得注意的性质,如均匀特性(uniformproperty)和等变性(equivariant)等[8,9]。

(3)四阶累计量k4>0的超高斯信号和k4<0的欠高斯信号,其处理过程应当予以区别。采用同一算法效果往往不好。目前的办法多是在调节公式中引入一个开关。根据估计得k4的符号来切换不同算法,如扩展的Infomax法就是一例[10]。此法的系数调节公式是:ΔB(k)=μk[I-Ktanh(y-k)·y-Tk-y-ky-Tk]B(k)其中K是对角阵,其对角元素之值为+1或-1,视该信号分量k4>0或<0而定。为了实时应用,估计K4也可采用递归算法。总之,自适应算法是目前采用较广的方法。

4应用举例

4.1仿真计算为检验经ICA算法分解信源的能力,左图是一组源信号,它们对系统来说是未知的。这一组信号经混合后的观察信号作为(中图所示)ICA算法的输入,分解后的结果如右图所示。可以看到,除了波形的次序、极性和波幅发生变化之外,源信号的波形被很好地分解出来。一般情况下,临床脑电信号中既有超高斯成分(如诱发电位),也有亚高斯成分(如肌电和工频干扰)。为了检验扩展Infomax算法处理这类情况的能力,我们又用此法进行了如图6所示仿真实验。左图第一行是一段自发脑电信号,第二行是仿真的视觉诱发电位,第三行是肌电干扰。混合后的信号(图中第二列所示)经ICA分解得到如右图所示的结果。这一结果表明扩展ICA算法在同时存在超高斯和亚高斯信号的情况下,仍然能够很好地实现盲分解。但应指出:这一仿真结果并不说明通过ICA分解就能直接得到视觉诱发电位,因为还没有涉及头皮上的多导数据。

4.2实验VEP分析(1)多导脑电观察中VEP的增强:需要强调,把多导脑电作ICA分解后直接取出其中与VEP有关的成分,得到的并不是头皮电极处的VEP分量,因为它们只是分解出来的信源,而这些信源的位置并不在头皮上,为了得到电极处测量值中的VEP成分,需按下述步骤处理:用训练得的W阵直接对头皮上取得的多导脑电数据进行ICA分解,得到各独立分量组成的矩耻y=Bx(见图7a);再根据各分量的波形特征及产生时段,选择与VEP有关的一部分分量(例如在前300ms中具有较大幅度的分量),并将其余分量置0,得到新的独立分量矩阵y’;再反变换回头皮各电极处得x’=B-1-y’。这样才能得到去除噪声和干扰后各电极处的VEP。

采用这样的方法可显着地减少提取VEP所需要的累加次数。左图是经3次累加所得VEP,中图是经50次累加所得结果,右图则是用左图经图7中ICA处理后提取的VEP。比较中、右两图,两者波形趋势基本相同,但后者比前者其主要峰、谷显然更清楚,而累加次数由50减到3。(2)ICA分量的空间模式:把某一个ICA分量的瞬时值经B-1逆推回头皮各电极处得x-’后,就可以按断层图的插补方法得到该时该分量在头皮上的空间分布模式。这个空间分布模式也可以用更简单办法得到:只要把逆矩阵B-1中相应于某ICA分量的列中各元素的值赋与头皮各电极处,再作断层图插值,就可以表现该ICA分量在任意时刻的空间分布模式。也就是:x’i(t)=b’ijy’j(t),i=1~N式中b’ij是B-1的第i行第j列元素。

可见ICA分量y’j(t)在头皮各电极处的对应值等于用逆阵B-1第j列各元素来对y’j(t)加权。因此,列矢量b’j=[b’1,…,b’Nj]可以用来统一地表现任意时刻y’j的空间模式。

5总结与展望

本文粗略介绍了ICA的原理、算法和应用,可以看到ICA确是一个值得注意的研究方向,但其理论体系尚未完整,实际采用的处理方法多少还带有经验性。例如为什么对非线性特性gi的要求不甚严格就没有明确解释;又如算法的稳定性、收敛性在实践中是经常遇到的问题。从应用方面看也还有许多待开发的领域,例如如何应用于生理信号的模式识别与系统建模等。从生物医学信号分析的角度看,还有一些亟待深入的问题。例如:

(1)在以上分析中混合阵A被假设为恒定。这对静态的图像分析或固定信源是合理的;但在生理实际中,等效信源一般在空间并不固定,因而混合阵A应视为时变的,而且传导过程中还会引入容积导体的卷积及迟作用。这可能是实际生理信号分解结果不够理想的原因之一。

(2)一般公认,生理信号的非平稳性较强,而以上分析并没有考虑信号的非平稳性。

第6篇:卷积神经网络的概念范文

1 当前电力行业热工自动化技术的发展

随着世界高科技的飞速发展和我国机组容量的快速提高,电厂热工自动化技术不断地从相关学科中吸取最新成果而迅速发展和完善,近几年更是日新月异,一方面作为机组主要控制系统的DCS,已在控制结构和控制范围上发生了巨大的变化;另一方面随着厂级监控和管理信息系统(SIS)、现场总线技术和基于现代控制理论的控制技术的应用,给热工自动化系统注入了新的活力。

1.1 DCS的应用与发展

火电厂热工自动化系统的发展变化,在二十世纪给人耳目一新的是DCS的应用,而当今则是DCS的应用范围和功能的迅速扩展。

1.1.1 DCS应用范围的迅速扩展

20世纪末,DCS在国内燃煤机组上应用时,其监控功能覆盖范围还仅限DAS、MCS、FSSS和SCS四项。即使在2004年的Q/DG1-K401-2004《火力发电厂分散控制系统(DCS)技术规范书》中,DCS应用的主要功能子系统仍然还是以上四项,但实际上近几年DCS的应用范围迅速扩展,除了一大批高参数、大容量、不同控制结构的燃煤火电机组(如浙江玉环电厂1000MW机组)的各个控制子系统全面应用外,脱硫系统、脱硝系统、空冷系统、大型循环流化床(CFB)锅炉等新工艺上都成功应用。可以说只要工艺上能够实现的系统,DCS都能实现对其进行可靠控制。

1.1.2 单元机组控制系统一体化的崛起

随着一些电厂将电气发变组和厂用电系统的控制(ECS)功能纳入DCS的SCS控制功能范围,ETS控制功能改由DCS模件构成,DEH与DCS的软硬件合二为一,以及一些机组的烟气湿法脱硫控制直接进入单元机组DCS控制的成功运行,标志着控制系统一体化,在DCS技术的发展推动下而走向成熟。

由于一体化减少了信号间的连接接口以及因接口及线路异常带来的传递过程故障,减少了备品备件的品种和数量,降低了维护的工作量及费用,所以近几年一体化控制系统在不同容量的新建机组中逐渐得到应用,如浙江华能玉环电厂4×1000MW机组、台州电厂2×300MW机组和安徽凤台电厂4×600MW机组均全厂采用西屋Ovation系统,国华浙能宁海电厂4×600MW机组全厂采用西门子公司的T-XP系统,大唐乌沙山电厂4×600MW机组全厂采用I/A系统,浙江乐清电厂4×600MW机组全厂采用ABB公司的SYMPHONY系统等。

控制系统一体化的实现,是电力行业DCS应用功能快速发展的体现。排除人为因素外,控制系统一体化将为越来越多的电厂所采用。

1.1.3 DCS结构变化,应用技术得到快速发展

随着电子技术的发展,近年来DCS系统在结构上发生变化。过去强调的是控制功能尽可能分散,由此带来的是使用过多的控制器和接口间连接。但过多的控制器和接口间连接,不一定能提高系统运行可靠性,相反到有可能导致故障停机的概率增加。何况单元机组各个控制系统间的信号联系千丝万缕,互相牵连,一对控制器故障就可能导致机组停机,即使没有直接导致停机,也会影响其它控制器因失去正确的信号而不能正常工作。因此随着控制器功能与容量的成倍增加、更多安全措施(包括采用安全性控制器)、冗余技术的采用(有的DCS的核心部件CPU,采用2×2冗余方式)以及速度与可靠性的提高,目前DCS正在转向适度集中,将相互联系密切的多个控制系统和非常复杂的控制功能集中在一对控制器中,以及上述所说的单元机组采用一体化控制系统,正成为DCS应用技术发展的新方向,这不但减少了故障环节,还因内部信息交换方便和信息传递途径的减少而提高了可靠性。

此外,随着近几年DCS应用技术的发展,如采用通用化的硬件平台,独立的应用软件体系,标准化的通讯协议,PLC控制器的融入,FCS功能的实现,一键启动技术的成功应用等,都为DCS增添了新的活力,功能进一步提高,应用范围更加宽广。

1.2 全厂辅控系统走向集中监控

一个火电厂有10多个辅助车间,国内过去通常都是由PLC和上位机构成各自的网络,在各车间控制室内单独控制,因此得配备大量的运行人员。为了提高外围设备控制水平和劳动生产率,达到减员增效的目的,随着DCS技术和网络通讯功能的提高,目前各个辅助车间的控制已趋向适度集中,整合成一个辅控网(简称BOP 即Balance Of Plant的缩写)方向发展,即将相互独立的各个外围辅助系统,利用计算机及网络技术进行集成,在全厂IT系统上进行运行状况监控,实现外围控制少人值班或无人值班。

近几年新建工程迅速向这个方向发展。如国华浙能宁海电厂一期工程(4×600MW)燃煤机组BOP覆盖了水、煤、灰等共13个辅助车间子系统的监控,下设水、煤、灰三个监控点,集中监控点设在四机一控室里,打破了传统的全厂辅助车间运行管理模式,不但比常规减员30%,还提升了全厂运行管理水平。整个辅控网的硬件和软件的统一,减少了库存备品备件及日常管理维护费用[1]。由于取消了多个就地控制室,使得基建费用和今后的维护费用都减少。一些老厂的辅助车间也在进行BOP改造,其中浙江省第一家完成改造的是嘉兴发电厂2×300MW机组,取得较好效果。

1.3 变频技术的普及应用与发展

变频器作为控制系统的一个重要功率变换部件,以提供高性能变压变频可控的交流电源的特点,前些年在火电厂小型电机(如给粉机、凝泵)等控制上的应用,得到了迅猛的发展。由于变频调速不但在调速范围和精度,动态响应速度,低速转动力矩,工作效率,方便使用方面表现出优越性,更重要的是节能效果在经济及社会效益上产生的显著效应,因此继一些中小型电机上普遍应用后,近年来交流变频调速技术,扩展到一些高压电机的控制上试用,如送、引风机和给水泵电机转速的控制等。

因为蕴藏着巨大的节能潜力,可以预见随着高压变频器可靠性的提高、一次性投资降低和对电网的谐波干扰减少,更多机组的风机、水泵上的大电机会走向变频调速控制,在一段时间内,变频技术将继续在火电厂节能工作中,扮演重要角色。

1.4 局部系统应用现场总线

自动化技术的发展,带来新型自动化仪表的涌现,现场总线系统(FCS)是其中一种,它和DCS紧密结合,是提高控制信号传输的准确性、实时性、快速性和机组运行的安全可靠性,解决现场设备的现代化管理,以及降低工程投资等的一项先进的和有效的组合。目前在西方发达国家,现场总线已应用到各个行业,其中电力行业最典型的是德国尼德豪森电厂2×950MW机组的控制系统,采用的就是PROFIBUS现场总线。

我国政府从“九五”起,开始投资支持现场总线的开发,取得阶段性成果,HART仪表、FF仪表开始生产。但电厂控制由于其高可靠性的要求,目前缺乏大型示范工程,缺乏现场总线对电厂的设计、安装、调试、生产和管理等方面影响的研究,因此现场总线在电厂的应用仍处于探讨摸索阶段,近二年我国有十多个工程应用了现场总线,但都是在局部系统上,其中: 国华浙能宁海电厂,在单元机组的开、闭式水系统中的电动门控制采用Profibus DP总线技术,电动执行机构采用原装进口德国欧玛公司的一体化智能型产品Puma Matic,带有双通道Profibus-DP冗余总线接口作为DP从站挂在总线上。为了提高安全性可靠性,总线光纤、作为总线上的第一类DP主站的AP和相应的光电转换装置都采用了冗余结构,这是国内首家在过程控制中采用现场总线技术的火力发电厂。

华能玉环电厂的补给水处理系统和废水系统[2],采用了二层通讯网络结构的现场总线控制系统,其链路设备和主站级网络采用冗余配置。控制系统人机终端与主控制器之间采用工业以太网通讯,以太网交换机采用ITP形式接口,四台交换机构成光纤高速路网。现场设备层之间采用Profibus-DP现场总线通讯。主环网采用光缆,分支现场总线通讯选用总线电缆。配置二套冗余的主控制器,分别用于锅炉补给水系统和废水系统,且各自有两条由光电耦合器组成的现场总线环形光缆网构成冗余配置,所有现场仪表和气动阀门定位器(均采用带PA总线接口),通过DP/PA耦合器连接到现场总线上。中低压电器设备(MCC)采用具有现场总线通信接口功能的智能电机控制器。加药泵的电动机采用带总线的变频器。锅炉补给水的阴阳离子床气动隔膜阀的电磁控制阀,采用具有总线接口的阀岛来控制,阀岛与现场总线连接。这是国内在局部过程控制中全面采用现场总线技术的首个火电厂,其应用实践表明,辅控网全面采用现场总线技术已成熟。

1.5 热工控制优化技术的应用发展

随着过程生产领域对控制系统要求的不断提高,传统控制方法越来越难以满足火电厂热力流程对系统稳定性和性能最优化方面的要求,汽温超标已经成为制约机组负荷变化响应能力和安全稳定运行的主要障碍之一(燃烧优化主要是锅炉专业在进行,本文不作讨论)。由此基于现代控制理论的一些现代控制系统逐步在火电厂过程控制领域中得到应用。如基于过程模型并在线动态求解优化问题的模型预测控制(简称MPC)法、让自动装置模拟人工操作的经验和规律来实现复杂被控对象自动控制的模糊控制法、利用熟练操作员手动成功操作的经验数据,在常规的串级PID调节系统的基础上建立基于神经网络技术的前馈控制作用等,在提高热工控制系统(尤其是汽温控制系统)品质过程中取得较好效果。

如宁海发电厂使用的西门子公司PROFI系统,充分使用了基于模型的现代控制理论,其中汽温控制原理示意图如图1所示。

图1 机组汽温控制原理示意图

图1中,用基于状态空间算法的状态观测器解决汽温这种大滞后对象的延迟造成的控制滞后,焓值变增益控制器解决蒸汽压力的变化对温度控制的影响,基于模型的Smith预估器对导前温度的变化进行提前控制;通过自学习功能块实时补偿减温水阀门特性的变化;而对再热汽温控制,尽量以烟道挡板作为调节手段,不采用或少采用减温水作为控制手段,以提高机组效率;在机组协调控制模块中,采用非最小化形式描述的离散卷积和模型,提高系统的鲁棒性;根据控制品质的二次型性能指标连续对预测输出进行优化计算,实时对模型失配、时变和干扰等引起的不确定性因素进行补偿,提高系统的控制效果;PROFI投入后,AGC状态下以2% Pe /min负荷率变化时的响应时间为57秒,压力最大偏差0.208MPa,汽包水位变化最高和最低之差为-38.86mm,炉膛负压变化曲线最高值和最低值差-145Pa,主蒸汽温度偏差稳态基本控制在2℃以内,动态基本控制在5℃以内。

1.6 SIS系统的应用发展

SIS系统是实现电厂管理信息系统与各种分散控制系统之间数据交换、实时信息共享的桥梁,其功能包括厂级实时数据采集与监视,厂级性能计算与分析。在电网明确调度方式有非直调方式且应用软件成熟的前提下,可以设置负荷调度分配功能。设备故障诊断功能、寿命管理功能、系统优化功能以及其它功能(根据电厂实际情况确定是否设置)[3]。自从国家电力公司电力规划总院在2000年提出这一概念和规划后,至今估计有200家多电厂建立了SIS系统,可谓发展相当迅速。

但是自从SIS系统投运以来,其所起的作用只是数据的采集、存储、显示和可打印各类生产报表,能够真正把SIS的应用功能尽情发挥出来的很少,其面向统计/生产管理的数据分析工具,基于热经济性分析的运行优化,以品质经济性为目标的控制优化,以提高可靠性为目的的设备故障诊断等功能基本多数都未能付绪实施。其原因主要有设计不够完善,多数SIS厂家并没有完全吃透专业性极强的后台程序及算法,使其在生产实际中未能发挥作用,加上与现场生产脱节,因此SIS商所能做的只是利用网络技术,边搭建一个基本的SIS 架构边进行摸索。此外SIS应涵盖哪些内容没有统一的标准也缓慢了其功能的应用。

但从大的方向上看,SIS系统的建设符合技术发展的需要和中国电力市场发展的趋势,将给发电厂特别是大型的现代化发电厂带来良好的经济效益。

2 电力行业热工自动化系统的未来发展动向及前景

随着国家法律对环保日益严格的要求和计算机网络技术的进步,未来热工系统将围绕 “节能增效,可持续发展”的主题,向智能化、网络化、透明化,保护、控制、测量和数据通信一体化发展,新的测量控制原理和方法不断得以应用,将使机组的运行操作和故障处理,象操作普通计算机一样方便。

2.1 单元机组监控智能化是热工自动化系统发展方向

单元机组DCS的普及应用,使得机组的监控面貌焕然一新,但是它的监控智能化程度在电力行业却没有多大提高。虽然许多智能化的监视、控制软件在国内化工、冶金行业中都有较好的应用并取得效益,可在我国电力行业直到近几年才开始有所起步。随着技术的进步,火电厂单元机组自动化系统的智能化将是一种趋势,因此未来数年里,实现信息智能化的仪表与软件将会在火电厂得到发展与应用,如:

仪表智能管理软件,将对现场智能传感器进行在线远程组态和参数设置、对因安装位置和高静压造成的零位飘移进行远程修正,精度自动进行标定,计算各类误差, 并生成标定曲线和报告;自动跟踪并记录仪表运行过程中综合的状态变化,如掉电、高低限报警、取压管路是否有堵或零位是否有飘移等。

阀门智能管理软件将对智能化阀门进行在线组态、调试、自动标定和开度阶跃测试,判断阀门阀杆是否卡涩, 阀芯是否有磨损等,通过阀门性能状况的全面评估,为实现预测性维护提供决策。

重要转动设备的状态智能管理软件将对重要转动设备的状态如送风机,引风机,给水泵等,综合采用基于可靠性的状态监测多种技术,通过振动、油的分析以及电机诊断,快速分析(是否存在平衡不好,基础松动, 冲击负荷,轴承磨损)等现象和识别故障隐患, 在隐患尚未扩展之前发出报警,为停机检修提供指导和帮助。

智能化报警软件将对报警信号进行汇类统计、分析和预测,对机组运行趋势和状态作出分析、判断,用以指导运行人员的操作;故障预测、故障诊断以及状态维修等专用软件,将在提高机组运行的安全性,最大限度地挖掘机组潜力中发挥作用。单元机组监控智能化将带来机组检修方式的转变,以往定期的、被动式维护将向预测性、主动式为主的维护方式过渡,检修计划将根据机组实际状况安排。

2.2 过程控制优化软件将得到进一步应用

进一步提高模拟量控制系统的调节范围和品质指标,是火电厂热工自动化控制技术研究的一个方向。虽然目前有关自适应、状态预测、模糊控制及人工神经网络等技术,在电厂控制系统优化应用的报道有不少,但据笔者了解真正运行效果好的不多。随着电力行业竞争的加剧,安全、经济效益方面取得明显效果、通用性强、安装调试方便的优化控制专用软件(尤其是燃烧和蒸汽温度优化、性能分析软件、)将会在电厂得到亲睐、进一步发展与应用。

目前机组的AGC均为单机方式(由调度直接把负荷指令发给投入AGC的机组)。由于电网负荷变化频繁,使投入AGC的机组始终处于相应的变负荷状态,锅炉的蒸汽压力和温度波动幅度大,辅机、阀门、挡板等设备动作频繁,这种方式对机组和设备的寿命都会产生一定的负面影响。随着发电成本的提高,发电企业需从各个角度考虑如何切实降低电厂运行成本,延长机组的使用寿命。因此配置全厂负荷分配系统(即电网调度向电厂发一个全厂负荷指令,由电厂的全厂负荷分配系统,以机组的煤耗成本特性为基础,在机组允许的变化范围内,经济合理地选择安排机组的负荷或变负荷任务,使全厂发电的煤耗成本最低,降低电厂的发电成本)将是发电企业必然的要求,相信不久的将来,单机AGC方式将会向全厂负荷分配方式转变。转贴于

SIS系统将结合生产实际进行二次开发,促进自身应用技术走向成熟,在确保火电厂安全、环保、高效益及深化信息化技术应用中发挥作用。

2.3 现场总线与DCS相互依存发展

未来一段时间里,现场总线将与DCS、PLC相互依存发展,现场总线借助于DCS和PLC平台发展自身的应用空间,DCS和PLC则借助于现场总线完善自身的功能。

2.3.1 现场总线与DCS的关系

现场总线作为一个完整的现场总线控制系统,目前还难以迅速应用到整个电厂中,而DCS虽然是电厂目前在线运行机组的主流控制系统,但由于其检测和执行等现场仪表信号仍采用模拟量信号,无法满足工程师站上对现场仪表进行诊断、维护和管理的要求,限制了控制过程视野,因此DCS通过容入通信协议国际标准化的现场总线和适合现场总线连接的智能化仪表、阀门,并将自身的输出驱动功能分离移到现场或由现场智能驱动器代替,功能简单且相对集中的控制系统下放到采用FCS控制和处理功能的现场智能仪表中,然后由少量的几根同轴电缆(或光缆)和紧急停炉停机控制用电缆,通过全数字化通信与控制室连接。将有助于降低电厂造价,提高自身的可靠性,拓宽各自的功能,推动各自的发展。除新建电厂将会更多的采用现场总线的智能设备外,也会成为运行多年的机组下一步的改造计划。

2.3.2 现场总线与PLC的关系

现场总线在电厂的应用将借助于PLC,这不但因为PLC已广泛应用于电厂辅助设备的控制,将现场总线技术和产品溶合到PLC系统中,成为PLC系统中的一部分或者成为PLC系统的延伸部分,在辅助设备的控制中将直接明显地体现其经济效益。还因为现场总线和PLC的制造商间关系密切,如Contr01.Net、ProfiBus等本身就是由PLC的主要生产供货商支持开发。

由于电厂现场的环境恶劣,温度高、灰尘多、湿度变化大,因此现场总线在电厂应用,首先要解决的是自身质量。

2.4 辅助车间(系统)集控将得到全面推广

随着发电厂对减员增效的要求和运行人员整体素质的提高,辅助车间(系统)通过辅控网集控将会得到进一步全面推广。但在实施过程中,目前要解决好以下问题:

(1)辅控系统I/O点数量大(浙江宁海电厂已达到10000点),各辅助车间物理位置分散,存在远距离通信、信号衰减和网络干扰问题,因此监控系统主干通信网宜采用多模光缆以确保通信信号的可靠性。

(2)各辅助控制系统采用不同的控制设备,控制系统的通信接口协议不同,甚至不同的物理接口,因此须解决网络通信协议的转换问题,选型时应事先规定好各系统间的接口连接协议。

(3)各个辅助车间的控制系统为不同的厂商供货,由于使用的软件不同,其操作员站的人机界面很有可能不一致。因此选型时应注意上位机软件,设计统一的人机界面,采用统一的风格及操作方式,以便方便各系统画面接入BOP网络。

辅助车间集控系统能否实现设计目标,除了自身的技术以外,很大程度上取决于辅助系统本身的自动投入情况。因此高可靠性的执行机构、动作灵活可靠的限位开关、智能化的变送器将会得到应用;

2.5 单元机组监控系统的物理配置趋向集中布置

过去一个集控室的概念,通常为一台单元机组独用或为二台机组合用,电子室分成若干个小型的电子设备间,分别布置在锅炉、汽轮机房或其它主设备附近。其优点是节省了电缆。但随着机组容量的提高、计算机技术的发展和管理水平的深化,近几年集控室的概念扩大,出现了全厂单元机组集中于一个控制室,单元机组的电子设备间集中,现场一般的监视信号大量采用远程I/O柜的配置方式趋势,如浙江省国华浙能宁海发电厂(获国家金奖),一期工程四台机组一个控制室集中监控,单元机组电子室集中,提高了机组运行管理水平。

2.6 APS技术应用

APS是机组级顺序控制系统的代名词。在机组启动中,仅需按下一个启动控制键,整个机组就将按照设计的先后顺序、规定的时间和各控制子系统的工作情况,自动启停过程中的相关设备,协调机炉电各系统的控制,在少量人工干预甚至完全不用人工干预的情况下,自动地完成整台机组的启停。但由于设备自身的可控性和可用率不满足自动化要求,加上一些工艺和技术上还存在问题,需要深入地分析研究和改进,所以目前燃煤机组实施APS系统的还不多见。

由于APS系统的实质是电厂运行规程的程序化,其优势在于可以大大减轻运行人员的工作强度,避免人为操作中的各种不稳定因素,缩短机组启停时间。作为提高生产效率和机组整体自动化水平,增强在电力企业的市场竞争能力行之有效的方法,将会成为未来机组控制发展的方向之一,引导设计、控制系统厂商和电厂人员更多地去深入研究,设计和完善功能,并付绪实施。

2.7 无线测量技术应用

无线测量技术能监视和控制运行过程中发生的更多情况,获得关键的工艺信息,整合进入DCS。除节省大量安装成本以外,还将推动基本过程和自动化技术的改善。如供热、供油和煤计量,酸碱、污水区域测量等,都可能通过无线测量技术实现远程监控。

2.8 提高热工自动化系统可靠性研究将深入

由于热控系统硬软件的性能与质量、控制逻辑的完善性和合理性、保护信号的取信方式和配置、保护连锁信号的定值和延迟时间设置,以及热控人员的检修和维护水平方面,都还存在一些不足之处,由此使得热控保护系统误动作引起机组跳闸事件还时有发生。在电力生产企业面临安全考核风险增加和市场竞争加剧的环境下,本着电力生产“安全第一,预防为主”的方针,以及效益优先原则,从提高热工自动化系统的可靠性着手,深入开展技术研究,是热工自动化系统近期的一项急需进行的工作。提高热工自动化系统的可靠性技术研究工作,包括控制软硬件的合理配置,采集信号的可靠性、干扰信号的抑制,控制逻辑的优化、控制系统故障应急预案的完善等。随着机组控制可靠性要求的提高,重要控制子系统的硬件配置中,将会采用安全型控制器、安全型PLC系统或者它们的整合,保护采集信号将会更多的采用三选二判断逻辑。独立的测量装置需要设计干扰信号抑制功能。此外基建机组一味以最低价中标的招标模式也应得到扭转(最低价中标,迫使厂商通过减少配置来降低投标价,导致控制系统可靠性下降)。

2.9 火电厂机组检修运行维护方式将改变

随着电力市场的竞争,发电企业将趋向集约化经营和管理结构扁平化,为提高经济效益,发电企业在多发电,以提高机组利用小时的同时,将会通过减少生产人员的配备,密切与外包检修企业之间的联系,让专业检修队伍取替本厂检修队伍的方式来提高劳动生产率。因此检修维修工作社会化将是一种趋势。此外DCS的一体化及其向各功能领域渗透,提高电厂整体协调和信息化、自动化水平的同时,也将会使电厂原专业间及专业内的分工重新调整,比如热工与电气二次回路的专业划分打通。为了降低成本,电厂不再保持大批的检修维修人员,因此检修维护方式也将因此而改变,比如让生产厂家和公司承担DCS和相关设备的检修工作。

电厂机组容量的不断增大,热工自动化系统所依赖的测量仪表也大量增加。在现场总线和智能仪表未全面使用的情况下,这些仪表还需定期校验。为提高测量仪表校验工作的效率,实现测量仪表从校验、基础数据台帐的建立、设备校验计划和日常维护工作的产生、执行、校验、数据输入、终结及统计分析,周期调整等的全过程自动管理代替人工管理,将是电厂仪表管理发展的趋势,因此全自动仪表校验装置和自动管理软件的需求量将会迅速增加。