前言:一篇好文章的诞生,需要你不断地搜集资料、整理思路,本站小编为你收集了丰富的人工神经网络的起源主题范文,仅供参考,欢迎阅读并收藏。
关键词 诶尔曼神经网络;人工神经网络;随机游走模型;组合预测;金融时间序列
中图分类号 F224 文献标识码 A
1 引 言
金融时间序列与经济环境及商业环境有关,如股市,汇率,物价指数,国民收入和净出口等.选择一个合适的金融数据模型,需要正确地识别金融市场与整体经济之间的内在关系[1].在实践中非常困难.因为一个金融时序数据的动态变化受到多个经济变量的影响,包括经济增长,利率,通货膨胀,通货紧缩,政治决策和心理因素等多个复杂的经济变量[1].
这些年来,关于金融时间序列的分布特征、模型模拟及预测等已经有了大量的研究工作[2,3].线性统计模型,如指数平滑法[4]和ARIMA[5]模型等,已经大量应用于金融数据的预测.ARIMA模型的一个分支,即随机游走模型(Random Walk model)[1,6],已经成为这个领域的主流统计技术.在一个简单的随机游走模型中,每一期的预测值被认为是最近一期的观测值和随机误差项的总和.目前,简单随机游走模型是金融时间序列分析中最主要的线性模型(尤其是汇率数据)[7].对随机游走模型的改进,如带漂移项的随机游走模型和误差修正,也有了很多相关的研究[1].尽管随机游走模型具有简单性和显著的预测精度,但是其主要缺点是内在的线性形式.随机游走模型未能捕获存在于金融时间序列中的非线性特征[2,7].非线性是金融时间序列的缺省特征,因此,通过一个随机游走模型近似它是不充分的.在这种情况下,人工神经网络是一种不错的选择.由于其非线性,非参数,自适应和噪声耐受性,人工神经网络在金融时间序列预测领域获得了广泛的关注[2,3].这些显著的特征使得人工神经网络模型能够有效地识别解释变量之间导致金融时序图产生不规则波峰和波谷的内在机理.与其他非线性统计模型不同的是,人工神经网络能够在不了解底层数据计算过程的情况下进行非线性模拟[8].不少研究者对比了人工神经网络和随机游走模型预测金融数据时的表现,也研究出了许多有益的结果:如Dunis and William发现神经网络相对于一般的统计模型可以提供更高的预测精度;Sun[1]发现在预测汇率时,人工神经网络表现出比随机游走模型更差的预测精度等等.但是,对于预测金融数据,一个金融时间序列一般包含了线性部分和非线性部分,单独使用人工神经网络模型或随机游走模型并不合适.上述研究无法确定人工神经网络模型和随机游走模型中哪一个更适应于预测这类金融数据.从而激励着去寻找一种组合机制去预测汇率.对于金融数据模型的预测,zhang[7]首次将随机游走模型和神经网络模型结合起来,国内学者熊志斌也做了ARIMA融合神经网络的人民币汇率预测模型研究[9].
本文假设任何金融时间序列由线性部分和非线性自相关部分组成,且可以从时间序列中剥离、单独建模.将随机游走模型和神经网络模型结合起来对金融数据进行预测.主要步骤如下:首先,随机游走模型用于拟合金融时间序列的线性部分,由观察值和随机游走模型拟合值之间的差计算样本内残差.根据假设,这些残差只包含非线性关系;第二,FANN和EANN将用于分别拟合这些残差值,并由2个模型产生的预测值的平均值得到想要的残差估计;第三步,由随机游走模型预测时间序列的线性部分;最后,将线性部分和非线性部分所得到的预测值加总,获得期望的最终预测.
2 随机游走模型
随机游走模型是金融时序分析最流行和有效的统计模型,也被广大的研究生所研究和使用,这个模型假设最近的观察值是对下一期预测值的最佳指南.在数学上,一个简单的RW模型被表示如下:
其中,和yt是时间序列中的观察值,εt是一个白噪声并且εt~N(0,σ2).
从式(1)中可以看出,一个随机游走模型表明所有与未来相关的信息已经包含在可用的数据里,这个模型因为被使用较多,所以非常容易理解和实现.根据有效市场的假说,随机游走模型是外汇汇率预测中最主要的线性模型,而且大量研究指出许多基于线性结构的预测技术并没有比简单的随机游走模型更有效.
一个随机游走模型的成功很大程度上取决于随机误差项,按照定义,随机误差项是独立同分布的.在本文中将生成独立同分布的伪随机正态变量εt~N(0,σ2),其中σ2是样本内数据集的方差.
3 人工神经网络(ANN)模型
3.1 前馈神经网络 (FANN)
在所有可用的仿生预测方法中,人工神经网络无疑是最流行且最成功的.人工神经网络最初起源于对人脑结构的模仿,渐渐地,神经网络技术在众多领域起到了极为重要的作用,如分类、识别和预测.人工神经网络通过若干互相连接的分布在不同层的神经元来学习数据的内在关系.多层感知器(MLP)是最被认可的人工神经网络的结构,用于时间序列预测问题.一个MLP基本上是一个输入层,一个或多个隐藏层和一个输出层的前馈结构.在每层中有许多个处理结点,其通过不可逆的链接连接到下一层.单层次的隐藏节点已经足以解决许多最实际的问题.图1描述了一个典型的MLP结构(p个输入结点,h个隐藏结点和一个输出结点).
在没有任何限制条件的情况下,简单的多层感应器模型或前馈神经网络模型能以任何给定的精度去近似逼近任何非线性函数.考虑到计算的要求,简单的神经网络往往是更合适的.选择合适的网络结构很重要,但并不是一个简单的工作.网络结构的选择主要包括确定输入节点、隐藏节点和输出节点的个数,以及隐藏层的层数.在不同文献中有着不同的参数优化选择方法,但这些方法并不简单,而且都是针对着具体的问题.
广泛应用的神经网络选择方法包括了赤池信息准则(AIC),贝叶斯信息准则(BIC),施瓦茨的贝叶斯准则(SBC)和偏差校正的赤池信息准则(AICC-).这4种准则基于对增加神经网络中参数个数的惩罚.在本文中,使用BIC准则作为神经网络的选择标准,因为它比其他3种准则更严重地惩罚了额外的参数.对于一个的FANN模型,BIC的数学表达式由式(5)给出:
3.2 诶尔曼人工神经网络(EANN)
类似于常见的前馈型神经网络(FANNs),时间递归神经网络在金融时间序列预测领域也相当流行.诶尔曼人工神经网络是一种简单的时间递归神经网络,除了3种常见的层次,还有额外的上下文层和反馈连接.在每一个计算步骤中,隐藏层的输出被再次反馈到上下文层,如图2所示.这种递归使得神经网络动态化,从而能够实现对处理结点非线性时间依赖的映射.EANN模型通常比相同结构的FANN提供了更好的预测性能.然而,EANNs比FANNs需要更多数量的网络连接和记忆单元.
使用相同的网络结构的FANN和EANN模型,不同之处在于EANN模型隐藏层的神经元是对应FANN模型中神经元的5倍.
4 组合方法的建模
在本文中,决定同时利用随机网络模型和神经网路模型来预测金融数据.虽然这些模型有着广泛的应用,但是他们之中没有一个模型能够在所有预测情况之下都最好.例如,RW模型不适合于识别非线性模式,类似地,使用人工神经网络处理线性问题时产生的结果也好坏参半.因此,更科学的做法是找一种组合方法去结合这两种模型的长处,而不是单独地去应用它们.假设,一个金融时间序列由从线性和非线性两部分构成,能从时间序列中分离出来并单独地建模.从数学上讲:
这种组合方法的显著特点如下:①任何金融时间序列都由线性部分和非线性部分组成,通过随机游走模型拟合线性部分,神经网络模型拟合非线性残差部分,提高了总体的预测精度;②类似的组合方法最早由Zhang推出,在他们的方法中,时间序列的线性部分由ARIMA模型来拟合而剩余的非线性残差部分由FANN来拟合.然而,该组合方法同时结合了FANN模型和EANN模型两种模型的优势,能更好地识别非线性自回归结构;③这种组合机制是基于一种简单而有效的想法,相当容易实施和解释.④值得注意的是,如果金融时间序列中的线性和非线性部分存在着适当比例的自相关结构,那所提出的组合方法将能显着改善预测精度.如果这2个部分自相关程度较弱,那该方法可能并不合适.
5 实验结果与讨论
为了验证所提出的组合方法的有效性,本文用到了三组数据:①港币兑换美元汇率,包括了从1994年8月到2015年6月港币兑换人民币的每月汇率;②美元兑换人民币汇率,包含从2005年5月到2015年6月美元兑换人民币的每月汇率;③人民币兑换港币汇率,包括了从1995年1月到2015年6月人民币兑换港币的每月汇率.(数据来源:汇率数据取自国泰安数据库)(见表1)
从图3中可以清楚地看到3个时间序列中不规则非平稳的变化.
图4和5中,画出了3种时间序列的实际曲线和通过组合模型所描绘的预测值曲线.在每个图中,实线和虚线分别表示实际和预测序列.港币美元汇率与人民币港币汇率数据的预测误差较小,预测值与原始值的走势趋于一致.预测人民币港币汇率的预测效果没有港币美元汇率与人民币港币汇率好,预测值的总体走势与原始值一致.三组汇率数据的原始值和他们的预测值之间的接近程度是显而易见的.
6 总 结
众所周知,设计一个合适的模型来预测金融数据是时间序列研究领域的一个重大挑战,也是极其不易之事.这主要是因为金融时间序列中的不规则运动及突然的转折点使得实际中很难去理解和预测.基于金融数据独特的随机性特征,本文构建了人工神经网络和随机游走模型对中国的汇率数据进行预测.
本文构建的新模型结合了随机游走模型,FANN模型和EANN模型3种模型的优势去预测金融数据.并且从实证结果表明,预测值与原始值的走势趋于一致,港币与人民币之间的预测误差不大,但是对于相对于人民币汇率的预测,美元汇率的预测效果更好.从预测误差看,均比每个单独的模型效果要好.从三组真实的金融时间序列的实证结果清楚地表明,本文新构建的组合方法极大地提高了整体的预测精度.因此,我们的新模型在汇率预测方面上有更高的准确性和适用性.
参考文献
[1] Y SUN. Exchange rate forecasting with an artificial neural network model: can we beat a random walk model? [D] New Zealand:Christchurch,Lincoln University, 2005.
[2] A HUSSAIN, A KNOWLES, P LISBOA,et al. Financial time series prediction using polynomial pipelined neural networks[J]. Expert Systems with Applications, 2008, 35(3): 1186-1199.
[3] M SEWELL. The application of intelligent systems to financial time series analysis[D].London:Department of Computer Science, UCL,2010.
[4] C LEMKE,B GABRYS. Metalearning for time series forecasting and forecast combination[J]. Neurocomputing, 2010, 73(10): 2006-2016.
[5] G BOX, G JENKINS, G REINSEL. Time series analysis: forecasting and control[M].London John Wiley & Sons, 2011. 734
[6] E TYREE, J LONG. Forecasting currency exchange rates: neural networks and the random walk model[J]. Citeseer, 1995(1):981-996.
[7] G ZHANG. Time series forecasting using a hybrid ARIMA and neural network model[J]. Neurocomputing, 2003, 50: 159-175.
关键词 算法 智能 计算机
中图分类号:TP301.6 文献标识码:A
1智能算法含义
智能计算也有人称之为“软计算”,是们受自然(生物界)规律的启迪,根据其原理,模仿求解问题的算法。从自然界得到启迪,模仿其结构进行发明创造,这就是仿生学。这是我们向自然界学习的一个方面。另一方面,我们还可以利用仿生原理进行设计(包括设计算法),这就是智能计算的思想。这方面的内容很多,如人工神经网络技术、遗传算法、模拟退火算法、模拟退火技术和群集智能技术等。
2人工神经网络算法
“人工神经网络”(ARTIFICIALNEURAL-->WORK,简称ANN)是在对人脑组织结构和运行机制的认识理解基础之上模拟其结构和智能行为的一种工程系统。早在本世纪40年代初期,心理学家McCulloch、数学家Pitts就提出了人工神经网络的第一个数学模型,从此开创了神经科学理论的研究时代。
其后,FRosenblatt、Widrow和J.J.Hopfield等学者又先后提出了感知模型,使得人工神经网络技术得以蓬勃发展。
神经系统的基本构造是神经元(神经细胞),它是处理人体内各部分之间相互信息传递的基本单元。据神经生物学家研究的结果表明,人的一个大脑一般有1010~1011个神经元。每个神经元都由一个细胞体,一个连接其他神经元的轴突和一些向外伸出的其它较短分支――树突组成。轴突的功能是将本神经元的输出信号(兴奋)传递给别的神经元。其末端的许多神经末梢使得兴奋可以同时传送给多个神经元。树突的功能是接受来自其它神经元的兴奋。神经元细胞体将接受到的所有信号进行简单处理(如:加权求和,即对所有的输入信号都加以考虑且对每个信号的重视程度――体现在权值上――有所不同)后由轴突输出。神经元的树突与另外的神经元的神经末梢相连的部分称为突触。
3遗传算法
遗传算法(Genetic Algorithms)是基于生物进化理论的原理发展起来的一种广为应用的、高效的随机搜索与优化的方法。其主要特点是群体搜索策略和群体中个体之间的信息交换,搜索不依赖于梯度信息。它是在70年代初期由美国密执根(Michigan)大学的霍兰(Holland)教授发展起来的。1975年霍兰教授发表了第一本比较系统论述遗传算法的专著《自然系统与人工系统中的适应性》(《Adaptationin Naturaland Artificial Systems》)。遗传算法最初被研究的出发点不是为专门解决最优化问题而设计的,它与进化策略、进化规划共同构成了进化算法的主要框架,都是为当时人工智能的发展服务的。迄今为止,遗传算法是进化算法中最广为人知的算法。
近几年来,遗传算法主要在复杂优化问题求解和工业工程领域应用方面,取得了一些令人信服的结果,所以引起了很多人的关注。在发展过程中,进化策略、进化规划和遗传算法之间差异越来越小。遗传算法成功的应用包括:作业调度与排序、可靠性设计、车辆路径选择与调度、成组技术、设备布置与分配、交通问题等等。
4模拟退火算法
模拟退火算法来源于固体退火原理,将固体加温至充分高,再让其徐徐冷却,加温时,固体内部粒子随温升变为无序状,内能增大,而徐徐冷却时粒子渐趋有序,在每个温度都达到平衡态,最后在常温时达到基态,内能减为最小。根据Metropolis准则,粒子在温度T时趋于平衡的概率为e-%=E/(kT),其中E为温度T时的内能,%=E为其改变量,k为Boltzmann常数。用固体退火模拟组合优化问题,将内能E模拟为目标函数值f,温度T演化成控制参数t,即得到解组合优化问题的模拟退火算法:由初始解i和控制参数初值t开始,对当前解重复“产生新解计算目标函数差接受或舍弃”的迭代,并逐步衰减t值,算法终止时的当前解即为所得近似最优解,这是基于蒙特卡罗迭代求解法的一种启发式随机搜索过程。退火过程由冷却进度表(Cooling Schedule)控制,包括控制参数的初值t及其衰减因子%=t、每个t值时的迭代次数L和停止条件S。
5蚁群优化算法
受蚂蚁觅食时的通信机制的启发,90年代Dorigo提出了蚁群优化算法(Ant Colony Optimization,ACO)来解决计算机算法学中经典的“货郎担问题”。如果有n个城市,需要对所有n个城市进行访问且只访问一次的最短距离。
在解决货郎担问题时,蚁群优化算法设计虚拟的“蚂蚁”将摸索不同路线,并留下会随时间逐渐消失的虚拟“信息素”。虚拟的“信息素”也会挥发,每只蚂蚁每次随机选择要走的路径,它们倾向于选择路径比较短的、信息素比较浓的路径。根据“信息素较浓的路线更近”的原则,即可选择出最佳路线。由于这个算法利用了正反馈机制,使得较短的路径能够有较大的机会得到选择,并且由于采用了概率算法,所以它能够不局限于局部最优解。
6粒子群优化算法
粒子群优化算法(PSO)是一种进化计算技术(Evolutionary Computation),有Eberhart博士和Kennedy博士发明。源于对鸟群捕食的行为研究。
PSO同遗传算法类似,是一种基于叠代的优化工具。系统初始化为一组随机解,通过叠代搜寻最优值。但是并没有遗传算法用的交叉(crossover)以及变异(mutation)。而是粒子在解空间追随最优的粒子进行搜索。
关键词:crm;渠道偏好度;电信
一、 案例研究方法与模型介绍
西方学者的案例研究过程渊源已久,kyburz-graber(2004)将案例研究分为三类:描述性案例研究、探索性案例研究以及因果解释性案例研究。本研究属于探索性案例研究,希望以国内一家电信运营商的crm管理过程实践为研究对象,分析客户对于渠道的偏好度。本案例企业为某电信运营商的一家地市分公司,拥有超过三百万用户,主要从事移动通信和数据服务业务。
这家电信运营商在完成基本的各种业务运营的生产性信息系统后,进一步完成数据汇总并建设了涵盖所有客户互动历史数据的中央数据仓库系统作为企业级业务数据平台。其市场营销部门充分利用这个统一集中的管理信息平台,对客户作各种深度的数据挖掘研究。对于渠道的偏好度的研究分析方案如下:
1. 渠道的类型定为四类:营业厅、电话客服中心、短信、网站。
2. 客户渠道的偏好度模型,使用数据挖掘的人工神经网络技术(详述如后),计算出每个用户使用四种渠道办理业务的倾向度评分。
3. 主要的数据来源包括客服中心呼叫记录,短信请求记录,网站渠道运营记录,业务支撑系统工单,服务使用数据,以及客户基本属性数据等。
4. 时间分析窗口数据,利用渠道偏好度模型给每个分析用户进行渠道使用倾向评分,再通过验证窗口用户使用渠道情况进行模型验证。分析窗口:用于分析特征的历史数据的时间跨度,需要3个月的历史数据;验证窗口:用于验证用户使用渠道情况,需要2个月的历史数据。
5. 本案例研究所使用的技术方法为人工神经网络(ann)。人工神经网络的研究发展起源于20世纪40年代,是一种模仿人脑神经系统的非线性映射结构。它不依赖于精确数学模型,而显示出自适应和自学习功能。1943年,法国心理学家w.s.mcculoch和w.pitts提出了第一个神经元数学模型,开创了人类自然科学史上的一门新兴科学ann的研究。
人工神经网络会不断检验预测结果与实际情况是否相符。把与实际情况不符合的输入输出数据作为新的样本,对新样本进行动态学习并动态改变网络结构和参数,这样使网络适应环境或预测对象本身结构和参数的变化,从而使预测网络模型有更强的适应性。而在ann的实现过程中,往往需要大量的数据来产生充足的训练和测试样本模式集,以有效地训练和评估ann的性能,这正好是建立在数据仓库和数据挖掘工具所能提供的。由于ann和数据挖掘两者的优势互补,将神经网络用于数据挖掘具有现实意义和实用价值。人工神经网络在数据挖掘中的优势是:对于噪声数据的强承受能力,对数据分类的高准确性,以及可用各种算法进行规则提取。
人工神经网络方法常用于分类、聚类、特征挖掘、预测和模式识别。神经网络模型大致可分为以下三种:(1)前馈式网络:以感知机、反向传播模型和函数型网络为代表,主要用于预测和模式识别等领域;(2)反馈式网络:以hopfield离散模型和连续模型为代表,主要用于联想记忆和优化计算;(3)自组织网络:以自适应共振理论:(adaptive resonance theory,art)模型为代表,主要用于聚类分析。
在本案例应用中,主要是用前馈式网络来进行多变量的概率分布预测。因为本文目标是对用户使用几种渠道的可能性高低进行预测。
二、 案例研究的实施与分析
1. 业务规划的考量。对客户使用渠道的习惯偏好进行分析具有重大意义,可以对营销活动提供有力的支持。通过客户行为特征分析,寻找客户选择渠道的偏好,提供客户营销渠道的最优路径。不但有利于优化渠道资源,降低营销成本,更能提高营销成功率,提升客户满意度。
目前电信客户可以使用的移动通信服务渠道包括营业厅、电话客服、短信、网站、自助服务终端等,其中营业厅提供服务功能最为齐全,但成本也是最高;电话客服使用最为广泛,几乎每个客户都有使用电话客服的经验,也是提供最多服务的渠道,对于电信公司的用户满意度非常重要。因此,研究应用的重点之一就是如何发挥电话客服的优势,以有限资源服务更多的高价值客户和业务,减少低价值客户和业务占用客服资源的比例。同时,重点发展电子渠道,着重提高电子渠道的普及率,培养用户使用电子渠道的习惯,引导用户从传统渠道(营业厅、电话客服)向电子渠道(短信和网站)转变。
2. 具体的技术实现方案:
(1)数据准备:基于业务理解以及数据分析,选取以下变量为构建模型的基础变量;(详细列表如表1所示)
(2)数据质量分析:对预处理之后的基础变量进行数据质量分析以剔除质量较差的变量;
(3)数据探索:通过可视化(visualization)工具及统计分析等方法来展示及探索各个变量的可用性,从而获得模型的输入变量。从中了解变量的重要性及业务发展规律;
(4)数据处理流程:按照挖掘任务的要求,将数据从中央数据仓库抽取生成挖掘专用的数据集市。基本的数据处理流程有:数据源的汇总合并;执行数据探索抽样;透过人工神经网络(ann)进行模型打分;产生模型并进行模型验证整体技术方案的关键点体现在两个方面:建模过程:为渠道偏好的分类预测找到合适的基础变量,有助于模型收敛更快更好;模型应用过程:应用最小长度原理,控制隐藏节点数,以达到拟合最优。另借助sas软件工具实现模型打分。
3. 具体应用实现案例。根据电话、网站、短信和营业厅渠道各个评分前10%的用户,取各渠道用户的评分值、每用户平均收入(arpu)、以及在网时长的信息设计营销方案。
(1)对偏好电话的客户,通过电话营销中心外呼进行营销,完成后需要对客户进行短信感谢,同时介绍网站渠道的便利性和信息丰富的特点。
(2)对偏好网站的客户,通过短信提醒用户登录网上营业厅办理业务的优惠信息,在客户登录网上营业厅时进行营销推荐,同时考虑发展响应较高的用户群作为网站营销的种子客户,进行持续的优惠激励。
(3)对偏好短信的客户,通过短信进行营销推荐,给予短信办理业务的优惠条件,提醒客户可以尝试使用信息更加丰富的渠道——网站,并提供网站办理的简单指引。
(4)对偏好营业厅的客户,通过短信提醒客户最近的营业厅,同时推荐客户使用电话渠道,而后再通过电话引导客户使用营业厅之外的渠道,并考虑对这些客户给予业务优惠吸引他们采用。
4. 渠道模型分析结果与验证。
(1)电话客服中心渠道的偏好度分析。在电话客服中心的营销活动中,电话外呼的目标客户优先选择具有电话偏好度的客户群,其次是没有明显渠道偏好的客户群,再次是营业厅偏好的客户群,针对营业厅偏好客户,可以在电话营销的时候加入向用户推荐就近的营业厅的资料。
通过电话渠道偏好客户分析,归纳出影响偏好电话客服渠道最明显的前10个参数如表2示。
其中,拨打客服次数、在网时长、总计费分钟数、是否vip客户、拨打客服平均时长、拨打声讯台次数、呼转次数这7个因素对客户的电话偏好产生正影响,也就是客户的这些参数的值越大,其偏好电话渠道的可能性就越大;而网站操作业务类型数、短信操作次数、网站登录次数这3个因素对电话偏好产生负影响,与正影响相反。
以“拨打客服次数”为例,t统计量基本显著(p-值小于显著性水平0.05),即“拨打客服次数”对因变量具有显著的解释能力,参数估计值为0.102 3,即在其他控制其他变量不变的情况下,对数发生比随着“拨打客服次数”的增加而增加。
从电话渠道模型验证的角度,前10%的用户数量明显较多,因此选择前模型得分前10%的客户作为电话偏好的目标客户。从图2的曲线来看,模型得分前10%的客户覆盖实际具有电话渠道偏好客户比例达到了30%以上,因此模型提升率达到3倍以上,说明选择前10%是可以满足目前的要求。
(2)短信渠道的偏好度分析。通过短信渠道偏好客户分析,归纳出影响偏好短信渠道最明显的前9个参数:其中短信操作业务类型数、wlan使用分钟数、是否使用中文秘书、漫游计费分钟4个参数,对短信偏好产生正影响;而在网时长、网站操作业务类型数、总计费分钟数、拨打客服次数、是否使用留言信箱5个参数对短信偏好产生负影响。
由于短信办理业务的方式比较容易被年轻人接受,而在网时长比较大的客户通常是老客户,他们比较习惯使用电话,使用短信的可能性比较小,因此对比可以看出,在网时长对电话渠道是正影响,对短信渠道是负影响。
对短信渠道模型进行验证,几乎所有的短信业务办理的用户都是模型得分在20%以内的,采用短信方式办理业务的用户的得分都很高,模型覆盖率非常精确,模型评分前20%的用户几呼覆盖100%的短信办理用户,模型提升率接近5倍。说明短信渠道偏好的模型评价用户是否有短信偏好的能力较强,具有很好的预测能力。
(3)网站渠道的偏好度分析。通过网站渠道偏好的客户分析,归纳出影响偏好网站渠道最明显的前10个参数:其中网站操作业务类型数、数据业务使用种类数、是否使用号码管理3个参数对网站偏好产生正影响;而拨打客服次数、总计费分钟数、拨打客服平均时长、订购的wap服务数、是否vip客户、短信操作业务类型数、彩铃ivr买歌次数7个参数对网站偏好产生负影响。
前10大参数中,网站偏好影响为正的参数只有3个,负影响的因素则有7个,原因是参数的设置和选择目前主要来自于客户属性和使用手机的信息,这些内容通常与网站操作没有太多关联性,与网站相关的许多数据目前的系统中难以取到;另一个原因可能是网站营业厅的出现时间比较晚,能够提供的服务内容比较少。针对熟练使用网站办理业务的用户,可以提供目标性的营销发展成为公司的网站业务使用的“种子客户”,通过他们去影响交往圈的其他客户,从而提升网站办理的数量和比例,减轻对电话渠道的压力,使得电话营销中心的资源可以投放到更有生产力的活动中。
网站渠道模型评分排名前10%的客户实际验证中通过网站办理数明显高于排名靠后的其他客户,说明模型评分的准确度比较高。
三、 研究案例总结
掌握好渠道偏好度的工作,能够有效地以有限的资源尽可能的服务更多的高价值的客户和业务,减少低价值客户和业务占用客服渠道资源的比例。同时,重点发展电子渠道,培养引导用户从传统渠道(营业厅和电话客服)向电子渠道(网站和短信)转变,对于电信运营商就必能产生关键性的绩效提升。
利用数据仓库再进行数据挖掘可以突破以往的技术困难限制,有效地建立高精确度的模型。构建模型时基础变量选取得当能够产生很好的适应性和普及弹性,体现涵盖不同省、市的区域差别。从上述实际的案例,也验证了应用这种crm信息技术的优越能力,一旦建立了标准模型和技术方案的实施机制,将会易于其推广便利为运营商创造显著绩效。
参考文献:
1. armstrong, g, kotler, p. marketing: an introduction,2005.
2. eisenhardt, k. building theories from case study research. academy of management review, 1989,14(4):532-550.
3. kyburz-graber, r. does case-study methodology lack rigour? the need for quality criteria for sound case-study research, as illustrated by a recent case in secondary and higher education. environmental education research,2004,10(1):53-65.
关键词:客户流失;数据挖掘
中图分类号:TP311文献标识码:A文章编号:1009-3044(2009)13-3437-02
1 引言
在目前,电信运营商面临激烈的市场竞争,客户争夺愈演愈烈,每个企业都存在客户流失的问题。传统意义上来讲,留住一个客户所需要的成本是争取一个新用户成本的1/5,尤其对于增量客户越来越少的通信市场来说,减少客户流失就意味着用更少的成本减少利润的流失。
电信业客户流失预测是利用客户的历史记录数据,对潜在的流失客户进行判断的过程,相关系统实现通常是基于数据挖掘技术,数据挖掘技术与传统数据分析的区别在于前者是在未有任何假设和前提条件下完成的,有效的数据挖掘预测系统可更客观的对实际的市场情况进行分析和描述。在欧美等发达国家,由于其移动通信市场已经比较成熟,电信运营商的经营模式已经由传统的“技术驱动”过渡到了“市场驱动”和“客户驱动”的运营模式。这就从客观上推动了客户流失行为预测技术的发展。例如,英国电信(BT)、美国的西南贝尔、Vanguard Cellular,AT&T Wireless等公司都逐步开始使用客户流失行为预测技术对客户流失进行管理和控制,实施差异化、一对一的营销。在我国,电信行业处于特定的历史发展阶段,我国在数据挖掘方面的研究虽落后于国外运营商,但该技术的重要性已越来越受国内运营商重视。中国移动自2007年开始,已在其中国移动研究院中专门成立了一个进行用户数据挖掘的小组。广东省电信公司研究院在数据挖掘技术基础上研发的“电信客户洞察系统”,也已成为广东电信CRM(客户关系管理)系统的核心子系统。
2 数据挖掘技术
2.1 数据挖掘技术简介
数据挖掘是数据库领域中最重要的课题之一,它是一种知识发现的过程,主要基于统计学、人工智能、机器学习等技术,高度自动化地分析数据,做出归纳性的推理,从海量数据中挖掘出潜在的、有价值的知识、模型或规则,并对未来情况进行预测,以辅助决策者评估风险、做出正确的决策。“数据挖掘包含了一系列旨在从数据集中发现有用而尚未发现的模式(Pattern)的技术”[1],对于企业而言,数据挖掘有助于发现业务发展的趋势,揭示已知的事实,预测未知的结果,并帮助企业分析出完成任务所需的关键因素,以达到增加收入、降低成本,使企业处于更有利的竞争位置的目的。
数据挖掘主要有以下类型:
1) 分类。这是最常见的数据挖掘类型,其中数据的目标数据项表示数据所代表的对象的类型。例如在医学应用中,对象可分为有病和没病两类;在金融应用中,对象可分为低风险和高风险两类。分类数据挖掘先从一个己分类的数据集(训练集)得到一个模型,这个模型就包含了从该训练集中得到的知识。然后应用这个模型(知识)对新的未分类的数据进行分类。
2) 聚类。聚类是把数据按照相似性归纳成若干类别,同一类中的数据彼此相似,不同类中的数据相异。聚类分析可以建立宏观的概念,发现数据的分布模式,以及可能的数据属性之间的相互关系。
3) 预测。通过分析代表对象过去和现在行为的数据来预测对象未来的行为。这实际上是一种特殊的分类或估计,其目标数据项就是要预测的值.
4) 关联分析。确定哪些数据对象存在关联,典型的应用是确定在超级市场中顾客会将哪些商品放在一个购物车或购物篮中,即他们会同时购买那些商品。
2.2 部分数据挖掘算法
1) 决策树
决策树,又称判定树,是一种类似二叉树或多叉树的树结构。它起源于概念学习系统(CLS:Concept Leaning System)。决策树使用的是“分而治之”的策略。它将一个复杂的问题分成更简单的问题并重复使用这一战术来解决子问题,从而将复杂的问题瓦解。
2) 贝叶斯定理
贝叶斯定理是一种对属性集和类变量的概率关系建模方法,主要解决在已知相关项目B的资料,而缺乏论证项目A的直接资料时,通过对B项目的有关状态及发生概率分析推导A项目的状态及发生概率,即当已知事件Bi的概率P(Bi)和事件Bi已发生条件下事件A的概率P(A│Bi),则可运用贝叶斯定理计算出在事件A发生条件下事件Bi的概率P(Bi│A)。
3) 人工神经网络
一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入-输出数据,分析掌握两者之间潜在的规律,最终根据这些规律,用新的输入数据来推算输出结果。
3 基于数据挖掘技术的客户流失预测系统实现
3.1 客户流失类型
客户流失情况分为主动离网流失、被动离网流失和潜在话务流失三类,其中主动离网流失是客户主动办理拆机销户手续转入他网的流失。被动离网流失是客户由于已经转入他网但并未办理相关手续,造成客户欠费停机、或成为零次户(即通话次数为零的客户)。潜在话务流失是由于客户使用意愿的转移而明显减少使用业务导致该客户虽然保持在网但话务量(通话使用量)出现大幅度下降。主动离网流失和被动离网流失是一种可测量的流失现象,而潜在话务流失由于很难度量客户使用量是否由于使用意愿的转换导致,而相对比较难测量。
3.2 预测分析的流程
1) 数据采集
数据采集对象主要包括用户数据和话单数据,计费侧数据库在一定周期内产生用户数据和话单数据(含通话、短信、数据增值业务及用户状态变更Log),采集目的是将上述数据分类导入数据仓库的用户原始数据库。
2) 数据清洗
数据清洗主要在用户原始数据库中根据各类算法的需要挑选合适的数据,将数据转换为算法所需的格式并建立数据集市。
3) 模型训练
模型训练是发现数据内在规律的过程,它主要通过挑选已知结果的数据,即已发生流失用户的相关数据,输入算法模型进行计算分析(此过程称为训练,所挑选的数据称为训练集),通过挑选合适数量进行训练后即可获取一个符合当前数据集合的算法参数模型。
4) 模型测试
模型测试是通过选取一定数量的已知结果的数据作为测试集,并对训练过程中或已训练完成的算法模型进行测试,通常做法为边训练边测试。
5) 数据分析
数据分析是在模型训练并测试完成后,输入未知结果的数据,即需要预测离网可能性的客户数据,并最终得出用户是否会离网或离网概率。
6) 结果处理
根据预测结果确定针对客户群的政策导向,如采用多种算法进行预测,则需要制定规则确定对不同算法得出的预测离网用户集合的处理方式,同时针对每个预测离网用户的不同情况给出相应的处理建议并最终建立专门的数据库记录每次预测分析的情况。
3.3 算法选择
选择合适的算法是数据挖掘系统的关键,国内外学者针对应用数据挖掘技术进行电信客户流失分析已有相当程度研究,使用相对较多的算法有人工神经网络、决策树及贝叶斯定理等,其中普遍结论以决策树及人工神经网络算法相对准确率较高。由于预测无法做到绝对的准确,所以通过各类适用算法得出的客户流失预测结果必然不尽相同,使用单一算法命中率并不高,一对一营销的指导意义也相对较弱。因此,在硬件资源相对富裕的情况下,建议通过多种算法分别分析再将结果按照一定的规律进行组合来提高预测的准确率,如采用人工神经网络、决策树及贝叶斯分类器分别得出预测结论,在不考虑客户保留成本的情况下,可以通过并集的方式得出最终需要进行政策维系的客户群,反之可通过交集的方式得出。当然也可通过各类算法所需求的输入数据不一致的情况,通过不同算法进行互补,如决策树模型对于数值类参数(如网间通话数、每月充值费用等)分析不尽完全,人工神经网络算法则可进行弥补。
3.4 关键问题及解决办法
1) 在客户分群的研究中,客户随着时间的变化分群业产生变化,从静态的角度进行客户的分群容易导致分群不适应实际结果,而且客户在不同群之间的漂移过程研究对深入了解客户的行为也具有重要作用,同一样本客户在不同月份消费行为也存在一定的差异。
解决办法:针对不同用户群的典型时间周期确定不同的训练集,并每隔一个时间周期就对客户进行重新建模分群,以更新客户分群以符合实际情况。另外针对合理周期内可能发生了特殊事件,进行单独建模以防止其对正确模型的歪曲。
2) 预测结果仅仅得出流失客户的名单,客户离网的原因缺乏系统性的分析和市场调查,导致很多流失预测不能对电信企业的经营活动带来实实在在的效果。
解决办法:通过决策树这种白盒模型,记录每个预测离网用户完成预测的路径,对其离网原因作出相应解释并给出有针对性的维系手段。
4 结束语
数据挖掘技术在电信客户流失预测中的应用是数据挖掘技术在数据统计预测分析方面的典型应用,也是目前市场的热点,在商业环境日益复杂,竞争日益激烈,增量用户越来越少的情况下,该技术的优势会得到进一步的发挥。
参考文献:
关键词:遥感;图像解译;方法;分析
Abstract: The author describes the direction of the computer interprets several new methods, and analysis of remote sensing image computer interprets the trends.Keywords: remote sensing; Image Interpretation; method; analysis
中图分类号:P25文献标识码:A文章编号:2095-2104(2012)
利用计算机对遥感图像进行解译是遥感图像解译的必然趋势。它可以实现智能化地快速获取地表的不同专题信息,具有重要的理论意义和应用前景。
1遥感图像计算机解译的新方法
1.1人工神经网络
人工神经网络(Artifical Neural Networks,ANN)是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。人工神经网络具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入-输出数据,分析掌握两者之间潜在的规律,最终根据这些规律,用新的输入数据来推算输出结果。
它由大量处理单元互联组成非线性、自适应的信息处理系统,通过模拟大脑神经网络处理、记忆信息的方式进行信息处理。具有非线性、非局限性、非常定性、非凸性四个基本特征。其本质是通过网络的变换和动力学行为得到一种并行分布式的信息处理功能。人工神经网络是并行分布式系统,采用了与传统人工智能和信息处理技术完全不同的机理,克服了传统的基于逻辑符号的人工智能在处理直觉、非结构化信息方面的缺陷,具有自适应、自组织和实时学习的特点。
其在遥感图像计算机解译中的应用有两个功能:一是用于遥感图像目标地物特征抽取与选择,即通过ANN的自适应功能用遥感图像训练网络,将提取的特征贮存在各个神经元的连接中;另一个是用于学习训练及分类器的设计,这是因为ANN分类器具有非线性的特点,可以为我们提供多种复杂的类间分界面,为多目标地物识别提供可能。
1.2小波分析
小波分析的“小波”理论起源于信号处理。信号一般为离散的,通过分析认为信号是由多个小波组成的,这些小波代表着不同的频率特征。小波变换是时间(空间)频率的局部化分析,小波函数平移、组合形成了小波函数库,通过小波函数库中区间的变化可以对某些感兴趣的频率特征局部放大,即对信号逐步的进行多尺度细化,最终达到高频处时间细分,低频处频率锌粉,自动适应时频信号分析的要求,聚焦信号的任意细节。
小波分析是一种时间——尺度分析方法,解决了经典的Fourier分析的确定局部频率的问题,实现了在时间和频率上的取样步长随数字信号的性态不同而自适应地调整。其基本思想是将图像进行多分辨率分解,分解成不同空间、不同频率的子图像,然后再对子图像进行系数编码。
小波变换实现图像压缩的步骤为:首先,利用二维小波变换将图像分解成低频分量和高频细节分量,然后,根据视觉特性对这些分量做不同策略的量化及编码处理。利用小波变换实现图像数据压缩常用的方法有:阈值量化、分块矢量量化、网格矢量量化、零数法等。
小波变换的实际作用是对信号解相关,并将信号的全部信息集中到一小部分具有大幅值的小波系数中。从而在信号的冲沟中,大系数比小系数更重要。
另外,小波变换可用于多源遥感影像信息的融合,利用小波分析可以抑制影像噪声,在检测纹理边界中也可以利用小波分解影像纹理信息而作为一种多分辨率分析工具等等。
1.3 分形技术
分形理论是现代数学的一个新分支,其基本特点是承认事物的局部可能性在一定条件或过程中,在某些方面表现出与整体的相似性。即物体存在形式上的有序层次化的自相似特征。人们通常把具有以下性质的集合称为分形:具有精细结构,具有某种自相似的结构,分形维数大于拓扑维数,存在对分形的简单算法描述,例如可以由迭代产生。
遥感图像中的地物分为两大类:一类为具有规则的边界光滑的人造地物,比如建筑物,另一类是不规则具有精细结构和自相似特征的自然地物,如山脉等。目前,分形领域里的迭代函数系统,在计算机上可以生成各种各样图案,实现计算机的自然景物的模拟刻画。
另外,分形图像编码是一种新颖且有很大发展潜力的图像压缩技术。分形技术可以从图像分割、快速分型编码、分形码的量化、码本的灰度变换方法、快速分形解码等实现遥感图像的压缩。而分形方法用于自动目标检测与识别主要是基于离散分形布朗增量随机模型(DFBIR),大多数自然物体的表面都能用DFBIR场模型较好地描述,而且DFBIR在局部区域内的增量一、二阶绝对矩具有幂指数特性,因此可据此估计分形维数。自然目标的各个组成部分,由于其平滑性,呈现出较低的分维值,而人造目标一般具有较强的边缘,从而分维值很高,得到初步检测结果。目前,这一技术提取自然地物特征仍在研究当中。
1.4模糊分类方法
模糊理论用来描述是与非之间的中间状态,通过概率形式表示的不确定性事物的归属度来描述它的模糊性及不确定性。模糊分类法使用输入的训练数据集得出分类函数,进而预测测试数据集的类别。
遥感图像分类中,地物往往存在模糊边界,利用模糊分类法就可以解决这些不能明确地判定地物分类类别的边界的问题。
此外,还有一些其他新的方法,例如,利用二维字符串空间知识表示方法对物体空间关系特征进行描述,这种方法将地物在二维空间的分布转换为二维字符表示,便于进行空间推理分析和空间特征相似形检索。
遥感图像的计算机解译从研究思路上可根据目标地物的特点从低、中、高三个层次进行描述和表达。低层次的描述对象是图像像素,它不含有任何语义信息,但通过计算机分类等方法可以将这些识别对象进行重组,形成性质均一的地物单元。中层次是在区域分割的基础上抽取卫星图像形态、纹理特征、空间关系等特征,以描述和表达目标地物。高层次描述和表达的目标地物是与理解图像有关的具有丰富语义的对象,它允许按分析目标来解译图像。然后,构造图像识别专家系统,实现图像的特征匹配与多目标地物的智能化识别。
目前,遥感图像的计算机解译的主要技术发展趋势在提取图像的多种特征并对特征进行组合优化,不同特征互为补充,以及逐步完成GIS各种专题数据库的建设以减少自动解译中GIS数据的不确定性,专家系统也是其中的趋势之一建立合适的遥感图像解译专家系统,将模式识别与专家系统进行结合等都是遥感图像解译的重要研究方向。
2 结束语
遥感图像的计算机解译是以遥感数字图像为研究对象,将遥感图像的地学信息获取发展为计算机支持下的遥感图像智能化识别从而实现遥感图像解译的一门技术。它是统计模式识别技术在遥感领域中的具体应用,即提取待识别模式的一组统计特征值,然后按照一定准则作出决策,从而对数字图像予以识别。目前的遥感图像计算机分类算法设计的主要依据是地物光谱数据,而地物光谱数据还存在着一些问题:比如,遥感图像像素所具有的多光谱特征;相邻像素间的关系;图像上地物的形状;空间位置特征等的信息,另外,提高遥感图像的分类精度受到大气状况,下垫面等因素的影响而具有一定的局限性。但是,遥感图像的计算机解译将始终是图像解译的重要发展方向。
参考文献:
[1] 郭德芳编著.遥感图像的计算机处理和模式识别.北京:电子工业出版社,2007.
[2] 徐佩霞,孙功宪,《小波分析与应用实例》,中国科技大学出版社,2007.
[3] 尚彩娥.浅谈全数字摄影测量系统及其产品.大地纵横,2010,(02).
[4] 刘子刚.保护环境须测绘先行[J].北京测绘.2011,(4):43.
关键词:统计学;数据挖掘;案例驱动
中图分类号:G712 文献标志码:A 文章编号:1674-9324(2014)40-0069-02
一、前言
近年来,数据获取和数据存储技术快速发展,各种数据库、数据仓库中存储的数据量飞速增长。人们关注的焦点要从噪声、模糊的随机数据中提取重要的信息、知识,数据挖掘的出现,提供了一种有效解决“数据丰富而知识贫乏”问题的方法。
数据挖掘作为统计专业的核心课程,是学生必须掌握的职业能力课程。根据高职生的知识结构体系和培养目标,我们采用案例驱动教学方法,以学生为主体,案例为主线,教师为主导,对案例进行分析,学习案例所涉及的相关知识点,从而会利用相关软件工具对数据进行分析,挖掘数据间的知识。
二、数据挖掘中案例驱动教学的实施
(一)合理高职高专统计专业数据挖掘课程教学目标
数据挖掘是集数据库技术、统计学习、机器学习、模式识别、可视化等学科的一个新兴交叉学科,又包含了聚类分析、关联规则分析、分类等,每一种挖掘又有不同算法,是一门理论性、实践性及综合性较强的课程。其知识内容丰富,内容深浅不一,各种方法变化快,新方法层出不穷,这对师生都提出了严峻的挑战。
高职高专将培养高等技术应用型专门人才为根本任务,以适应社会行业发展需求为基本目标,结合本院统计专业学生的专业技能特点,我们将本门课程的教学目标定位为:掌握数据挖掘课程涉及的基本概念,提高信息分析能力,能从收集到的数据信息中利用有效的软件工具CLEMENTINE进行知识“挖掘”;要根据实际情况制定合理完整的数据模型并进行评估,这些评估要具有可视性,才能有效地解决问题,而使数据挖掘更具有合理性。
(二)如何驱动教学来设计数据挖掘案例
1.介绍案例驱动教学法。案例驱动法是在“哈佛大学”的情境案例教学课起源,是一种探索性和协作性学习的教学模式。整个授课过程围绕着同一个目标和几项任务“教授”,学生通过对课程的学习、资料的查找和知识的整合,通过充分思考和与实践相结合,提高自身能力。这种案例驱动的教学法可以让学生提高学习兴趣,发展学生自身的能力。同时能让教师更好地发挥促进学生学习、引导学生成功的功能。
案例驱动法是把教学内容和目标通过一个任务来体现,把教材内容重新整合,老师的授课和学生的接受都围绕这个任务完成。
案例驱动法可以充分发挥学生的主体地位,从而改变传统的关于师生关系的观念,让学生从被动学习到主动学习,真正爱上学习,提高自己的创新、自学和实践能力,同时要求老师在授课中给予学生正确的引导、促进、组织和控制,这样可以增强同学间的协作精神和学生的独立意识。通过学生的自主学习和探索,可以改变原来枯燥的学习方式。对于数据挖掘这门课程,内容深奥,既要求学习一定的理论知识,又要求掌握数据挖掘的使用方法,因此我们引入使用案例驱动的教学方法。
2.数据挖掘案例教学的实施规划。利用CLEMENTINE软件工具进行数据挖掘,将数据挖掘看成一个以数据为中心的循序渐进的螺旋式数据探索过程,该过程分为业务理解、数据理解、数据准备、建立模型、方案评估和方案实施六大部分。因此,在教学过程中,我们围绕数据挖掘的六大部分,在每一部分,讲解基本的数据挖掘技术原理;对于数据挖掘算法,只要求掌握相关算法使用的方法和使用的场合,并会使用专业的数据挖掘工具CLEMENTINE,此应用的前提条件要求对学生进行数据挖掘;将教学的亮点和重点放在案例分析和实际应用上,要对学生进行动手能力的训练。
在教学的过程中,最重要的是案例的选取。通过参考教学大纲和教学目标,对教学案例进行精心设计,可以提高学生的分析能力,提高学生发现问题和解决问题的能力,才能更好地将教案落实,并形成具体的项目。根据数据挖掘课程的特点和具体内容,我们通过某些小案例引入一些相关知识,并且采用学生能够接受的一个大案例让学生使用成绩数据模型组织整个教学过程。
我们的课程内容按数据挖掘过程分为六大部分,按照每一部分的教学目标我们设计了多个不同的小案例如下。
(1)药物研究数据和学生参加社会活动数据案例:通过这两个数据模型掌握在CLEMENTIME软件工具中利用软件中SOURCES选项卡的多种节点读入多种文件类型(如TXT文件、EXCEL文件、SPSS文件等)的数据,掌握读入数据的数据类型,掌握APPEND节点、MERGE节点合并数据的方法。
(2)移动客户数据案例:通过利用移动数据让学生掌握TYPE节点进行变量说明的方法,会使用该节点进行有限变量值和无效值的调整,会使用DATA AUDIT节点对数据质量进行评估和调整;掌握数据中对离群点、极端值和缺失值的调整,对数据进行质量管理;会使用AGGREATE对数据进行分类汇总;利用FILLER节点对变量值重新计算,会用RECLASSIFY节点实现变量值进行调整;会对数据进行筛选、样本子集划分等处理;了解数据分析特征,把握数据间相关性强弱的基本手段;利用压缩样本量、简约变量值或变量降维等方法对样本量庞大的数据进行精简。
(3)决策树模型案例:了解C5.0决策树算法,会建立决策树模型,学会归纳和提炼现有数据包含的规律,建立分类预测模型,会分析结论,用于对未来新数据的预测。
(4)人工神经网络模型案例:了解人工神经网络算法,掌握人工神经网络建立的步骤,建立B-P反向神经网络模型,预测分析结果。
(5)贝叶斯模型案例:了解贝叶斯网络算法,掌握贝叶斯网络结构的组成和构建,会用TAN贝叶斯和马尔科夫毯网络解决从庞大数据中寻找输入变量之间的相关性,输入变量的组合取值对输出变量的影响,用网络结构直观展示它们的关系。
在设计小案例的同时,我们还选择学生既熟悉又感兴趣的综合项目案例选题:学生成绩数据、图书管理数据、电信服务数据等,让学生带着问题进一步学习课程,在学习中寻找方法解决项目中遇到的问题。当课程结束后,各项目组呈交项目数据模型和报告,且项目组长要向所有同学按数据挖掘的六大部分讲解分析报告。
3.案例驱动教学的成效。围绕案例进行教学的“数据挖掘”课程除了采用案例驱动教学法,还要增加学生的实际训练能力,都取得了明显的效果,从以下五个方面体现:①学生要主动提出问题,同时积极主动地参与课堂教学,才能提高学生分析和处理问题的能力;②增强学生的自主学习能力,要求学生通过小组讨论的形式和实际训练让学生以积极主动的态度处理和解决一些技术问题,从而提高自学能力;③学生间要注意培养团队合作能力的,也要具有竞争意识;④课程学习结束后,普遍反映对利用CLEMENTIME软件工具进行数据挖掘的自信心提高,能够进一步提高对专业的认知,独立解决一些数据统计分析的问题。
三、结束语
数据挖掘是统计专业的专业课程,其内容繁多、深奥,把基于案例驱动的教学模式引入《数据挖掘》课程,学生在学习过程中,实现了整个数据挖掘的流程,在基于项目的技术应用中深入理解了数据挖掘的理论知识。学生要将所学的理论知识和实践相结合,从而有效提高自己的操作技能和知识水平,培养了自己应用数据挖掘技术解决实际问题的应用能力和创新实践能力。
从教学效果来看,通过将理论教学和实践相结合,案例教学法整合了各种学习工具和教学资源,这样才能充分发挥学生的主观能动性,培养和提高学生的主观能动性,同时增强学生分析和处理问题的能力,今后,我们将继续完善数据挖掘的教学案例,研究和总结教学经验,使整个教学环节更加完善合理。
参考文献:
[1]刘云霞.统计学专业本科生开设“数据挖掘”课程的探讨[J].吉林工程技术师范学院学报,2010,(26).
[2]覃义,杨丹江,刘忆宁.《数据挖掘》本科教学的体会与创新[J].科技信息,2012,(10).
[3]李国荣.培养统计专业学生动手能力和创新能力的探索[J].统计教育,2007,(9).
[4]白忠喜,鲁越青,梁伟,等.校政企共建基地开展基于项目驱动的实践教学改革[J].中国大学教学,2011,(2).
[5]焦国华,黄健柏,黄晖.数据挖掘技术在钢铁行业的应用[J].系统工程,2010,(28).
【关键词】泵;在线监测;故障诊断
0 引言
设备的故障诊断技术起源于19世纪产业革命时期,当时的故障诊断技术主要依靠技术专家的知识水平和经验水平,这种方法具有简单方便、经济实用的特点,但对技术专家的知识水平要求较高。随着计算机、信号处理、传感器等技术的发展,当今的机器的在线监测及故障诊断技术已经发展为多种学科交叉,理论与实践紧密结合,并与现代测控技术同步发展的学科。水泵的状态监测与故障诊断技术的发展不仅促进了其理论设计、制造方法的发展与提高,同时也是人们认识到仅仅要求水泵具有优良的性能是远远不够的,一旦其发生故障,可能造成巨大的经济损失和社会危害。美国电力所(EPRI)进行的调查表明:大型的电站锅炉给水泵故障率高达30%以上,而且泵越大故障率越高。据某电力机构调查,国产200MW火力发电机组配备的某类型的给水泵已有8次断轴事故发生,造成了巨大的经济损失。因而,如何提高泵设备的可靠性,保证其安全的、稳定的、长期的、满负荷的优质运行,已成为泵的设计者及机械测控工程学科亟待解决的新课题。
1 泵类产品故障诊断概述
泵发生故障是指其功能失常,即其机械系统处于异常状态。泵是有多个子系统和元素同特定的关系组成的系统。对同一台泵,对于不同的工况,其运行状况也不同。泵发生故障的原因有多方面的因素,主要有:
1)泵的设计不合理( 结构设计不当、动态性能差等)。例如,叶轮与诱导论配合不好时,就会引起叶轮故障。
2)机械制造与装配不当(加工误差大、配合性质不合理等)例如,某纸业公司,购买的泵由于轴没有经过调质处理,运行时间不长久弯曲、断裂 。
3)泵的安装不当(主要指与其他设备的连接超差、基础变形等)。
4)泵的维修不当。维修过程改变或破坏了原有的动态性能和配合性质等。
5)泵的运行状态不当,例如,状态不良、工艺过程参数不匹配等。
6)泵经长期运行,其零部件发生引力集中及磨损,性能变差,这种故障属于自然故障。
7)泵的操作不当(违章改变工况、超负荷运转等)。当泵的设计工况与实际工况相差太大时,会引起故障。例如,如果泵长时间地小流量运行,由于回流大,不仅效率低,还会引起泵的故障,产生的典型故障有:轴承寿命缩短或损坏、泵振动大、泵转子窜动等。
由此可知泵的故障是由于多种原因引起的,而且往往是由于多种原因耦合的结果。所以,故障与其征兆也往往不是一一对应的,这就给故障诊断带来了困难。
泵的在线监测和故障诊断主要是针对泵的整机性能,比如对泵的运行参数(吸入真空度、效率等)、机械运行状态(位移、振动、零件磨损、轴承油温度和液位)以及噪声进行检测,采集信号,进行分析,预测故障发展趋势,并根据故障性质和趋势,做出决策,干预其工作过程。
其具体诊断过程可用图1表示。
当前泵的在线检测及故障诊断技术的主要内容:选择适当的监测方式和合适的部位,以获得泵运行的最优信息,从中提取泵的故障征兆,然后判断泵运行是否正常,进行早期诊断和预报。根据征兆确认故障的部位、程度、原因和性质,提出合理的治理和控制措施,防止或消除故障,对原设计、制造、装配等提出改进措施。由此看来,泵的故障诊断不仅仅是其运行和维修的新技术,更为重要的是它提高和改进了泵的设计及制造质量。
2 泵类产品在线监测及故障诊断方法的现状
泵类产品的故障诊断的主要对象包括:泵轴振动、滚动轴承、机械密封装置、叶轮、油系统等。
1)对于单行小型泵,目前对其诊断的方法主要是依靠技术人员的感觉器官,通过听取运行噪声,对振动的判断以及停机检查的方法来对泵进行故障诊断。该方法具有操作方便,经济实用的特点。但是要求技术人具有较高的工作经验水平,而且往往要定时检查,浪费人力资源,不能实现实时监测。
2)对于大型的泵和泵站的泵的,目前已有了许多在线监测和故障诊断系统。这些系统能够实现实时在线监测和故障诊断功能 。但是也存在着不足之处,主要表现在以下几点:
(1)对机械密封装置无能为力
机械密封故障是泵的多发故障之一,也是故障中最难解决的难题之一。目前尚无有效的措施予以解决,难点在于它的可监测性差,没有很好的参数来反映它的性能。因此,机械密封装置的监测与故障诊断是泵的在线监测与故障诊断问题中亟待解决得的问题之一。
(2)泵的振动监测及故障诊断技术
泵的振动监测和故障诊断主要内容包括:泵的转轴和滚动轴承的振动监测与故障诊断。目前许多水泵机组缺少振动监测系统,一旦发生振动故障,往往造成检修困难,停机时间长、经济损失较大的后果。虽然有工人定期检查,由于人的主观因素,会造成过度检修,而且,对突发事件无能为力。由于泵的振动机理及表现形式较为复杂,目前需要解决的难题有:(一)监测方式;(二)防潮性能;(三)兼容性能。
(3)油系统
系统是泵设备中较为重要的一部分,它的好坏直接决定了泵的机械性能及其零部件的寿命,而且其零部件的磨损情况也可以通过对油的成分分析获得。因此,选择合适的参数及方法,获得较为全面的故障信息,对泵的整机的在线监测及故障诊断具有较为重要的意义。
(4)轴承温度监测
水泵水轮机的主要监测项目之一是轴承温度,采用的是对温度的绝对值和变化率进行监测,但是这种方式,往往是在轴承状态发生异常,出现温度上升之后才进行监测,所以要在早期的微侯阶段检出异常情况就很困难。另外,由于轴承可能出现在启动时温度高,停止时温度低,也可能在启动时低,停止时高的现象,所以,如何设定轴承的温度警报值也是一个很困难的问题。
3 泵类产品故障诊断技术的发展趋势
故障诊断技术自问世以来,特别时近30年来取得了长足的发展,从对故障的机理研究,以信号分析为基础的诊断方法到现今以知识处理为基础的智能故障诊断系统,特别是近年来迅速兴起的人工神经网络方法在工程实际的应用都取得了可喜的成果。但是现有的诊断方法都是以测取设备工作中的外部特征信号为基础,通过对信号的分析提取特征故障信号(征兆)。特征信号的提取主要是基于状态响应,时域响应或频率响应,这些信号往往受到多种因素的干扰,难以取得可信的信息。而且故障于征兆之间也不是一一对应的(如图2所示),难以根据有限的信息(征兆)判断故障的真正的原因。
计算机技术的日臻完善与成熟,为人工智能故障诊断方法的发展提供了广阔的天地。这也给泵的故障诊断指明了方向。目前,人工智能的诊断方法包括以下几种:(一)基于专家系统的诊断方法;(二)基于人工神经网的方法;(三)基于案例的方法;(四)基于模糊数学的方法;(五)基于故障树的方法。目前还存在以下几个方面的问题 :
1)以解决强干扰、多故障、多征兆、突发条件下的故障为目的的故障诊断技术
随着科学技术的发展,设备的向着精密、高效和机电一体化的方向发展,故障的类型也增多。强干扰、多故障、多征兆、突发条件下的诊断的不确定性,还需进一步解决和研究。
2)鲁棒性研究
基于模型的各种监测分离方法对模型误差的鲁棒性是影响该类方法应用的重要因素。研究鲁棒型好、算法简单的监测和诊断方法一直是研究的重要内容和方向。
3)神经网络的故障诊断技术
神经网络在故障诊断系统中的应用还有许多问题亟待解决。例如,网络模型结构、学习算法还有待于向可靠性、实用性方向发展,如何提高阶谱 、实时辨别、非线性辨识、符号模型等与神经网络结合来解决故障诊断中的一些实际问题,还有待于进一步解决。
【参考文献】
[1]徐章遂,房立清,王希武,左.故障信息诊断原理及应用[M].北京:国防工业出版社,2001.
[2]王道平,张义忠.故障智能诊断系统的理论与方法[M].北京:冶金工业出版社,2001.
[3]王其成.泵运行状态监测和故障诊断[J].化工装备技术,2001.
[4]李梅.转轴故障诊断的频谱分析和监测系统的研究[J].绍兴文理学院报,2001.
[5]李平康.火电厂旋转机械振动监测与故障诊断技术现状及发展[J].电力自动化.
〔关键词〕知识图谱;专家系统;发展轨迹
DOI:10.3969/j.issn.1008-0821.2012.02.040
〔中图分类号〕G250.71 〔文献标识码〕A 〔文章编号〕1008-0821(2012)02-0159-08
Knowledge-based Expert System Development Overview MapLiao Yi
(Political Department,National University of Defense Technology,Changsha 410073,China)
〔Abstract〕Artificial intelligence expert system is the most important and most active areas of an application,which implements the artificial intelligence research from theory to practice,turning from the general reasoning strategies of a major breakthrough in the use of expertise.This chronological order,the expert system into the 1980s before the 1980s,1990s,2000,after four stages.Articles using bibliometric methods,analysis of the expert system development process,development and trends,pointing out that the current phase is the development of expert systems,expert systems into a variety of commercial operation,need to address the knowledge acquisition bottleneck,matching conflicts and other issues for expert systems to understand and master the subject structure,evolution,development and so provide an unique perspective and knowledge.
〔Key words〕knowledge maps;expert systems;the development trajectory
专家系统作为人工智能的一个重要分支,发展已经超过50年,在很多应用领域都获得了广泛使用,取得了丰硕成果。本文运用文献计量这一独特视角对专家系统进行了再回顾和再分析,将智能科技划分为初创期、成长期、低谷期、发展期,利用词频分析、共引分析、作者共现分析等方法揭示专家系统的学科结构、影响程度、关键节点与时间点等重要而独特的知识,为了解和掌握专家系统的发展与演化过程提供了独特视角。
1 数据来源
SCI(Science Citation Index)是美国科学情报研究所ISI(Institute for Science Information)出版的期刊文献检索工具,所收录的文献覆盖了全世界最重要和最有影响力的研究成果,成为世界公认的自然科学领域最为重要的评价工具。本文以Web of Science中的SCI数据库为数据来源,选用高级检索方式,以“Expert System/Experts System”作为主题词,于2011年5月在Web of Secience中进行检索,一共检索到14 500篇相关文献记录。获得的年度分布如图1。所示。虽然,专家系统研究从20世纪五六十年代就开始了,但是从图1可以看出直到1982年才有主题词与专家系统相关的论文出现。图1表明1991年左右,专家系统相关论文达到了峰值,但随后呈逐年下降的趋势。到1999年,只有494篇。但21世纪开始,专家系统相关论文又出现了增加的趋势,并维持在一个稳定的水平中。图1 专家系统在SCI数据库文献发表年度变化情况
2012年2月第32卷第2期基于知识图谱的专家系统发展综述Feb.,2012Vol.32 No.22 专家系统前40年的发展
本文利用基于JAVA平台的引文分析可视化软件Citespace,首先设定时间跨度为1950-1991年,时间切片长度为1年,聚类方式为共被引聚类(Cited Reference),阈值选择为(2,2,20)、(3,3,20)、(3,3,20)。Citespace得出这些引文的时间跨度为1950-1990年,可以绘制出该时间段的专家系统论文时区分布图,如图2所示。我们以年代先后为序,将20世纪80年代以前作为第一阶段,80年代至90年代作为第二阶段。图2 1950-1991年各年度专家系统论文之间的时区分布图
2.1 专家系统起源时期
根据图2显示,这段时期有7个突出节点,既有7位代表人物。第一个节点代表的是“人工智能之父”――英国著名科学家阿兰・麦席森・图灵(Alan Mathison Turing),他于1950年在《心灵》杂志上《计算机器与智能》,提出了著名的“图灵测试”,探讨了机器智能的可能性,为后来的人工智能科学提供了开创性的构思[1]。
第二个节点代表的是美国工程院院士、加州大学扎德(LA.Zadeh)教授,他于1965年在《信息与控制》杂志第8期上发表题为《模糊集》的论文,提出模糊集合理论,给出了模糊性现象定量描述和分析运算的方法,从而诞生了模糊数学。1978年,扎德教授提出了“可能性理论”,将不确定性理解为可能性,为模糊集理论建立了一个实际应用上的理论框架,这也被认为是模糊数学发展的第二个里程碑。同年,国际性期刊《International Journal of Fuzzy Sets and System》诞生,这使得模糊理论得到普遍承认,理论研究高速发展,实际应用迅速推广。
第三个节点代表的美国两院院士、卡内基-梅隆大学教授艾伦・纽厄尔(Allen Newell),1972年,他出版了《人怎样解题》(Human Problem Solving)一书,书中描述了他和西蒙试图建立一个计算机化的“通用问题求解器”的历程:20世纪50年代,他们发现,人类的问题解决,在一定知识领域内可以通过计算机实现,所以他们开始用计算机编程来解决问题,1956年,他们研发出了逻辑理论家和通用问题求解器(General Problem Solver),并建立了符号主义人工智能学派。我们可以看出,这本书是对他以前所作工作的总结与归纳,而逻辑理论家和通用问题求解器正是专家系统的雏形,为专家系统的出现奠定了坚实的基础。
但是艾伦・纽厄尔的尝试无法解决大的实际问题,也很难把实际问题改造成适合于计算机解决的形式,并且对于解题所需的巨大搜索空间也难于处理。为此,美国国家工程院院士、斯坦福大学教授费根鲍姆(E.A.Feigenbaum)等人在总结通用问题求解系统成功与失败的经验基础上,结合化学领域的专门知识,于1965年研制了世界上第一个专家系统dendral,可以推断化学分子结构。专家系统进入了初创期,其代表有dendral、macsyma(数学专家系统)等,第一代专家系统以高度专业化、求解专门问题的能力强为特点,向人们展示了人工智能应用的广阔前景[2]。
第四个节点代表人物是美国麻省理工学院著名的人工智能学者明斯基(Minsky)。1975年,他在论文《表示知识的框架》(A Framework for Representating Knowledge,McGraw-Hill)中提出了框架理论,框架理论的核心是以框架这种形式来表示知识。理论提出后,在人工智能界引起了极大的反响,并成为了基于框架的专家系统的理论基础,基于框架的专家系统适合于具有固定格式的事物、动作或事件。
第五个节点代表人物是美国普林斯顿大学教授格伦谢弗(Glenn Shafer),他在1976年出版了《数学理论的证据》(A mathematical theory of evidence)一书,介绍了由他和Dempster于1967年提出的D-S理论(即证据理论)。证据理论可处理由不知道因素引起的不确定性,后来,该理论被广泛应用于计算机科学和工程应用,是基于D-S证据理论的专家系统的理论基础。
第六个重要节点代表是美国斯坦福大学爱德华・汉斯・肖特利夫(Shortliff EH)教授,他于1975年在著名杂志《数学生物科学》上发表《A model of inexact reasoning in medicine》(《在医学模型的不精确推理》)一文,他结合自己1972-1974年研制的世界第一个医学专家系统――MYCIN系统(用于诊断和治疗血液感染及脑炎感染,是第二代专家系统的经典之作),提出了确定性理论,该理论对专家系统的发展产生了重大影响。
第七个节点代表人物是美国麻省理工学院计算机科学和人工智能实验室的戴维斯(Randall Davis)教授,他于1976年提出元知识的概念,并在专家系统的研制工具开发方面做出了突出贡献――研制出知识获取工具Teiresias,为专家系统获取知识实现过程中知识库的修改和添加提供了工具[3],关Teiresias,他于1977年在《Artificial Intelligence》杂志上中进行了详细介绍,而这也为本时期专家系统的快速增多和广泛应用奠定了坚实基础。
20世纪70年代后期,随着专家系统应用领域的不断开拓,专家系统研发技术逐渐走向成熟。但同时,专家系统本身存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一等问题也被逐渐暴露出来。人们从各种不同类型的专家系统和知识处理系统中抽取共性,人工智能又从具体研究逐渐回到一般研究。围绕知识这一核心问题,人们重新对人工智能的原理和方法进行探索,并在知识的获取、表示以及知识在推理过程中的利用等方面开始出现一组新的原理、工具和技术。
2.2 专家系统发展的黄金时期
20世纪80年代是专家系统突飞猛进、迅速发展的黄金时代,根据图2显示,这段时期共有论文982篇,有7个突出节点。
1980年,出现了第一个节点代表――美国斯坦福大学计算机科学系系主任尼尔森(NILS J.NILSSON),他出版的《人工智能原理》(《Principles of artificial intelligence》)一书,表明了拉近理论和实践的距离的目标,书中对基于规则的专家系统、机器问题解决系统以及结构对象的代表等都进行了具体的论述。
1981年,出现了第二个节点代表――英国赫特福德大学教授Clocksin,威廉F,他出版的《PROLOG语言编程》一书,引起了计算机科学界的极大兴趣,并已被证明是一个重要的编程语言和人工智能系统的新一代基础,是专家系统的重要编程语言。
1982年,出现了第三个节点代表――美国匹兹堡大学教授米勒(Miller RA),他在《英格兰医药分册》上发表了《基于计算机的医学内科实验诊断顾问》(An Experimental Computer based Diagnostic Consultant for General Internal Medicine.N Engl J Med,307,468-76,1982)一文,属当时诊断专家系统的代表力作,书中介绍了著名的内科疾病诊断咨询系统INTERNIST-1,之后将其不断完善成改进型INTERNIST-2,即后来的CADUCEUS专家系统,其知识库中包含了572种疾病,约4 500种症状。
1983年,出现了第四个节点代表――美国的海斯罗斯(Hayes-Roth,F)教授,他于1983年发表著作《建立专家系统》,对专家系统建立的原则和要素、开发的生命周期等重要问题进行了详细讲解,为研究与开发各种类型的专家系统提供了理论依据。
1984年,出现了第五个节点代表――美国匹兹堡大学计算机科学、哲学和医学教授布鲁斯・布坎南(Bruce G.Buchanan),他于1984年发表著作《规则的专家系统:斯坦福启发式编程项目Mycin实验》(《Rule Based Expert Systems:The Mycin Experiments of the Stanford Heuristic Programming Project》,这是有史以来关于医疗诊断系统MYCIN的实验规则库公布。基于规则的专家系统MYCIN是专家系统开发过程中一个里程碑,研究其开发思路与方法具有非常重要的意义。
1985年,出现了第六个节点代表――美国人工智能专家、加州大学教授哈蒙(Harmon P),他出版了《专家系统:人工智能业务》(《Expert systems:artificial intelligence in business》)一书。书中阐述了专家系统如何解决问题,代表知识,并得出推论,并介绍了人工智能的具体制度,确定了专家系统的市场。
1986年,出现了第七个节点代表――著名的专家系统学者沃特曼(Waterman DA),他出版了《专家系统指南》一书,该书对专家系统的概念、组成、建立过程、建立工具、应用领域等做了深入浅出的系统介绍与论述,是当时全面介绍专家研发与应用的经典书籍。
20世纪80年代初,医疗专家系统占主流,主要原因是它属于诊断类型系统且容易开发。80年代中期,出现大量投入商业化运行的专家系统,为各行业带来了显著的经济效益。从80年代后期开始,大量新技术成功运用到专家系统之中,使得专家系统得到更广泛的运用。在这期间开发的专家系统按处理问题的类型可以分为:解释型、预测型、诊断型、设计型等。应用领域扩展到农业、商业、化学、通信、医学等多个方面,成为人们常用的解决问题的手段之一。
然而,与此同时,现有的专家系统也暴露出了自身严重的缺陷,使不少计算机界的知名学者对专家系统产生了怀疑,认为专家系统存在的问题有以下几点:(1)专家系统中的知识多限于经验知识,极少有原理性的知识,系统没有应用它们的能力;(2)知识获取功能非常弱。为了建造专家系统,必须依赖于专家获取知识, 不仅费时, 而且很难获取完备性和一致性的知识;(3)求解问题的方法比较单一,以推理机为核心的对问题的求解尚不能反映专家从认识问题到解决问题的创造性过程;(4)解释功能不强[4]。等到学者们回过头重新审视时,20世纪90年代的专家系统理论危机已然爆发。
3 90年代专家系统向多个方向发展
由于20世纪80年代专家系统研究迅猛发展,商业价值被各行各业看好,导致90年代大批专家系统从实验室走出来,开始了它们的工程化市场化进程。从图1看以看出,在20世纪90年代,专家系统的相关论文不增反减,进入一个局部低谷期,这期间以“Expert System/Experts System”为主题词的论文共7 547篇。本文利用Citespace软件,设置参数为(4,4,20)(4,3,20)(4,4,20),获取了该时期论文的引文聚类图(如图3所示)。图2 专家系统1990-2000年的论文引文聚类图
从图3中我们可以看出,全图的节点比较分散,没有形成大的聚类,这表示该阶段没有形成重点研究方向,也没有重大科研成果和标志性著作产生,专家系统的市场化进程严重牵引了研究者们的注意力,这是专家系统研究陷入低谷期的重要原因。
这段时间专家系统的研究工作大致分以下几个方面:第一个研究方向依旧是建立在扎德(LA.Zadeh)教授模糊理论上的模糊专家系统,它同样是该年代专家系统研究的重点方向。
第二个研究方向是骨架专家系统,代表人物有美国斯坦福大学的爱德华・汉斯・肖特利夫(Shortliff EH)教授。1974年末,MYCIN系统基本建成后,MYCIN的设计者们就想到用其它领域的知识替换关于感染病学的知识,可能会得到一个新的专家系统,这种想法导致了EMYCIN骨架系统的产生。EMYCIN的出现大大缩短了专家系统的研制周期,随后,AGE、OPS5、KEE、KBMS、GESDE等骨架系统应运而生,它们在20世纪90年代专家系统的研究进程中,发挥着重要作用。
第三个研究方向是故障诊断专家系统,代表人物有美国麻省理工学院的兰德尔・戴维斯(Randall Davis)教授。他于1984年在《人工智能》杂志上发表了《基于结构和行为的诊断推理 》(《Diagnostic Reasoning Based on Structure and Behavior》)一文,该论文描述了一个利用知识结构和行为,在电子电路领域进行故障诊断排除的专家系统。之后,故障诊断专家系统在电路与数字电子设备、机电设备等各个领域已取得了令人瞩目的成就,已成为当今世界研究的热点之一。
第四个研究方向是基于规则的专家系统,布鲁斯・布坎南(Bruce G.Buchanan)的著作对基于规则的专家系统在这个时期的发展仍有着积极的指导作用。多种基于规则的专家系统进入了试验阶段。传统基于规则的专家系统只是简单的声明性知识,而目前,规则的形式开始向产生式规则转变,并趋向于提供较完善的知识库建立和管理功能。
第五个研究方向是知识工程在专家系统中的运用。代表人物是美国斯坦福大学的克兰西教授(Clancy W J),他于1985年在《人工智能》杂志上发表了重要论文《启发式分类》(《Heuristis classification》),启发式分类即对未知领域情况的类的识别过程。它是人类思维解决问题的重要方法,在人工智能、专家系统中可常用启发式设计计算机程序,模拟人类解决问题的思维活动。
第六个研究方向是机器学习在专家系统中的运用。代表人物是机器学习领域前辈、澳洲悉尼大学著名教授John Ross Quinlan。他于1986年在《机器学习》(《Mach.Learn》)杂志上发表《决策树算法》(《Induction of Decision Trees》)一文,文中他详细描述了决策树算法的代表――ID3算法。之后,有大量学者围绕该算法进行了广泛的研究,并提出多种改进算法,由于决策树的各类算法各有优缺点,在专家系统的实际应用中,必须根据数据类型的特点及数据集的大小,选择合适的算法。
第七个研究方向是神经网络专家系统,代表人物有人工智能专家Stephan I.Gallant和美国加利福尼业大学教授巴特・卡斯科(Bart Kosko)。Gallant于1988年在《ACM的通信》上发表了《连接主义专家系统》(《Connectionist expert systems》)一文,文中讲述Gallant 设计了一个连接主义专家系统(Connectionist expert system),其知识库是由一个神经网络实现的(即神经网络知识获取),开创了神经网络与专家系统相结合的先例。
第八个研究方向是遗传算法在专家系统中的运用。代表人物是遗传算法领域著名学者、美国伊利诺伊大学David Goldberg教授和人工智能专家L.Davis。1989年,Goldberg出版了专著《搜索、优化和机器学习中的遗传算法》,该书系统总结了遗传算法的主要研究成果,全面而完整地论述了遗传算法的基本原理及其应用;1991年,Davis编辑出版了《遗传算法手册》,书中包含了遗传算法在科学计算、工程技术和社会经济中的大量应用实例,该书为推广和普及遗传算法的应用起到了重要的指导作用。这些都推动了基于遗传算法的专家系统的研发推广。
第九个研究方向是决策支持系统在专家系统中的运用,代表人物是美国加利福尼亚大学伯克利分校教授埃弗雷姆・特班(Efraim Turban)。他于1990年出版了《决策支持和专家系统的管理支持系统》(《Decision support and expert systems:management support systems》)一书。20世纪80年代末90年代初,决策支持系统开始与专家系统相结合,形成智能决策支持系统,该系统充分做到了定性分析和定量分析的有机结合,将解决问题的范围和能力提高到一个新的层次。
第十个研究方向是各种理论知识在专家系统中的综合运用,代表人物是美国加利福尼业大学教授巴特・卡斯科(Bart Kosko)和美国伊利诺伊州研究所教授Abdul-Rahman K.H。卡斯科(Kosko)于1992年出版《神经网络和模糊系统:一个拥有机器智能的动力系统方法》(《Neural networks and fuzzy systems:a dynamical systems approach to machine intelligence》)一书,这是第一本将神经网络和模糊系统结合起来的读本,也是神经网络与模糊理论综合应用于专家系统建设的经典著作;Abdul-Rahman K.H教授于1995年,在美国电气和电子工程师协会的《电力系统及自动化》(《Transactions on Power Systems》)会议刊上发表了《人工智能模糊无功负荷的最优VAR控制方法 》(《AI approach to optimal VAR control with fuzzy reactive loads》)一文,论文提出了一个解决无功功率(VAR)控制问题,这个方法包含了专家系统、模糊集理论和人工神经网络的重要知识。
虽然专家系统大量建造,但投入实际运行的专家系统并不多,且效率较低,问题求解能力有待进一步提高。原因之一就是专家系统主要是模拟某一领域中求解特定问题的专家的能力,而在模拟人类专家协作求解方面很少或几乎没有做什么工作。然而在现实世界中,协作求解具有普遍性,针对特定领域、特定问题的求解仅仅具有特殊性,专家系统虽然在模拟人类专家某一特定领域知识方面取得了成功,但它仍然不能或难以解决现实世界中的问题。其次,开发的专家系统的规模越来越大,并且十分复杂。这样就要求将大型专家系统的开发变成若干小的、相对独立的专家系统来开发,而且需要将许多不同领域的专家系统联合起来进行协作求解。然而,与此相关的分布式人工智能理论和实用技术尚处在科研阶段。只有分布式系统协作求解问题得以解决,才能克服由于单个专家系统知识的有限性和问题求解方法的单一性等导致系统的“脆弱性”,也才能提高系统的可靠性,并且在灵活性、并行性、速度等方面带来明显的效益[5]。
4 21世纪专家系统进入稳定发展时期
进入21世纪,专家系统开始缓慢发展,这期间以“Expert System/Experts System”为主题词的论文共5 964篇。本文利用Citespace软件,设置参数为(6,6,20)(5,5,20)(5,5,20),获取了该时期论文的引文聚类图(如图4所示)。图4 专家系统2000-2010年的论文引文聚类图
这个时期专家系统有3个主要研究方向:第一个是研究方向是节点明显的基于模糊逻辑的专家系统研究方向。90年代以来,模糊控制与专家系统技术相结合,进一步提高了模糊控制器的智能水平。基于模糊逻辑的专家系统有以下优点:一是具有专家水平的专门知识,能表现专家技能和高度的技巧以及有足够的鲁棒性(即健壮性);二是能进行有效的推理,能够运用人类专家的经验和知识进行启发性的搜索和试探性的推理;三是具有灵活性和透明性。
第二个是研究方向是Rete模式匹配算法在专家系统中的应用,代表人物是美国卡内基―梅隆大学计算机科学系的Charles L.Forgy教授,1979年,他首次提出Rete算法。专家系统工具中一个核心部分是推理机,Rete算法能利用推理机的“时间冗余”特性和规则结构的相似性,并通过保存中间运算结果的方法来提高推理的效率。1982年,他在《人工智能》杂志上发表《Rete算法:许多模式/多对象的模式匹配问题的一个快速算法》(《Rete:A Fast Algorithm for the Many Pattern/Many Object Pattern Match Problem》)一文,该文解释了基本算法的概念,介绍了详细的算法,描述了模式和适当的对象交涉算法,并说明了模式匹配的执行操作。
第三个是研究方向是专家系统在电力系统中的运用。世界各国的专家们开始热衷于在电力生产的各个环节使用专家系统,代表人物有日本的福井贤、T.Sakaguchi、印度的Srinivasan D、美国伊利诺伊州研究所的Abdul-Rahman K.H、希腊雅典国立技术大学的Protopapas C.A、和中国的罗旭,他们在美国电气和电子工程师协会的《电力传输》(《IEEE transactions on power delivery)会议刊及《电源设备系统》会议刊(《On Power Apparatus and Systems》)上发表了多篇有影响力的论文,内容涉及系统恢复、电力需求预测、变电站故障诊断和报警处理等多方面。
这十年间,专家系统的研究不再满足于用现有各种模型与专家系统进行简单结合,形成基于某种模型的专家系统的固有模式。研究者们不断探索更方便、更有效的方法,来解决困扰专家系统的知识获取瓶颈、匹配冲突、组合爆炸等问题,而这也推动了研究不断向深层次、新方向发展。但是,由于专家系统应用的时间长、领域广,他们遭遇的瓶颈问题一时得不到有效解决,导致了这一时期末,专家系统研究呈现出暂时的下滑现象。
5 专家系统发展趋势分析
图一发展曲线上第二个时间节点是1992年,从该年起专家系统相关论文呈下降趋势,然后在2002年又开始缓慢增长,近一年多来又开始下降,这标志着专家系统研究在布满荆棘的道路上前行,前景是光明的,但道路是曲折的。本文以5年为一个单位,统计了1990-2009年20年期间专家系统相关论文中高频词的变化情况,如表1所示,从该表可以获得这个时期专家系统研究的一些特点。
(1)在1990-1999年期间,人工智能出现新的研究,由于网络技术特别是国际互连网技术发展,人工智能开始由单个智能主体研究转向基于网络环境下的分布式人工智能研究,使人工智能更加实用,这给专家系统带来了发展的希望。正因为如此,我们从词频上可以看出,人工智能(artificial intelligence)一词在这十年一直位居前两位,在专家系统研究中处于主导地位,而与其相关的知识表示(knowledge representation)、知识获取(knowledge acquisition)等,也成为了学者们研究的重点方向。
(2)该时期的第二个特点是神经网络研究的复苏。神经网络是通过模拟人脑的结构和工作模式,使机器具有类似人类的智能,如机器学习、知识获取、专家系统等。我们从词频上可以看出神经网络(neural network)一词得以快速增长,1995年时位列第一,进入21世纪也是稳居第二位,神经网络很好地解决了专家系统中知识获取的瓶颈问题,能使专家系统具有自学习能力,它的出现为专家系统提供了一种新的解决途径[6],同时也显示出他独有的生机与活力。
(3)该时期是模糊逻辑的发展时期。模糊理论发展至今已接近三十余年,应用范围非常广泛,它与专家系统相结合,在故障诊断、自然语言处理、自动翻译、地震预测、工业设计等方面取得了众多成果。我们从词频上可以看出,模糊逻辑(fuzzy logic)一词,除在1990-1994年期间位居第六位外,之后都位居前三甲,2000-2004年期间更是位列第一。模糊控制与专家系统技术相结合,进一步提高了模糊控制器智能水平,这种控制方法既保持了基于规则的方法的价值和用模糊集处理带来的灵活性,同时把专家系统技术的表达与利用知识的长处结合起来,能处理更广泛的控制问题。
(4)故障诊断成为专家系统研究与应用的又一重要领域。故障诊断专家系统的发展起始于20世纪70年代末,虽然时间不长,但在电路与数字电子设备、机电设备等各个领域已取得了令人瞩目的成就,已成为当今世界研究的热点之一。这从高频词分布可以开出,故障诊断(fault diagnosis)从1995-1999年间的最后一位攀升至2005-2009年间的第一位,足见其强大的生命力。在专家系统己有较深厚基础的国家中,机械、电子设备的故障诊断专家系统已基本完成了研究和试验的阶段,开始进入广泛应用。
(5)遗传算法的应用逐渐增多。20世纪90年代,遗传算法迎来了发展时期,无论是理论研究还是应用研究都成了十分热门的课题。尤其是遗传算法的应用研究显得格外活跃,不但应用领域扩大,而且利用遗传算法进行优化和规则学习的能力也显著提高。进入21世纪,遗传算法的应用研究已从初期的组合优化求解扩展到了许多更新、更工程化的应用方面。这在高频词分布中可以看出,以2000作为临界点,遗传算法(genetic algorithms)从20世纪90年代的10名之后,到位于高频词前六强之中,充分反映出它发展的良好势头。
6 小 结
专家系统是20世纪下半叶发展起来的重大技术之一,它不仅是高技术的标志,而且有着重大的经济效益。“知识工程之父”E.Feignbaum在对世界许多国家和地区的专家系统应用情况进行调查后指出:几乎所有的ES都至少将人的工作效率提高10倍,有的能提高100倍,甚至300倍[7]。
专家系统技术能够使专家的专长不受时间和空间的限制,以便推广稀缺的专家知识和经验;同时,专家系统能促进各领域的发展,是各领域专家专业知识和经验的总结和提炼。
专家系统发展的近期目标,是建造能用于代替人类高级脑力劳动的专家系统;远期目标是探究人类智能和机器智能的基本原理,研究用自动机模拟人类的思维过程和智能行为,这几乎涉及自然科学和社会科学的所有学科,远远超出了计算机科学的范畴。
随着人工智能应用方法的日渐成熟,专家系统的应用领域也不断扩大。有人类活动的地方,必将有智能技术包括专家系统的应用,专家系统将成为21世纪人类进行智能管理与决策的工具与助手。
参考文献
[1]百度百科[EB].http:∥baike.省略/view/2130.htm.
[2]黄可鸣.专家系统二十年[J].计算机科学,1986,(4):26-37.
[3]路耀华.思维模拟与知识工程[M].北京:清华大学出版社,1997.
[4]赵致琢.专家系统研究[J].贵州大学学报:自然科学版,1990,(6):40-48.
[5]邹光宇.专家系统发展现状及其应用前景[J].电力勘测,1994,(3):21-26.
【关键词】机器人;科学技术;发展;领域;高智能;
1.1智能机器人的定义及分类
智能机器人:以人工智能决定其行动的人。 我国的机器人专家从应用环境出发,将机器人分为两大类,即工业机器人和特种机器人。所谓工业机器人就是面向工业领域的多关节机械手或多自由度机器人。而特种机器人则是除工业机器人之外的、用于非制造业并服务于人类的各种先进机器人,包括:服务机器人、水下机器人、娱乐机器人、军用机器人、农业机器人、机器人化机器等。在特种机器人中,有些分支发展很快,有独立成体系的趋势,如服务机器人、水下机器人、军用机器人、微操作机器人等。目前,国际上的机器人学者,从应用环境出发将机器人也分为两类:制造环境下的工业机器人和非制造环境下的服务与仿人型机器人,这和我国的分类是一致的。空中机器人又叫无人机,近年来在军用机器人家族中,无人机是科研活动最活跃、技术进步最大、研究及采购经费投入最多、实战经验最丰富的领域。80多年来,世界无人机的发展基本上是以美国为主线向前推进的,无论从技术水平还是无人机的种类和数量来看,美国均居世界之首位。
1.2智能机器人的起源与发展
机器人的起源要追溯到3000多年前。“机器人”是存在于多种语言和文字的新造词,它体现了人类长期以来的一种愿望,即创造出一种像人一样的机器或人造人,以便能够代替人去进行各种工作。直到四十多年前,“机器人”才作为专业术语加以引用,然而机器人的概念在人类的想象中却已存在三千多年了。春秋时代(公元前770~前467)后期,被称为木匠祖师爷的鲁班,利用竹子和木料制造出一个木鸟,它能在空中飞行,“三日不下”,这件事在古书《墨经》中有所记载,这可称得上世界第一个空中机器人。
在1920年,原捷克斯洛伐克剧作家卡雷尔·凯培克在他的科幻情节剧《罗萨姆的万能机器人》中,第一次提出了“机器人” (Robot)这个名词,被当成了机器人一词的起源。在捷克语中,Robot这个词是指一个赋役的努力。
20世纪初期,机器人已躁动于人类社会和经济的母胎之中,人们含有几分不安地期待着它的诞生。他们不知道即将问世的机器人将是个宠儿,还是个怪物。针对人类社会对即将问世的机器人的不安,美国著名科学幻想小说家阿西莫夫于1950年在他的小说《我是机器人》中,首先使用了机器人学(Robotics)这个词来描述与机器人有关的科学,并提出了有名的“机器人三守则”:
(1) 机器人必须不危害人类,也不允许他眼看人将受害而袖手旁观;
(2) 机器人必须绝对服从于人类,除非这种服从有害于人类;
(3) 机器人必须保护自身不受伤害,除非为了保护人类或者是人类命令它做出牺牲。
这三条守则,给机器人社会赋以新的伦理性,并使机器人概念通俗化更易于为人类社会所接受。至今,它仍为机器人研究人员、设计制造厂家和用户,提供了十分有意义的指导方针。
1.3我国智能机器人取得的成就
我国是从20世纪80年代开始涉足机器人领域的研究和应用的。1986年,我国开展了“七五”机器人攻关计划,1987年,我国的“863”高技术计划将机器人方面的研究开发列入其中。目前我国从事机器人研究和应用开发的主要是高校及有关科研院所等。最初我国在机器人技术方面研究的主要目的是跟踪国际先进的机器人技术。随后,我国在机器人技术及应用方面取得了很大的成就,主要研究成果有:哈尔滨工业大学研制的两足步行机器人,北京自动化研究所1993年研制的喷涂机器人,1995年完成的高压水切割机器人,沈阳自动化研究所研制完成的有缆深潜300m机器人、无缆深潜机器人、遥控移动作业机器人。