公务员期刊网 精选范文 人工智能神经网络概念范文

人工智能神经网络概念精选(九篇)

前言:一篇好文章的诞生,需要你不断地搜集资料、整理思路,本站小编为你收集了丰富的人工智能神经网络概念主题范文,仅供参考,欢迎阅读并收藏。

人工智能神经网络概念

第1篇:人工智能神经网络概念范文

关键词:人工智能 机器学习 机器人情感获得 发展综述

中图分类号:TP18 文献标识码:A 文章编号:1003-9082 (2017) 04-0234-01

引言

人类自从工业革命结束之后,就已然开始了对人工智能的探索,究其本质,实际上就是对人的思维进行模仿,以此代替人类工作。人工智能的探索最早可以追溯到图灵时期,那时图灵就希望未来的智能系统能够像人一样思考。在20世纪五十年代,人工智能被首次确定为一个新兴的学科,并吸引了大批的学者投入到该领域的研究当中。经过长时间的探索和尝试,人工智能的许多重要基本理论已经形成,如模式识别、特征表示与推理、机器学习的相关理论和算法等等。进入二十一世纪以来,随着深度学习与卷积神经网络的发展,人工智能再一次成为研究热点。人工智能技术与基因过程、纳米科学并列为二十一世纪的三大尖端技术, 并且人工智能涉及的学科多,社会应用广泛,对其原理和本质的理解也更为复杂。 一、人工智能的发展历程

回顾人工智能的产生与发展过程 ,可以将其分为:初期形成阶段,综合发展阶段和应用阶段。

1.初期形成阶段

人工智能这一思想最早的提出是基于对人脑神经元模型的抽象。其早期工作被认为是由美国的神经学家和控制论学者 Warren McCulloch与Walter Pitts共同完成的。在1951年,两名普林斯顿大学的研究生制造出了第一台人工神经元计算机。而其真正作为一个新的概念被提出是在1956年举行的达茅斯会议上。由麦卡锡提议并正式采用了“人工智能”(Artificial Intelligence)砻枋稣庖谎芯咳绾斡没器来模拟人类智能的新兴学科。1969年的国际人工智能联合会议标志着人工智能得到了国际的认可。至此,人工智能这一概念初步形成,也逐渐吸引了从事数学、生物、计算机、神经科学等相关学科的学者参与该领域的研究。

2.综合发展阶段

1.7 7年, 费根鲍姆在第五届国际人工智能联合会议上正式提出了“知识工程”这一概念。而后其对应的专家系统得到发展,许多智能系统纷纷被推出,并应用到了人类生活的方方面面。20世纪80年代以来,专家系统逐步向多技术、多方法的综合集成与多学科、多领域的综合应用型发展。大型专家系统开发采用了多种人工智能语言、多种知识表示方法、多种推理机制和多种控制策略相结合的方式, 并开始运用各种专家系统外壳、专家系统开发工具和专家系统开发环境等等。在专家系统的发展过程中,人工智能得到了较为系统和全面的综合发展,并能够在一些具体的任务中接近甚至超过人类专家的水平。

3.应用阶段

进入二十一世纪以后,由于深度人工神经网络的提出,并在图像分类与识别的任务上远远超过了传统的方法,人工智能掀起了前所未有的。2006年,由加拿大多伦多大学的Geoffery Hinton及其学生在《Science》杂志上发表文章,其中首次提到了深度学习这一思想,实现对数据的分级表达,降低了经典神经网络的训练难度。并随后提出了如深度卷积神经网络(Convolutional Neural Network, CNN),以及区域卷积神经网络(Region-based Convolutional Neural Network, R-CNN),等等新的网络训练结构,使得训练和测试的效率得到大幅提升,识别准确率也显著提高。

二、人工智能核心技术

人工智能由于其涉及的领域较多,内容复杂,因此在不同的应用场景涉及到许多核心技术,这其中如专家系统、机器学习、模式识别、人工神经网络等是最重要也是发展较为完善的几个核心技术。

1.专家系统

专家系统是一类具有专门知识和经验的计算机智能程序系统,通过对人类专家的问题求解能力建模,采用人工智能中的知识表示和知识推理技术来模拟通常由专家才能解决的复杂问题,达到具有与专家同等解决问题能力的水平。对专家系统的研究,是人工智能中开展得较为全面、系统且已经取得广泛应用的技术。许多成熟而先进的专家系统已经被应用在如医疗诊断、地质勘测、文化教育等方面。

2.机器学习

机器学习是一个让计算机在非精确编程下进行活动的科学,也就是机器自己获取知识。起初,机器学习被大量应用在图像识别等学习任务中,后来,机器学习不再限于识别字符、图像中的某个目标,而是将其应用到机器人、基因数据的分析甚至是金融市场的预测中。在机器学习的发展过程中,先后诞生了如凸优化、核方法、支持向量机、Boosting算法等等一系列经典的机器学习方法和理论。机器学习也是人工智能研究中最为重要的核心方向。

3.模式识别

模式识别是研究如何使机器具有感知能力 ,主要研究图像和语音等的识别。其经典算法包括如k-means,主成分分析(PCA),贝叶斯分类器等等。在日常生活各方面以及军事上都有广大的用途。近年来迅速发展起来应用模糊数学模式、人工神经网络模式的方法逐渐取代传统的基于统计学习的识别方法。图形识别方面例如识别各种印刷体和某些手写体文字,识别指纹、癌细胞等技术已经进入实际应用。语音识别主要研究各种语音信号的分类,和自然语言理解等等。模式识别技术是人工智能的一大应用领域,其非常热门的如人脸识别、手势识别等等对人们的生活有着十分直接的影响。

4.人工神经网络

人工神经网络是在研究人脑的结构中得到启发, 试图用大量的处理单元模仿人脑神经系统工程结构和工作机理。而近年来发展的深度卷积神经网络(Convolutional neural networks, CNNs)具有更复杂的网络结构,与经典的机器学习算法相比在大数据的训练下有着更强的特征学习和表达能力。含有多个隐含层的神经网络能够对输入原始数据有更抽象喝更本质的表述,从而有利于解决特征可视化以及分类问题。另外,通过实现“逐层初始化”这一方法,实现对输入数据的分级表达,可以有效降低神经网络的训练难度。目前的神经网络在图像识别任务中取得了十分明显的进展,基于CNN的图像识别技术也一直是学术界与工业界一致追捧的热点。

三、机器人情感获得

1.智能C器人现状

目前智能机器人的研究还主要基于智能控制技术,通过预先定义好的机器人行动规则,编程实现复杂的自动控制,完成机器人的移动过程。而人类进行动作、行为的学习主要是通过模仿及与环境的交互。从这个意义上说,目前智能机器人还不具有类脑的多模态感知及基于感知信息的类脑自主决策能力。在运动机制方面,目前几乎所有的智能机器人都不具备类人的外周神经系统,其灵活性和自适应性与人类运动系统还具有较大差距。

2.机器人情感获得的可能性

人脑是在与外界永不停息的交互中,在高度发达的神经系统的处理下获得情感。智能机器人在不断的机器学习和大数据处理中,中枢处理系统不断地自我更新、升级,便具备了获得情感的可能性及几率。不断地更新、升级的过程类似于生物的进化历程,也就是说,智能机器人有充分的可能性获得与人类同等丰富的情感世界。

3.机器人获得情感的利弊

机器人获得情感在理论可行的情况下,伴之而来的利弊则众说纷纭。一方面,拥有丰富情感世界的机器人可以带来更多人性化的服务,人机合作也可进行地更加深入,可以为人类带来更为逼真的体验和享受。人类或可与智能机器人携手共创一个和谐世界。但是另一方面,在机器人获得情感时,机器人是否能彻底贯彻人类命令及协议的担忧也迎面而来。

4.规避机器人情感获得的风险

规避智能机器人获得情感的风险应预备强制措施。首先要设计完备的智能机器人情感协议,将威胁泯灭于未然。其次,应控制智能机器人的能源获得,以限制其自主活动的能力,杜绝其建立独立体系的可能。最后,要掌控核心武器,必要时强行停止运行、回收、甚至销毁智能机器人。

三、总结

本文梳理了人工智能的发展历程与核心技术,可以毋庸置疑地说,人工智能具有极其广阔的应用前景,但也伴随着极大的风险。回顾其发展历程,我们有理由充分相信,在未来人工智能的技术会不断完善,难题会被攻克。作为世界上最热门的领域之一,在合理有效规避其风险的同时,获得情感的智能机器人会造福人类,并极大地帮助人们的社会生活。

参考文献

[1]韩晔彤.人工智能技术发展及应用研究综述[J].电子制作,2016,(12):95.

[2]曾毅,刘成林,谭铁牛.类脑智能研究的回顾与展望[J].计算机学报,2016,(01):212-222.

[3]张越.人工智能综述:让机器像人类一样思考

第2篇:人工智能神经网络概念范文

计算智能(ComputationalIntelligenee,简称CI),又称软计算,该词于1992年被美国学者J.C.Bezdekek首次提出,1994年全计算智能大会明确提出了计算智能的概念,标志着计算智能作为一门独立学科的诞生。传统的人工智能问题的处理、结论的得出都需要在建立精确的数字模型的基础上才能实现,但现实中有很多的数据都是模糊的,无法建立精确的模型,使得人工智能的应用范围相对狭窄,而计算智能则突破了人工智能的瓶颈,以模型为基础,模拟人的理论与方法,只需要直接输入数据,系统就可以对数据进行处理,应用范围更加的广泛。计算智能的本质是一类准元算法,主要包括进化计算,人工神经网络、模糊计算、混沌计算、细胞自动机等,其中以进化计算、人工神经网络及模糊系统为典型代表。

1.1进化计算

进化计算是采用简单的编码技术来表示各种复杂的结构,并通过遗传操作和优胜劣汰的自然选择来指导学习和确定搜索的方向,具有操作简单、通用性强、效率高的优点,其工作原理是通过种群的方式进行计算,借助生物进化的思想来解决问题,分为遗传算法、进化规划及进化策略三大类。

1.2人工神经网络

人工神经网络是一个高度复杂的非线性动力学系统,具有模糊推理、并行处理、自训练学习等优势,其工作原理是仿照生物神经网络处理信息方式,通过不同的算法和结构,将简单的人工神经细胞相互连接,通过大量的人工神经单元来同时进行信息的传播,并将信息储存在改革细胞单元的连接结构中,快速地得到期望的计算结构。生物神经网络的细胞是在不断的生成和更新着的,即部分细胞坏死,整个神经网络仍能维持正常的运转秩序而不会骤然崩溃,同样人工神经网络也有着这样的特性,即使部分神经细胞发生问题,整个网络也能够正常的运转。人工神经网络按照连接方式的不同分为前馈式网络与反馈式网络,前馈式网络结构中的神经元是单层排列的,分为输入层、隐藏层及输出层三层,信息的传播是单向的,每个神经元只与前一层的神经元相连,即信息只能由输出层传向隐藏层再传向输入层,而不能由输出层直接传向输入层;反馈式网络结构中每个人工神经细胞都是一个计算单元,在接受信息输入的同时还在向外界输出着信息。不同的行业和领域可以根据自身的需要将不同的网络结构和学习方法相结合,建立不同的人工神经网络模型,实现不同的研究目的。

1.3模糊系统

客观世界中的事物都具有不同程度的不确定性,如生活中的“穷与富”、美与丑”“、相关与不相关”无法用一个界线划分清楚,对于事物不确定研究的过程中产生了模糊数学,所谓模糊性是指客观事物差异的中间过渡中的“不分明性”。美国专家L.A.Zdahe教授首次运用了数学方法描述模糊概念,自此之后模糊数学形成了一个新的学科,并在世界范围内发展起来,在医学、农业等方面得到了应用。

2计算智能在机械制造中的应用

机械制造业是国民经济的基础产业,机械制造业的发展对于促进工业生产领域的发展,保持经济稳步增长,满足人们日常生活的需求,提高人们的生活质量有着重要意义。一个国家机械制造业水平的高低是衡量该国工业化程度的重要指标。由于研究角度的不同,机械制造业有着不同的分类,如国家统计局将机械制造行业分为通用设备、专用设备、交通运输设备、电气设备、仪器仪表及办公设备五大类,证券市场将机械制造行业分为机械、汽车及配件、电气设备三大子行业。根据调查显示,2013年我国制造业产值规模突破20万亿元,同比增长17.5%,产值占世界比重的19.8%,经济总量位居世界首位,利润4312.6亿元,增长0.33%,增加值累计同比增长10.4%。随着计算智能研究的深入,计算智能在机械制造中得到了应用。伴随着机械行业的飞速发展,各类生产安全事故也时有发生。造成安全事故的原因是多方面的,首先是操作人员安全意识淡薄;其次是企业的安全管理和监督缺失,我国相当多的机械制造企业不重视劳动安全卫生方面的数据统计和资料积累,为了追求最大利润在安全生产方面投入的资金过少,缺乏对员工开展安全教育的培训。建立科学的安全生产评价方式对于防止各类安全事故,提高安全效益有着积极意义。人工智能的安全评价方法以线性函数为基础,而安全生产评价体系是一个复杂的系统,涉及的内容繁杂,需要考虑的因素很多,存在很大的不确定性,导致得到的结论与实际现场常常不能一致,计算智能以选择非线性函数建立安全生产评价模型,实现对非线性函数关系的拟合,解决了这一难题。在机械制造中存在着大量的模糊信息,如机械设备的损耗、零件设计目标等信息都是用比较模糊的术语来表达,传统的人工智能进行新的零件生产制造时,设计人员对零件进行设计,确定零件的尺寸,然后试生产零件应用在设备中,如不符合要求,再进行调整,这就要求设计人员有着丰富的知识和实践经验,能够根据需要设计出适合的零件,而计算智能以系统论作为基础的,对选择的自变量进行适当的优化和控制,只需要设计人员将零件的形状、大小、作用等输入计算机,并对零件制造的程序编排,利用计算机确定零件的制造技术,同时控制零件的质量,使零件设计、制造的过程更加便捷。

3结语

第3篇:人工智能神经网络概念范文

关键词:物联网;LS-SVM;数据模型

中图分类号:TP393

文献标识码:A

文章编号:1009-3044(2017)10-0145-02

1.引言

前神经网络(feedforwardneuralnetwork),简称前馈网络,是人工神经网络的一种。

2.概念相关概述

2.1前馈人工神经网络现实基础模型

首先,生物神经元模型。人的大脑中有众多神经元,而神经元之间需要神经突触连接,进而构成了复杂有序的神经网络。而神经元主要由树突、轴突和细胞体组成。一个神经元有一个细胞体和轴突,但是却有很多树突。树突是神经元的输入端,用于接受信息,并向细胞体财团对信息。而细胞体是神经元的信息处理中心,能够对信号进行处理。轴突相当于信息输出端口,负责向下一个神经元传递信息;其次,人工神经元。人工神经元的信息处理能力十分有限,但是,由众多人工神经元构成的神经网络系统庞大,具有巨大的潜力,能够解决复杂问题。人工神经网络与生物神经网络具有相似之处,人工神经网络能够从环境中获取知识,并存储信息。前馈人工神经网络主要包括隐含层、输入层和输出层。在前馈人工神经网络中,神经元将信号进行非线性转换之后,将信号传递给下一层,信息传播是单向的。并且,前馈人工神经网络是人们应用最多的网络模型,常见的有BP神经网络、单层感知器、RBF神经网络等模型。

2.2 LS-SVM相关概述

支撑向量机是一种基于统计学习理论的机器学习方法,能够根据样本信息进行非现象映射,解回归问题的高度非现象问题。并且,支撑向量机在解决非线性、局部极小点方问题上有很大的优势。LS-SVM也叫最小二乘支撑向量机,是支撑向量机的一种,遵循支撑向量机算法的结构风险最小化的原则,能够将支撑向量机算法中的不等式约束改为等式约束,进而将二次问题转换为线性方程问题,大大降低了计算的复杂性。并且,LS-SVM在运算速度上远远高于支持向量机。但是,LS-SVM也存在一定的缺点,在计算的过程中,LS-SVM的忽视了全局最优,只能实现局部最优。并且,LS-SVM在处理噪声污染严重的样本时,会将所有的干扰信息都拟合到模型系统中,导致模型的鲁棒性降低。另外,LS-SVM的在线建模算法、特征提取方法以及LS-SVM的支持向量稀疏性都有待改进。

2.3物联网下人工神经网络前馈LS-SVM研究的意义

物联网是互联网技术的发展趋势,为前馈人工神经网络的发展与LS-SVM研究提供了技术保障,在物联网背景下,研究人工神经网络前馈LS-SVM不仅能够创新人工神经网络的计算方法,完善人工神经网络在现实生活中的应用,而且对人们生活的自动化和智能化发展有着重要意义。另外,物联网为人们对LS-SVM的研究提供了条件,在物联网环境下,人们能够运用信息技术深化最小二乘支撑向量机研究,不断提高LS-SVM回归模型的鲁棒性,改进LS-SVM的特征提取方法和在线建模算法,完善计算机学习方法,提升计算机的运算速度。3基于LS―SVM的丢包数据模型

在选择的参数的基础上,运用IS-SVM方法,建立评估模型。本文选用LS-SVM回归方法的原因,SVM优于神经网络的方法主要是以下几点:

首先,了解数据挖掘,数据挖掘前景广阔,SVM是数据挖掘中的新方法。其次,选择合适的数据分析方法根据数据集的大小和特征。小样本训练适合SVM,样本大情况的训练适宜神经网络,这里用SVM。

然后,就是文献使用SVM和PCA建立跨层的评估QOE,实验结果表明主观MOS评分和此评价结果具有很好的一致性。

最后,本文采用SVM基础上的进一步拔高,LS-SVM,比SVM运行快,精确度高。srcl3_hrcl_525.yuv实验素材的特征是具有高清性质。525序列60HZ,帧大小为1440x486字节/帧,625序列50HZ,大小同上。YUV格式是422格式即4:2:2格式的。

时域复杂度的模型如下,视频的时域复杂度σ;编码量化参数是Q;编码速率为R;待定模型的参数为a和b。σ=Q(aR+b)。通过大量的实验和理论分析,得到模型的参数:a=l 260,b=0.003。其中,编码速率和帧率可以看作是视频的固有属性。高清视频编码速率R是512kb/s,最大帧速率为30000/1001=29.97幅,秒。量化参数是根据实验的具体情况确定的。计算σ的值如下所示:当量化参数为31时,σ=19998720.1,当量化参数为10时,σ=6451200.03,当量化参数为5时,σ=3225600.02,当量化参数为62时,σ=39997440.2,当量化参数为100时,σ=64512000.3,当量化参数为200时,σ=129024001,当量化参数为255时,σ=164505601。

对于srcl3网络环境建立考虑网络丢包的视频质量无参评估模型使用LS-SVM方法。

(1)输入x的值。XI是量化参数,X2封包遗失率,X3单工链路速度,X4双工链路速度,X5视频的时域复杂度。等权的参数。

LS-SVM要求调用的参数只有两个gam和sig2并且他们是LS-SVM的参数,其中决定适应误差的最小化和平滑程度的正则化参数是gam,RBF函数的参数是sig2。Type有两种类型,一种是elassfieation用于分类的,一种是function estimation用于函数回归的。

4.机器学习和物联网的结合

物联网中也用到人工智能,人工智能中有机器学习,机器学习中有神经网络。机器学习是人工智能研究的核心问题之一,也是当前人工智能研究的一个热门方向。

第4篇:人工智能神经网络概念范文

关键词: 机器学习 人工智能 基本模型

1.引言

“机器学习”是人工智能的重要研究领域之一。机器学习的定义是“系统通过积累经验而改善系统自身的性能”。通俗地说,就是让机器去学习,利用学到的知识来指导下一步的判断。最初研究机器学习,是让计算机具有学习的能力,以实现智能化。因为人们认为具有人工智能的系统首先必须具有学习能力。机器学习的研究始于神经元模型研究,此后又经历了符号概念获取、知识强化学习研究阶段,至今已发展到连接学习和混合型学习研究阶段。

2.机器学习系统的基本模型

根据机器学习的定义,建立如图1所示的机器学习基本模型。

模型中包含学习系统的四个基本组成环节。

环境和知识库是以某种知识表示形式表达的信息的集合,分别代表外界信息来源和系统具有的知识。学习环节和执行环节代表两个过程。学习环节处理环境提供的信息,以便改善知识库中的知识。执行环节是整个机器学习系统的核心。利用知识库中的知识来完成某种任务,并把执行中获得的信息送还给学习环节。

2.1机器学习的分类

很多学者从不同的角度对机器学习进行了分类,这里简单阐述一下继续学习策略的机器学习的种类。按照学习策略的不同,机器学习分为机械学习、归纳学习、基于解释的学习、基于神经网络的学习和基于遗传算法的学习。

2.1.1机械学习

机械学习(Rote Learning)就是“死记硬背式的学习”,靠记忆存储知识,需要时检索已经存下来的知识使用,不需要计算和推理。机械学习的模式如下:需要解决的问题为{y,y,...,yn},输入已知信息{x,x,...x}后,解决了该问题,于是将记录对{{x,x,...,x},{y,y,...,y}}存入数据库,以后当遇到问{y,y,...,y}时,检索数据库,即可得到问题{y,y,...,y}的解答是{x,x,...,x}。

能实现机械式学习算法的系统只需具备两种基本技能:记忆与检索。此外,存储的合理安排,信息的合理结合,以及检索最优方向的控制也是系统应该考虑的问题。该算法简单、容易实现、计算快速,但是由于系统不具备归纳推理的功能,对每个不同的问题,即使是类似的问题,也需要知识库中有不同的记录。因此占用大量的存储空间,这是典型的以空间换时间的算法。

2.1.2归纳学习

归纳学习是应用归纳推理进行学习的一种方法。归纳学习的过程是由特殊实例推导出一般情况的过程,这样就使类似的问题可以利用同样的方法求解。归纳学习的过程就是示例空间与规则空间的相互利用与反馈。1974年,Simon和Lea提出了双空间模型,形象地对这一执行过程进行了描述,如图2所示。

归纳学习算法简单,节省存储空间,在一段时间内得到了广泛的应用。在应用过程中,该算法逐渐显现出它的缺点:(1)归纳结论是通过对大量的实例分析得出的,这就要求结论的得出要有大量实例作支撑,而这在许多领域都是无法满足的。(2)归纳结论是由不完全训练集得出的,因而其正确性无法保证,只能使结论以一定概率成立。(3)该算法通过对实例的分析与对比得出结论,对于信息的重要性与相关关系无法辨别。

2.1.3基于解释的学习

基于解释的学习(Explanation-Based Learning)是运用已知相关领域的知识及训练实例,对某个目标概念进行学习,并通过后继的不断练习,得到目标概念的一般化描述。该学习的执行过程如图3所示。

这种方式的学习得到一个领域完善的知识往往是比较困难的,这就对该算法提出了更高的要求。为解决知识不完善领域的问题,有以下两个研究方向[2]:(1)改进该算法使其在不完善的领域理论中依然有效。(2)扩充该领域的知识使其拥有更强的解释能力。通常情况下,第二种改进方法更重要些。

2.1.4基于神经网络的学习

神经网络是由许多类似神经元的节点和它们之间带权的连接组成的复杂网络结构,是为模仿人类大脑的复杂神经结构而建立起来的抽象数据模型,希望相似的拓扑结构可以使机器像人脑一样进行数据的分析、存储与使用。神经网络学习的过程就是不断修正连接权的过程。在网络的使用过程中,对于特定的输入模式,神经网络通过前向计算,产生一个输出模式,并得到节点代表的逻辑概念,通过对输出信号的比较与分析可以得到特定解。在整个过程中,神经元之间具有一定的冗余性,且允许输入模式偏离学习样本,因此神经网络的计算行为具有良好的并行分布、容错和抗噪能力。

神经网络学习算法是一种仿真算法,拥有良好的认识模拟能力和有高度的并行分布式处理能力。但神经网络模型及其参数设置难以确定,需要长时间的试验摸索过程。并且,对于最后得到的神经网络,其反映的知识往往难以让人理解。为解决这些问题,构造神经网络集成并从神经网络或神经网络集成中抽取规则成为当前研究的热点。

2.1.5基于遗传算法的学习

遗传算法以自然进化和遗传学为基础,通过模拟自然界中生物的繁殖与进化过程,使训练结果逐渐优化。与遗传过程类似,在学习过程中,通过选择最好结果并使其组合产生下一代,使“优秀的遗传因子”逐代积累,最后得到最优的解。遗传算法解决了神经网络学习中的一个缺点,它不需要知道原始信息而只需知道学习的目的即可进行,具有很强的并行计算能力和适应能力。此外,遗传算法采取的随机搜索方法提高了该学习算法对全局搜索的能力。遗传算法的缺点主要体现在三个方面:无法确定最终解的全局最优性;无法控制遗传过程中变异的方向;无法有效地确定进化终止条件。基于这三个缺点,有人提出了遗传算法与其他学习算法的结合,优点互补已达到更好的效果。

3.结语

机器学习在过去十几年中取得了飞速的发展,目前已经成为子领域众多、内涵非常丰富的学科领域。“更多、更好地解决实际问题”成为机器学习发展的驱动力。事实上,过去若干年中出现的很多新的研究方向,例如半监督学习、代价敏感学习等,都起源于实际应用中抽象出来的问题,而机器学习的研究进展,也很快就在众多应用领域中发挥作用。机器学习正在逐渐成为基础性、透明化、无处不在的支持技术、服务技术。

参考文献:

[1]周志华.机器学习与数据挖掘[J].

第5篇:人工智能神经网络概念范文

【关键词】人工神经网络;教育资源;管理系统

【中图分类号】G40-057 【文献标识码】A 【论文编号】1009―8097(2009)07―0120―04

教育资源是信息化教学的基础。随着教育信息化的深层次推进,互联网中的信息资源以指数方式增长,这些资源不仅在内容上多种多样,在表现形式上更是丰富多彩。它对教育领域的冲击与渗透使得网络教育资源的利用受到重视,并随之出现了新型教学模式,如:基于资源的自主探索式学习和协作学习等。然而海量的网络教育资源既为教育带来了强大的服务功能,也为资源的建设与管理带来了新的挑战。教育资源具有数据量大、形式多样、针对性强、教育性强等诸多特点,如何将分散、无序的资源整合起来,使“用户能方便、高效地将其利用于自己的学习和工作之中,并在大范围内实现共享是网络教育资源建设者必须慎重面对的问题。”[1]

一 教育资源管理面临的问题

随着信息资源飞速增长,对教育资源管理的要求也更加苛刻。而网络环境的复杂给教育资源的管理带来许多不确定性。

1 教育资源管理系统在网络过载,受到攻击的情况下很容易崩溃。系统一旦崩溃,所有辛辛苦苦积累起来的资料化为乌有,资源的开发利用和共享无从谈起。目前“教育资源管理系统在输入错误、磁盘故障、网络过载或有意攻击情况下,很容易死机和崩溃。”[2]而鲁棒性(robustness)的大小是在异常和危险情况下系统生存的关键,代表了系统健壮与否。简而言之,系统的鲁棒性有待加强。

2 教育资源管理系统需要连续不断地吸收新的教育资源。向用户提供可靠的信息输出。但是在发生故障时,教育资源管理系统容易停止工作,给用户带来较大的损失。而容错性(Fault Tolerance)是指在故障存在的情况下管理系统不失效,仍然能够正常工作的特性。很明显,管理系统的容错性较差,犹如一个经常断电的供电站,给广大用户带来不必要的烦恼与损失。

3 教育资源的扩张速度极快,对海量教育资源的分类显得越来越困难。原先的人为分类跟不上信息传递的频率,导致很难在较短的时间内找到用户迫切需要的资料,浪费用户的时间,也给教育资源的进一步推广使用带来障碍。

二 人工神经网络的特点

人工智能(Artificial Intelligence)是探讨人类智能的基本机理,研究如何利用各种自动机来模拟人的某些思维过程和智能行为,从而构造智能人工制品的科学。

人类对人工智能的研究可以分成两种方式,对应着两种不同的技术:基于心理角度模拟的传统人工智能技术和基于生理角度模拟的人工神经网络技术。从人脑的生理结构来观察,人脑的每个神经元大约有103~4个树突及相应的突触,一个人的大脑总计约形成1014~15个突触。用神经网络的术语来说,即是人脑具有1014~15个互相连接的存储潜力。虽然每个神经元的运算功能十分简单,且信号传输速率也较低(大约100次/秒),但由于各神经元之间的极度并行互连功能,最终使得一个普通人的大脑在约1秒内就能完成现行计算机至少需要数10亿次处理步骤才能完成的任务。根据人脑的生理特点,人工神经网络(Artificial Neural Networks,ANN)是由大量并行分布的单元广泛互连而成,通过各组成部分非同步化的变换,实现信息的整体处理任务,它的这一结构特点决定着人工神经网络具有高速信息处理的能力。它实质上是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。其“工作原理是通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。” [3]所以它具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入――输出数据,分析掌握两者之间潜在的规律,最终根据这些规律,用新的输入数据来推算输出结果。

人工神经网络中神经元处理单元可表示不同的对象,例如特征、字母、概念,或者一些有意义的抽象模式。网络中处理单元的类型分为三类:输入单元、输出单元和隐单元。输入单元接受外部世界的信号与数据;输出单元实现系统处理结果的输出;隐单元是处在输入和输出单元之间,不能由系统外部观察的单元。神经元间的连接权值反映了单元间的连接强度,“信息的表示和处理体现在网络处理单元的连接关系中。”[4]人工神经网络的本质是通过网络的变换和动力学行为得到一种并行分布式的信息处理功能,并在不同程度和层次上模仿人脑神经系统的信息处理功能。正因为这个重要特征,“人工神经网络采用了与传统人工智能技术完全不同的机理,克服了传统的基于逻辑符号的人工智能在处理直觉、非结构化信息方面的缺陷,具有自适应、自组织和实时学习的特点。”[5]它与专家系统的最大区别是,专家系统属于人类智能的功能模拟,而人工神经网络则偏重走结构模拟的路子。与其它智能系统相比,人工神经网络具有以下特点:

1 学习能力:学习能力是神经网络具有智能的重要表现,即通过训练可抽象出训练样本的主要特征,表现出强大的自适应能力。例如实现图像识别时,只有先把许多不同的图像样板和对应的应识别的结果输入人工神经网络,网络就会通过自学习功能,慢慢学会识别类似的图像。

2 分布式结构:人工神经网络力图“体现大脑的分布式并行计算和非线性等特征,依此而建构的网络是一种具有大量连接的并行分布式处理器。”[6]具有通过学习获取知识并解决问题的能力,且知识是分布存储在与大脑神经元突触相类似的连接的权重中。在传统的串行体系计算机中信息分布在独立的存储单元中,而在神经网络中,信息则分散在神经元的连接上。神经网络的信息分布特性,使之具有强大的容错能力和记忆联想能力。信息的分布存储提供容错功能。由于信息被分布存放在几乎整个网络中,所以,“当其中的某一个点或者某几个点被破坏时,信息仍然可以被存取。系统在受到局部损伤时还可以正常工作。”[5]

3 并行处理:神经网络主要是对人脑的结构模拟。各种神经元在处理信息时是独立完成的,不同神经元之间具有并行性,这种并行处理使得信息处理速度大大加快。信息处理方式由原来冯•诺依曼设计的串行处理变为对信息并行处理。

三 人工神经网络应用于教育技术资源的管理之中

将网络布线由原来的星型布线转向神经网络布线方式。应用神经网络软件,网络采用分布式结构,信息采用统一并行处理的方式处理,从而加强了网络的鲁棒性、容错性。同时发挥神经网络的自学习能力,对待不同的信息资源进行模式分类。神经网络模型考虑采用目前比较成熟的误差反向传播网(BP神经网络)。教育资源分类考虑设计关键词进行训练,同时设立样本训练方法,用BP算法对该网络进行训练。训练结束之后,神经网络就可以作为教育资源分类器来进行使用。

BP(Back propagation反向传播)网络又称误差信号反馈网络,是神经网络中使用最广泛的一类。它是一种有教师的学习网络,能够实现从N维到M维的非线性映射,采用梯度下降法实现快速收敛。BP神经网络采用的是并行网格结构,包括输入层、隐含层和输出层,经作用函数后,再把隐节点的输出信号传递到输出节点,最后给出输出结果。由图1可见各层次的神经元之间形成全互连连接,各层次内的神经元之间没有连接。

该算法的学习过程由信息的前向传播和误差的反向传播组成。在前向传播的过程中,输入信息从输入层经隐含层逐层处理,并传向输出层。第一层神经元的状态只影响下一层神经元的状态。如果在输出层得不到期望的输出结果,则转入反向传播,将误差信号(目标值与网络输出之差)沿原来的连接通道返回,通过修改各层神经元权值,使得误差均方最小。神经网络理论已经证明“BP网络具有强大的非线性映射能力和泛化功能,任一连续函数或映射均可采用三层网络加以实现。”[3]

其BP神经网络模型设计方案如下:输入层、隐含层、输出层。输入层与外界的信息来源渠道紧密相连,称之为接受信息的服务器。隐含层包含若干个存储器,代表若干个知识单元。存储器需要具备输入输出渠道,具备自学习能力,可以接受外界信息,也可以传送信息。输出层由传送信息的服务器组成。输出层接受到隐含层传来的信息之后,根据用户要求传送相关信息。层间联接根据模型设计方案来铺设。神经网络中的每一个节点,无论其在输入层、隐含层、输出层上,每台计算机上必须有相应的神经元器件,以便网络进行自学与联想记忆。BP神经网络管理系统的硬件实现。是将协处理器插入标准计算机中,通过运行神经网络软件包,以实现神经网络的硬件功能,可以使神经网络在任何计算机硬件和软件环境中得到所需要的教育资源处理能力。其设计的模型具有如下特点:

1 教育资源并行分布方式处理:在神经网络中教育资源是分布储存和并行处理的,即神经网络把教育资源分布地存储在神经元之间的连接强度上,而且对教育资源的处理是由网络中神经元集体完成的。在BP神经网络中,教育资源的存储表现为神经元之间分布式的物理联系,它分散地表示和存储于整个网络内的各神经元及其连线上。每个神经元及其连线只表示一部分教育资源,而不是一个完整具体概念。只有通过各神经元的分布式综合效果才能表达出特定的概念和知识。由于人工神经网络中神经元个数众多以及整个网络存储容量的巨大,使得它具有很强的不确定性处理能力。即使输入教育资源不完全、不准确或模糊不清,神经网络仍然能够联想思维持在于记忆中事物的完整图像。只要输入的模式接近于训练样本,系统就能给出正确的推理结论。

2 鲁棒性与容错性比较强:人工神经网络的结构特点和其信息存储的分布式特点,使得它相对于其它的判断识别系统如专家系统等,具有另一个显著的优点健壮性。当一个人的大脑因意外事故受轻微损伤之后,并不会失去原有事物的全部记忆。人工神经网络不会因为个别神经元的损失(网络过载、停电、突发故障)而失去对原有模式的记忆(管理功能)。另外“即使是突发事件,暂时使网络的硬件实现还是软件实现中的某个或某些神经元失效,整个网络仍然能继续工作。”[7]BP神经网络是一种非线性的处理系统。只有当神经元对所有的输入信号的综合处理结果超过某一阈值后才输出一个信号。因此神经网络是一种具有高度非线性的超大规模连续时间动力学系统,可以实现对教育资源不间断、长时间的持续管理。它突破了传统管理系统的局限,标志着教育资源管理能力的较大提升。因而神经网络具有极强的鲁棒性与容错性,有联想记忆抽象概括和自适应能力。

3 具有自学习和自适应能力:神经网络抽象概括和自适应能力称之为自学习能力,自学习是神经网络中最重要的特征。通过学习,网络能够获得教育资源的分类知识,适应环境。在训练时,能从输入、输出的数据中提取出规律性的分类知识,记忆于网络的权值中。并具有泛化能力,即将这组权值应用于一般教育资源分类的能力。另外,BP神经网络的分类能力学习也可以在线进行。

以教育学院教育技术学资源管理为例,输入层由两台高性能的服务器组成,中间设七个知识单元,输出由两台输出服务器组成。隐层的七个神经元分别为计算机软件资源室、课堂教学资源室、“影视创作资源室、计算机教育应用资源室、网络技术资源室、传统教学资源室、传统媒体使用资源室。”[8]模型图如图2所示:

教育技术学资源管理系统一种可编程的动力系统,其存贮、加工和提取教育资源均是可编程的。输入层负责对教育技术学的相关教育资源进行筛选比较,然后根据学习后的分类能力对资源予以分类,将所有的教育技术资源分布式存储在隐层的各神经元中,需要处理时根据用户需要,从各个神经元中取出信息并行处理,输出到输出服务器中,提供给用户。用户可以将用户要求直接给输出处理平台,传递给输出层后,由输出层将用户要求反馈给中间隐层。也可以将要求送给输入处理平台,传递给输入层,进行筛选之后将信息传送给中间隐层。即使系统突然面临网络过载问题,由于存储是分布式的,可以很容易地将信息资源分配下去。即使突然停电,由于相关资源已经存储完毕,损失微乎其微。系统的鲁棒性大大加强。同时如果系统发生突然故障,由于输入渠道有两条,所以可以很轻松地用另一个服务器处理。输出处理时也是如此。因此系统的容错性也得到提高。至于模式分类,则需要较长时间的训练和大量的样本。一旦BP神经网络模型训练完毕,日后教育技术学资源分类就显得十分轻松。只需将关键词输入准确,便可以进入相应的知识单元存储起来。处理信息时,根据用户需要,有不少不同类别的资源需要统筹规划、联合利用,才能得到用户需要的结果。这儿就可以充分发挥神经网络并行处理的特点,有条不紊地对信息加以处理。其总体示意图如图3所示:

四 结语

教育信息化的核心问题是教育资源的应用和管理。神经网络式的教育资源管理系统把教育资源存储、教育资源管理、教育资源分类、教育资源动态升级四大特色功能进行整合,全面突破了“当前基础教育信息化过程中的应用‘瓶颈’。” [9]其最大的特点就是突出了教育资源的管理功能,通过以一个统一管理平台为核心的方式,对各类教育资源进行优化、整合,改善了以往教育资源管理从单一功能角度进行设计,各功能之间不能相互结合,造成资源管理困难和资源互不兼容的问题,实现了教育资源的价值最大化。值得注意的是,由于管理系统采用神经网络的结构特点进行设计,其鲁棒性、容错性和模式分类能力较强,较之传统教育资源管理方式比较起来,不仅提取和输入变得十分简单,而且对大量资源的分类式识别也大大加快,提高了管理效率。分布式存储提高了教育资源的存储容量,而“并行式处理又加大了教育资源的处理速度,同时系统在应付突发事件和网络攻击方面,应变能力大大增强,”[10]其可靠性与可用性也有突破性的提高。同时,在教育资源管理过程中,系统能抓住教育资源应用与管理过程中的关键问题,关注用户的反馈,即时更新教育资源,加强了教育资源的建设,为教育信息化的持续发展提供了有力的保障。

参考文献

[1] 余胜泉,朱凌云.教育资源建设技术规范体系结构与应用模式[J].中国电化教育,2006,(3):58-59.

[2] 穆肃.校本学科教学资源库的设计和实现[J].中国电化教育,2004,(1):56-61.

[3] 周志华著.神经网络及其应用(第1版)[M].北京:清华大学出版社,2004.

[4] 张广莹,徐丽娜,邓正隆.“神经网络控制”CAI课件研制中的几个问题[J].现代教育技术,1997,(2):32-33.

[5] 韩立群著.人工神经网络理论设计及应用(第1版)[M].北京:化学工业出版社,2002.

[6] 陶剑文.一种分布式智能推荐系统的设计[J].计算机工程,2007,(15):207-208.

[7] 王国旗,张辛亥,肖.采用前向多层神经网络预测煤的自然发火期[J].湖南科技大学学报(自科版),2008,(2):20-22.

[8] 茹洪丽.教育技术学课程设置问题探略[J].电化教育研究,2005,(12):38-41.

第6篇:人工智能神经网络概念范文

人工智能能取代人类传统的会计工作吗?会计业内不少人以为,人工智能只能辅助会计人员进行会计核算及财务决策,不能独立进行复杂的财务判断和决策工作,认为其至少无法取代现在高端的决策工作。但若认真了解人工智能的发展趋势,就会知道其所能做的会计工作远比大家想象的要多。

2017年2月4日,世界围棋排名第二的人工智能机器人AlphaGo,被剔出排名。原因是Alpha Go再以“Master”之名,横扫当前世界最顶级高手,创造60胜0负的佳绩,围棋上人类已经缴械投降了。更重要的是AlphaGo的“智能”模仿了人类大脑的神经网络,具有高效的“深度学习”能力,已经具备自我学习和预测未知的能力。下面本文就简介一下其工作原理,揭开这种“智能”的神秘面纱。

二、现代人工智能原理及应用

人工智能(Artificial Intelligence,简称AI)能以人类智能相似的方式对环境做出反应,包括对人类自然语言的识别与意义的理解,可以对图像和影像中的物体精确识别等,还可以模拟人的学习、推理、思考、规划、预测等思维过程和智能行为。

1.AI原理简介

(1)大脑生物神经网络工作原理

脑神经科学家通过研究发现,人脑大约有1011个神经元(神经细胞),并分为多个层。每个神经元上有103~105个神经突触。每个神经元通过突触与其它神经元进行连接和信息传递,构成一个强大、复杂的神经网络。当突触接收到的信号强度超过某个阈值,神经元将由静止状态变激活(通电),再通过突触以电脉冲向上层神经元发送激活信号。层越多、连接越复杂,信息的抽象处理能力和智力越高。

大脑对于事物和概念的记忆,并非存储在某个固定位置,而是像全息照片一样,分布式地存储在一个复杂的神经网络里。一个概念可以用多个神经元共同定义表示,一个神经元也可以参与多个概念的表示。例如,“大黄狗”如果分布式地表示就是,一个神经元表示大小,另一个神经元表示颜色,第三个神经元表示抽象的狗。当视觉或听觉将三个神经元同时激活并与记忆中的数据概念匹配时,就知道是“大黄狗”。人类就是通过大脑特定区域神经元之间的相互激活与协同工作,高效完成各种智力工作的。

(2)AI对信息进行智能化处理的方式

一种是传统 “专家系统”人工智能,此方法基于逻辑符号,大量使用“如果-就”(If-Then)判断规则,进行线性逻辑推理,这种人工智能方式适合处理线性、结构化数据,但不适合处理直觉、模糊判断及非结构化数据。

另一种人工智能系统,是模仿人的生物神经网络工作原理,分布式表征,模仿人类大脑处理信息。这种AI系统适合处理图像、影像、声音等分布式非结构化数据,,特别是海量的大数据,一般都是分布式数据结构。例如,视频采集的动态数据中,判断一个飞行的物体是麻雀还是老鹰,或者飞机,对这样海量数据的处理,传统“专家系统”AI就无能为力了。而人工神经网络智能系统,就可以高效处理这些非结构化分布式数据信息。更为重要的是人工神经网络AI,可以像人一样自我学习,非监督学习,甚至预测学习。

目前的机器人工智能系统往往是把这两种AI系统结合起来,互相取长补短。

2.AI应用现状

为了让读者更清楚了解AI对会计工作的冲击,了解哪些工作将被机器人取代,下面介绍几个AI典型应用,进一步了解其??用领域。

(1)“深度学习”在棋类中的应用

在棋类博弈中,围棋的变化数最多,达到10170。与过去战胜国际象棋冠军的“深蓝”所不同,AlphaGo若想用穷举法“暴力”计算出每步棋的最佳落子来与人类对弈,是根本不可能的。其采用的是人工神经网络的“深度学习”,自己和自己对弈上千万盘棋,用非监督学习的方法提高对弈水平。在海量的可能中,每步棋并非找最佳落子,而是找出胜率最高的走法。AlphaGo 1.0主要通过训练学习人类棋谱而战胜韩国选手李世石。而横扫围棋界的AlphaGo2.0(Master)已经抛弃人类的棋谱,创造出自己的走法。AI已经具有通过自我学习进行独立判断的能力。

(2)在图形和语音识别方面应用

Google旗下的DeepMind通过强化学习、无监督学习,让AI仅使用屏幕上的像素和游戏分数作为输入,从头学玩游戏,最终在其中29种游戏中达到或超过了人类水平,可见AI能通过自我学习,对未知领域进行预测、决策。

2015年的ImageNet竞赛上,一个深度学习系统以96%的图像识别准确率,第一次超过了人类。目前百度公司已经能将人脸识别准确率提高到99.77%。百度基于深度学习研发的语音系统识别准确率可达到97%,接近人类水平。现在的语音翻译也达到接近人类翻译的水平。高效精确的图形、影像、语音识别技术,将使未来AI机器人具有强大的与人交流信息的能力。

(3)手写数字和文字识别方面应用

早在上世纪90年代,贝尔实验室开发出来的AI系统,识别手写的数字和文字就能达到商用级识别精度,被企业用来识别信封上的手写邮政编码及支票上面的手写数字。现在的识别准确度完全可以与人类媲美。AI能识别出手写的、不规范的会计原始单据,甚至可以通过大数据样本的“深度学习”,对发生的经济业务、会计事项做出准确判断归类。

此外,AI还能代替医生诊断病人,做记者写报道,甚至写小说、绘画、作诗、作曲等。自动写出会计报告更不是问题。

三、AI对会计工作的影响及对会计人员的冲击

通过以上对AI应用的分析可知,其远不止辅助会计人员做账、分析、决策功能,更不是传统会计电算化的升级版。大有对传统会计人员的工作取而代之的趋势。会计工作具有程序化、规范化、原则性强的特点,而这些正是计算机所擅长。下面就从会计工作和会计人员这两方面分析AI的影响。

1.AI对传统会计工作的影响

《经济学人》曾于调查后在2014年列出了未来最有可能被机器取代的传统岗位,会计行业就在其列。去年3月10日,四大国际会计师事务所之一德勤宣布与Kira Systems联手,将AI引入会计、税务、审计等工作当中,取代人工阅读包括调查、合并、合同管理以及租赁协议等商业文件。这一举措更引起了会计业界的震动。

Kira Systems公司最近的创新产品正将机器学习提升至新高度,即机器可以通过从复杂文件中提取信息来扩展人类的专业知识,能通过学习范例来准确地识别信息,而不仅仅是识别预定程序的条款。由于AI机器人未来可以综合处理图像、视频、语音、文字等数据,并通过有关财务方面的大数据样本的学习,获得财务分析、预测和决策能力,传统的记账、算账、报账的业务流程,有可能因为AI而改变,由于AI高速的数据处理能力,会计报表不一定每个月出一次,完全可以改变会计工作的内容和流程,做到动态实时出报表,打破会计和统计等传统管理工作的界限,将会计工作与人事、生产、销售等管理工作融为一体。因此,AI对会计行业的冲击是全方位,多层次的。

2.AI对会计从业人员的要求

第7篇:人工智能神经网络概念范文

这个超前的预言,会不会有些夸张?

刘庆峰正以激情昂扬的斗志,带领科大讯飞接近这个现实。

事实或许如此。人工智能诞生60年以来,从未像今天这样炙手可热。细数很多领域,都能发现人工智能所能触及并产生颠覆性影响的例子。其中,广为人们热议的,是2016年3月谷歌公司的AlphaGo(阿尔法围棋)战胜韩国名将李世石的惊人壮举,并且未来还有“好戏”。

而据刘庆峰的预测,随着万物互联时代到来,以语音为主、键盘触摸为辅的人机交互正逐渐成为刚需,人工智能产业迎来第三次发展浪潮。

今天对人工智能未来的预测是不是过于乐观?它是一个真正的产业大潮还是概念的泡沫?当人工智能产业爆发,它会怎样改变我们所生存的现实世界?我们是兴奋,还是如霍金所警示的“恐慌”?

黑科技,兴奋还是恐慌?

2016年11月23日,北京国家会议中心的一场数千人会上,演讲者在台上声情并茂地演说着,两侧的大屏幕上一行行字幕实时跳跃显现,速度和准确率远超人工速记。据《中外管理》了解,这种在业界率先实现演讲和会议场景下的语音转写技术突破的智能语音系统,现场实测识别率达95%。

它,叫“讯飞听见”。其功能是实时将语音转写成文字。更加“不可思议”的是,它在实时中文语音转写的基础上,还融合了全新的多语种翻译技术,实时将中文演讲翻译成英语、日语、韩语等同步展示在大屏幕上,引发现场强烈反响。

看起来,这项基于人工智能技术的实时机器多语种翻译技术,似乎可以直接颠覆速记和翻译的工作了!而事实上,此“神器”已实际应用于在浙江乌镇举办的第三届世界互联网大会,令使用者赞不绝口。 “让机器能会说,首先要给机器装上一个人工的嘴巴。”科大讯飞董事长刘庆峰以一个形象的比喻,来印证科大讯飞在“黑科技”上“耍”出的成果。“讯飞听见”仅仅是其中之一。此次,科大讯飞一口气的万物互联输入法、智能家居、智能车机、智能服务机器人、智慧教育、个性化语音合成等创新产品,均是基于“讯飞超脑”人工智能最新技术的产物。

并非哗众取宠。这些抢眼的黑科技产品,事实上已经让这家以智能语音技术见长的公司执着地走过了17年。早在1999年成立时,科大讯飞便坚信无论人工智能如何发展,交互和后台的理解和学习都是刚需,通过人机耦合以及迭代学习进步,人工智能会逐步替代人类简单重复的劳动。

先见之明可以引领一家公司的长远战略,但没有坚忍的投入也无法结出果实。对未来的深入洞察,使科大讯飞在创新的道路上不断突破,而连续多年的研发投入占销售收入的25%,更是少有公司能够比拟的。在人工智能的前沿技术,如语音识别、合成以及机器翻译等领域,科大讯飞在国际比赛上包揽很多项目的冠军。例如语音合成技术,能够做到将人的音色和语言要素分离出来,从而实现这些要素的重新组合。

成绩背后,是科大讯飞构建的拥有1000余研发人员的核心研发平台,以及外部1500人的联合实验室,基于人工智能和大数据技术的长期研发。

用速度战胜自己。你可以说是一种“颠覆”,但也何尝不是进步?

是什么驱动一家公司始终保持着专业与专注的文化特质,在一个垂直领域深耕十几年?刘庆峰给出的答案是:人工智能的发展不会是一蹴而就的,创业者要有坚守的心态、毅力和恒心。

“人工智能+”,颠覆还是改变?

不仅让机器能听会说,还要让它能理解会思考。实现所谓的“人机交互”。

完成这个“神奇”的使命,光靠激情和畅想肯定不行,用刘庆峰的话说,“用一种爬山的企业精神,坐十年冷板凳,然后厚积薄发。”

资料显示:人工智能概念在1956年达特莫斯会上被专家提出以后,于1970年掀起第一次浪潮,那时已经通过第一代的人工智能神经网络算法证明了《数学原理》一书的绝大部分数学原理。而第二次浪潮发生在1984年,当时霍普菲尔德网络被推出来,让人工智能的神经网络具备了历史记忆的功能。

“但是前两次的大潮,后来都破灭了,为什么?”刘庆峰描述着,是因为神经网络本身算法的局限性,同时也受到当时整个运算能力的一些限制。那么今天,以深度神经网络为基础,基于大数据、云计算运算平台,再加上移动互联网源源不断地将各种训练数据收集到后台,以目前的时间节点看,人工智能的第三次大潮已经切实到来了。”令他兴奋的是,科大讯飞17年的坚持,正在验证一个“算法”与围绕它的科技和产业界持续的创新实验。

“人工智能+”,或许可以改变更多我们头脑中的认知――尽管现在还没有清晰地为我们感知到。

但是科大讯飞的研究表明,这是我们面临的时代趋势。人工智能进入产业领域并释放它的智慧,或许更值得期待。

一个颇为有趣的例证,便是2015年科大讯飞在教育领域推出的机器阅卷技术。这一技术在2016年进一步迭代――在以往语文、英语作文学生手写文字精准识别、可靠评分基础上,应用“讯飞超脑”最新成果,又重点突破了中英文作文综合反馈和逐句精批并在多校持续打磨形成新型作文教学模式,将原来最难开展教学的作文课从月频提高到周频授课和测练。

如此“智慧”的个性化教学产品,科大讯飞目前已经推广至全国220多个地市、超过10000所学校,1500万师生受惠于此。并且在数、理、化教学的应用同样亦不逊色。

第8篇:人工智能神经网络概念范文

关键词:电气工程;自动化;智能技术;应用

近些年来,人工智能技术呈现快速进步的趋势,随着该项技术的广泛应用,其巨大的发展潜力也逐渐被人所认同,就电气工程自动化而言,智能化技术因其具有的行为、感知、思维能力,能够很好的提高电气工程自动化的建设水平,加快电气生产力的进步,促进整个电器工程朝着自动控制、高效运行、智能操作、系统稳定等方面发展,引领生产技术进行进一步的革新,为电气行业蓬勃发展奠定坚实的基础。

一、人工智能运用的理论

在上世纪50年代第一次有了人工智能这一概念,随着时间的推移,人工智能的发展也十分的迅速,时至今日,智能化技术已经形成了以计算机为核心,包括各种学科在内,具有极强综合性的一门学科,通过制作模拟人的智能行为的机器,到达研究智能本质的目的。近些年来,智能化技术有了长足的进步,并且随着信息技术的高速发展,已经能够在一定程度上通过计算机模仿人的大脑,例如分析、收集、回馈、处理以及交换信息,正是由于这种进步,才让智能技术能够更加广泛的应用在各个领域当中。

二、利用智能化技术进行控制的优势

对于不同人工智能的控制,需运用不同方式进行探讨,由于部分人工智能的控制器,例如神经、模糊、模糊神经以及遗传算法均属于类非线形函数的近似器;采用此分类有利于了解总体,以及促进对人工智能控制策略综合性的开发,以上人工智能的函数近似器具备常规函数的估计器不具有的优点。首先,在多数情况下,精确了解控制对象动态方程是相对比较复杂的,所以控制器设计实际的控制对象模型,通常会出现许多不确定因素,例如参数变化与非线性时等,往往无法掌握新的信息。但人工智能的控制器设计,可不需参照控制对象模型。按照鲁棒性、响应时间与下降的时间不一样,人工智能的控制器可经过适当调整以提升自身性能。同古典的控制器比较,人工智能的控制器更具备易调节的特点。尽管缺少专家现场的指引,人工智能的控制器也可以采取响应数据进行设计。

三、电气工程自动化中智能化技术的运用

随着科技的高速发展,越来越多的新工艺、新技术被应用在各个领域当中,智能化技术也因此有了长足的进步,其应用范围也更加宽广,就电气工程自动化而言,智能化技术的应用能够优化电气的设计结构,并且做到时刻监控和诊断设备故障,做到智能控制,进而提高电气工程的建设水平。具体有以下几个方面:

1.电气的优化设计

在整个电气工程自动化领域当中,其产品的优化设计与其他相比还是较为复杂的,现在进行电气产品的优化设计主要有两个方面可以借鉴,一是日益丰富和完善的理论体系,二是过往设计经验,而传统的优化设计对设计经验过于依赖,往往采用进行大量数据实验的方式进行修改和优化,这样的做法不仅效率低下,还会浪费大量的资源,并且优化过后的产品也难以让人满意。但是,信息技术和智能化技术的发展,很好的解决了这一问题,通过计算机的辅助模拟,电气工程产品的优化设计正在一改往日的诸多问题,朝着智能、高效的方向不断前进着。

现在主要利用遗传算法和专家系统这两种方法实现电气优化设计中智能技术的应用,通过智能技术实现优化设计的模拟,替代相关工作人员进行数据处理,最终使得优化方案可靠、有效。

2.故障的监控和诊断

电气工程由于其自身的特点,使用的工艺和技术复杂、繁多,传统的诊断和监控措施不仅效率低下,检测故障的准确率也难以让人满意,这就需要充分利用智能化技术的优势,采用神经网络、模糊逻辑以及专家系统等模式,大幅度的提高故障监控和诊断的效率,例如,运用人工智能的技术,对电动机与发电机进行故障诊断的时候,结合神经网络与模糊理论,不但保留故障诊断的模糊性,更结合神经网络的学习能力强优势,共同对电机故障进行诊断,极大提升了故障的诊断准确率。

3.实现智能控制

实现智能控制不仅是电气行业发展的必然要求,也是各个领域未来的发展方向,现阶段电气工程自动化已经实现了部分智能控制,正朝着提高智能控制覆盖率的方向不断前进着。目前实现智能控制的方式主要有模糊的控制、专家系统的控制以及神经网络的控制,其主要的职能就是做到设备故障的及时记录、分析故障原因、各项数据收集和保存、通过监控反映设备的实时运行状况、利用计算机进行系统的控制等等。

4.发展趋势

笔者认为未来智能化技术的发展趋势应该朝着集成化、网络化等方向发展,通过高度集成化,将原本体积较大、运算速度较慢、运行响应不良的进行进行继承,提高各项性能指标,同时集成化不仅能够提高效率,也能在很大程度节约成产成本,同时能让系统的可靠性有显著的提高。而网络化是未来科技发展的必然要求,随着信息技术的发展,人们已经深刻的认识到网络和计算机为我们生活、工作带来的改变,实现智能技术的网络化能够通过计算机进行电气系统的远程操控,模拟相应的操作进行无人管理,利用网络在任意机床实现对其他机床的控制, 从而节约大量的人力资源。

四、结束语

随着科技的发展,人工智能技术也有了十分巨大的进步,在各个领域中的应用也有了可喜的成绩,不仅能够节约资源,还能提高生产效率和质量,尤其是对电气工程自动化而言,能够优化电气工程的设计结构,并且做到时刻监控和诊断设备故障,实现电气系统的智能控制。同时,我们要需要明确智能化技术未来集成化、网络化的发展方向,努力提高智能化水平,充分发挥智能化技术的作用,促进各行各业的发展和进步。

参考文献:

[1]冯亮.浅谈智能化技术在电气工程自动化中的应用[J].科技与企业,2013(01)

[2]娅.智能化技术在电气工程自动化控制中的应用[J].科技致富向导,2012(27):217-217

第9篇:人工智能神经网络概念范文

人工智能的起源和发展

顾名思义,人工智能就是人造的智能,它是一门通过计算过程力图理解和模仿智能行为的学科。其基本目标就是使机器表现出类似人类的判断、推理、证明、识别、感知、理解、通信、设计、思考、规划、学习和问题求解等思维活动,使机器具有类似人类的智能行为,使机器思维能拥有人类的思考方式。

人工智能的思想最早可以追溯到法国哲学家笛卡尔的“有灵魂的机器”。到了20世纪30年代,英国数学家图灵提出了“自动化理论”,把研究会思维的机器和开发计算机的工作大大向前推进了一步,他也因此被称为“人工智能之父”。但是,“人工智能”这个概念真正诞生的标志是1956年夏季在美国达特玛斯大学召开的以“人工智能”为名的学术讨论会。随后的几十年中,人们从问题求解、逻辑推理、定理证明、自然语言理解、博弈、自动程序设计、专家系统、学习以及机器人学等多个角度展开了研究,并建立了一些具有不同程度人工智能的计算机系统。当然,人工智能的发展也不是一帆风顺的,曾一度因为计算机计算能力的限制无法模仿人脑的思考以及与实际需求的差距过大而走入低谷。但是随着计算机硬件和软件的发展,计算机的运算能力以指数级增长,加之网络技术的蓬勃兴起使得目前的计算机已经具备了足够的条件来运行一些要求较高的人工智能软件。当然,人工智能的快速发展并不意味着它已经能达到人脑的水平,但人工智能的发展潜力还是巨大的。根据人工智能研究的主要目标,以下4个方面引领了人工智能的发展方向:第一,与生物技术、电子技术结合,研究生物电子体;第二,与脑科学、信息处理技术结合,研究人工大脑;第三,与网络技术、软件技术结合,研究智能软件;第四,与通讯技术、控制技术结合,研究家庭机器人。

有血有肉的生物电子体

在我们的印象中,人工智能通常是一个计算机软件,其实它也可能拥有一副有血有肉的身躯在现世界行走、奔跑甚至飞翔。生物电子体技术就是让人工智能拥有活动能力的一种全新技术。

生物电子体是生物细胞与电脑微芯片有效协作的共存体,可以实现部分或全部生物的智能。研制电子生物体主要有“植入法”和“提取法”两种方式:“植入法”就是把模拟生物体的电脑微芯片植入生物体,并与生物体形成协作共存体;“提取法”就是从生物体中提取出细胞组织与模拟生物体的微芯片结合为协作共存体。

研究生物电子体的目的,就是希望制备出一种协作共存体,从而对生物体进行有效控制,使其为人类服务。譬如当年美国“9・11”恐怖袭击后,美国政府紧急安排了10种机器人进行城市搜索和救援工作,但其中有6种机器人由于体积太大而不能运送到现场开展工作。试想一下,我们如果利用生物电子体有效控制爬行动物的行为,使其为人类服务,这可能比研究救援机器人花费的时间和资源更少一些。

在生物电子体领域,各国已相继开展了诸多研究。利用相对简单的“植入法”,日本东京大学率先研究了一种蟑螂控制技术,他们把蟑螂头上的触须和翅膀切除,插入电极、微处理器和红外传感器,通过遥控信号产生电刺激,使蟑螂能够沿着特定方向行进。美国纽约州立大学通过向老鼠体内植入微控制器,也成功实现了对老鼠的转弯、前进、爬树和跳跃等动作的人工制导。我国在电子生物体的研究上也有突破性进展,南京航空航天大学就研究了一种壁虎的人工控制技术,即把微电极植入壁虎体内,通过电刺激模拟神经控制其运动。而通过“提取法”制得的生物电子体就更复杂些,比较有代表性的是英国科学家推出的一个由老鼠的脑组织控制的机器人,名为“戈登”。在该项研究中,科研人员先从老鼠身上分离出神经细胞,放置在酶溶液中,让这些神经细胞彼此分离,然后再将这些神经细胞置于营养丰富的培养基中。该培养基与一个拥有60个电极的电子矩阵相连接,这个电子矩阵就是活体脑组织和机器部件的接合面。通过电子矩阵,“戈登”大脑发出电子脉冲,驱动机器人轮子,同时也能接受传感器基于外部环境刺激发出的脉冲。由于“戈登”的大脑是活的组织,因此必须装在温度特定的器具中。除了自身大脑外,“戈登”不受任何人为和电脑的控制。“戈登”具有一定的学习能力,比如撞到墙时,它就会从传感器得到电子刺激,再次遇到类似情况时,它就会记住。但是,如果没有外界刺激,“戈登”便会在数月内因大脑萎缩而死亡。尽管如此,“戈登”仍是实现提取活体脑组织和电子部件结合的研究新突破,也是电子生物体的重大突破。

擅长自学的人工大脑

开发人工大脑就是从信息处理切入,结合脑科学研究大脑对信息流的获取、存储、联想(提取)、回忆(反馈)等处理逻辑,以及脑神经细胞的工作原理来为大脑建模的过程。我们都知道,大脑不是计算机,不会亦步亦趋、按部就班地根据输入产生输出,大脑是个极其庞大的记忆系统,真正了解人类大脑,构建出大脑的记忆-预测系统模型才能制造真正的智能。人工大脑其实早在20世纪末就出现了,日本京都先进电讯研究所率先研制了一只机器猫,该机器猫的脑部主要采用了人工神经网络技术,包含约3770万个人造神经细胞,尽管数量与人脑的1000亿个脑细胞相比差之甚远,但其智能超过了昆虫,实现了人工大脑开发的第一步。紧接着,比利时便研制出了能让机器人拥有数百个行为能力的人工大脑。然而,这些人工大脑都是基于传统的计算机设计和制造思路开发的,与人脑的工作模式有着本质的区别,因此,改变传统的设计思路,是未来研究人工大脑的必经之路。

目前,走在研究人工大脑技术前沿的是几大信息技术巨头,其中IBM和谷歌的研究成果尤为突出。IBM的研究人员研制出了第一代神经突触计算机芯片,这种芯片可以模拟大脑的认知活动,完全不同于计算机设计与制造的传统理念。研究人员通过先进算法和硅电路,再现了发生于大脑中神经细胞和突触之间的现象。未来,IBM将进一步开发认知运算芯片,并将以混合信号、类比数位以及异步、平行、分布式、可重组的特制容错算法,来复制大脑的运算单元、神经元与突触之间的活动。

近年来,谷歌将大量资金、人力投入人工大脑研究中,并成功开发出了模拟人脑并具备自我学习功能的“谷歌虚拟大脑”。“谷歌虚拟大脑”是模拟人脑细胞之间的相互交流、影响而设计的,通过模拟人脑中相互连接、相互沟通、相互影响的“神经元”,由1000台计算机、16000个处理器、10亿个内部节点相连接,形成一个“神经网络”。当有数据被送达这个神经网络的时候,不同神经元之间的关系就会发生改变,这种关系的变化使得该系统对某些特定数据形成反应机制,从而让系统具备学习能力,并且能够在新输入的数据中找出与学到的概念相对应的部分,以达到识别的效果。这个有着自学功能的虚拟大脑系统在人工智能领域有着划时代意义,研究人员无需预先输入某一概念,它就可以自己决定关注数据的哪部分特征,注意哪些模式,从而自动从输入的大量数据中“领悟”这一概念,这与人脑的学习过程十分相似。

智能软件不止于围棋

所谓智能软件,是指能够产生人类智能行为的计算机软件。智能软件与传统软件最重要的区别就是:智能软件具有现场感应和环境适应的能力,还有表示、获取、存取和处理知识的能力,同时还能够采用人工智能的问题求解模式来获得结果。自从计算机诞生后,软件的设计开发便一直落后于硬件生产水平的发展,智能软件更是无从谈起。直到20世纪末,作为现实世界高水平的抽象――Agent软件系统的诞生,才大大加快了智能软件的开发。很快,基于Agent的实时道路交通导航系统模型、面向Agent的巡航导弹武器控制系统和多Agent敏捷调度系统相继被开发出来。目前,基于Agent的软件设计与开发已经成为人工智能学科的重要内容之一,而如何在软件设计与开发中更好地体现Agent的自治性、交互性、协作性以及可通信性等,又使智能软件的设计与开发成为了人工智能学科的新挑战。

如今,对于智能软件的开发正处于如火如荼的阶段。比如,击败李世石的“阿尔法围棋”便是一款智能软件,这款智能软件最重要的特征就是“深度学习”。深度学习的主要原理就是用一层神经网络把大量矩阵数字作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出。这就意味着“阿尔法围棋”会在与围棋高手的较量中不断提高自己的棋力。“阿尔法围棋”的另一个重要特征就是它具有两个不同的神经网络大脑:一个是“监督学习的策略网络”,负责观察棋盘布局试图找到最佳的下一步,相当于“落子选择器”;另一个是“价值网络”,负责评估棋局的整体局面并预测双方胜负,从而辅助落子选择器,这个叫“棋局评估器”。在“两个大脑”的配合下,“阿尔法围棋”击败了围棋界顶级高手,这绝对是人工智能的大突破。此外,智能软件还在环保、商务和医疗等领域崭露头角。我们知道,现在空气污染备受关注,西门子中央研究院便开发了基于神经网络的空气污染预测软件。该软件利用了伦敦市遍布中心城区的约150 座监测站收集的包括湿度、太阳辐射、云层覆盖和温度等天气数据和一氧化碳、二氧化碳和氮氧化物等气体的排放测量数据,并将这些数据相关联。同时还将诸如工作日、周末、假期、展会和体育赛事等影响交通和污染物排放的活动编程到预测模型中,最终这款智能软件能够每小时预报伦敦市内150 个地点未来 3 天的空气污染程度,误差率不超过 10%,并且还可以推断出导致所预测空气污染的主要原因。另外,现在还出现了许多商务智能软件,主要就是通过分析销售额、客流量、库存、人员配置等所有和企业运营相关的数据来显示和预测市场波动、经济趋势等,并为决策者提供未来的规划和方案。例如,美国的某公司开发了一款餐厅绩效管理智能软件,这款软件可以计算出每个轮班期间的最佳人员编制。总之,智能软件的开发已经并将继续影响整个社会的方方面面。

家庭机器人走入百姓家

人工智能的最后一个研究方向就是研发家庭机器人。所谓机器人,就是指装有传感器和微处理器,并且拥有潜在的人工智能,能够在无人操作的情况下完成一些重复动作的设备。在过去的几十年中,机器人已经被广泛应用在工业生产和危险环境中,如今,机器人市场已经开始转向家庭。那种可以和人成为朋友,陪人聊天,也可以帮助人们看家、清洁地板、照顾孩子等做一系列家务活儿的家庭机器人引领了新的时尚。