公务员期刊网 精选范文 对计算机视觉的理解范文

对计算机视觉的理解精选(九篇)

前言:一篇好文章的诞生,需要你不断地搜集资料、整理思路,本站小编为你收集了丰富的对计算机视觉的理解主题范文,仅供参考,欢迎阅读并收藏。

对计算机视觉的理解

第1篇:对计算机视觉的理解范文

关键词:动态场景;自适应预测;多特征融合;计算机视觉;运动目标

接受信息的关键手段之一就是视觉系统,随着科学技术水平的不断发展,以及计算机和信号处理理论的诞生,让机器拥有人类视觉功能已经不再是梦。对所采集视频中的运动目标进行跟踪、检测,并对其目标行为进行分析,就是运动目标分析的内容,运动目标分析是计算机视觉领域关键内容之一,其属于图像理解与图像分析的范畴。而在运动目标分析系统中,跟踪与检测运动目标则为中级和低级处理部分,是分析与理解行为的高等层分析模块的基础。检测与跟踪运动目标技术主要包括了:机器人视觉导航、军事领域、运动图像编码、交通管制、视觉监视等。

1目标检测算法

连续图像序列由视频中提取出,由前景区域与背景区域共同组成了整个画面。前景区域包含了如运动的人体、车辆等动态要素,它是指人们较为感兴趣的区域。而背景区域主要包含例如树木、建筑物等静态要素,它的像素值仅发生微弱变化或者不产生变化。在连续图像序列中,采用一系列算法分隔开背景区域和前景区域,将运动目标信息有效提取,则为运动目标检测。以静态场景为基础的运动目标检测算法包括了光流法、背景差分法、帧间查分法等,文章主要针对背景差分法进行介绍。

背景差分法通常适用于静态场景,其是将背景图像与当前帧图像进行差分,运动目标依靠阀值化进行检测,因为该算法仅能够在背景变化缓慢或者不发生变化的情况下应用,因此就有着一定的局限性。假设当前帧图像为fk(x,y),背景图像B(x,y)可通过一定的方法得出,而这时背景差分图像则为:

(1)

而假设二值化阀值为Th,二值化图像B(x,y)则为:

(2)

运动目标检测结果可通过数学形态学处理获得。

2 背景模型的实时更新

要更新背景图像可采用一阶KALMAN滤波来实现,为了克服气候变化、光照变化等外部环境变化对运动检测产生的影响,采用一阶KALMAN滤波更新背景图像公式如下:

Bk+1(p)=Bk(p)+g(Ik(p)-Bk(p)) (3)

而增益因子则为:g=?琢1(1-Mk(p))+?琢2Mk(p) (4)

公式中?琢1和?琢2是权值系数;M是第k时刻二值化后目标图像中p像素的值;B为背景图像;I为当前帧图像。要想将运动目标从背景序列图像中有效分割出来,就必须要达到?琢2足够小的条件,且?琢1应等于或者大于10?琢2,若?琢1值过大,就会将算法自身的去噪特性丧失,在序列背景图像中也会存储越来越多的运动变化。

3 更新车辆目标模型

核与活动轮廓算法具有效率高、技术复杂度低等特点,它以非参数核概率密度估计理论为基础,在视频运动目标跟踪中广泛应用。彩色图像序列通过摄像机获取,人脸目标模型可以采用RGB颜色空间来进行描述。在跟踪车辆的过程中,噪声、遮挡、光照等干扰或多或少存在,因干扰因素的存在,车辆像素特征也会发生相应的微弱变化。若不对目标模型进行更新,会对跟踪精度产生影响,所以,采用的矩形模板会包括一定背景。而在实施跟踪的过程中,要对车辆目标模型进行更换。如果其过程物遮挡,当BHATTACHARYYA系数满足?籽>Tudm条件时,更新车辆目标模型,更新模型为:

(5)

公式中Tudm是模板更新阀值;qk-1是更新之前的车辆目标模型。通过视频跟踪,在近场景和远场景拍摄到的视频中,多尺度图像空间由各个帧图像构成。例如:将将书本作为跟踪对象,由远及近从书本的正上方拍摄六十帧图像,为了能使矩形框正好能够包含书本,对每帧图像张书本手工划定矩形框,并对框内图像的信息量进行统计。最后,随书本尺度的变化,给出图像信息量变化曲线。

4 计算机视觉原理

计算机视觉是一门研究怎样使机器进行观察的科学,更切确地说,就是指利用电脑和摄影机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,用电脑处理成为传送给仪器检测或更适合人眼观察的图像。计算机视觉研究相关的理论和技术作为一个科学学科,尝试创建能够从图像或者多维数据中获取信息的人工智能系统。这里所指的信息指Shannon定义的,可以用来帮助做一个决定的信息。因为感知可以看作是从感官信号中提取信息,所以计算机视觉也可以看作是研究如何使人工系统从图像或多维数据中感知的科学。

计算机视觉就是由计算机来代替大脑完成处理和解释,用各种成象系统代替视觉器官作为输入敏感手段。使计算机能象人那样通过视觉观察和理解世界,具有自主适应环境的能力就是计算机视觉的最终研究目标,而需要经过长期的努力才能达到这个目标。所以,在实现最终目标以前,通过努力的中期目标是建立一种视觉系统,这个系统能依靠反馈的某种程度的智能和视觉敏感完成一定的任务。例如:计算机视觉的一个重要应用领域就是自主车辆的视觉导航,但要实现自主导航的系统,却还没有条件实现象人那样能识别和理解任何环境。所以,人们通过不懈的努力,研究在高速公路上具有道路跟踪能力,有效避免与前方车辆碰撞的视觉辅助驾驶系统。人类视觉系统是有史以来,人们所知道的功能最强大和完善的视觉系统。这里要指出的一点是在计算机视觉系统中计算机起代替人脑的作用。计算机视觉可以而且应该根据计算机系统的特点来进行视觉信息的处理,但并不等于计算机必须按人类视觉的方法完成视觉信息的处理。可以说,对人类视觉处理机制的研究将给计算机视觉的研究提供指导和启发,所以,用计算机信息处理的方法研究人类视觉的机理,建立人类视觉的计算理论,与此同时也是一个十分重要和让人感兴趣的研究领域。这方面的研究被称为计算视觉。计算视觉可被认为是计算机视觉中的一个研究领域。计算机视觉领域的不完善性与多样性为其突出特点。

5 结束语

对视频中的运动目标进行跟踪、识别、检测,并对目标行为进行研究、分析,这就是基于视觉运动目标分析。以计算机视觉为基础,分析运动目标,包括了目标行为的理解与分析、目标跟踪、运动目标检测、预处理图像等,它是计算机视觉领域重要内容之一。理解与分析运动目标的行为,既是计算机视觉的根本目的之一,也是检测与跟踪运动目标的最终目标。从理论层考虑,理解与分析运动目标的行为可以分为人工智能理论研究与模式识别。简要阐述基于计算机视觉的运动目标分析,而所面临的是对运动目标行为的理解。

参考文献

[1]杨可,刘明军,毛欣,夏维建,刘伟,周旋,吴炜,周凯.基于计算机视觉的电缆终端表面温升分析系统[J].电视技术,2013(7).

[2]叶闯,沈益青,李豪,曹思汗,王柏祥.基于人类视觉特性(HVS)的离散小波变换(DWT)数字水印算法[J].浙江大学学报:理学版,2013(2).

[3]何青海,马本学,瞿端阳,李宏伟,王宝.基于机器视觉棉叶螨自动监测与分级方法研究[J].农机化研究,2013(4).

[4]贾挺猛,苟一,鲍官军,董茂,杨庆华.基于机器视觉的葡萄树枝骨架提取算法研究[J].机电工程,2013(4).

第2篇:对计算机视觉的理解范文

关键词:计算机视觉;研讨式教学;小组探讨;课前回顾

作者简介:陈芳林(1983-),男,湖南株洲人,国防科学技术大学机电工程与自动化学院,讲师;周宗潭(1969-),男,河南洛阳人,国防科学技术大学机电工程与自动化学院,教授。(湖南 长沙 410073)

中图分类号:G643.2 文献标识码:A 文章编号:1007-0079(2013)26-0065-02

进入21世纪,创新型人才的培养成为各国政府和高等教育界关注的一个焦点。世界各国研究型大学的共同特点是在研究生教育阶段致力于培养富有创新意识和创新能力的高级人才。[1]研讨式教学是培养研究生创新精神、科研能力的有效途径,教师讲解与学生探讨两部分相结合是研讨式教学采用的主要模式。[2]将课程分成两部分之后,教师讲解的时间就必须压缩,教师一方面需要思考如何在较短的时间内完成课程的讲解,同时还需要考虑课程讲解要与学生探讨部分紧密结合。因此,如何上好研讨式教学教师讲解这部分课,越来越受高等院校的重视。本文针对笔者教授工科研究生课程“计算机视觉”的实践与经验,阐述了笔者对于如何上好研讨式教学教师讲解这部分课的个人体会。总结为两点:第一,首先要充分做好课程准备;第二,上课环节采取回顾—案例—小结的讲解方式。下面从课程准备、课前回顾、课程讲解、课后小结四个方面分别阐述(如图1所示)。

一、“计算机视觉”课程准备

要上好一门研讨式教学的课程,一定要结合该门课程的特点,量身定制课程内容,进行精心准备。本节先介绍“计算机视觉”课程的特点,然后结合该门课程的特点,介绍笔者对于“计算机视觉”的课程准备。

1.“计算机视觉”课程特点

“计算机视觉”是“数字图像处理”和“模式识别”等课程的后续课程。该课程重点在于图像或者图像序列的分析理解。课程知识在机器人导航、侦查、测绘、测量、精密加工和目标跟踪等多个领域都有广泛的应用。[3]近年来基于视觉信息的控制反馈也开始受到广泛关注。国内高校一般都为研究生开设了此门课程。

计算机视觉技术应用广泛、算法原理涉及面广:涉及到概率与数理统计、信号与系统、图像等基础知识。“计算机视觉”是一门重要的控制类、电子类及计算机类专业研究生的选修课程,它内容广泛、综合性强,研讨能力的培养显得非常关键。

2.课程准备

首先,结合“计算机视觉”课程内容广泛、技术日益更新和丰富的特点,将课程36学时分为12次课,每次课为3小时,每堂课教师讲解一个专题。这种设计,一方面可以更广地涉及计算机视觉的各个领域;另一方面以专题的形式来讲解,可以将学生带入到该专题,介绍基本背景、理论、知识和方法,让学生有一个初步的了解,方便课后学生对感兴趣的专题进一步深入挖掘与研究。

其次,在课程开始之前,教师仔细统筹,安排好每次课的专题,这样既方便学生一开始对整个课程有一个整体的了解,也方便学生选择课堂研讨的题目与内容。根据12个专题,将各个专题讲解的内容与课件在开课之前准备好,这样有利于把握各个专题之间的前后承接关系。例如,“区域”与“分割”是既有区分又有联系的两个专题,在课程开始之前,将课件准备好,就有利于宏观把握,在“区域”专题提到的分割算法,就不需要在“分割”专题再次重复,而在“分割”专题可以结合前面“区域”专题进行互相补充,以帮助学生融会贯通。

最后,在每个专题上课之前,再对课件进行精雕细琢,主要是对内容分好层次,对方法进行分类,力图在较短的时间内,让学生对该专题有较全面的认识。例如,在讲解图像分割时,由于图像分割方法非常多,可以将分割方法分为若干个大类,每个大类只讲1~2个方法。这样既可以尽可能涉及更广的领域,又可以提高讲解的效率。

二、“计算机视觉”课前回顾

课前回顾是指每堂课的前面一小段时间用来回顾上一堂课的内容。虽然课前回顾时间非常短,一般为3~8分钟,但是课前回顾是课堂教学中的一个重要环节。课前回顾可以帮助学生加强将要学习的内容与已学过内容之间的联系。通过课前回顾,学生可以回忆前续课程所讲解的概念、理论、算法的步骤等内容,有助于解决新问题或者理解新知识。

课前回顾最重要的是既要复习前续课程的内容,又要注意将前续内容与当前内容联系起来。由于讲解时间有限,要使研讨式教学的教师讲解部分效率高,教师帮助学生回忆上堂课的概念、模型、算法等内容,就变得非常重要。如果不做课前回顾,那么当讲到某处新知识时,往往需要停下来,将前续课程再讲一遍,否则学生无法理解新的知识,这样就降低了教学的效率。

课前回顾的时间,一般以3~8分钟为宜。课前回顾的形式可以多样化,如讲解课后作业、回顾概念、提问等。笔者认为应根据当天课程与前续课程的关系,采取合适的方式。各种方式结合使用,提高课前回顾的效率。

三、“计算机视觉”课程讲解——案例教学

案例教学已经成功地应用于数学、计算机科学等领域的教学。通过案例,学生可以很快地掌握相应的概念、算法的步骤等,从而提高教师讲解部分的效率。[4]例如,在讲解马尔科夫随机场时,笔者通过案例式教学,将马尔科夫随机场用一个生活中的例子来向学生解释。首先,将马尔科夫随机场分解成两个重要的概念,分别是随机场与马尔科夫性,然后将它们对应到例子中,帮助学生理解。

随机场包含两个要素:位置(site)和相空间(phase space)。当给每一个“位置”中按照某种分布随机赋予“相空间”的一个值之后,其全体就叫做随机场(如图2(a))。[5]这个概念非常抽象,难以理解。笔者应用案例式教学,拿庄稼地来打比方。“位置”好比是一亩亩农田,“相空间”好比是种的各种庄稼。给不同的地种上不同的庄稼,就好比给随机场的每个“位置”,赋予“相空间”里不同的值。所以,可以形象地理解随机场就是在哪块地里种什么庄稼的布局(如图2(b))。

马尔科夫性指的是一个随机变量序列按时间先后顺序依次排开时,第N+1时刻的分布特性,与N时刻以前的随机变量的取值无关。为了更直观地理解马尔科夫性,笔者仍然拿庄稼地打比方,如果任何一块地里种的庄稼的种类仅仅与它邻近的地里种的庄稼的种类有关,与其他地方的庄稼的种类无关,这种性质就是马尔科夫性。

符合上述两个特征,那么这些地里种的庄稼的集合,就是一个马尔科夫随机场。通过案例式教学,笔者发现可以加深加快学生对课程内容的理解,提高教师讲解环节的效率。

四、课后小结

课后小结指的是一堂课将要结束时,教师对本堂课进行一个简短的总结。许多成功的教师都会在其教学中坚持课后小结这个环节,给学生一个总体的印象,以帮助学生消化本次课程的内容。

研讨式教学教师讲解部分的课后小结与普通教学方式应有所区别。笔者认为这主要是因为通过课后小结可以将本次课程所讲内容与学生的研讨环节结合起来,而不仅仅是对内容进行简单的总结。

为了达到课后小结使本次课程内容与学生探讨环节建立联系的目的,笔者在教学中常采用如下方式:首先,像普通教学方式一样,总结本次课程内容;然后,在此基础上,抛出若干问题,这些问题,不需要学生马上解答,而是留给学生课后思考,提供他们选择研讨主题的素材;最后,介绍其他在本次课程中没有涉及到的前沿知识、方法与理论,拓宽学生的视野,从而增加学生选择探讨主题的覆盖面。

通过应用这种方式,笔者发现学生的思维更开阔,在探讨环节,学生往往可以选择一些比较新颖的主题(例如视频中不动点的检测等),而不仅仅局限于教师所讲内容,从而提高了研讨式教学的效果。

五、结论

在“计算机视觉”课程中引入研讨式教学,通过总体设计规划好整门课程内容,课堂讲解注意采用回顾—案例—小结的方式,笔者对如何上好研讨式教学教师讲解这部分课进行了个人经验的总结。通过本次教学改革,笔者体会到如果要提高教学效果,一定要注意教师讲解与学生探讨两个环节的紧密结合。

参考文献:

[1]侯婉莹.我国研究型大学本科生科研研究[D].济南:山东大学,

2009.

[2]张晴,李腾,韦艳,等.研讨式教学模式的理论研究[J].中国科技纵横,2011,(10).

[3]D.H .巴拉德.计算机视觉[M].北京:科学出版社,1987.

第3篇:对计算机视觉的理解范文

【关键词】Opencv;计算机视觉技术;系统;研究

随着计算机技术的快速发展,计算机设备逐渐被应用到社会生活的各个方面,尤其是在当前计算机视觉技术和图像处理技术快速发展的时期,各个科技领域中的计算机视觉技术已经逐渐成熟。计算机视觉技术主要是利用计算机智能化来替代人眼,即对于客观存在的三维立体化世界的理解和识别,整个实现过程均是以计算机技术作为基础。随着计算机视觉技术的不断发展,现今其已逐渐成为了一门神经生理学、计算机工程、信号学、物理学、应用数学等综合性学科。计算机视觉技术系统其在高性能计算机基础之上来实现对大量数据的获取,并且通过智能算法来对获取数据进行处理,从而完成对数据集成。

一、视频中运动物体检测原理

对于视频中的运动物体检测主要分为两中方法,其一为宏观检测法;其二为微观检测法。宏观检测法是对获得的整幅图像进行检测,而微观检测法则是对所需要的区域进行图像检测。视觉技术在检测运动物体的时候,首先对图像进行采集,并对采集的信息数据进行预处理,将图像进行分割,然后分别提取运动物体的影象,从而实现参数的更新。图像采集过程中采用背景差分法,实现对背景图像的提取,其通过一定算法采用人为手段获取没有背景的图像。另外在进行运动物体检测的时候还可以采用帧间差分法,其主要是实时获取帧图,然后实现一帧一帧图像比值的比较,从而获取具有差值的图像。运动物体进行检测的时候需连续获取帧图,将这些帧图组合起来,其实就是物体的运动轨迹,然后同分割技术就能勾勒出物体的轮廓。随着计算机视觉技术的不断深入研究,发现此两种方法单独使用仍然存在的一些缺点,于是研究人员将二种检测方法进行融合,形成一种综合检测方法。综合检测法将两者检测方法的优势进行了融合,并将其灵活的应用到了生产和生活之中,取得了十分不错的效用。

二、基于Opencv的计算机视觉技术探究

(一)基于Opencv的运动物体检测

运动物体在进行检测的时候,基于Opencv的检测原理主要为:根据物体某项特定信息,例如,颜色、轮廓、性状等,在复杂背景中利用这些特定的信息将物体分离出来。整个图像的分离过程首先是进行视频流捕捉,然后是进行视频的格式转换,再将图像进行预处理,从而提取前景物体,减少环境因素对图像处理的误差,最后根据物体特征提取,并完成对运动物体的跟踪。从图像中提取所需的目标物体,其实质就是对整个屋里轮廓进行检测和分割,根据每个图像的帧差异来进行提取。

(二)基于Opencv图像预处理

视觉技术应用于复杂的环境之中,由于存在着光照的变化,其场景中所出现的环境因素对视频采集设备性能影响很大。环境因素会使得获取的图像信息的质量降低,并且在图像中无法避免的存在着噪点,这对于运动物体的检测和图像采集会造成很大的影响。当获取视频帧图像之后需对其数据进行预处理,通常有平滑度滤波处理、图像填充、图像背景更新等。

1.平滑度滤波处理

由于在进行视频图像采集的时候存在着噪点,那么我们就需要对其进行噪点处理,以求减小噪声。滤波平滑度滤波处理,其具有线性和非线性两种方式,其中线性方式进行处理器运算简单、运算速度快,但是在进行处理之后的图像都会呈现不清晰的情况。而非线性方式尽心给处理之后,虽然能够很好的减小噪点,确保信号的局部特点,但是其运算的速度会较慢。

2.图像填充

对于帧图像进行处理,通常采用检测边缘填充法或者是腐蚀膨胀法来完成,其中填充法是指当检测出目标物体之后,利用边缘检测方法来对物体进行辨识,然后利用形态学的漫水填充法进行填充。图像的腐蚀膨胀则主要是由于摄像机的性能等问题造成的。

3.实时背景更新

在进行图像差分之前,需要对背景图样进行确定,并且需要对其进行初始化处理。以方便以后在进行检测时候能够对实时背景图进行差分计算,只有这样,才能够获得极佳的前景效果。在进行图像差分时,首先需要根据指定法来确定第一帧背景的图像,并将其指定为第一张背景图片,然后在检测过程中根据算法对背景实施更新。整个图像在进行更新时,其主要的流程为:判断并读取图像是否为第一帧;将Opencv处理的图像转化为单通道灰度值;将实时采集的图像进行高斯平滑度处理,去除噪点;最后使用形态学滤波处理噪点。

(三)提取前景运动物体图像

检测运动物体的时候,只有在检测流程中确保精确度,才能够获取满意的前景跟踪效果。此过程中主要分为两个步骤,第一步为二值化图像之后进行分割;第二步,图像分析前处理,进行充分填充,确保前景图的完整性。其中,前景图的提取主要分为下面几个步骤:首先对前景图像和背景图像进行差分,然后对差分的图像进行二值化,再对背景中的前景图像边缘进行检测,根据轮廓进行填充图像。由于摄像头存在于不同的场景和环境之中,不论是室外或者是室内随着场景的变化都会对图像的采集产生影响。那么在前景图中提取目标就需要在检测系统中采用有效手段来完成背景实时更新。

阀值二值化分割法可以对检测的物体进行前景和背景差图分割,从而使目标物体能够分离出图像,且阀值分割先要确定每个像素的点是否处于灰度范围值之内。将图像中的像素灰度与确定的阀值进行比较,其结果解释所有像素点分为2类,一类像素的灰度小于阀值,另外一类就是大于阀值。阀值二值化分割时,确定分割的阀值T,然后分割图像。选取合适的阀值进行分割,可以有效的减少光照因素影响,常用的动态阀值主要有直方图来法与最大类方差法这另种分割方法。

三、计算机视觉三维技术

计算机视觉技术的核心为分割问题、运动分析、3D立体场景重构等,立体视觉主要是从多幅图像的参照中获取目标物体的三维几何信息。计算机视觉所模拟出的3D立体画面只需要摄像机从不同的角度同一时间针进行图像捕获,将2D信息进行3D重构,进而将计算机程序重建于真实的三维场景之中,以恢复物体的真实空间信息。

(一)视觉系统

视觉系统捕获图像的过程,实则可以看成为对大量信息进行处理过程,整个系统处理可以分为三个层次,其一,理论层次;其二,描述层次;其三,实现层次。在摄像机视觉系统之中,输入的是2D图像,但是输出为3D信息,而这就可以实现对图像的位置、距离等信息的如实描述。视觉系统分为三个进阶层次,第一阶段为基础框架;第二阶段为2.5D表达;第三阶段为三维阶段。在第二阶段中实现的2.5D表达,其原理是将不完整的3D图像信息进行表达,即以一个点为坐标,从此点看去某一些物体的部分被遮挡。第三阶段的三维阶段,则是人眼观察之后可以从不同的角度来观察物体的整体框架,从而实现了将2.5D图像信息的叠加重合运算,进一步处理之后得到了3D图像。

(二)双目视觉

人们从不同角度观看同一时间内的同一物体的时候,可以利用算法测量物体间的距离。此法被称为双目立体感觉,其依据的原理是视觉差原理,利用两台摄像机或者一台摄像机,对两幅不同的图像进行不同角度观察,并且对其观察的数据进行对比分析。实现双目立体视觉与平面视觉图像获取,其主要的步骤为:

(1)图像获取

从两台不同的摄像机,捕获帧图像,由于环境因素会造成图像差异困难。为了更好的跟踪目标、检测,当捕获图像之后,需要对图像进行预处理。

(2)摄像标定方式

获得真实坐标系中的场景点中的与平面成像点占比见的对应关系,借用三维立体空间中的三维坐标,标定之后确定摄像机的位置以及属性参数,并建立起成像的模型。

(3)特征提取方式

所谓的特征提取方式主要是为了提升检测、跟踪目标的准确性,需要对目标物体进行特征提取,从而实现对图像分割提取。

(4)深度计算

深度信息主要是根据几何光学原理,从三维世界进行客观分析,因为距离会产生不同的位置,会使得成像位置与两眼视网膜上有所不同。简单来说,客观景物的深度可以反映出双目的视觉差,而利用视觉差的信息结合三角原理进行计算,可呈现出深度的图像信息。

(三)摄像机模型

摄像机在标定过程中确定了其建立的基础为摄像机的模型,摄像机模型在标定过程中关系到三个不同坐标系的转换,分别为2D图像平面坐标系、摄像机自身坐标系以及真实的世界坐标系。摄像机在摄像的时候起本质是2D图像坐标转换,首先要定义摄像机的自身坐标系,将坐标系的原点设置为光心,X、Y、Z成立三维坐标系。其次则是建立平面的图像坐标系,用以透视模型表示,其原点也在广心的位置,称之为主点。实际应用中,物理的距离光心的位置d≠f焦距,而且会远远大于焦距,为了解决如此问题就提出了平面概念。在光轴z上设置一个虚拟的图像平面,然后在此位置于平面关于光心对称。接着,在设置的虚拟2D坐标系中,光轴和原点重合,并且摄像机与垂直平面的垂直方向相同,真实图像上的点影射到摄像机坐标系。

(四)3D重构算法

视频流的采集,主要是采用Kinect设备、彩色摄像头、红外发射摄像头、红外接收摄像头。使用微软提供API控制Kinect设备,在操作之前需调用NUI初始化函数,将函数的参数设置为用户信息深度图数据、彩色图数据、骨骼追踪图数据、深度图数据。上述的视频流的打开方式不同,既可以是一种打开方式,也可以是多种打开方式,尤其在进行Kinect传输数据处理的时候,需遵循三条步骤的运行管线。此三条管线分别为:第一条为处理彩色和深度数据,第二条为根据用索引添加颜色信息,并将其放入到深度图之中,第三条为骨骼追踪数据。

四、总结

随着计算技术的快速发展,视觉技术逐渐被广泛的应用于我们日常的研究之中。本文通过对视觉技术的相关问题进行分析,探究了图像处理、分割、前景提取、运动物体观测以及重构3D图等问题,为实现视觉技术更加深入研究做出了相应的贡献;为广大参与计算机视觉技术研究同仁提供一个研究的思路,为实现视觉技术的腾飞贡献薄力。

参考文献

[1]张海科.基于Opencv的人手识别与跟踪定位技术研究与实现[D].云南大学,2013.

第4篇:对计算机视觉的理解范文

生活中,每个人都问过别人“这件衣服是从哪买的?”“这双鞋是什么牌子的?”这一问题很快会被AI技术解决,只需要拿出手机对着物品拍照,就会得到商品的各种信息,并且能一键买买买。这就是美国著名图片社交网站Pinterest(拼趣)即将推出的应用图片识别购买业务。

Pinterest总裁Tim Kendall表示,“Pinterest可以即刻在存储750多亿张图片的巨大网络空间内进行搜索,从而为用户找到与所拍摄照片相似的配对图片,以及查找到哪些地方能够买到他们所需的商品。”

目前,Pinterest的估值已经达到了110亿美元,该公司的专注点正在向营收增长和创收方面转变。相比Facebook、Twiter等社交网站,Pinterest已经率先找到了一条清晰的创收道路。

从兴趣到产品

亚里士多德曾经说过,古往今来人们开始探索,都应起源于对自然万物的惊异。科技的进步也是如此,就像微软研发主管和项目负责人Mitch Goldberg所说:“我们想通过该应用向人们展示识别技术的无限魅力。”

今年2月,微软旗下的Garage实验室了一款名为“Fetch!”的应用,它可通过机器学习系统识别照片中宠物狗的品种并用文字对该品种进行简单的介绍。

随着计算机视觉领域开始利用深层神经网络这种模仿人类大脑生物过程的系统来从事机器学习,识别的精确度实现了巨大飞跃。也就是说通过机器学习技术,Fetch!识别的准确度会越来越高,随着大量图片的涌入,Fetch! 可以自我修复错误,从而更加精确地识别每一只狗的样貌、形态、动作。除了测试狗类品种以外,你还可以把朋友的照片上传至平台,看看他们能够对应出哪种宠物。

微软的这款产品基于目前最为热门的一种图像识别技术――“深度神经网络”,同样基于这种技术,微软还有另一款有趣的产品:。去年5月,有超过5.75亿图片被提交到,超过8500万来自世界各地的使用者访问了这个网站,只为寻找一个简单问题的答案――颜龄机器人认为我看起来像几岁?如果是合照,并且颜龄机器人识别出的自己比周围人年龄小,则更能引发用户的兴趣,这种“损人利己”的识别应用着实在社交媒体上火了一把。

另一让计算机视觉研究技术人员特别感兴趣的领域是生物识别,当下最为火爆的莫过于人脸识别技术了。早期的人脸识别技术多为安防领域,如海关识别走私犯、商店识别小偷等。近年来,深度学习的研究与应用使得人脸识别和人工智能的核心技术得到了极大的提升,摄像头等图像硬件的发展为人脸识别提供了很好的图像基础,如今人脸识别技术应用更加广泛,比如公司可以使用刷脸打卡来杜绝代人打卡签到现象。

其实早在2012年,谷歌就开发出了安卓系统的“刷脸解锁”技术,但因安全问题未解决,该技术一直未能得到普及。

而今年3月,电商巨头亚马逊提交了一项针购物付费的专利技术,即消费者在亚马逊网站购物时可以通过自拍或者视频来进行付费,无须再输入账号密码。在消费时系统会提示用户表现出特定的行为、情绪或手势来证明消费者就是本人,而不是拿着照片的冒名顶替者。

亚马逊表示,这项技术能使消费者更加安全地进行网上购物,因为很多用户为了省事会把所有账户都用同一个密码,或者把密码记在手机里,一旦遭遇“撞库”或者手机被盗,后果不堪设想,而刷脸技术则没有这个风险。

除了识别人脸,在识别其他生物方面也有了突破性进展,比如识别寄生虫。疟疾,是一种由疟原虫造成的全球性急性寄生虫传染病,据统计,2015年有大约有2.14亿人受疟疾的影响。

一直以来,医疗工作者是通过肉眼观察采样玻片来确定采样对象是否被疟原虫感染,这不但是对医疗工作者经验的考验,而且工作效率也十分低下,而贫困地区一直都缺乏有经验的医疗工作者。

今年2月,根据MIT Technology Review报道,Intellectual Ventures Laboratory(智能事业实验室)开发出了能够检测和评估疟疾感染的便携式显微镜。这种显微镜采用的是一个名为“Autoscope”的系统,通过计算机视觉和深度神经网络技术,采用深度学习算法来鉴别疟原虫。这款便携式显微镜今年在泰国实地测试,成功鉴别出了 170块玻片中的疟原虫如果这项技术得到普及之后,只要诊所有一台Autoscope显微镜和一些载玻片,就可解决疟疾的诊断问题,这将使疟疾诊断不再依赖于有限的专业医疗人员。

技术转化为产品

新技术的出现,让计算机不但“看见”这个世界,更能“看懂”这个世界,可以代替人眼甚至超越人眼。

人的视野是有限的,并且会受到周边条件的影响,驾驶员在开车时会有视野盲区,还会受到光线的影响,并且大雾、暴雨等极端天气也会严重影响驾驶员的视线。而计算机视觉技术就不一样了,视野会更开阔,受限制更小。根据汽车媒体《Leftlane》报道,福特公司最新的无人驾驶汽车研究计划是由激光感应(LiDAR)和雷达、摄像头形成一张周围环境的高清3D地图,不但让无人驾驶汽车看到摄像头视野范围之外的物体,而且并不受光线限制。在夜间试驾后,福特工程师Wayne Williams说:“坐在汽车里,我能感到它在走,但是我往车外看,只能看到一片漆黑。结果令人惊喜,车辆准确地沿着蜿蜒的道路行驶。”

识别场景这一领域技术的发展,使得计算机不但能当机器的眼睛,还能变成人类的眼睛。

对于双目失明的人来说,能亲自感知这个世界是梦寐以求的事,而微软2016 Build开发者大会上Seeing AI项目正是要帮助盲人实现这一愿望。

Seeing AI项目是通过计算机视觉和自然语言去形容一个人的周围环境、朗读文本、回答问题以及识别人的面部表情,可以在手机上使用,也可以在Pivothead的智能眼镜上使用。如果投入使用,将有助于为视障人士营造更公平的环境,是一款能够真正改变人们生活的产品,就像此项目的高级项目经理Anne Taylor所说的,这是“为真正重要的场景寻求解决方案”。也许不久微软能开发出一种仿生眼,直接发送视觉信号到大脑,让盲人真正看到这个世界。

第5篇:对计算机视觉的理解范文

国内人工智能产业链解构

基础技术、人工智能技术和人工智能应用构成了人工智能产业链的三个核心环节,我们将主要从这三个方面对国内人工智能产业进行梳理,并对其中的人工智能应用进行重点解构。

人工智能的基础技术主要依赖于大数据管理和云计算技术,经过近几年的发展,国内大数据管理和云计算技术已从一个崭新的领域逐步转变为大众化服务的基础平台。而依据服务性质的不同,这些平台主要集中于三个服务层面,即基础设施即服务(IaaS)、平台即服务(PaaS)和软件即服务(SaaS)。基础技术提供平台为人工智能技术的实现和人工智能应用的落地提供基础的后台保障,也是一切人工智能技术和应用实现的前提。

对于许多中小型企业来说,SaaS 是采用先进技术的最好途径,它消除了企业购买、构建和维护基础设施和应用程序的需要;而 IaaS通过三种不同形态服务的提供(公有云、私有云和混合云)可以更快地开发应用程序和服务,缩短开发和测试周期;作为 SaaS 和 IaaS 中间服务的 PaaS 则为二者的实现提供了云环境中的应用基础设施服务。

人工智能技术平台

与基础技术提供平台不同,人工智能技术平台主要专注于机器学习、模式识别和人机交互三项与人工智能应用密切相关的技术,所涉及的领域包括机器视觉、指纹识别、人脸识别、视网膜识别、虹膜识别、掌纹识别、专家系统、自动规划、智能搜索、定理证明、博弈、自动程序设计、智能控制、机器人学习、语言和图像理解和遗传编程等。

机器学习:通俗的说就是让机器自己去学习,然后通过学习到的知识来指导进一步的判断。我们用大量的标签样本数据来让计算机进行运算并设计惩罚函数,通过不断的迭代,机器就学会了怎样进行分类,使得惩罚最小。这些学到的分类规则可以进行预测等活动,具体应用覆盖了从通用人工智能应用到专用人工智能应用的大多数领域,如:计算机视觉、自然语言处理、生物特征识别、证券市场分析和DNA 测序等。

模式识别:模式识别就是通过计算机用数学技术方法来研究模式的自动处理和判读,它偏重于对信号、图像、语音、文字、指纹等非直观数据方面的处理,如语音识别,人脸识别等,通过提取出相关的特征来实现一定的目标。文字识别、语音识别、指纹识别和图像识别等都属于模式识别的场景应用。

人机交互:人机交互是一门研究系统与用户之间交互关系的学问。系统可以是各种各样的机器,也可以是计算机化的系统和软件。在应用层面,它既包括人与系统的语音交互,也包含了人与机器人实体的物理交互。

而在国内,人工智能技术平台在应用层面主要聚焦于计算机视觉、语音识别和语言技术处理领域,其中的代表企业包括科大讯飞、格灵深瞳、捷通华声(灵云)、地平线、SenseTime、永洪科技、旷视科技、云知声等。

人工智能应用

人工智能应用涉及到专用应用和通用应用两个方面,这也是机器学习、模式识别和人机交互这三项人工智能技术的落地实现形式。其中,专用领域的应用涵盖了目前国内人工智能应用的大多数应用,包括各领域的人脸和语音识别以及服务型机器人等方面;而通用型则侧重于金融、医疗、智能家居等领域的通用解决方案,目前国内人工智能应用正处于由专业应用向通用应用过度的发展阶段。

(1)计算机视觉在国内计算机视觉领域,动静态图像识别和人脸识别是主要研究方向

图像识别:是计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。识别过程包括图像预处理、图像分割、特征提取和判断匹配。

人脸识别:是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部的一系列相关技术,通常也叫做人像识别、面部识别。

目前,由于动态检测与识别的技术门槛限制,静态图像识别与人脸识别的研究暂时处于领先位置,其中既有腾讯、蚂蚁金服、百度和搜狗这样基于社交、搜索大数据整合的互联网公司,也有三星中国技术研究院、微软亚洲研究院、Intel中国研究院这类的传统硬件与技术服务商;同时,类似于 Face++ 和FaceID 这类的新兴技术公司也在各自专业技术和识别准确率上取得了不错的突破。

而在难度最大的动态视觉检测领域,格灵深瞳、东方网力和 Video++ 等企业的着力点主要在企业和家庭安防,在一些常见的应用场景也与人脸识别技术联动使用。

(2)语音/语义识别

语音识别的关键基于大量样本数据的识别处理,因此,国内大多数语音识别技术商都在平台化的方向上发力,希望通过不同平台以及软硬件方面的数据和技术积累不断提高识别准确率。

在通用识别率上,各企业的成绩基本维持在 95% 左右,真正的差异化在于对垂直领域的定制化开发。类似百度、科大讯飞这样的上市公司凭借着深厚的技术、数据积累占据在市场前列的位置,并且通过软硬件服务的开发不断进化着自身的服务能力;此外,在科大讯飞之后国内第二家语音识别公有云的云知声在各项通用语音服务技术的提供上也占据着不小的市场空间。值得注意的是,不少机器人和通用硬件制造商在语音、语义的识别上也取得了不错的进展,例如智臻智能推出的小 i 机器人的语义识别、图灵机器人的个性化语音助手机器人和服务、被 Google 投资的出门问问的软硬件服务。

(3)智能机器人

由于工业发展和智能化生活的需要,目前国内智能机器人行业的研发主要集中于家庭机器人、工业企业服务和智能助手三个方面其中,工业及企业服务类的机器人研发企业依托政策背景和市场需要处于较为发达的发展阶段,代表性企业包括依托中科院沈阳自动化研究所的新松机器人、聚焦智能医疗领域的博实股份,以及大疆、优爱宝机器人、Slamtec 这类专注工业生产和企业服务的智能机器人公司。在以上三个分类中,从事家庭机器人和智能助手的企业占据着绝大多数比例,涉及到的国内企业近 300 家。

(4)智能家居

与家庭机器人不同,智能家居和物联企业的主要着力点在于智能设备和智能中控两个方面。在这其中,以海尔和美的为代表的传统家电企业依托自身渠道、技术和配套产品优势建立起了实体化智能家居产品生态. 而以阿里、腾讯、京东、小米和乐视等互联网企业为代表的公司则通过各自平台内的数据和终端资源提供不同的软硬件服务。

值得关注的是,科沃斯、broadlink、感居物联、风向标科技、欧瑞博、物联传感和华为等技术解决方案商在通用硬件和技术、系统级解决方案上已成为诸多智能家居和物联企业的合作伙伴。综合来看,智能家居和物联企业由于市场分类、技术种类和数据积累的不同各自提供着差异化的解决方案。在既定市场中,没有绝对意义上的排斥竞争,各企业之间的合作融合度较强。

(5)智能医疗

目前国内智能医疗领域的研究主要集中于医疗机器人、医疗解决方案和生命科学领域。由于起步较晚和技术门槛的限制,目前国内医用机器人的研发水平和普及率相较于国际一线水平仍存在一定的差距,从事企业主要集中与手术机器人和康复机器人两大领域,以新松机器人、博实股份、妙手机器人、和技创等企业为代表。

在医疗解决方案方面,以腾讯、阿里巴巴、百度和科大讯飞为代表的公司通过和政府、医疗机构的合作,为脑科学、疾病防治与医疗信息数据等领域提供智能解决方案。而在生命科学领域,研究的着眼点在以基因和细胞检测为代表的前沿研究领域。

综合来看,国内人工智能产业链的基础技术链条已经构建成熟,人工智能技术和应用则集中在人脸和图像识别、语音助手、智能生活等专用领域的场景化解决方案上。就趋势来看,未来国内人工智能领域的差异化竞争和突破将主要集中在人工智能相关技术的突破和应用场景升级两个层面。

未来国内人工智能行业发展的五大趋势

(1)机器学习与场景应用将迎来下一轮爆发

根据 Venture Scanner 的统计,截至 2015 年 9 月,全球人工智能领域获得投资的公司中,按照平均融资额度排名的五大业务依次是:机器学习(应用类)、智能机器人、计算机视觉(研发类)、机器学习(研发类)和视频内容识别等。

自 2009 年以来,人工智能已经吸引了超过 170 亿美元的投资。过去四年间,人工智能领域的民间投资以平均每年 62% 的增长速率增加,这一速率预计还会持续下去。而在 2015 年,全球人工智能领域的投资占到了年度总投资的 5%,尽管高于 2013 年的2% ,但相比其他竞争领域仍处于落后位置。

目前中国地区人工智能领域获得投资最多的五大细分领域是计算机视觉(研发类)、自然语言处理、私人虚拟助理、智能机器人和语音识别。从投资领域和趋势来看,未来国内人工智能行业的资本将主要涌向机器学习与场景应用两大方向。

(2)专用领域的智能化仍是发展核心

基于 GPU(图形处理器)计算速度(每半年性能增加一倍)和基础技术平台的飞速发展,企业对于人工智能神经网络的构建取得了前所未有的突破。但是,由于人工智能各领域技术和算法的复杂性,未来 20 年内人工智能的应用仍将集中于人脸和图像识别、语音助手和智能家居等专用领域。

通过上述产业链环节构成和投资分类可以看出,优势企业的核心竞争力主要集中于特定领域的专用技术研发;其中,计算机视觉和语音识别领域的研发和应用已处于国际一流水平,专业应用机器人的研发也有望近 10 年内迎来突破性发展。可以预见的是,在由专业领域向通用领域过渡的过程中,自然语言处理与计算机视觉两个方向将会成为人工智能通用应用最大的两个突破口。

(3)产业分工日渐明晰,企业合作大于竞争

随着专用领域应用开发的成熟和差异化技术门槛的存在,国内人工智能产业将逐渐分化为底层基础构建、通用场景应用和专用应用研发三个方向。

在底层基础构建方面,腾讯、阿里巴巴、百度、华为等企业依托自身数据、算法、技术和服务器优势为行业链条的各公司提供基础资源支持的同时,也会将自身优势转化为通用和专业应用领域的研究,从而形成自身生态内的人工智能产业链闭环。

在通用场景应用方面,以科大讯飞、格灵深瞳和旷视科技为代表的企业将主要以计算机视觉和语音识别为方向,为安防、教育和金融等领域提供通用解决方案。而在专用应用研发方面则集中了大部分硬件和创业企业,这其中既包括以小米和 broadlink 为代表的智能家居解决方案商,也包含了出门问问、linkface 和优必选这类的差异化应用提供商。

总的来说,由通用领域向专业领域的进化离不开产业链条各核心环节企业的相互配合,专用领域的竞争尽管存在,但各分工层级间的协作互通已成为多数企业的共识。

(4)系统级开源将成为常态

任何一个人工智能研究分支都涉及到异常庞大的代码计算,加上漏洞排查与跨领域交叉,任何一家企业都无法做到在封闭环境内取得阶段性突破的可能。可以看到的趋势是,Google、微软、Facebook 和雅虎等视人工智能为未来核心竞争力的顶级企业都先后开放了自身的人工智能系统。

需要明确的一点是,开源并不代表核心技术和算法的完全出让,底层系统的开源将会让更多企业从不同维度参与到人工智能相关领域的研发,这为行业层面新产品的快速迭代和共同试错提供了一个良性且规范化的共生平台。于开放企业而言,这也确保了它们与行业最新前沿技术的同步。

(5)算法突破将拉开竞争差距

作为人工智能实现的核心,算法将成为未来国内人工智能行业最大的竞争门槛。以 Google 为例,Google 旗下的搜索算法实验室每天都要进行超过 200 次的改进,以完成由关键字匹配到知识图谱、语义搜索的算法创新。

在未来竞争的重点机器学习领域,监督学习、非监督学习和增强学习三个方面算法的竞争将进入白热化阶段。而正是算法层面的突破造就了腾讯优图、科大讯飞和格灵深瞳等企业在图像识别和计算机视觉领域取得了突破性进展和国际一线的技术水平。

但就目前国内人工智能算法的总体发展而言,工程学算法虽已取得阶段性突破,但基于认知层面的算法水平还亟待提高,这也是未来竞争的核心领域。

总的来看,虽然基础技术的成熟带来了存储容量和机器学习等人工智能技术的提升,但由于现阶段运算能力以及大规模 CPU 和GPU 并行解决方案的局限,目前国内人工智能的发展主要集中于计算机视觉、语音识别、智能生活等方向上。

虽然专用化领域的场景应用仍是目前研发和投资的核心,但随着技术、数据的积累演化以及超算平台的应用,由专用化领域的场景应用向语音、视觉等领域的通用化解决方案应该在未来 20 年内成为发展的主流。

第6篇:对计算机视觉的理解范文

Abstract: Surface roughness is key indexes to evaluate surface quality. Surface quality has influence on service life and usability. Two basic measuring methods are introduced: contact measuring and non-contact measuring. Non-contact measuring method based on the computer vision technology is discussed in detail.

关键词: 表面粗糙度;非接触;光学测量

Key words: surface roughness;non-contact;optics measurement

中图分类号:TH6文献标识码:A文章编号:1006-4311(2011)08-0050-02

0引言

随着科学技术的进步和社会的发展,人们对于机械产品表面质量的要求越来越高。表面粗糙度是评价工件表面质量的一个重要指标,国内外很多学者在表面粗糙度检测方面做了大量研究工作。目前测量表面粗糙度的主要方法有:接触式测量和非接触式测量。

1接触式测量

接触式测量就是测量装置的探测部分直接接触被测表面,能够直观地反映被测表面的信息,接触式测量方法主要是触针法,该方法经过几十年的充分发展,以其稳定、可靠的特点被广泛应用。但接触式测量存在很大的缺陷,具体表现在:①对高精度表面及软质金属表面有划伤破坏作用;②受触针尖端圆弧半径的限制,其测量精度有限;③因触针磨损及测量速度的限制,无法实现在线实时测量[1]。

2非接触式测量

为了克服接触式测量方法的不足,人们对非接触式测量方法进行了广泛研究。研究表明,非接触式测量方法具有非接触、无损伤、快速、测量精度高、易于实现在线测量、响应速度快等优点。目前已有的非接触式测量方法包括各种光学测量方法、超声法、扫描隧道显微镜法、基于计算机视觉技术的表面粗糙度检测方法等。这里我们只对基于光学散射原理的测量方法、基于光学干涉原理的测量方法和基于计算机视觉技术的测量方法做简单介绍。

2.1 基于光学散射原理的测量方法当一束光以一定的角度照射到物体表面后,加工表面的粗糙不平将引起发生散射现象。研究表明:表面粗糙度和散射光强度分布有一定的关系。对于表面粗糙度数值较小的表面,散射光能较弱,反射光能较强;反之,表面粗糙度数值较大的表面,散射光能较强,反射光能较弱。

基于光学散射原理测量表面粗糙度的研究方法和理论较多。四川联合大学和哈尔滨理工大学相继提出了一种称之为散射特征值的参数,表征被测物体表面上反射光和散射光的分散度,散射特征值与被测物体表面的粗糙度有很好的对应关系[2]。哈尔滨理工大学利用已知表面粗糙度参数值的标准样块测得其散射特征值,建立―关系曲线,从而实现利用散射特征值测量火炮内膛表面粗糙度[3]。

基于光学散射原理的表面粗糙度检测方法,具有结构简单、体积小、易于集成产品、动态响应好、适于在线测量等优点。该方法的缺点是测量精度不高,用于超光滑表面粗糙度的测量还有待进一步改进。

2.2 基于光学干涉原理的测量方法当相干光照射到工件表面同一位置时,由于光波的相互位相关系,将产生光波干涉现象。一般的干涉法测量是利用被测面和标准参考面反射的光束进行比较,对干涉条纹做适当变换,通过测量干涉条纹的相对变形来定量检测表面粗糙度。该方法的测量精度取决于光的波长。但是由于干涉条纹的分辨率是以光波波长的一半为极限的,仅从条纹的状态无法判断表面是凸起还是凹陷,因此,作为一种具有较好分辨率、宽测量范围的表面粗糙度在线检测技术,这种干涉法测量技术还有待于进一步发展[4]。

基于光学干涉原理,1984年美国洛克西德导弹公司huang采用共模抑制技术研制成功了光学外差轮廓仪,光外差干涉检测技术是一种具有纳米级测量准确度的高精度光学测量方法,适用于精加工、超精加工表面的测量,而且可以进行动态时间的研究;华中理工大学采用光外差干涉方法研制出2D-SROP-1型表面粗糙度轮廓仪[5]。美国的维易科(VEECO)精密仪器有限公司,采用共光路干涉法研制了WYKO激光干涉仪和光学轮廓仪,可用来测量干涉条纹位相[6]。

基于光学干涉原理测量表面粗糙度分辨率高,适于测量超光滑表面粗糙度,但由于该方法的测量精度受光波波长的影响很大,所以其测量范围受到一定影响。

2.3 基于计算机视觉技术的测量方法基于计算机视觉的粗糙度测量方法是指使用摄像机抓取图像,然后将该图像传送至处理单元,通过数字化处理,根据像素分布和灰度、纹理、形状、颜色等信息,选用合理的算法计算工件的粗糙度参数值。近年来,随着计算机技术和工业生产的不断发展,该方法受到越来越多的关注。

北京理工大学的王仲春等人采用显微镜对检测表面进行放大,并通过对CCD采集加工表面微观图像进行处理实现了表面粗糙度的检测[7]。哈尔滨理工大学吴春亚、刘献礼等为解决机械加工表面粗糙度的快速、在线检测,设计了一种表面粗糙度图像检测方法,建立了图像灰度变化信息与表面粗糙度之间的关系模型[8]。英国学者Hossein Ragheb和Edwin R.Hancock通过数码相机拍摄的表面反射图来估计表面粗糙度参数,运用Vernold Harvey修正的B K散射理论模型获得了比Oren Nayar模型更好的粗糙度估计结果[9]。澳大利亚学者Ghassan A.Al-Kindi和Bijan Shirinzadeh对基于显微视觉的不同机械加工表面粗糙度参数获取的可行性进行了评估,讨论了照射光源与表面辐照度模型对检测的影响,结果显示尽管从视觉数据和触针数据所获得的粗糙度参数存在一定差异,但是基于视觉的方法仍是一种可靠的粗糙度参数估计方法[10-11]。

可以看出,基于计算机视觉技术的测量方法主要有统计分析、特征映射和神经网络等黑箱估计法。通过这些方法获得的表面粗糙度参数的估计值受诸多因素的影响,难以给出其准确的物理解释。真正要定量地计算出粗糙度参数,需要科学的计算。

但是随着机械加工自动化水平的提高,基于计算机视觉技术的检测方法处理内容丰富、处理精度高、处理速度快、易于集成等优点将受到越来越多的重视。

3结束语

接触式测量测量速度较慢,容易划伤工件表面,并且不适用于连续生产材料表面的检测。非接触式测量具有无损伤、快速、测量精度高、易于实现在线测量等优点,已成为表面粗糙度检测的重点研究方向。非接触测量以光学法为主,随着计算机技术和工业生产的迅猛发展,基于计算机视觉技术的表面粗糙度非接触式检测方法受到越来越多的重视。

参考文献:

[1]刘斌,冯其波,匡萃方.表面粗糙度测量方法综述[J].光学仪器,2004,26(5):54-55.

[2]苑惠娟等.非接触式表面粗糙度测量仪[J].哈尔滨科学技术大学学报,1995,19(6):30-34.

[3]强熙富,张咏,许文海.扩展激光散射法测量粗糙度的测量范围的研究[J].计量学报,1990,11(2):81-85.

[4]王文卓,李大勇,陈捷.表面粗糙度非接触式测量技术研究概况[J].机械工程师,2004,11:6-9.

[5]王菊香.2D-SROP-1型表面粗糙度轮廓仪[J].工业计量,1994,(4):27-29.

[6]徐德衍等.光学表面粗糙度研究的进展与方向[J].光学仪器,1996,18(1):32-41.

[7]王仲春,高岳,黄粤熙等.显微成像检测表面粗糙度[J].光学技术,1998,5:46-48.

[8]吴春亚,刘献礼,王玉景等.机械加工表面粗糙度的图像检测方法[J].哈尔滨理工大学学报,2007,12(3):148-151.

[9]Hossein Ragheb,Edwin R.Hancock.The modified Beckmann Kirchhoff scattering theory for rough surface analysis[J].Pattern Recognition,2007,40:2004-2020.

第7篇:对计算机视觉的理解范文

16岁那年,李飞飞跟随父母来到美国。在国内,李飞飞的父母都有优越的工作。来到美国,因为语言上的障碍,一下子陷入了困境。懂事的李飞飞明白,想要改变现状,她现在最需要的是过英语这关。

为了练习口语,李飞飞找到一家餐馆打工。一开始老板不肯收她,原因是她不会说英语。她求餐馆里的一个中国同胞帮她翻译,老板给她开一半的工资就行。老板考虑之后答应先让她干一个星期再看。李飞飞非常珍惜这份工作,干活特别卖力,她不错过任何一个练习口语的机会。只要有人说话,她就跟着小声说。

她很聪明,根据表情基本可以判断出他们说话的内容,不懂的就找机会问。下班回家跟着电视继续学,她把练习口语调到了疯狂模式。一个星期之后,她已经会说些简单的口语了。老板没有解雇她,因为她的好学精神打动了老板。

李飞飞了解到申请在美国读大学,如果成绩十分优异,可以领取奖学金。她只要有空就复习功课,白天上班很辛苦,晚上很容易犯困。有时候困得眼睛快睁不开时,就用冰块敷眼睛。每天到凌晨,父母再三催她去睡觉她才肯放下课本。经过一年的努力之后,她申请了多所大学,最终选择了普林斯顿,因为这所大学给她近乎全额的奖学金。

大学期间,父母双双失业,家里的经济出现危机。李飞飞只要有空就去做兼职,在餐厅洗过盘子,送过快餐。有个朋友知道她的处境,介绍她去给一家主人遛狗。她从小就害怕狗,但是为了不错过这个赚钱的机会,她还是硬着头皮答应了。第一次主人把一条身体强壮、气势强悍的罗威纳犬牵到她面前时,她差点吓哭了,不过还是强做镇静之后接过主人递过来的狗链。

1999年,22岁的李飞飞一路磕磕绊绊以十分优异的成绩从普林斯顿大学毕业。多家金融公司递来了橄榄枝,包括高盛集团的offer。她却做了一个让大家意外的决定:到加州理工学院攻读博士学位。

一天,李w飞看到孩子拿着几张图片辨认上面的物品,两岁的孩子能正确地认出猫和狗,还有冰箱等。她突发奇想,如果电脑也可以跟人一样自己辨别图片上显示的是什么,将会给人带来很多方便。

2000年,李飞飞开始研究计算机视觉领域。她希望计算机看到一张图片就像人的头脑一样能够分析。她和同事为来自互联网的十亿张图片进行分类、打标签,从而为计算机提供样本。其中理论基础是如果机器观察到足够多的事物,它们就能够在现实世界进行识别。在研究过程中,经费出现了问题,她倾其所有,甚至想过边打工边维持。让她感到欣慰的是有三位恩师倾力指导,还有不少学生真心追随。他们对她的专业素养高度肯定,甚至觉得整个CV领域因她而不同。

通过不懈努力,她在人工智能和计算机视觉方面取得成就。她的研究成果使得计算机能够更好地理解图片,而不仅限于展示图片。这为无人车自动驾驶提供了可能,通过计算机学习人脑然后自动做出决定。

前不久,她的名为《如何教计算机理解图片》的TED演讲引起了许多人的关注。她也收获了各种奖励和荣誉。

第8篇:对计算机视觉的理解范文

关键词:数据融合传感器无损检测精确林业应用

多传感器融合系统由于具有较高的可靠性和鲁棒性,较宽的时间和空间的观测范围,较强的数据可信度和分辨能力,已广泛应用于军事、工业、农业、航天、交通管制、机器人、海洋监视和管理、目标跟踪和惯性导航等领域。笔者在分析数据融合技术概念和内容的基础上,对该技术在林业工程中的应用及前景进行了综述。

一、数据融合

1.1概念的提出

1973年,数据融合技术在美国国防部资助开发的声纳信号理解系统中得到了最早的体现。

70年代末,在公开的技术文献中开始出现基于多系统的信息整合意义的融合技术。1984年美国国防部数据融合小组(DFS)定义数据融合为:“对多源的数据和信息进行多方的关联、相关和综合处理,以更好地进行定位与估计,并完全能对态势及带来的威胁进行实时评估”。

1998年1月,Buchroithner和Wald重新定义了数据融合:“数据融合是一种规范框架,这个框架里人们阐明如何使用特定的手段和工具来整合来自不同渠道的数据,以获得实际需要的信息”。

Wald定义的数据融合的概念原理中,强调以质量作为数据融合的明确目标,这正是很多关于数据融合的文献中忽略但又是非常重要的方面。这里的“质量”指经过数据融合后获得的信息对用户而言较融合前具有更高的满意度,如可改善分类精度,获得更有效、更相关的信息,甚至可更好地用于开发项目的资金、人力资源等。

1.2基本内容

信息融合是生物系统所具备的一个基本功能,人类本能地将各感官获得的信息与先验知识进行综合,对周围环境和发生的事件做出估计和判断。当运用各种现代信息处理方法,通过计算机实现这一功能时,就形成了数据融合技术。

数据融合就是充分利用多传感器资源,通过对这些多传感器及观测信息的合理支配和使用,把多传感器在空间或时间上的冗余或互补信息依据某些准则进行组合,以获得被测对象的一致性解释或描述。数据融合的内容主要包括:

(1)数据关联。确定来自多传感器的数据反映的是否是同源目标。

(2)多传感器ID/轨迹估计。假设多传感器的报告反映的是同源目标,对这些数据进行综合,改进对该目标的估计,或对整个当前或未来情况的估计。

(3)采集管理。给定传感器环境的一种认识状态,通过分配多个信息捕获和处理源,最大限度地发挥其性能,从而使其操作成本降到最低。传感器的数据融合功能主要包括多传感器的目标探测、数据关联、跟踪与识别、情况评估和预测。

根据融合系统所处理的信息层次,目前常将信息融合系统划分为3个层次:

(l)数据层融合。直接将各传感器的原始数据进行关联后,送入融合中心,完成对被测对象的综合评价。其优点是保持了尽可能多的原始信号信息,但是该种融合处理的信息量大、速度慢、实时性差,通常只用于数据之间配准精度较高的图像处理。

(2)特征层融合。从原始数据中提取特征,进行数据关联和归一化等处理后,送入融合中心进行分析与综合,完成对被测对象的综合评价。这种融合既保留了足够数量的原始信息,又实现了一定的数据压缩,有利于实时处理,而且由于在特征提取方面有许多成果可以借鉴,所以特征层融合是目前应用较多的一种技术。但是该技术在复杂环境中的稳健性和系统的容错性与可靠性有待进一步改善。

(3)决策层融合。首先每一传感器分别独立地完成特征提取和决策等任务,然后进行关联,再送入融合中心处理。这种方法的实质是根据一定的准则和每个决策的可信度做出最优的决策。其优点是数据通讯量小、实时性好,可以处理非同步信息,能有效地融合不同类型的信息。而且在一个或几个传感器失效时,系统仍能继续工作,具有良好的容错性,系统可靠性高,因此是目前信息融合研究的一个热点。但是这种技术也有不足,如原始信息的损失、被测对象的时变特征、先验知识的获取困难,以及知识库的巨量特性等。

1.3处理模型

美国数据融合工作小组提出的数据融合处理模型,当时仅应用于军事方面,但该模型对人们理解数据融合的基本概念有重要意义。模型每个模块的基本功能如下:

数据源。包括传感器及其相关数据(数据库和人的先验知识等)。

源数据预处理。进行数据的预筛选和数据分配,以减轻融合中心的计算负担,有时需要为融合中心提供最重要的数据。目标评估。融合目标的位置、速度、身份等参数,以达到对这些参数的精确表达。主要包括数据配准、跟踪和数据关联、辨识。

态势评估。根据当前的环境推断出检测目标与事件之间的关系,以判断检测目标的意图。威胁评估。结合当前的态势判断对方的威胁程度和敌我双方的攻击能力等,这一过程应同时考虑当前的政治环境和对敌策略等因素,所以较为困难。

处理过程评估。监视系统的性能,辨识改善性能所需的数据,进行传感器资源的合理配置。人机接口。提供人与计算机间的交互功能,如人工操作员的指导和评价、多媒体功能等。

二、多传感器在林业中的应用

2.1在森林防火中的应用

在用MODIS(ModerateResolutionImagingSpectroradiometer)数据测定森林火点时的20、22、23波段的传感器辐射值已达饱和状态,用一般图像增强处理方法探测燃烧区火点的结果不理想。余启刚运用数据融合技术,在空间分辨率为1000m的热辐射通道的数据外加入空间分辨率为250m的可见光通道的数据,较好地进行了不同空间分辨率信息的数据融合,大大提高了对火点位置的判断准确度。为进一步提高卫星光谱图像数据分析的准确性与可靠性,利用原有森林防火用的林区红外探测器网,将其与卫星光谱图像数据融合,可以使计算机获得GPS接收机输出的有关信息通过与RS实现高效互补性融合,从而弥补卫星图谱不理想的缺失区数据信息,大大提高燃烧区火点信息准确度和敏感性。

2.2森林蓄积特征的估计

HampusHolmstrom等在瑞典南部的试验区将SPOT-4×S卫星数据和CARABAS-IIVHFSAR传感器的雷达数据进行了融合,采用KNN(knearestneighbor)方法对森林的蓄积特征(林分蓄积、树种组成与年龄)进行了估计。

KNN方法就是采用目标样地邻近k个(k=10)最近样地的加权来估计目标样地的森林特征。研究者应用卫星光谱数据、雷达数据融合技术对试验区的不同林分的蓄积特征进行估计,并对三种不同的数据方法进行误差分析。试验表明,融合后的数据作出的估计比单一的卫星数据或雷达数据的精度高且稳定性好。

2.3用非垂直航空摄像数据融合GIS信息更新调查数据

森林资源调查是掌握森林资源现状与变化的调查方法,一般以地面调查的方法为主,我国5年复查一次。由于森林资源调查的工作量巨大,且要花费大量的人力、物力和资金。国内外许多学者都在探索航空、航天的遥感调查与估计方法。

TrevorJDavis等2002年提出采用非垂直的航空摄影数据融合对应的GIS数据信息实现森林调查数据的快速更新,认为对森林资源整体而言,仅某些特殊地区的资源数据需要更新。在直升飞机侧面装上可视的数字摄像装置,利用GPS对测点进行定位,对特殊地区的摄像进行拍摄,同时与对应的GIS数据进行融合,做出资源变化的估计或影像的修正。

试验表明,融合后的数据可以同高分辨率矫正图像相比,该方法花费少,精度高,能充分利用影像的可视性,应用于偏远、地形复杂、不易操作、成本高的区域,同时可避免遥感图像受云层遮盖。

三、数据融合在林业中的应用展望

3.1在木材检测中的应用

3.1.1木材缺陷及其影响

木材是天然生长的有机体,生长过程中不可避免地有尖削度、弯曲度、节子等生长缺陷,这些缺陷极大地影响了木材及其制品的优良特性,以及木材的使用率、强度、外观质量,并限制了其应用领域。在传统木制品生产过程中,主要依靠人的肉眼来识别木材缺陷,而木材板材表面缺陷在大小、形状和色泽上都有较大的差异,且受木材纹理的影响,识别起来非常困难,劳动强度大,效率低,同时由于熟练程度、标准掌握等人为因素,可能造成较大的误差。另外在集成材加工中,板材缺陷的非双面识别严重影响了生产线的生产节拍。因此必须开发一种能够对板材双面缺陷进行在线识别和自动剔除技术,以解决集成材加工中节子人工识别误差大、难以实现双面识别、剔除机械调整时间长等问题。

3.1.2单一传感器在木材检测中的应用

对木材及人造板进行无损检测的方法很多,如超声波、微波、射线、机械应力、震动、冲击应力波、快速傅立叶变换分析等检测方法。超声技术在木材工业中的应用研究主要集中在研究声波与木材种类、木材结构和性能之间的关系、木材结构及缺陷分析、胶的固化过程分析等。

随着计算机视觉技术的发展,人们也将视觉传感器应用于木材检测中。新西兰科学家用视频传感器研究和测量了纸浆中的纤维横切面的宽度、厚度、壁面积、壁厚度、腔比率、壁比率等,同时准确地测量单个纤维和全部纤维的几何尺寸及其变化趋势,能够区分不同纸浆类型,测定木材纤维材料加固结合力,并动态地观察木材纤维在材料中的结合机理。

新西兰的基于视觉传感器的板材缺陷识别的软件已经产业化,该软件利用数码相机或激光扫描仪采集板材的图像,自动识别板材节子和缺陷的位置,控制板材的加工。该软件还具有进行原木三维模型真实再现的计算机视觉识别功能,利用激光扫描仪自动采集原木的三维几何数据。

美国林产品实验室利用计算机视觉技术对木材刨花的尺寸大小进行分级,确定各种刨花在板中的比例和刨花的排列方向;日本京都大学基于视觉传感器进行了定向刨花板内刨花定向程度的检测,从而可以通过调整定向铺装设备优化刨花的排列方向来提高定向刨花板的强度。

在制材加工过程中,利用计算机视觉技术在线实时检测原木的形状及尺寸,选择最佳下锯方法,提高原木的出材率。同时可对锯材的质量进行分级,实现木材的优化使用;在胶合板的生产过程中,利用计算机视觉技术在线实时检测单板上的各种缺陷,实现单板的智能和自动剪切,并可测量在剪切过程中的单板破损率,对单板进行分等分级,实现自动化生产过程。Wengert等在综合了大量的板材分类经验的基础上,建立了板材分级分类的计算机视觉专家系统。在国内这方面的研究较少,王金满等用计算机视觉技术对刨花板施胶效果进行了定量分析。

X射线对木材及木质复合材料的性能检测已得到了广泛的应用,目前该技术主要应用于对木材密度、含水率、纤维素相对结晶度和结晶区大小、纤维的化学结构和性质等进行检测,并对木材内部的各种缺陷进行检测。

3.1.3数据融合在木材检测中的应用展望

单一传感器在木材工业中已得到了一定程度的应用,但各种单项技术在应用上存在一定的局限性。如视觉传感器不能检测到有些与木材具有相同颜色的节子,有时会把木板上的脏物或油脂当成节子,造成误判,有时也会受到木材的种类或粗糙度和湿度的影响,此外,这种技术只能检测部分表面缺陷,而无法检测到内部缺陷;超声、微波、核磁共振和X射线技术均能测量密度及内部特征,但是它们不能测定木材的颜色和瑕疵,因为这些缺陷的密度往往同木板相同。因此,一个理想的检测系统应该集成各种传感技术,才能准确、可靠地检测到木材的缺陷。

基于多传感器(机器视觉及X射线等)数据融合技术的木材及木制品表面缺陷检测,可以集成多个传统单项技术,更可靠、准确地实时检测出木材表面的各种缺陷,为实现木材分级自动化、智能化奠定基础,同时为集裁除锯、自动调整、自动裁除节子等为一身的新型视频识别集成材双面节子数控自动剔除成套设备提供技术支持。

3.2在精确林业中的应用

美国华盛顿大学研究人员开展了树形自动分析、林业作业规划等研究工作;Auburn大学的生物系统工程系和USDA南方林业实验站与有关公司合作开展用GPS和其他传感器研究林业机器系统的性能和生产效率。

目前单项的GPS、RS、GIS正从“自动化孤岛”形式应用于林业生产向集成技术转变。林业生产系统作为一个多组分的复杂系统,是由能量流动、物质循环、信息流动所推动的具有一定的结构和功能的复合体,各组分间的关系和结合方式影响系统整体的结构和功能。因此应该在计算机集成系统框架下,有效地融合GPS、GIS、RS等数据,解决这些信息在空间和时间上的质的差异及空间数据类型的多样性,如地理统计数据、栅格数据、点数据等。利用智能DSS(决策支持系统)以及VRT(可变量技术)等,使林业生产成为一个高效、柔性和开放的体系,从而实现林业生产的标准化、规范化、开放性,建立基于信息流融合的精确林业系统。

南京林业大学提出了“精确林业工程系统”。研究包括精确林业工程系统的领域体系结构、随时空变化的数据采集处理与融合技术、精确控制林业生产的智能决策支持系统、可变量控制技术等,实现基于自然界生物及其所赖以生存的环境资源的时空变异性的客观现实,以最小资源投入、最小环境危害和最大产出效益为目标,建立关于林业管理系统战略思想的精确林业微观管理系统。

[参考文献]

第9篇:对计算机视觉的理解范文

机器和人类、现实和科幻、邪恶和美好的分界从来没有像今天这样如此模糊。眺望未来30年,智能革命的壮阔波澜,将改写人类社会对智商的理解和定义。

从AlphaGo说起:Have to win

关于这场围棋大赛,先引用一段博士老板Alan Yuille教授(美国顶级机器智能科学家,霍金理论物理学博士)的判断:

Go is a complex game but still it is finite so with enough computer power,and clever algorithm,the computers will have to win(if not this year,then next year)。(围棋是一套复杂但有内在逻辑和明确计算量的游戏,所以只要计算机遵循围棋的推演路径并拥有充裕的运算能力就必然能够赢得人类、取得胜利,AlphaGo的胜利对于计算机而言只不过是时间问题。)

AlphaGo战胜人类,美国学术界早有准备

伴随着摩尔定律的不断实现和几十年来人工智能的软硬件技术积累,人工智能其实已经悄然改变了我们生活中的许多方面,当我们还在感慨电影中各种AI的强大时,未来已经悄然而来,AlphaGo只是这场人工智能大浪潮中的一朵璀璨浪花。

在过去的5年里,人工智能已经在语音识别、计算机视觉、语言理解、医疗健康等领域取得了巨大进展,并在某些领域里超过了人类,比如语音识别、人脸识别等等方面。

以计算机视觉为例,人工智能已经发展出了突破肉眼精度的图像识别技术并已被广泛的应用于公安、金融、信息安全等领域,产生了巨大的价值。而这些进展之所以没有引起社会轰动,是因为社会中大部分非专业人员会通过直觉和自身感受而推论出机器识别“人脸”、识别“苹果”等图像信息是一件容易的任务,是一件不同年龄、不同教育背景、不同文化背景的人都能胜任的任务,在这其中体现不出人工智能的“智能”来。

但站在人工智能发展的角度,从围棋和图像识别的复杂性和不确定型来说,图像的变化比棋盘的变化要大得多。

围棋是有可遵循的逻辑、可衡量的计算量的游戏,对于人类大脑的难度在于庞大的计算量和对棋盘宏观形势的敏感度;而图像识别则会在信息抓取和逻辑分析层面呈现出更广泛意义上的随机性和不确定性。

通过机器学习将图像中的信息进行分类解析、最终提取有价值的结构化数据是极难的科研课题,从学术界到工业界的转化耗费了几十年的时光。

然而相比于计算机视觉、语言语音理解等其他的进步,AlphaGo的划时代意义在于它不仅仅缩短了机器与人的智能距离,还将颠覆人与人智商差异的感知。

未来人与人的智商差距不再会是不可弥补的先天差距,而将成为一种可以通过工具而后天获取的能力,这带来的会是人类自我价值评估的一次大颠覆,智商对于人的意义将会在一定程度上有所下降。这就像从前算术不好的,现在用计算器就能补上;未来下棋不好的,可能只是加个AlphaGo就能补上。“智商”这个词的定义可能会被迫从形容人和动物差异,变成由人和机器的差异所定义。

第一个十年的变化:The rich get richer(富人更富,强者更强)

从短期来看,让我们畅想一下在这场大浪潮中,谁会成为最大的受益者呢?

当我们回顾推动人工智能发展的关键因素时,有三个要素极为重要:数据、算法和计算。

AlphaGo这次在全社会范围内对人工智能进行了一场大面积的认知普及,会使得拥有成熟商业模式和海量数据优势的BAT等巨头重金投入这片市场,彼此间的互相追赶将在市场中形成像google收购deep mind一样的并购风潮。

同时伴随着计算能力的不断提升和算法的持续优化,这将带来人工智能史上的第一次大规模应用实践,各巨头的业务将因为人工智能带来的效率提升而加速拓展,他们相较其它竞争者的优势也会因此不断加大,这就正如今天的google相对于其他公司一样。

当资本成为这场竞逐游戏的驱动力时,获得先发优势的公司雪球也必将越滚越大,优势将在成长中愈发明显,The rich get richer。

未来的思考:人类将重新理解知识、智慧、人性

从远期来看,人工智能的进步将改写人类对自我、知识和教育的理解。

倘若,90%的医生、律师、教师、程序员能被机器所代替,人们将需要重新开始讨论“人”的自我定义和“知识”的新时代价值。

当旧时代下的知识已成为机器人仅需拷贝和执行的简单命令,而“为什么要学法律、学编程等”的疑问及背后对自我价值的疑惑就必将引发社会教育结构的变革。

过往人与人之间通过知识组合的不同而形成的差异将被人工智能抹平,“高考”等考试测评手段作为广义上的游戏(game),就像围棋一样,将不再能作为准确评价智慧和学识的方式而被修正。

当在体力劳动和脑力劳动里独立的人类相对于机器都不再具备经济优势时,人的存在形态、存在价值和机器的交互融合将成为未来前沿学术研究的重要课题,这会是一次人类社会的集体迷思、也会是人类价值的再次追寻。

人类的希望?

有人曾说,机器和人的差异是艺术的创作和欣赏。但这对于人工智能而言,已经并不是什么特别难的事情,大概在10年前就已有成熟的学术成果来用计算机创作梵高风格的作品,在这背后的艺术风格提炼、学习和再造并不是什么新鲜的技术。

也有人说,机器和人的差异是情感。但我不确定现今的人类社会对情感的定义是否像对智商一样,有着广泛的共识而能成为人类独特性的特征。情感诞生于本能和动物性,只是在人身上闪烁出了更加多彩的光芒,悲欢喜乐、嬉笑怒骂,这本就是人性中最难以捉摸而妙不可言的部分。

所以,机器和人的区别最终会是什么呢?在这个恐怕哲学家也难以回答的终极问题下,我想起了最近读到的这样一句话,“如果机器认为这场战斗必败,那么机器会选择投降;如果人认为这场战斗必败,那么有人会选择义无反顾的战斗,直至战死为止。”

或许,这句话里已经轻轻道出了我们与机器的区别。