前言:一篇好文章的诞生,需要你不断地搜集资料、整理思路,本站小编为你收集了丰富的视觉算法培训主题范文,仅供参考,欢迎阅读并收藏。
关键词: 虚拟现实; 双目视差; 近距显示; 视觉舒适度
中图分类号: TN27?34; TM417 文献标识码: A 文章编号: 1004?373X(2017)01?0140?05
Abstract: The virtual reality technology developed rapidly, and has been widely used in many fields, but the traditional CAVE system is difficult to promote and popularize due to the large floor space, high cost and difficult installation and adjustment, therefore, the research and development of the portable CAVE system has great significance to the popularization and development of the virtual reality technology. According to the features of the portable CAVE system, the visual optical system was designed, the distortion correction of the projected image and random dot stereogram generation algorithm are studied, and the close range stereoscopic display system based on visual optical system adjustment was built. The subjective evaluation experiment of the visual comfort degree was designed and implemented to explore the relationship between the visual fatigue degree and parallax caused by the close range display. The visual comfort degree of the stereoscopic display system based on visual optical system was assessed. This technology provides a reference foundation for the study of the portable CAVE system, and has a certain practical significance to the development of the virtual reality technology and the study of the stereoscopic visual comfort degree.
Keywords: virtual reality; binocular disparity; close range display; visual comfort degree
0 引 言
近年恚虚拟现实技术发展迅速,已经被广泛应用于军事训练、医学实习、娱乐游戏等诸多领域。传统的虚拟现实显示系统虽然技术成熟,但存在一些弊端,因此便携式CAVE系统的概念应运而生。本文搭建了近距立体显示原型系统,通过主观实验,探究了便携式CAVE系统中双目视差的感知深度和单眼聚焦感知深度的差异,以及用户可接受的视觉舒适范围,对基于目视光学系统调节的立体显示系统的视觉舒适度进行评估。
1 立体视觉舒适度的评估方法
1.1 刺激方法的选择
为了避免视差的时间积累效应,实验采用双刺激连续分级法。为控制实验过程中产生的习惯误差,不同视差的立体图按照随机序列交替呈现,且各视差出现的次数相等,整个序列中在前在后的机会相等。
实验的具体刺激方法是:将波纹中心在零视差处的刺激物记为基准图波纹中心在其他位置的刺激物记为待评估图每次施测依次显示三个刺激物,其顺序为或者其目的是强迫用户改变双眼的辐辏角度。每个刺激物显示1.5 s,三个刺激物共显示4.5 s,不同视差的待评估图像随机出现。被试者要独立地进行观测,选出其中一个与其他两个波动方向不同的刺激物,并对该过程的视觉舒适度进行主观评分。同一组图像需随机显示两次以便对评分结果进行一致性检查。
1.2 反应指标的选择
反应指标的选择应依据以下原则:
(1) 无害性。所选取的反应指标不应对被试者产生身体伤害,同时不能对被试者产生负面心理影响,阻碍实验的继续进行。
(2) 无干扰性。所选取的反应指标在测量过程中不能干扰被试者正常观看图像。
(3) 敏感性。所选反应指标应该能够有效地反应出视觉舒适度和视觉疲劳程度。
根据分析,实验主要采用主观评估方法对视觉舒适度进行研究。主观评价方法更适用于对视觉舒适度进行综合评价。舒适度的主观评价方法[1]主要是让被试者在观看立体图像前后根据自身的视觉状况填写问卷,并对问卷的结果进行统计分析。
1.3 主观量表设计方法
主观量是指用户对客观刺激产生的主观度量,又称心理量[2]。在视觉实验中,主观评估方法需对被试者心理量进行测量。主观实验中的心理度量表主要包括:强迫选择度量表、图示度量表和数值度量表。
(1) 强迫选择度量表。强迫选择度量表是在主观评估实验时主试者提供一些对立相反的词语让被试者做出选择。强迫选择度量表可以避免被试者受到他人的影响,但可能会使被试者产生抵触情绪,因为大多数人不愿意让自己处于两难选择的境地。
(2) 图示度量表。图示度量表好比一个温度计,通常用一条直线表示,直线两端具有相反程度的词语。这条直线可以是水平的,也可以是垂直的。实验中被试者需在直线上做标记,实验后主试者用标尺对标记进行度量,将它转换成数字并进行统计。图示度量表的数据统计工作较为复杂和繁琐,本文实验的数据量巨大,因此图示度量表并不适用。
(3) 数值度量表。在数值度量表中,被试者根据事先定义的数字等级进行评定,一般为7级评分或5级评分。在视觉舒适度研究中,可设计度量表如下:非常舒适、舒适、一般、不舒适、非常不舒适。设定等级分值时可以考虑“非常不舒适”为-2分,“不舒适”为-1分,“一般”为0分,“舒适”为1分,“非常舒适”为2分;也可以考虑“非常不舒适”为1分,“不舒适”为2分,“一般”为3分,“舒适”为4分,“非常舒适”为5分。通常情况下不管哪种处理和分析得到的结果是等效的。
本文实验为了使被试者容易理解,考虑一般人的思维模式,将数值度量表等级设计为:“非常舒适”为1分,“舒适”为2分,“一般”为3分,“不舒适”为4分,“极不舒适”为5分。舒适度量表如表1所示。
2 近距立体显示实验系统
2.1 目视光学系统
在便携式CAVE系统中,需要利用目视光学系统调节用户眼睛的调节距离,使人眼不再聚焦于屏幕上。本文实验的目的是研究经过目视光学系统调节后的单眼调节距离和双眼辐辏距离的差异对用户视觉舒适度的影响。实验中需通过改变目视光学系统的屈光度来改变被试者单眼的调节距离。考虑到人眼作为自然界的最高级光学接收系统,具有极强的自我适应和调节能力,因此,本系统选用单片式目镜即可满足基本的成像要求。
2.2 随机点立体图的生成
随机点立体图像对的生成算法如下:
设基面为视差面为
(1) 将基面沿纵方向均分成块,左边第一块区域为原始区,其余各块区域均为重复区域。重复间距为d必须小于瞳距。
(2) 在原始区内画一个随机点
(3) 令得到一新的点如果点在面内,则令如果点不在面内,则令然后在处画出这个新点。
(4) 重复上述步骤(2)、步骤(3),直到图面上布满适当密度的随机点为止。
2.3 投影图像的畸变矫正
本系统应采用侧投影的方式,在这种情况下投影图像会产生畸变,应进行投影图像的畸变矫正。进行投影图像的畸变矫正的模型是将真实投影机的投影图像变换为虚拟投影机的投影图像,从而恢复原始图像[5]。其基本过程是:根据透视变换原理,先计算出投影机图像平面到投影平面的单映矩阵,再将投影机图像平面上的所有像素点乘以这个单映矩阵后进行显示,那么屏幕上获得的图像就是校正后的图像。
3 近距立体显示系统的舒适度评估实验
3.1 实验目的及原理
本实验的主要目的是研究基于目视光学系统调节的近距立体显示系统中单眼感知深度(调节距离)和双眼感知深度(辐辏距离)[5]的差异对用户视觉舒适度的影响。
由式(8)可知,当眼睛到屏幕的距离和瞳距一定时,通过改变立体图像对的水平视差可以改变被试者的双眼感知深度(辐辏距离)。
3.2 被试者筛选及培训
筛选工具:数字化立体视觉检查图(立体视觉检查卡、立体视锐度检查卡)、瞳距测量尺。
本实验被试者的筛选流程如下:
第一步:询问被试者眼部的健康状况、有无色盲、是否做过眼部手术、是否有眼部病史,如结膜炎、眼眶骨折等,筛选出眼睛健康且无病史的被试者。
第二步:进行立体视觉测试,检查被试者的双目立体视觉是否正常,排除立体盲。
第三步:对立体视觉正常的被试者进行立体视锐度测试,筛选出立体视锐度小于60 arcmin的被试者。
第四步:对被试者的年龄、性别、视力、瞳距、有无主观实验经验、是否从事立体视觉相关工作等基本信息进行记录[6]。
榱吮苊獗皇哉哂捎诓皇煜な笛榱鞒毯筒僮鞴程而影响实验结果的准确性,实验前需对被试者进行相关培训和模拟练习。
首先,采用无偏向性的语气向被试者讲解实验目的、评价类型、评价等级和时间限制等内容,使被试者正确透彻地理解评判标准,并向被试者展示舒适度明显不同的若干立体图像示例。
然后,让被试者进行模拟练习,模拟练习的内容与正式的实验过程类似。被试者连续观看三组立体图像后,用选择器输入差异图像的编号并对该组立体图像引起的视疲劳程度进行评分,练习时间为3 min。
培训完成后,被试者即可进行正式的主观视觉舒适度评价实验。
3.3 实验过程
实验1:探究近距显示引起的视觉疲劳与视差的关系
被试者佩戴屈光度为0的目视光学系统,在距离屏幕0.6 m的位置观察随机出现的立体图像,并进行视觉任务测试和主观舒适度评分。实验1设定刺激物的中心到被试者的距离(辐辏距离)分别为0.79 m,0.94 m,1.15 m,1.50 m,2.14 m,3.75 m,且随机出现。调节距离为0.6 m。
实验1共进行36组小测试。每组测试会连续出现3幅立体图像,被试者双眼融像[7]后,可看到立体图像出现正弦波纹的效果,被试者需选出一个与其他两个正弦波动方向不同的立体图像,利用选择器将它的编号输入到主机系统中。然后对该组小测试产生的视觉疲劳症状进行主观评分。
时间安排及流程:三种位置(1,2,3)×6种辐辏距离(0.79 m,0.94 m,1.15 m,1.50 m,2.14 m,3.75 m)×2种显示序列(B?Xi?B或Xi?B?Xi)=36次施测,每次施测时间为1 min×36次=36 min。
实验2:探究基于目视光学系统调节的立体视觉舒适度
被试者随机佩戴屈光度分别为的目视光学系统,在距离屏幕0.6 m的位置依次进行3个亚组的实验,实验2中设定刺激物的中心到被试者的距离(辐辏距离)分别为0.79 m,0.94 m,1.15 m,1.50 m,2.14 m,且随机出现。人眼的调节距离分别为1.09 m,1.50 m,2.40 m。
实验2中每个亚组各进行30组小测试。每组测试会连续出现3幅立体图像,被试者双眼融像后,可以看到立体图像出现正弦波纹的效果,被试者需选出一个与其他两个正弦波动方向不同的立体图像,利用选择器将它的编号输入主机中,然后对该组小测试产生的视觉疲劳症状进行主观评分。
时间安排及流程:3种透镜度数×3种位置(1,2,3)×5种辐辏距离(0.79 m,0.94 m,1.15 m,1.50 m,2.14 m)×2种显示序列(B?Xi?B或Xi?B?Xi)=90次施测,每次施测调节时间为1 min×90+15 min间隔休息×2=120 min。
3.4 实验结果分析
(1) 近距显示引起的视觉疲劳与视差绝对值[8]呈正相关
将实验1中24个被试者的舒适度主观评分根据不同的辐辏距离进行均值统计。当视差取绝对值时,视差绝对值和视觉舒适度主观评分值经过线性拟合后得到两者的关系模型为:
视差绝对值和视觉舒适度主观评分值的线性相关度为具体见图2。实验结果表明,视觉舒适度的主观评分与视差值呈线性关系,也就是说,对于近距立体显示单眼聚焦和双眼辐辏的不一致性所引起的视觉疲劳与立体视差值成正比关系。单眼聚焦和双眼辐辏的差异越大,产生的视疲劳程度越大,这个结果与大部分研究结果相一致。
(2) 主观舒适度与理论值的符合度基本一致
将实验2中24个被试者的视觉舒适度主观评分根据不同的辐辏距离和调节距离进行均值统计,并将每个亚组的理论舒适度和实验获得的主观舒适度进行比较。
目视光学系统的屈光度为0.75D,1.00D,1.25D的实验结果,如图3~图5所示。
实验结果表明,当调节距离一定时,分别为1.09 m,1.5 m,2.4 m,由辐辏距离的改变引起的视疲劳症状与理论计算得到的结果在总趋势上大体一致。在基于目视光学系统调节的立体显示系统中,辐辏距离越小,符合度越好。在相同视差条件下,经过目视光学系统调节后产生更大的不适感。
(3) 视差舒适度曲线
将实验2中三个亚组的所有情况的视差值与主观舒适度评分进行综合统计,绘制舒适度曲线如图6所示。
实验结果表明,基于目视光学系统调节的立体显示系统中,视差绝对值越小,视觉舒适度越高。在同等视差条件下,非交叉视差的舒适度优于交叉视差。与传统立体显示设备相比,舒适视域向非交叉视差方向偏移。
4 结 论
本文在充分了解双目立体视觉原理、视差型立体显示技术原理、立体显示引起视觉疲劳的根本原因等理论知识的基础上,搭建近距虚拟现实显示系统原型作为实验系统,设计实验研究了基于目视光学系统调节的立体显示系统的视觉舒适度问题。对虚拟现实技术的发展和立体视觉舒适度的研究具有一定的实际意义。
参考文献
[1] 张英静,李素梅,卫津津,等.立体图像质量的主观评价方案[J].光子学报,2012,41(5):602?607.
[2] KIM D, CHOI S, SOHN K. Visual comfort enhancement for stereoscopic video based on binocular fusion characteristics [J]. IEEE transactions on circuits and systems for video technology, 2013, 23(3): 482?487.
[3] 王飞,王晨升,刘晓杰.立体显示技术的原理、体视因素和术语[J].工程图学学报,2010(5):69?73.
[4] 李志永.立体视觉基础[J].现代电影技术,2011(1):52?55.
[5] 顾郁莲,蔡宣平.计算机立体视图绘制技术[J].国防科技参考,1998,19(1):63?70.
[6] 敬万钧.虚拟现实中的视觉系统与其实现技术[J].计算机应用,1997,17(3):5?7.
关健词:ASTER;GeoTIFF数据;DEM数据;格式转换;Creator地形建模
中图分类号:TP15文献标识码:A 文章编号:1009-3044(2011)17-4152-03
Three Dimensional Terrain Modeling Method with Creator Software Based on the ASTER Remote Sensing Data
TAO Hai-jun1, YANG Jing2, YE Xiao-jun1
(1.Artillery Academy.PLA, Hefei 230031, China; 2.Anhui Sanlian University, Hefei 230001, China)
Abstract: Large area real terrain modeling is the key technology in developing Visual simulation system. This paper provides a terrain modeling method with Creator software based on the ASTER remote sensing satellite data, the GeoTIFF data format provided by ASTER is being converted to the USGS DEM data by using format Conversion techniques, the terrain model of some region is established through Creator terrain modeling technology, the three-dimensional model of real terrain is established practically and quickly.
Key words: ASTER; GeoTIFF data; DEM data; format conversion; creator terrain modeling
视景仿真是三维地形建模技术、图形处理和图像生成技术、立体影像和信息合成技术、计算机网络技术、仿真技术等诸多高新技术的综合应用,在很多领域如军事训练、城市规划、健康医疗、教育培训等方面都有着广泛的应用。大面积真实地形三维建模技术是实时视景仿真系统开发的关键技术之一,是近年来视景仿真领域研究的热点。能获取真实、准确地表述地形起伏特征的地形数据源是进行大面积真实地形三维建模的前提条件,地形数据源主要是指建立数字高程模型(Digital Elevation Model,DEM)用到的高程数据,获取方法主要有以下几种:1)采用大地测量的方法直接从地形上测出高程;2)利用航空摄影测量照片,采用数字高程判断仪从两张对应的照片上读取高程;3)利用遥感卫星星载设备获取地形高程数据;4)从小比例尺等高线地图上读取高程数据;5)从现有的地理信息系统提取所需区域的地形高程数据[1]。其中利用遥感地形数据源进行大面积地形三维建模是目前地形建模的主要方法之一,本文重点研究基于ASTER遥感数据的Creator三维地形建模过程、方法和技巧。
1 ASTER遥感地形数据源精度解析
ASTER(Advanced Spaceborne Thermal Emission and Reflection Radiometer)是美国航空航天局(NASA)与日本国际经贸商业部(METI)合作的高分辨率卫星成像设备,于1999年12月搭载NASA的EOS-AM1(Terra)平台升空,目地是获取地球表面温度、辐射、反射和高程数据,研究生物圈、水圈、岩石圈和大气层之间的互动反应,解决土地利用与覆盖、自然灾害(火山喷发、水灾、森林火灾、地震和风暴)、短期天气变动、水文等方面的问题。ASTER有可见光和近红外区(VNIR)三个波段,在短波红外区(SWIR)有六个波段,在热红外区(TIR)有五个波段,它们的地面分辨率分别是15m、30m、90m。
2009年,美国航空航天局(NASA)官方网站提供了ASTER的最新全球遥感数据,该数据源采用的是GeoTIFF数据格式的DEM数据(简称ASTER GDEM),ASTER遥感数据记录的地域非常广阔,覆盖范围从北纬83度到南纬83度,除了部分极地区域,覆盖绝大部分的地球区域。每个ASTER GDEM地形文件包含1度×1度的范围,用一个3601×3601像素的TIFF图片来记录地形信息,采样精度达到了30米,海拔精度为7-14米,基本满足普通三维地形建模的数据精度要求[2]。
2 ASTER遥感数据格式转换技术
ASTER遥感数据采用GeoTIFF(Geographic Tagged Image File Format)存储格式,GeoTIFF是TIFF (Tag Image File Format)图像文件格式的扩展。TIFF (Tag Image File Format)图像文件是图形图像处理中常用的格式之一,其图像格式复杂,但由于它对图像信息的存放灵活多变,可以支持很多色彩系统,而且独立于操作系统,因此得到了广泛应用。在各种地理信息系统、摄影测量与遥感等应用中,要求图像具有地理编码信息,如图像所在的坐标系、比例尺、图像上点的坐标、经纬度、长度单位及角度单位等等。对于存储和读取这些信息,纯TIFF格式的图像文件很难做到,而GeoTIFF作为TIFF的一种扩展,在TIFF的基础上定义了一些GeoTag(地理标签),对各种坐标系统、椭球基准、投影信息等进行定义和存储,使图像数据和地理数据存储在同一图像文件中,这样就为开发人员制作和使用带有地理信息的图像提供了方便途径[3]。
目前可用于进行三维地形建模的开发软件很多,比如3DS MAX、Auto CAD、Maya、MultiGen Creator等,使用的开发环境不同,所需要的数据源格式也不相同。笔者选用MultiGen-Paradigm公司开发的Creator软件进行三维地形开发,使用该软件建立模型,可以在满足实时性的前提下,生成面向仿真的、逼真度高的大面积地形。然而ASTER GDEM格式的DEM地形数据文件不能直接在MultiGen Creator中使用,必须首先将ASTER GDEM格式的地形数据文件转换成MultiGen Creator支持的USGS DEM(U.S.Geological Survey Digital Elevation Models)格式或者DTED格式,然后利用Creator地形格式转换模块生成MultiGen Creator专用的数字高程数据(Digital Elevation Data,DED)格式文件,上述格式转换的过程是三维地形生成的重要环节,该转换过程可用图1所示的流程图进行描述。
转换步骤为:
1)应用Global Mapper软件提取ASTER GDEM数据文件中的地形数据信息,其中每个采样点用(经度,纬度、高程)表示,Global Mapper会完成数据二维可视化图像和3D模型的显示。如图2所示绘制的是北纬37度、东经117度附近地域的ASTER GDEM格式的数字高程模型。
2)在File菜单下选取Export Raster and Elevation Data项,在二级子菜单中选择Export DEM Command菜单项输出USGS DEM数据格式或者选择Export DTED command菜单项输出DTED数据格式。
3)在Options属性页中设定经纬度方向的格网间距,在提取范围属性页中设定地形数据的经纬度范围,生成采样点的经纬度高程信息。
4)打开Multigen Creator,借助Creator平台的Terrain模块的DED Builder 工具,将DEM格式文件生成Creator专用的高程数据格式文件(DED),如图3所示将USGS DEM数据格式转化为DED数据格式。
图2 Global Mapper绘制的GDEM数字高程模型图3USGS DEM数据格式转换成DED格式
3 Creator三维地形生成技术
根据仿真任务的不同需求,应建立不同分辨率的三维地形,比如飞行仿真需要大范围的地形,实时性要求高,但对地形细节要求不高,而基于地面的车辆驾驶和徒步行走的仿真,需要较高的分辨率,但是地形的使用范围较小,开发人员需要结合其仿真任务需求灵活设置不同的参数。进行Creator三维地形的建模的关键内容是地形的LOD(层次细节)、投影方式、建模算法等参数的选取与设置。
3.1 层次细节模型参数设置
层次细节模型(Level of Details,LOD)技术的思想是在不影响画面视觉效果的条件下,通过逐次简化景物的表面细节来减少场景的几何复杂度,其目的是提高绘制算法的效率,增加仿真的实时性。例如,若有许多可见面在屏幕上的投影小于一个像素,则完全可以合并这些可见面而对画面的视觉效果没有任何影响。该技术通常对每一原始多面体模型建立几个不同逼近精度的几何模型,与原模型相比,每个模型均保留了一定层次的细节。由于LOD算法要涉及到动态细分或规并三角网,所以运用LOD算法时,常采用规则网格进行地形建模。如图4所示在Creator中设置LOD 为3层。
3.2 设置投影方式
Creator提供五种地图投影方式:Flat Earth、Trapezoidal、Lambert Conic Conformal、UTM和Geocentric。Flat Earth在原点使用纬度,得到调整每个x值的单收敛因子,生成一个矩形的地形;Trapezoidal是一种方位角映射,在中心点最精确,离中心点越远越扭曲;Lambert Conic Conformal使用两条标准纬线,在北纬84°和南纬80°的中间最精确,距离两极越近越扭曲;UTM使用旋转90°的柱面圆柱投影,在经度上将地球分为六个区域,沿着中央子午线最精确,越远离子午线越扭曲;Geocentric方式使用圆形地球映射,Z轴以地球中心为起点通过北极。我国地处中纬度地区,适合采用斜轴方位投影。选择Trapezoidal地图投影方式,较好地保持了地形的轮廓形状和地理位置,使等变形线与制图区域的轮廓基本一致,减少了变形,提高了精度。如图5所示设置投影方式为Trapezoidal地图投影方式。
3.3 建模算法
用Creator将数字高程数据转换成地形时,可以选择四种转换算法,分别是Polymesh、Delaunay、CAT和TCT四种算法。
Polymesh转换算法主要适用于BSP进行遮挡计算的实时系统。基本思想是,通过在原数字高程数据文件中对高程信息进行有规律的采用,从而获取地形多边形顶点坐标,创建矩形网络的地形数据库。
Delaunay转换算法是一种基于Delaunay三角网的地形生成算法,主要适用于使用Z-buffering进行遮挡计算的实时系统。与Polymesh算法相比,生成相同精度的系统模型,使用Delaunay算法的地形模型中包含的多边形数量较少。使用Delaunay算法时,数字高程数据中的每个高程点都会被采样,而且会从最低的LOD地形模型生成,较低LOD模型中的多边形顶点会被合并到较高的LOD地形模型中,以保证LOD地形之间的平滑过度。
TCT(Terrain Culture Triangulation)转换算法相当于一种限制性的Delaunay算法。当使用TCT算法生成的地形时只能有一个单独的LOD,而且只能用于批处理地形转换中。
CAT(Continuous Adaptive Terrain)转换算法是一种改进型Delaunay转换算法,该算法提高了相邻LOD地形之间的平滑过渡,可以有效避免由Polymesh和Delaunay算法生成的多LOD地形模型转换的视觉跳跃现象。
本文选择Delaunay三角剖分算法,因为,与规则网格算法(Polymesh)相比,生成相同精度的地形模型,使用Delaunay转换算法的地形数据库中包含的多边形数量较少。
3.4 纹理贴图
根据地形模型的LOD数量,将每张图片调整为相应数量和精度的分辨率,将它们加载到Creator的纹理调板,并定义为地形纹理,设置纹理图片的纹理坐标和地图投影方式。
纹理坐标必须对应于地形模型的面积范围和坐标位置,地图投影方式则必须和对应地形模型的设置一致。然后通过Terrain/Batch GeoPut菜单命令,为对应的LOD地块模型映射纹理。
图6 生成的不含纹理的三维模型 图7 加入纹理映射后的三维模型
3.5 测试地形并进一步优化
整个三维地形生成完毕后,将其导入视景驱动环境下,在计算机仿真硬件平台上,通过视点变换、其它仿真应用添加、网络连接等多个综合测试环节,观察场景运行的实时性和逼真度。地形模型数据库的生成是一个需要反复试验的过程,需要反复地优化参数、完善模型,在实时性与逼真性之间进行平衡,合理设置转换参数,最终达到最好的仿真效果[4]。
4 结论
本文采用我国东经117度~117.5度,北纬37度~37.5度地域的ASTER GDEM数据及其卫星遥感图像作为原始数据和地表纹理图像,地球椭球模型选择美国的WGS-84地球椭球模型,地形转换选用Delaunay地形算法,地形模型的LOD数目设为3,根据地形模型的LOD数量,将每张地表纹理图片调整为256×256、128×128、64×64像素三种分辨率,映射到不同LOD分辨率的模型。最后生成的三维地形模型的范围约为48×56km2,共259200个面,地形效果图如图7所示。通过仿真程序测试,利用ASTER遥感数据生成的大面积三维地形达到了精细度高、真实感强、实时性好的仿真要求。
参考文献:
[1] 王贵林,姚鑫.ASTER立体像对提取山地DEM精度研究[J].矿山测量,2008(6):34-35.
[2] 程博,刘少峰,杨巍然.Terra卫星ASTER数据的特点与应用[J].华东地质学院学报,2003(3):15-16.
[3] 蒋球伟.基于MGIS的GeoTIFF应用研究[J].计算机工程与应用,2007(15):201-202.
【关键词】虚拟现实;协同训练;多用户;网络环境
【中图分类号】G434【文献标识码】B【论文编号】1009―8097(2010)04―0120―03
引言
在国际上,VR与仿真技术非常普遍与成熟。在远程协作的分布式VR与仿真系统方面,他们制定了一系列标准、协议和算法。在国外虚拟环境中的协同式训练系统也有研究,比较有代表性的是SecuReVi系统,它是利用MASCARET模型设计的虚拟环境中多人协同灭火的消防员训练系统,还有些远程医疗手术协作训练系统,这些系统多数是在研究阶段,成型产品极为少数。和一些发达国家相比,我国协同VR与仿真技术还有一定的差距,其应用也主要集中在军事院校和研究所,也取得了一定研究成果[1][2],特别是在分布式VR与仿真领域里,国内在这方面的研究也有所开展[3][4]。
由于教育培训软件的应用长期局限于平面的文字及图像表述,即使近年来动态图形图像表现形式大大提高了内容的表现效果,但仍无法真正满足人类视觉、听觉……甚至是感觉上的认同效应。因此,当前传统的CBT(计算机支持的教育培训体系,Computer Based Training)训练方式已在一定程度上无法满足高科技培训的需要,基于计算机虚拟现实仿真技术的协同式训练系统将视景仿真和协同工作的概念引入CBT中,它抛弃了传统的训练必须在真实的环境和场地下进行的观念;同时也克服了传统训练无法模拟某些现场环境的缺陷,如飞机上、地铁中、商厦里等,它使受训人员不用再冒着一定的危险、不用再在投入巨额的设备购买和场地布置的情况下就能参加训练。通过应用现代化的虚拟现实技术进行协同式训练系统的研发,将克服实际场地演练的诸多不足,不仅花费小,对环境没有污染,而且没有危险,是未来技能培训的主要手段之一[5][6]。系统在各种高危领域和应急处理场合有着广泛的应用,可应用于工厂企业、航空、地铁公司、社区、商店等大型场所的应急训练;还可用于部队演习;学校、研究所大型实验;网络游戏;远程医疗等。该系统的研究将推动计算机虚拟现实仿真技术的发展,促进了计算机科学在现实生活中的应用。本文以航空客舱乘务员应急处理训练为例,介绍基于虚拟现实的协同训练系统的设计过程、原理及关键技术的实现。
一 系统描述
基于虚拟现实的协同训练系统是一个综合应用虚拟现实技术、网络通信技术、三维图形图像技术和数据库技术设计和开发的一个虚拟仿真训练软件,具有在虚拟仿真环境中进行多用户协同操作和基于知识库的智能评判功能特点。系统利用三维技术构建各种虚拟训练场景(如飞机、地铁等),多个用户在这样的虚拟仿真环境中,通过网络进行文字和语音的通信、相互合作完成一个训练任务。同时,系统提供任务的知识库进行操作过程的正确性判断和提示,并详细记录各个用户操作过程,提供专家进行评判(如图1所示)。系统采用了视景仿真、多用户协同、知识库与匹配策略的技术,并在训练过程中具有多感知性、实时性、互操作性以及真实临场性的特征,可广泛应用于特定环境下一个团队通过相互配合,相互协作来有效地完成训练任务
在此系统基础上,加入具体应用的环境(3D场景),利用系统接口和核心功能设计具体应用的驱动模块,形成具体应用的系统。如进行飞机客舱火灾应急处理训练,系统将装入一个飞机机舱的场景和训练角色,多人通过网络、视景等多种交互方式协同地进行飞机客舱火灾应急处理,形成了某一特定应用的协同式训练的应用系统。
基于虚拟现实的协同训练系统主要有如下应用特点:
1 基于虚拟现实的协同式训练系统,通过模拟现场的实际情况,从而提高实际操作人员对各种实际环境的协同处理能力。系统尤其适合于模拟高危领域的操作训练,如火灾、地震、防恐等;
2 克服了传统训练中实景再现困难、场地特殊、人员调度复杂等环境因素,适合机、地铁、闹市、商住大厦等情况较复杂地区的训练模拟;
3 降低对人员财物等的安全威胁,也便于人员时间上的安排与调度,减少人力、财力等各方开支,并且间接性地减少了对周围环境的污染。适合于要求团队组员同时在现场进行协同训练的场合,如远程医疗专家合诊、网络游戏;
4 利用计算机手段,实现训练模拟,运用多媒体的实现方式,提高人员训练热情和整体训练效果,因而也适用于原理或操作较枯燥的训练内容,如学校、研究所等实验仿真。
二 系统实现原理
整个系统实现由三层结构组成(如图2所示)。底层是操作系统与开发API组成的支撑环境,中间层是由核心程序与接口组成的系统平台,顶层是三维场景模型与系统功能驱动组成的应用程序。
系统平台主要由三维场景子系统、协同通信子系统和训练管理子系统组成。其主要特点:将多用户协同处理计算机模拟的理念,具体应用到行业技能训练的领域中,并在训练过程中,采用了视景仿真、协同、知识库的技术。
(1) 三维场景子系统
三维场景子系统是用三维造型来模拟现实训练环境的一种实时渲染图形系统。系统完成的主要模块有模型导入、运动仿真、场景设置、碰撞检测等。
模型导入利用功能强大的三维造型软件,如3DS Max,MAYA制作三维模型,纹理以及动画等,然后输入至训练场景中,具体包括:3D对象导入、角色导入、动画导入、材质和纹理的设置、坐标设置、比例变换等等。运动仿真是对场景中人和物体运动的一种数学物理描述以及控制,它包括各种运动类型,如走、跑、转身、站立、蹲下、取物等等。场景设置主要是提供改变某些场景的参数,改善视觉效果,便于观察和响应不同的训练要求,具体包括:灯光设置、视角设置、环境设置、特殊效果设置(如火,烟雾)、声音设置、纹理材质设置、动态对象的位置、方向和比例设置、坐标设置等等。碰撞检测主要是防止物体间的相互干涉以及作为某些事件的触发器,由检测类型和检测算法二大部分组成。检测类型主要有视线范围检测(LOS line-of-sight)、三脚架法(TRIPOD)、凸块检测方法(BUMP)。LOS、TRIPOD、BUMP的算法主要是加入按一定规则分布的线段矢量,计算与干涉物体的交点,距离,方向以及设置回调函数。
(2) 同步通信子系统
协作通信系统完成的功能由语音通信、场景同步通信二大部分组成。
语音通信主要提供学员之间相互协调联络的通信平台,也是协同训练中对讲、交谈等的语音工具。
这里语音通信部分主要采用点对点(也可组播)的语音通信,是针对一个点实现话音的实时采集、处理、播放,同时可与其它点进行可靠的网络语音数据传送和接收。对于前者,采用Windows MDK的低层音频服务,因为低层音频服务中的回调机制为我们提供了音频数据,设备驱动程序控制音频设备在后成录音和放音的具体操作,通过回调机制,我们又可以检测到什么时候用完一个数据块,并及时传送下一个数据块,从而保证了声音的连续,有了这种单机上的实时采集、回放功能后,接下来的工作就是在网络上传送语音数据。在点对点网络传输方面,选择基于无连接的UDP协议,UDP用户数据报协议能够向若干台目标计算机发送数据,接收发自若干个源计算机的数据。在采集话音回放之前,一方面将自己的语音传给网络,另一方面接收网络传来的语音,具体是利用Windows Socket API实现的。
场景同步通信主要提供多用户之间场景一致的功能,它由服务器、会话、用户、网络消息和分布式对象组成。
多用户服务器是基于客户/服务器技术,所有用户之间的通信必须通过服务器。一个用户与其他用户交互必须连接到一个会话上,一个用户同时只能连接一个会话,并且只能与连接到同一会话的用户通信。用户有二个参数,一是用户名,二是用户ID,一个客户在连接或产生会话前必须设置用户名。网络消息是用户之间通信的主要方法,这个消息类似窗口消息,可以在消息中附带数据。分布式对象是另一个用户间传送信息的机制,它相关于场景中某一个实体,且按照一定规则分布到所有用户机上,分布式对象是类的一个实例,它有自己的属性,需要时可以通过网络通信来更新。同步通信技术借鉴了国外的DIS(分布式交互系统)和HLA(高层架构)等技术。
(3) 训练管理子系统
训练管理系统主要是用于处理训练相关的信息,它完成的功能有训练知识库、实时跟踪记录、冲突解决机制等。
训练知识库主要包括训练数据库、训练规则和匹配策略。训练数据库主要有学员信息、课程信息、训练信息等等。训练规则主要有角色定义与分配规则、评判规则、记分规则,其中评判规则包括动作执行者、动作间的关系、施加对象以及次数等等。匹配策略主要是有序无序的匹配、规则树的遍历。
实时跟踪记录实际上是对学员的操作流进行管理的一个模块,它主要有触发事件、操作信息收集、发送与接收(操作信息)和记录器组成。
冲突解决机制主要是多学员在协同训练中发生操作冲突时的一种消除机制。其中简单的方法是加锁解锁、延时的方法,比较高级的有优先级和拥有权的处理。
三 系统应用示例
客舱火灾应急处理训练是利用协同训练平台开发的一个应用实例,主要是在模拟飞机机舱内协作完成灭火训练任务。这个训练任务描述如下:
客机平稳而正常地行驶着,乘客们安静地享受着舒适的空中之旅,舱内的乘务员出现在各自的位置上,此时,公共信息广播:此次航班由上海飞往北京,祝各位旅客旅途愉快。30秒后,前工作区的学员看到属于她的信息窗显示:附近有怪异的烟味,请速核查。并且她看到丝丝烟雾飘散。该学员先去查核哪里发生火情,确定是在壁橱的衣帽间,用手试探门的凉热,其信息窗口显示两级温度信息:门是凉的/门很烫手;该学员使用话机通知乘务长,并请求附近的乘务员速带灭火器材来协助,本人去驾驶舱拿应急斧,取来应急斧,在门上开一个小洞,来支援的乘务员拿海伦灭火器来了,对着洞口喷灭火剂,直至火灭,开门检查燃烧物,防止死灰复燃。最后把火灾的处理结果报告乘务长,由乘务长报告给机长。
该应用实例包括一个三维实例场景和一个实例驱动模型。三维实例场景就是飞机机舱、火、烟雾、角色及其他设施,驱动模型是具体应用的情节脚本,由灭火操作、协作规则、评判规则等许多事件构成的。应用实例系统主要界面如图3所示。
四 结束语
在网络环境和多用户视景交互的支持下,人们可以通过交互设备,利用听觉、视觉、触觉在虚拟的环境中协作完成训练任务,从而形成一套具有“视景”和“协同”特色的训练软件。本文主要描述了一个基于虚拟现实的多用户协同训练系统的结构设计、技术架构、网络通信和应用示例。随着基于虚拟现实技术的CBT系统正在逐步取代过去单机、单一任务的CBT系统,将给计算机培训提供一种崭新的系统训练方式,能使许多特殊场合的训练变得非常方便,同时极大提高培训的效果。本系统中设计的技术和方法希望对于其他分布式训练系统的开发具有借鉴作用。
参考文献
[1] 庞津津,戴述贾.分布式系统仿真技术研究及其实现[J].火力与指挥控制, 2001,(1): 37-40.
[2] 洪津,张万军,谢庆华,陈明宏,王永健.虚拟维修训练系统发展综述及其关键技术探讨[J].理工大学学报(自然科学版),2000,(1):63-67.
[3] 王润岗,花传杰,唐科群,王艾萍.坦克车炮长协同训练仿真系统设计与实现[J].火力与指挥控制, 2008,(9):112-114.
[4] 袁海波,刘厚泉,吴雪峰.虚拟场景动态交互式可视化的研究[J].电脑与信息技术,2008,(6):7-9.
[5] 汤卫华,灭火救援协同战术训练探析[J].公安研究, 2007,
关键字: 模拟器; 飞行训练; 虚拟仿真; 逼真显示效果
中图分类号: TN964?34 文献标识码: A 文章编号: 1004?373X(2013)08?0042?03
0 引 言
虚拟现实技术又称为“灵境技术”,它最早可以追溯到20世纪80年代。虚拟现实技术是综合了计算机仿真技术、图形技术、遥感技术和传感技术等诸多领域,营造了一个逼真的三维虚拟环境,人们可以通过一系列的工具与环境中的对象进行交互,从而达到一种身临其境的感觉[1]。
如今,虚拟现实技术已经渗透到生活的各个方面,并在各大领域里发挥着重要的作用[2]。虚拟仿真技术在训练飞行员方面也大有用武之地。目前,很多国家就利用虚拟现实技术开发的飞行训练模拟器使飞行员进入VR世界来进行训练,接下来将讨论虚拟技术在飞行模拟训练中的研究和贡献。
模拟训练具有节能、安全、不受场地与天气影响、花销较低等一系列的优点,因此模拟训练被广泛地应用在军事训练当中[3]。在模拟训练中,虚拟环境的真实性和逼真性会影响到飞行员的训练效果,而人对环境的感知是通过听觉、触觉、视觉、和嗅觉等来获得的,而其中70%的感知是通过视觉来获得的,因此,虚拟环境的建立是模拟器中极为重要的组成部分[4?7]。
1 虚拟仿真平台的结构
该平台的总体方案如图1所示。
在图1中,用于仿真计算的计算机主要完成的仿真工作有:飞机动力学和飞行动力学模型、自动飞行控制系统、导航系统、地形地貌仿真等功能模块,将计算机计算得到的航迹实时显示在平面的数字地图上,并将仿真得到的飞行器的状况、方位和仪表数据等一系列的信息传递给另一台计算机,这时第二台计算机就来计算实时的实景。这台计算机利用得到的信息,使得3D的飞机模型飞行在三维空间中,2台计算机间是通过IPX协议进行通信的。
2 飞机空间运动模型的建立
在建立数据模型的过程中,要采用了气动参数进行动态插值的方法建立飞机运动模型[5]。
2.1 飞机动力学方程
飞机飞行时受到了发动机推力FT、重力g、气动侧力Y、气动升力L和气动阻力D共同作用。根据牛顿第二定律,在地面坐标系下的飞机飞行动力学方程为[5]:
[F=mdVdt=md(ui+vj+wk)dx=m(ui+vj+wk+ω×V)] (1)
[M=r×dF=vr×dVdtdV] (2)
在坐标系下展开式(1)后得到以下方程:
[V=1mRcos(φ+α)cosβ-FTcosβ+Zsinβ-g(cosαcosβsinθ-sinαcosβcosθcos?-sinβcosθsin?)][α=r-tanβ(pcosα-qsinα)+gVcosβ(sinαsinθ+ cosαcosθcos?)-1mVcosβ(Rsin(φ+α)+Y)]
式中:[α]为迎角;[β]为侧滑角; [φ]为偏航角;[θ]为俯仰角;V为飞行速度; p,q,r为飞机角速度在机体轴系中的分量。分解式(2),可以得出以下的飞机绕质心转动的方程:
[p=φ-?sinθq=θcosφ+?cosθsinφr=-θsinφ+?cosθcosφ]
2.2 飞机运动学方程
以上面得到的飞机动力学方程组为基础。在地面坐标系中的地速ue,ve,we可表示为:
[uevewe=ATuvw]
式中[AT]是从地轴系转换到机体轴系的方向余弦矩阵。
2.3 空气动力及力矩
在气动模型中,飞机是使用多维数据来表示的,在开发视景系统时以采用某型运输机飞行仿真气动数据包为基础,采用线性插值的方法得到飞行中的飞机状态的气动参数。
机体轴上的气动力及力矩为:
[FA,x=(CXsinα-CDcosα)QSFA,y=CyQSFA,z=(-CDsinα-CLcosα)QS]
[LA=(Clcosα-CDsinα)QSbwNA=(Cncosα+Clsinα)QSbwMA=CmQScw]
式中:A为空气;bw为机翼翼展;c为机翼平均空气动弦;S为机翼面积;Q为动压。从而得到飞机所受的总力及力矩(沿着机体轴x,y,z)
[Fx=FA,x+FT,x+FG,x+GxFy=FA,y+FT,y+FG,y+GyFz=FA,z+FT,z+FG,z+Gz]
[L=LA+LGM=MA+MT+MGN=NA+NT+NG]
式中:T为发动机;G为起落架(Gx,Gy,Gz为飞机所受重力在机体轴x,y,z上的分量),M,L,N分别为俯仰、滚转、偏航力矩。
3 视景仿真系统的开发
3.1 视景仿真系统的结构
场景生成可以生成地面、高山、流水以及建筑物等的地面场景;模型控制可以用来控制系统中的模型;语音技术能够模仿飞机的声音效果;特殊效果包括风霜雪雨等效果;视点变换可以改变飞行员的观察角度;字体显示可以用来显示显示器上的数据等。如图2所示。
3.2 三维场景建立
虚拟飞行模拟系统的三维场景的建立需要几个步骤:
步骤1:飞行模拟器的机体的绘制。要对飞行器内部的结构数据和外表的一些复杂的线条和面做简化后,用OpenGL对机体外形进行建模。
步骤2:飞行模拟器的实体绘制。首先,要将OpenGL 初始化;其次,计算飞行器的中心位置,并用转移矩阵进行坐标转换,使飞行器到达最佳视觉状态;再次是材质及明暗处理方式;最后是开始绘制飞行器。
步骤3:三维场景层次结构的确定和场景的绘制。在构造飞行系统的三维场景时,根据飞行器与机场景物以及天空背景的交互运动关系决定了层次结构。场景的绘制可以采用与实体绘制相类似的方法。
4 结 语
本系统在结合飞机动力学方程和空气动力学方程所建立的虚拟环境下进行虚拟操作训练,不仅大大降低了开销和危险系数,而且其可视的、三维实体的与物理原型无异,使得训练人员具有身临其境的感觉,便于培训人员考察、判断和训练飞行技能[4]。本系统打破了传统的培训飞行员的方式,给人以直观的感觉,驾驶员可以直接从显示的动画中判断飞行状况是否正常,它具有逼真的三维视觉效果,可以反复在地面进行虚拟操作训练,适应了飞行训练的发展需要。
参考文献
[1] 王昊鹏,刘兵.飞行器虚拟现实仿真的研究[J].现代电子技术,2008,31(13):46?48.
[2] 范玉青.现代飞机制造技术[M].北京:北京航空航天大学出版社, 2001.
[3] LIU Chang?you. Modeling and simulating on flight push?out conflicts based on colored Petri net [C]// 2010 29th Chinese Control Conference (CCC). Beijing, China: CCC, 2010: 5447?5452.
[4] 苏新兵.虚拟制造技术在飞行器设计中的应用[J].现代制造工程,2007(2):127?129.
[5] 张华磊.大型运输机综合训练器虚拟仿真环境的设计[J].计算机仿真,2008(5):64?68.
[6] 刘伟.人?飞机?环境系统模拟中数学模型的研究与分析[J].人类工效学,2001(3):2?5.
[7] 崔汉国.基于VRML的分布式装备维修仿真训练系统[J].计算机仿真,2003(3):15?17.
申万计算机指数涨跌幅在所有申万一级行业中排名第二十八(28/28)。分版块来看,上周各主题板块指数不同程度下跌,电子商务指数、第三方支付指数、在线教育指数表现位居前列,人工智能指数、云计算指数、区块链指数表现最差。上周计算机板块有25家公司上涨,11家公司持平,158家公司下跌。其中涨幅比较大的公司有中新赛克(+23.38%)、科蓝软件(+12.73%)、丝路视觉(+12.7%)、中威电子(+6.96%)、正元智慧(+6.96%)。
本周行业观点:上周,谷歌推出了一套全新的人工智能服务工具CloudAutoML。该工具能够帮助开发者自动生成一个定制化的机器学习模型,即通过人工智能的方法来产生定制化的人工智能模型。目前AutoML还处在测试阶段,仅支持计算机视觉模型,后续可能将服务拓展到语音、翻译、视频、自然语言处理等所有标准机器学习模型。对AutoML的计算机视觉模式而言,在使用时,开发者需要上传带有数据标签的图片,随后谷歌的系统会自动生成定制的图像识别模型。在整个过程中,开发者仅需要参与少量的如数据准备、调参、评价和迭代等工作。我们认为,目前虽然人工智能技术发展和应用落地速度较快,但对于大多数公司而言人工智能技术发展所需要的人才及资金仍然是瓶颈所在。谷歌、微软、百度这样的科技巨头利用其在人才、技术、资金方面的优势向外输出人工智能技术,有利于降低人工智能技术门槛,有利于人工智能应用的进一步落地。而对这些科技巨头而言,开发者调用其AI能力越频繁,所积累的有价值数据也越多。但这种基于云端的定制化人工智能模型也存在一定缺陷,主要体现在数据隐私及安全、应用复杂程度不够、模型的持续提升有困难等方面。从对产业的影响来看,AutoML工具的推出再次印证了未来AI能力的开放将成为大趋势,业内AI企业在算法、技术层面的差距将会逐渐缩小,产业竞争优势越来越集中于高质量数据、高层次人工智能人才、平台及生态构建等方面。
重点推荐公司:(1)恒华科技:“十三五”期间电网建设投入依旧可观,配电网侧建设是重点,智能化投入比例也有望提升。公司也在积极推进电力信息化领域的SaaS服务,云平台业务进展顺利,2017年年中总用户数达到54,520家,相比去年同期增长约50%。新一轮电改的核心是售电侧市场的放开,公司可以为新兴售电公司提供从业务培训、投融资、配网建设到信息系统建设的售电侧一体化服务,公司有望受益于电改的深入推进;(2)佳都科技:公司以智能轨道交通和智慧城市为核心业务,两项业务上半年均取得了重要进展。在轨道交通领域,2017年3月公司在武汉成立分公司,标志着公司继广州之外又一个根据地的确立。在智慧城市领域,公司积极推动人工智能技术、大数据技术和以视频监控为基础的社会治安防控体系的结合,以形成特色产品、增强行业竞争力。
早在1990年,美国波音公司的研究员汤姆・考德尔(Tom Caudell)就提出了AR一词,只是当时并未流行开来,不仅手持AR小产品没有身临其境之感,而且智能眼镜很昂贵,看上去也很古怪。如今,随着AR技术逐步为人们所接受,以及智能手机、平板电脑、谷歌眼镜等头戴式电脑的到来,增强现实技术变得更为实用,将真正颠覆教育培训行业。
缩短工作和学习场景的距离
传统企业培训有四个亟待解决的痛点。
第一,以往的培训方式――面授培训、e-Learning或者M-Learning很难做到个性化培训;
第二,在工业环境下,企业很注重以实践为主,但是学习与练习往往无法并重,无法解放双手;
第三,由于大部分员工几乎使用不到互联网和信息技术,培训师无法管理到一线员工的工作和培训细节,大数据无法客观采集和输出;
第四,企业学习最常见的痛点是,传统企业培训无法解决员工“学时不能用,用时不能学”和“遗忘曲线”的困境――员工从培训所学到的知识,只有10%能够用在工作上,而且员工70%的学习经验来源于工作中的锻炼,20%来源于自我学习,仅10%来源于培训(见图表1)。
因此,要提高培训效果,核心是解决“遗忘曲线”和“721模型”带来的两个问题,而这两个问题的核心就在于工作场景与学习场景的距离。如果当下能够把学习到的东西立即无缝使用在工作上,遗忘问题将能得到有效解决,工作中获得的经验也可以有助于即时巩固所学内容。AR的出现挣脱了传统培训的束缚,带来了全新的培训方式,达成了培训所强调的“即需、即学、即用、即评”。
培训可被分为培训1.0、2.0、3.0三个阶段,在此过程中,一个明显的演变特征是,缩短了工作场景和学习场景的距离(见图表2)。在培训1.0(传统面授培训)阶段,老师是主导者,学生是被动学习。一对多的培训,导致个性化较弱,个人学习者无法根据自身需求进行个性化学习。
在培训2.0阶段,老师变成辅导者,学生主动学习的环境和条件相对成熟。此阶段的标志性学习方式是混合式学习,由于PC和手机的特性,学习者拥有自主选择权,个性化培训得到了一定的加强。
到了培训3.0阶段,AR的发展,有效解决了“遗忘曲线”和“721模型”这两个长久的痛点。此阶段的培训方式是实时的工作辅助,让培训场景与工作场景无限接近直至重叠。
AR成就高效的培训
我们可以看到, AR智能眼镜的特性使得培训场景与工作场景无限接近直至重叠。这意味着所学的知识可以完整渗透到工作中,让无论是面授培训还是e-Learning都难以解决的问题得到解决,完成高效的培训。
体验感是AR培训的关键
要实现最高效的培训,作为连接两个场景的核心硬件――AR智能眼镜,需要拥有良好的使用体验。无论在工业中还是实操类培训中,反复抬头低头、操作流程复杂、身体不停移动、操作过程久、双手握物料工具等使用场景,都对AR智能眼镜提出了体验方面的高要求。
专业级的使用场景通常要进行长时间的培训与实操,这就要求AR智能眼镜戴得稳、戴得久、看得清。很遗憾的是,目前国内、国外的AR智能眼镜都不能算完全合格:单目式的智能眼镜看不清;市面上双目式的智能眼镜戴不稳;头箍式双目AR智能眼镜则戴不久。
因此,在设计AR智能眼镜时,戴得稳、戴得久、看得清成为严格的标准,三者缺一不可。合格的AR智能眼镜应视角大、真实感强、无眩晕,显示屏能够根据需要隐藏、出现、移动,摄像头中置,观看图像场景与现实场景更贴合。
软件,让培训无限接近工作场景
在硬件满足要求的情况下,软件是实现完美培训功能的核心。以0glass为例,我们开发了三大SDK(软件开发工具包),包括增强现实NginAR SDK、大数据处理NginBD SDK、机器视觉NginCV SDK。
在培训场景中,通过增强现实NginAR SDK,能够自动或半自动生成AR图形/图像,对现有与培训相关的图文声像等素材进行可视化编辑,开发出基于培训场景的各类AR应用;大数据处理NginBD SDK实现了“以人为中心”的企业大数据采集、清洗、储存、挖掘、推送,帮助企业培训实时追踪信息;机器视觉NginCV SDK能够敏捷识别图像,实时追踪物件,满足企业培训领域中不同场景、不同环境的使用需求。
我们基于此三大SDK开发了一套工作辅助与培训系统――PSS(Performance Support & Training System)。只要将与培训相关的文字、图片、视频、语音信息导入这个系统进行编辑和处理,智能眼镜就能将数字信息叠加在真实操作对象上,提示、指引学员使用何种工具、何种操作姿势、如何搭配物料。这样,学习场景与工作场景无限接近直至重叠,从根本上解决了师资有限、培训周期长、评价不客观等问题。
解放双手 让培训与实践同步
经过不断研究与实践,我们发现可以通过四大模块来展开AR培训:实时指导、透明管理、个人教练、知识沉淀。
第一,实时指导。企业将现有的与培训相关的文字、图片、视频、语音信息导入相应软件系统进行编辑和处理,AR智能眼镜便能将维修数字信息叠加在真实操作对象上,提示并指引学员正确地使用工具、采用操作姿势、搭配物料。
第二,透明管理。PSS通过人与智能眼镜之间的交互、第一视角采集图像、视觉算法识别等方式获取学员平时工作的细节,经软件系统中的数据模型进行对比得到其工作数据报表,并给出针对个人的、具体到步骤的改进建议。与此同时,系统能够积累分析数据,提前预防并纠正错误,加深维修学员对错误操作的记忆,避免坏习惯的形成。同时,管理人员或老师能够自由选择学员的第一视角了解其真实动手过程,结合数据分析了解其真正痛点,优化培训课程,给出具体到某个操作细节的改进建议。
第三,个人教练。我们将现有培训系统与AR培训系统连接,将课程要求和操作指引可视化、流程规范化,让理论与实践无限接近直至重叠,让学员学习理论知识的同时体验实操。利用智能眼镜特殊的图像呈现方式,AR培训系统犹如一名优秀的培训教师站在学员的眼前,用最标准的动作、最规范的流程,教导学员识别每一个部件,完成每一个步骤。
第四,知识沉淀。PSS利用AR智能眼镜天然的第一视角和自然的交互方式,采集维修学员的培训数据(利用文字、语音、图片、视频、动作图像识别记录其工作过程中的每个细节),实时捕获学员操作过程中好的经验和技能,智能生成实战型课件。AR培训系统能够将隐性知识结构化,沉淀于平台,按需获取,同时,将结构知识行为化,固化操作行为,让系统成为知识管理的过滤器和沉淀器。
四大模块可以解决“记不住、管不了、学不好、难传承”等企业培训痛点。针对那些操作繁琐、操作规范/流程长、对效率有要求、对工作结果的安全性要求高的行业,如能源、制造、维修、生产、航空、医疗、培训等领域/行业,AR培训让工作场景与学习场景距离甚远的问题迎刃而解。
关键词:机器人;计算机;教学
1、引言
随着制造业和信息产业的迅速发展,机器人已在军事、工业生产、救灾、探险、医疗和教育等众多领域内开始使用。未来机器人将在我们生活的各个方面扮演重要的角色,并大大提高人们的生活水平和质量。机器人的研究开发离不开计算机技术的应用,计算机是机器人的“大脑”,决定着机器人的智能水平,因此,在计算机的教学中,可以引入机器人来促进相关技术和知识的学习。基于这种理念,本人组织研发团队开发了一个智能机器人教学平台,在我校开展面向大学生的智能机器人教学研究,以提高我校学生的计算机应用水平,并为培养出复合型创新性人才做出了一些探索。
2、计算机程序设计教学现状
目前,国内外高校对计算机技术教学都比较重视,在所有高校的理工科大学生中都开展了计算机程序设计教学,程序设计课程在培养学生的逻辑思维能力和计算机应用能力方面取得了比较好的效果。但是,反思目前程序设计教学中存在的问题是必要的。由于大多数教学方案都是把重点放在程序设计语言与语法上,忽视程序设计的实际应用。在教学过程中,学生看不到具体的应用效果与价值,从而使得很多优秀的学生在学完计算机程序设计课程之后,还是不知道怎样开展应用研究。
对于初学程序设计的大学生来说兴趣是学习的动力,传统的程序设计教学表现媒介一般有字符和图形两种,特别是C语言程序的教学,大部分教师采用的是字符的展现形式,初学者很难看到程序设计的应用效果,体验成功的乐趣。引入智能机器人平台开展计算机技术教学,使得程序转化为机器人的思维和能力,学生在编写完程序后,可以马上看到效果,这将彻底改变目前的这种教学状态。
目前,国内外有很多大学和科研机构及公司开发了各种各样的教学机器人,有的是面向中小学信息教育的,一般是图形化开发工具,学生学不到真正的机器人开发中必要的程序设计知识;有的是用专用的机器人开发套件,需要学习专门的技术才能掌握机器人的开发,不适合普及教育。而专门针对一般理工类大学生的程序设计教学的机器人比较少见,本项目中研究开发的智能机器人平台主要用于高校计算机程序设计教学中,研究开发紧密结合教学实际,研究目标明确,是一种创新性的应用研究。
3、巡线机器人开发方案
尽管智能机器人可以有各种各样的外表,但是,它们都有共同的特征,智能机器人拥有一个“大脑”,能够像人类一样进行“思考”,其核心是一台嵌入到机器人上的计算机。目前,智能机器人还没有一个统一的定义,大多数专家认为智能机器人至少要具备以下三个要素:一是感觉要素,用来认识外部环境状态;二是运动要素,对外界环境做出反应性动作;三是思考要素,根据感觉要素所得到的信息,计算出采用什么样的动作。智能机器人是具有感知、思维和行动功能的机器,它可获取、处理和识别多种信息,自主地完成较为复杂的操作任务[1]。
在辅导学生参加全国大学生“飞思卡尔”杯智能汽车竞赛的过程中,本人经过总结和完善,设计出了一个可适合于不同层次教学的巡线机器人教学方案。在该教学方案中有使用激光传感器和电磁传感器的两种巡线机器人,可以自动识别专门制作的道路自由驾驶。本教学方案中开发的巡线机器人是一种自主型智能机器人,这种自主型机器人具有感知、处理、决策和执行等模块,可以像一个自主的人一样独立地活动和处理问题,硬件上,这种具有一定智能的机器人需要有多种传感器,功能强大的计算机和灵活精确的驱动系统[2]。
巡线机器人采用结构化设计,硬件和软件模块都按一定的规则定义好接口,使得初学者可以快速入门学习机器人的开发。巡线机器人系统结构可分为硬件和软件两大模块,如图 1所示。
图 1 巡线机器人系统结构
在硬件设计方面,机器人的硬件实现模块化设计,学生可以选择不同的传感器模块组装不同类型的机器人,对于电子类专业的学生,也可以由学生设计开发新的硬件模块。软件设计方面,在该机器人平台上,编写程序将有关的微控制器硬件接口封装,降低学生学习程序设计的难度。
采用激光传感器的巡线机器人通过光学反射原理来检测识别道路,是一种视觉导航机器人[3]。激光传感器发射管发射一定波长的激光,经地面反射到接收管。由于在黑色和白色道路上反射系数不同,黑色区域反色回的光线很少,而白色区域反射回足够强的光线,接收管接收到的反射光强度不同,使得接收管两端输出电压不同,从而可以将黑白路面区分开来,使得机器人可以识别贴有黑色引导线的白色道路。
采用电磁传感器的巡线机器人,能够识别道路定频率的磁场。在道路引导线上(漆包线)通上一定频率的的脉冲信号,导线中有变化的电流流过,从而在道路的周围产生变化的磁场。电磁传感器道路识别模块能够探测到这个变化的磁场,并将探测到的信号转化为数字信号。
电源管理模块为整个系统各个模块提供所需要的电源,主要包含电机驱动电源、控制计算机供电电源、传感器驱动电源等模块。可靠的电源方案是整个硬件电路稳定可靠运行的基础。在设计电源模块时标注好各个模块连接线的功能和名称,以方便组装和调试机器人。
巡线机器人实时测量出自己的运行速度,才能实现闭环控制,达到精确的控制目的。测速传感器一般可选成本比较低的霍尔传感器和价格比较高的光电编码器,霍尔传感器是根据霍尔效应制作的一种磁场传感器,价格低廉但一般精度比较低。光电编码器是一种通过光电转换将输出轴上的机械几何位移量转换成脉冲或数字量的传感器,其精度相对比较高,但价格也比较贵。在教学中,可由学生根据实际的精度要求来选定测速传感器。
舵机用来控制巡线机器人的左右运动方向,直流电机用来驱动巡线机器人,控制前后运动,这两种电机都可通过PWM脉宽调制信号的占空比来控制,一般的嵌入式计算机都具有输出PWM脉宽调制信号的功能,所以比较容易得到电机控制信号。巡线机器人的舵机和驱动电机采用经典的PID控制算法。用函数封装好PWM脉宽调制信号产生代码和PID控制算法 的基本代码,学习的学生只要简单理解算法的思想和和函数参数的意义,便可参与巡线机器人控制程序的编写。
4、分层教学方法研究
智能机器人的开发有一定的难度,涉及机械、电子、自动控制、计算机和传感器等许多专业知识,一般需要组建跨学科的开发团队来进行综合的开发。对于不同专业和学习能力的学生,需要有不同的教学方法因材施教。
通过在计算机基础、计算机程序设计、嵌入式开发和智能汽车竞赛培训等课程的教学实践活动中,研究并总结出分层次教学方案。即在计算机教学中按三个不同层次,引入智能机器人教学的一系列创新性方法:
第一个层次,面向所有专业的学生,在大学一年级计算机概论课时,讲解机器人原理,以及机器人与计算机技术的关系,通过视频或现场演示机器人,提高学生对学习计算机和机器人等科学研究的兴趣。并在相关学生科技活动中,演示原理简单的巡线机器人,讲解开发原理,激发学生对计算机技术的学习兴趣。由于所面向的学生既有理工科的也有文科的,每个人的知识结构差异非常大,所以教学的重点在于讲解机器人与计算机的关系,使得他们了解机器人技术和计算机技术的基本原理。
第二个层次,在计算机程序设计课程中,主要是《C程序设计》与《单片机和嵌入式系统开发》等课程中,设计一系列机器人编程开发实验,学生在实验课时可选择一种实验,体验开发机器人的乐趣,加深学生对计算机技术的深入理解和体验。学生在实验中有更多和教师交流的机会,学习更加主动,并可以将自己的作品与同学进行交流比较。从而,吸引一批优秀的学生加入到机器人开发的教学和实验项目中来。
第三个层次,组织学生参加相关的大学生机器人竞赛,近年来,机器人竞赛的教育价值逐渐得到人们的认可和重视,机器人竞赛对学生的科学认识,科学探究以及科学态度都有积极的影响[4]。目前,已面向全校理工科学生,跨学科组建全国大学生智能汽车竞赛团队,在竞赛培训过程中,组织学生开发智能车(巡线机器人)的硬件和软件模块,提高他们的计算机嵌入式系统开发能力。这部分优秀的学生可以培养成具有扎实的自动化、电子和计算机等项目开发能力的复合型人才。
5、结束语
本文对在计算机教学中引入智能机器人的教学方法进行了探讨和描述,在计算机程序设计课程中,用机器人来展现程序设计的魅力,取得了比较好的教学效果。同时,吸引一大批优秀的学生参与到相关项目开发和竞赛中,机器人的制作与竞赛涵盖了电子、计算机、控制、模式识别、传感技术、电气及机械等多个学科,对培养学生的综合工程开发能力、创新精神、实践动手能力及团结协作精神均具有良好的促进作用。本教学项目的研究和实施,为培养有创新能力的复合型人才探索出了一条可行的道路。
参考文献:
[1] 胡莲君,宋弘.移动智能机器人避障规划研究[J].四川理工学院学报,2008, 21(4):88-89.
[2] 朱孟强,卢博有等.基于ARM的智能机器人小车控制系统设计[J]. 微计算机信息,2008,24(5).
虚拟现实在医学上的应用起源于医务人员对复杂的三维医学解剖体数据的可视化需求,进而发展到能对可视化的数据进行实时操作,从而建立可供手术和手术前规划使用的虚拟环境。在医学手术教学和仿真训练等方面,虚拟现实技术有着不可替代的和令人鼓舞的应用前景。运用该技术可以使医务工作者沉浸于虚拟的场景内,体验并学习如何应付各种临床手术的实际情况,可以通过视、听、触觉感知并学习各种手术实际操作。这样大大的节约了培训医务人员的费用和时间,使非熟练人员实习手术的风险性大大降低,并利用专家学者的手术经验和实例对年轻医生特别是小医院、边远地区医院的医生进行培训,这对提高医学教育与训练的效率和质量以及改善我国医学手术水平发展不平衡的现状有着非常重大的意义。
2国内外的现状及分析
目前与医学相关的虚拟现实应用主要包括:手术、内窥镜检查和放射外科等。其中,虚拟医学手术仿真训练是一种技术难度较大的应用。与其它虚拟现实应用相比,它的特点是:①虚拟场景复杂;需要产生多层次、多种形态、相联关系复杂的三维虚拟人体组织;②人机交互性强,要求定位和反馈精确度高。当前,国外已经有许多研究机构和商业公司对医学虚拟现实尤其是在虚拟医学手术仿真训练等方面都进行了一定的研究和实践。如美国达特茅斯医学院开发的“交互式多媒体虚拟现实系统”。对于手术训练方面处于较前沿的是美国波士顿力学研究中心,他们采用的方式是利用偏振眼镜观看场景、虚拟手术器械模拟操作,另外还有加利福尼亚的旧金山大学外科系与伯克利学院的电子工程与计算机科学系对虚拟腹腔手术的研究等项目。在国内,大部分的研究工作集中在对医学图像的三维重建及其可视化等基础技术方面,清华大学和浙江大学等院校及研究单位在基于计算机图形学的医学图像三维可视化算法研究领域也取得了较大的成果。
3当前虚拟医学手术仿真训练的技术难点
随着计算机技术、传感器技术的飞速发展,虚拟医学手术仿真训练的研究在模型实时显示、器官组织纹理的制作、碰撞检测与定位和触觉传感等方面已经取得了一定的进展,并已有个别的成型系统研制成功,但当前虚拟医学手术仿真训练的研究还需解决如下技术难点:①仿真的逼真性较低,主要原因是虚拟人体组织的精确解剖结构和实时显示算法仍有待改进;②虚拟组织的各种行为模型(如实时形变等)的建立还不够完善和真实;③多通道感觉的缺乏,目前研究大多集中于视觉虚拟,对其他感觉通道如听觉、触觉等较为缺乏,而在医学手术中力的反馈是非常重要的;④多种不同来源的三维医学影像数据的融合和复杂模型的LOD模型优化等技术尚有待发展;⑤由于西方人种与黄色人种在生理结构上有一定的差异,国外人体模型并不能完全适应我国的需要。因此,目前还没有适合于我国虚拟手术用的人体模型。
4虚拟医学手术仿真训练的技术实现
4.1医学图像三维重建
4.1.1医学图像可视化对医学图像的三维重建主要是为了实现医学图像可视化。这属于科学计算可视化的研究范畴,在该领域被称为三维标量数据场可视化技术。它是虚拟手术技术的实现基础。目前,三维标量数据场可视化技术主要分为两类:一类是通过抽取中间面的表面绘制技术;一类是基于体元的体绘制技术。
4•1•1•1通过抽取中间面的表面绘制技术主要包括:基于二维轮廓线的断层扫描线表面重构和基于单元网格结构的等值面抽取等。
4•1•1•2基于体元的体绘制技术体绘制技术直接基于体元绘制,能显示对象体丰富的内部细节。目前实现数据场体绘制主要有两种策略:直接对三维离散数据场作体绘制;从三维离散数据场重构出连续数据场,再对连续数据场进行重采样并绘制图像。
4.1.2医学图像分段为了获得局部的人体组织器官模型,需要将感兴趣的区域从医学图像中分离出来,人们对医学图像的分段技术进行了研究。
4•1•2•1二维图像的轮廓线技术三维重建的数据源通常是一组一定间隔扫描获得的二维图像(如CT图片),将每张图片上相同组织的轮廓提取出来,然后将产生的图片堆叠起来构成三维二进制图像。最后再采用可视化技术进行三维重建,从而获得感兴趣的组织器官的模型。
4•1•2•2体数据的分段对于体数据的分段,有一个简单的技术是采用阈值方法,只有光强大于该阈值的像素点才被显示。而另外一个更通用的方法是采用图像处理中的边缘检测技术(如卷积等)或综合对数据集进行过滤处理,以获得所需的分段阈值。
4.2虚拟人体组织器官的物理建模
4.2.1自由体变形方法(FFD)1986年,人们提出了自由体变形方法,该方法的思想是通过变形物体所在的空间而实现物体的变形。其第一步是计算物体顶点在格子中的位置,然后格子在控制点的运动下产生形变。但FFD不能模拟局部的变形。
4.2.2基于物理学的变形模型(physicallybaseddeformation)体现物体在内外力的作用下产生形状上的变化。其中,外力包括重力、碰撞产生的排斥力等;内力包括弹性力和非弹性力。
4.3虚拟手术器械与虚拟组织器官的碰撞检测和力反馈手术操作是非常精细的工作,要求较为精确的力反馈。在虚拟手术过程中,碰撞检测是力反馈、组织变形的前提,因此是非常重要的。而基于bbox的算法由于其计算量小、实时性高的特点,被虚拟现实领域广泛采用。在虚拟手术操作中,可根据力学的弹性方程用计算机软件来实现对虚拟手术器械的机电部分的控制,再反馈在虚拟手术器械上。由于人体的手部的触觉非常敏感所以对于力反馈中的定位精度和曲线力觉变化均有较高的技术要求。需要定位精确的手术传感器械和比较复杂的弹性模型。
5虚拟现实技术在医学手术仿真训练中的应用虚拟现实技术在医学手术仿真训练领域有着广泛的应用前景,其具体应用主要有以下几个方面。
5.1人体解剖结构教学通过虚拟现实技术建立起人体结构模型,可以使学生通过人机交互对人体模型进行浏览,在模型内部“漫游”,能让学生非常直观、轻松学习解剖结构。
5.2医疗手术方案和治疗效果预测对于病灶,可以在虚拟模型上进行方位的显示,依据其方位和虚拟系统中的专家库资料,制定手术和治疗的方案,或模拟治疗的结果,进行评判。
下一波浪潮和AI的未来
今天大家都觉得AI“大风”来了,必须赶快前进不要掉队。但是如果冷静想想,AI还是面临很多挑战。
研究方面的挑战更大一些。国务院2017年7月印发的《新一代人工智能发展规划》提出:我国到2030年人工智能理论、技术与应用总体达到*水平,成为世界主要人工智能创新中心,智能经济、智能社会取得明显成效,为跻身创新型国家前列和经济强国奠定重要基础。这对研究工作提出了很高的要求。同时,中国工程院也了新一代人工智能发展报告。新一代人工智能也称为AI
2.0,我国的人工智能发展正从AI 1.0向AI 2.0过渡。
AI现在的主要缺陷或者说不足是在机器学习上。深度学习即深度神经网络是机器学习的一种方法,这种方法确实可以解决很多问题,在实践中也取得了很大的成功。但深度学习也要发展。我去美国开会时,马里兰大学一位很知名的AI专家调侃说,现在“深度学习有深度而无学习”(Deep Learning——Deep YES,LearningNO)。因为这样的“学习”严格说不是学习,而是训练,是用大数据在训练一个数学模型,而不是真的通过学习获得知识。
目
录
CONTENTS
目录
赞誉序言前言
第一章春暖花开——人工智能复兴
旷世棋局的幕后英雄002
人机博弈之战004
AI大潮席卷007
各国政府的应对策略011
第二章酷暑与寒冬——人工智能60年艰难历程
1956年达特茅斯会议与AI诞生016
初期的繁荣与乐观019
遭遇计算能力瓶颈021
复兴与再度冰冻023
20年寒冬027
第三章杰弗里·欣顿——突破人工智能关键技术的人
实习生培训班的老人030
人工神经网络道路崎岖034
寒冬中的坚持036
深度学习登场038
第四章助飞的双翼——深度学习成功的秘密
不是只要有好算法就能成功042
疯狂冒险家黄仁勋与GPU 046
“拼命三郎”李飞飞缔造ImageNet 050
让深度学习升华052
第五章数据魔方——数据科学崛起
华尔街数据争夺战056
AI眼中的历史与未来058
造就神奇的数据科学060
来自大数据的挑战062
异军突起的数据可视化065
硬币的另一面067
第六章机器在聆听——语音识别的历史性突破
人类的美好梦想与历史探索070
统计语言学打破沉寂071
剑桥语音的黄金十年073
技术高门槛与垄断076
深度学习带来历史性突破078
广阔的创新领域080
第七章让霍金倾谈——语音合成创造奇迹
机器制造“完美的保罗”086
语音合成的漫漫长路089
科大讯飞,一名在校生书写的传奇090
语音交互大战打响093
第八章重建巴别塔——机器翻译拆除语言樊篱
机器翻译崭露头角100
冷战催生的机器翻译101
语言的规则太复杂103
统计翻译成为主角105
见证历史的活样板107
科技巨头的竞技场108
第九章第二双眼睛——计算机视觉大放异彩
央视节目引起热议114
计算机视觉前史115
学科奠基人戴维·马尔117
走上快车道119
中国力量崛起122
谷歌猫与计算机视觉的未来124
第十章忠实的朋友与助手——形形的机器人
美的收购“德国国宝”128
机器人的前世今生130
现代制造业与工业机器人132
服务机器人大合唱134
巨大的冲击波139
第十一章飞翔的机器——无人机的广阔天地
无人机“黑飞”事件142
漫长发展史143
汪滔与大疆145
给“硅谷狂人”上了一课148
广阔的应用领域149
微小型化与集群应用152
无人机的未来154
第十二章智能交通革命——自动驾驶的梦想与现实
收购狂潮158自动驾驶概念与无人车的历史159
伊拉克战场引发的无人车挑战赛161
民用研究趁势而上162
“狂人”马斯克来了165
不同的声音——无人驾驶还需60年168
无人车畅想曲170
第十三章无形机器人——无处不在的虚拟机器人
一场官司的背后172
什么是Bot 174
Bot今昔175
创业的新机会177
虚拟机器人大显神通179
未来的竞争利器180
第十四章终身学习时代来临——人工智能塑造新人生
教育史上的“一场数字海啸”186
机器人给考试评分190
高考机器人亮相192
AI带来个性化教育193
超越大学,终身学习196
第十五章电脑神医——精准医学带来的福音
AI挑战医生200
破解医学影像处理难题202
手术机器人205
精准医学应运而生208
新药研制走上新路210
时刻不离的远程AI医生212
第十六章二十三条军规——对人工智能者的回答
乌镇内外216
AI为什么是错的219
今天的AI可能还处于胚胎阶段221
乐观的信号出现223
未雨绸缪的“二十三条军规”225
第十七章美丽新世界——AI的未来
AI 2.0新篇章230
通用AI的追求231
深度学习的未来232
挑战摩尔定律234
向人脑学习237
人类的新征程240
第十八章中国传奇正在书写
AI名人堂里来了中国人244
244国际学术会议因春节改期246
246美国媒体关注中国AI 247
247开放环境创造双赢249
249美国政府的新担忧251
创业大潮风起云涌252
宏伟的国家AI发展蓝图255