网站首页
教育杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
医学杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
经济杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
金融杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
管理杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
科技杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
工业杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
SCI杂志
中科院1区 中科院2区 中科院3区 中科院4区
全部期刊
公务员期刊网 精选范文 高性能计算范文

高性能计算精选(九篇)

前言:一篇好文章的诞生,需要你不断地搜集资料、整理思路,本站小编为你收集了丰富的高性能计算主题范文,仅供参考,欢迎阅读并收藏。

高性能计算

第1篇:高性能计算范文

软件成焦点

高性能计算面临的挑战,不在计算机本身,而是在应用和软件上。” 中科院网络信息中心超级计算中心主任迟学斌如是说。只有当计算机硬件、软件和自然科学领域的应用完美结合起来,才能将高性能计算的功效发挥到极致。

硬件技术的快速发展促进超级计算走向高端计算,软件技术的缓慢发展则阻止了高端计算走向应用。用户并行编程能力还有待提高,并行编程要达到良好的可编程性,必须解决结构性、通用性和可移植性问题。

中科院软件所并行计算研究中心副主任张云泉强调:“程序设计语言要跟上机器的发展,处理器增加以后,可靠性问题凸显,除了硬件,在程序设计上也要考虑可靠性。”

系统功耗过大是障碍

“500万~600万元的高性能计算机系统,一年下来的电费就要60万~70万元,真快成买得起用不起了。” 清华大学高性能计算机中心主任郑纬民提出了功耗这一严峻的问题。这不仅是对硬件制造商的挑战,也对软件设计人员编制低功耗运行代码提出了更高的要求。合理处理好这一问题,就能把挑战变成商机。

深化行业应用是关键

来自气象、石油、航空等领域的专家也畅谈了自己在应用方面的需求。“预计到2010年,气象方面的需求将达到千万亿次。” 国家气象局高性能计算机室高工洪文董介绍。中国气象局的高性能科学计算环境为大气科学及相关领域的科学研究、计划和业务提供科学计算、数据管理的资源平台。目前,中国气象局高性能计算机应用中心拥有以神威Ⅰ系统、神威新世纪集群系统、IBM SP系统、IBM高性能计算机为代表的一批国内一流的高性能计算资源。洪文董说:“硬件是一流的,但是用户关心的是软件应用,如何能够让设备的运行效率最高,这才是关键问题。另一个问题就是如何改造现有程序以适应多核并行应用。”

中石化集团公司信息管理部吴正宏教授也详细阐述了高性能计算在分子模拟、流程模拟等方面的应用。“以前用15年才能算出地下是什么情况,现在已经缩短到用小时计算了。”在提到高性能计算软件的时候,吴正宏教授道出了自己的忧虑:“国产的软件还不成规模,区域适应性较差,但在使用国外软件时面临两大问题:首先是价格昂贵,其次是应用受限。在投标国际性的大项目时,有的国外厂商会限制软件使用范围,使竞争力被很大削弱。”

如何深化高性能计算在行业中的应用,由谁来开发并行计算软件,成了这次会议的一个热点话题。中科院软件所并行计算研究中心副主任张云泉提到了计算科学的概念,这一专业培养的人才本身具有较好的数学和计算机基础,毕业后具有从事科学研究、解决实际问题及设计开发有关软件的能力。而目前我国一些院校已经开设了相关专业,面向特定行业招收特定的学员。只是目前还比较匮乏。但毫无疑问,计算科学是解决和学科建设相关的复合型人材问题的关键。

并行时代将到来

在国内,高性能计算不仅在石油、气象、生物、科研、国防等科学工程计算领域扮演着重要的角色,而且在教育、商业、企业、政府等信息服务领域也得到越来越广泛的应用。据IDC预测,到2008年,全球高性能计算机的市场容量将达到76亿美元。

第2篇:高性能计算范文

高性能计算领域的“皓龙现象”值得我们关注,本文试图从架构、能效和高性能计算的未来发展趋势等几个方面,管窥皓龙迅速崛起高性能计算领域背后的秘密。

AMD64技术开创64位计算时代

AMD于2003年推出的皓龙处理器基于AMD64技术,将x86计算带入了64位时代。AMD64技术具有独特的直连架构,在芯片上集成内存控制器,通过超传输总线技术,实现处理器和I/O以及内存之间的高速互连,消除了传统前端总线的固有瓶颈,大大提高了系统的总体性能和效率。另外,AMD64技术还通过集成增强病毒防护技术(EVP)提高用户计算环境的安全性。

作为业内首款将 32位 及 64 位计算结合在一起的高效架构,AMD64技术在支持64位计算的同时兼容32位计算。对于大量运行32位应用的企业用户而言,可以在兼容现有32位软件应用的同时,为将来随时升级到64位做好准备,保障了其既有投资。

创新架构突破传统系统瓶颈

AMD皓龙处理器性能卓越,这首先要归功于AMD独创的直连架构。很多业内人士都把直连架构视为x86处理器领域最重要的技术创新之一。通过将内存控制器内置入处理器和采用高速串行超传输技术(HyperTransport),直连架构使得处理器与芯片组、处理器与内存、处理器与处理器之间都可通过超传输总线相连,大大提高了效率,避免了前端总线架构中多个组件共用一条总线造成的带宽争抢“内耗”,实现了处理器与其他组件之间的快速响应,最大限度降低了内存延迟。

AMD皓龙处理器的直连架构

超传输总线的发展历程

这种架构的点对点高速传输特性让服务器扩展处理器数量时的性能损耗和难度大幅降低,而其出色的带宽则让基于皓龙的服务器在运行企业级数据密集型任务时表现更为流畅。 由于AMD皓龙内置内存控制器,无需通过北桥芯片来访问内存,处理器降低了系统功耗,提高了稳定性,因此在密集空间中可以部署基于大量AMD 皓龙处理器的超级计算机。

超传输总线(HT)搭建多核时代的高速公路

超传输总线(HyperTransport)技术是AMD所独有的新一代芯片互联总线技术,旨在提高电脑、服务器、嵌入式系统,以及网络和电信设备的集成电路之间的通信速度。通过减少系统中的布线数量,减少系统瓶颈,CPU到CPU间的双向带宽可达6.4GB/秒,多至三条16-bit的超传输总线可带来19.2GB/秒的传输带宽,这消除了所有总线瓶颈问题,令CPU更加有效地在高端多处理器系统中使用系统内存。直连架构和超传输总线技术的完美结合,使基于AMD处理器的系统平台在向未来多核计算扩展时更加灵活和简单。

2006年,频率更高,资源配置更灵活的HyperTransport3.0版本问世。HyperTransport3.0将工作频率从HyperTransport2.0最高的1.4GHz猛增到2.6GHz,提升幅度几乎达到一倍,同时还提供了32bit位宽,在高频率(2.6GHz)、高位宽(32bit)的运行模式下,它可以提供高达41.6GB/s的总线带宽,足以应付未来3年内显卡和处理器对系统带宽的需求。

为了加速HyperTransport3.0技术在超级计算系统中的扩展应用,AMD还推出了第一个超传输总线的扩展接口规范HTX。基于HTX接口,超级计算机的系统制造商所添加的协处理器可以通过超传输总线与AMD皓龙处理器相连,从而显著提升超级计算系统在特定应用上的计算能力。

真四核皓龙蓄势待发

继2005年率先在x86架构服务器中引入真双核技术后,AMD将在2007年中期推出代号为“巴塞罗那”的四核处理器,据称是业界首个真正的四核架构,即在同一硅片上整合四颗处理核心。AMD的真四核处理器采用65nm 绝缘硅(SOI)生产工艺、新增可扩展的共享三级缓存、128 位 的FPU(浮点运算单元)。AMD四核处理器的每个核心都具备“改进的分支预测”能力,可以在每个时钟周期循环内完成两个128-bit载入、执行最多四个双精度浮点操作,以及两个128-bit的SSE数据流,并支持SSE指令集扩展。

AMD实验室的模拟测试表明,AMD四核皓龙处理器在性能上得到了大幅度的提升,与现有的AMD双核皓龙处理器相比,四核皓龙在应用某些数据库软件时,性能提升高达70%。

除了性能上的提升,AMD四核皓龙处理器还采用了“独立核心动态调用”(DICE)的四核心电源管理技术。DICE不仅会根据系统负载智能分配各核心需要执行的任务,还可以在处理器核心处于空闲状态时将其转入完全休眠状态,从而大幅降低了功耗。与双核皓龙相比,AMD四核皓龙功耗相同,从而进一步提高了皓龙的每瓦性能优势。

开放架构 顺应未来超级计算发展趋势

目前,超级计算多应用于军事、医药、气象、生物研究等专门领域,全球超级计算系统中除了部分由大量通用计算机形成的超级计算集群外,大部分超级计算机都是针对某些特殊应用而研发的的专用超级计算机,比如排名全球TOP500第二名由Cray公司研制的“红色风暴”就是为专用计算而设计的。为了能够进一步提高专用高性能计算机系统的性能,AMD在2006年11月推出了全球首款可满足高性能计算特殊需求的专用流处理器AMD Stream ProcessorTM。这款处理器专为工作站和服务器等纯计算系统而设计,采用被称为 CTMTM(Close To Metal)的 AMD 新型瘦硬件接口,能够显著提高在金融分析、地震偏移分析、生命科学研究和其它应用领域的计算性能。

第3篇:高性能计算范文

随着能源需求不断增加,全球易开采油田开始枯竭,根据《华尔街日报》报道,即便是石油储藏富国――沙特阿拉伯,也开始转向开采难度更大的重油资源。可见,对于油气资源相对匮乏的中国,如何找到更多的油气资源,相比于是否易于开采则显得更加迫切了。

计算能力直线飙升

赖能和也来自中国石油东方物探公司,和“280队”不同的是,他来自公司研究院处理中心。作为总工程师,他也担负着一项同样重要和辛苦的工作――地震波数据处理。现阶段最流行、最精准的油气勘探法就是地震波法,其主要原理就是通过人工地震波,采集传入地下深处的不同形态岩层形成的反射波,转变为数据,并通过计算处理模拟勘探区域地下的地质构造。这样便可以精确地找到存有石油或天然气的岩层精确位置。由于地震波法勘探收集的数据通常都以TB计,在海洋勘探过程中收集到的数据容量更是会突破PB级,要处理这些海量的数据,必须依靠高性能计算。

赖能和告诉记者,目前他所在的处理中心的运算能力达到528万亿次/秒,比2010年增加了近200多万亿次/秒,其背后的原因就是数据计算量的直线增加。

“以深度偏移数据处理为例,从2008年占所有数据的7%,到2009年的14%、2010年的30%,今年更是已经超过了60%,可见计算量增加了很多。再就是随着‘逆时偏移’这样的新算法的增加,它需要更加强大的计算能力做支撑。以目前处理中心计算能力而言,还远远不够。”赖能和说。

中国石油大庆油田公司勘探开发研究院总工程师张铁刚也向记者表示,大庆油田在三维地震高分辨率地震勘探、大规模油藏计算等油田整体优化的开发和规划方面也都在加大对高性能计算的应用。

“未来,随着岩性油气藏勘探、多波多分量地震数据处理解释、精细油藏描述、剩余油分布研究等工作的深入,大庆油田高性能计算方面的工作将不断深入。”张铁钢说,“近两年来,在英特尔的支持下,包括基于最新至强E7平台的样机都在我们那里进行了测试,例如多学科协同地震解释等测试。在这个过程中,我们获益匪浅。随着需要分析的区块越来越大,数据密度也越来越高,这些数据如何来解释、如何以此提出有价值的地质信息,必须进行地震解释和地震属性的计算以及三维可视化解释,这都需要强大的高性能计算设备来支持。”

集装箱数据中心大有作为

由于在灵活性、高密度等方面的优势,集装箱数据中心越来越受到各方关注。但是往往是观望的多、谈论的多,真正应用的少。不过在石油物探领域,已经有了第一个“吃螃蟹”的人。

来自中国石油川庆钻探工程公司地球物理勘探公司(下称川庆物探)的消息,他们已经在实际勘探工作中引入了一套IBM集装箱式数据中心。

川庆物探汤成兵告诉记者,近几年来,按照西南油气分公司对油气勘探的要求,川庆物探公司所服务的项目,难度越来越大、项目周期越来越短。为了更好地服务油气勘探,川庆物探公司推进了地震资料采集处理解释一体化的工作,靠前处理解释分中心便是一体化过程的较好体现。经过两年的分析调研,川庆物探最终采用了集装箱式数据中心。

“这个数据中心采用20英尺钢结构货柜为载体,采用高密度机房设计,包含252枚六核至强5650处理器的计算集群,PUE值达到了1.2,处理能力达到了3000平方公里的三维常规地震资料处理。”汤成兵介绍说。

结合到东方物探公司的实际情况,赖能和也认为如果性价比合适的话,集装箱式的处理中心,对于靠前数据处理是一个很好的应用。“过去有些现场计算项目,就搬了几台机器在酒店里租了房子,数据计算结束后设备再搬回总部,实际上成本也是挺高的。对我们下一步的应用,从环保、节能、安全上来说,集装箱式的处理中心还是有一定的应用前景的。”

平衡计算 应用为本

在东方物探,每年用在数据处理上的电费已经达到了2600万元,虽然采用了各种节能降耗的手段,每年节省200余万元,但是电费高居不下,仍旧让赖能和不敢掉以轻心。为了增加计算能力,东方物探在2011年添置了100多套GPU系统,但是随之而来的噪音问题,让东方物探有些吃不消。“由于密度比较大,由GPU散热风扇带来的噪音非常大,跟飞机场的噪音差不多。”赖能和说。

能耗、噪音这些问题,已经成为提高计算能力之外,高性能应用必须面对的话题。英特尔公司亚太区高性能计算解决方案架构师David Scott博士表示,石油行业用户要让自己的高性能计算机在处理勘探数据时发挥最大效用,就必须从更高的层面考虑,构建一个计算、存储和网格组件之间性能保持平衡、彼此配合“融洽”,具备性能、高能效、易管理的高性能计算数据中心,这样才能获得最高的业务执行效率和最佳的投资回报。

在这一理念下,英特尔认为整个数据中心的IT设备就相当于一个智能的大脑,担负计算任务的服务器就如同其专门判断和处理信息的神经元;存储设备则是可以收纳海量信息,并随时准备接受访问和更新的记忆细胞,而网络就是连通所有这些神经元和记忆细胞的神经连接,惟有三者在性能和功能上尽量实现平衡,才能实现最无缝的配合,以及1+1+1>3的应用效果。

英特尔这种从应用出发、平衡计算的理念,也得到了石油行业用户的回应。“在引进地震处理计算集群以后,包括引进了用于油藏数值模拟的集群以后,英特尔一直和我们一起进行性能优化测试,利用英特尔的性能分析工具,帮助我们优化分析软件系统,指导系统优化配置和调整。这些都为提高我们地震处理、数模计算的能力带来了很大的帮助和支持。”张铁刚说。

浪潮集团高性能服务器产品部总经理刘军也认为,高性能计算系统峰值性能已经不是衡量高性能计算水平的根本尺度。只有高性能计算与行业应用深入结合,充分匹配和满足应用计算需求,才能体现出高性能计算产品不仅“好用”,还能“用好”。刘军介绍说:“浪潮为服务好用户应用创新专门成立了一支应用软件开发团队,近年来在石油领域开展了卓有成效的应用开发和优化工作。浪潮围绕行业应用需求进行了多项产品技术创新,包括国产32路大内存cc-NUMA高端服务器、8路胖节点、PB级海量存储系统、千万亿次超级计算机、基于国产处理器的全国产服务器等。”

链接

集成众核架构引领行业走向百亿亿次计算时代

通用图形处理器(GPGPU)加速的方式在高性能计算领域应用的趋势越来越明显。与此同时,英特尔也在不断加速对于高性能并行计算专用加速技术的研究与开发。

与其他IT厂商提供的类似产品或解决方案相比,英特尔集成众核(MIC)架构由于采用了已被业界广泛接受和应用的IA架构,因此其相关应用的开发和优化也沿用了用户们熟悉的编程模型和编程环境,这使得用户可以利用英特尔软件开发和优化工作的特别版本,在非常短的时间内将其现有的、运行在英特尔架构处理器平台上的高性能计算应用迁移到基于MIC架构的产品上运行,并通过简单的优化就能获得可观的性能提升,而这将为用户带来应用性能的迅速增长和既往软件投资得以保全的双重收益。

第4篇:高性能计算范文

计算机辅助设计(CAD)在设计企业中已经得到广泛应用,有效解决了设计效率的问题,例如利用参数化设计,可以对设计进行轻松修改。而工程仿真,也叫做计算机辅助工程(CAE),可以用数值方法模拟设计对象的功能特性,从而完全或部分代替物理样机或试验验证,并引导更优化的设计。对比传统实验手段,CAE可以缩短研发周期,优化产品设计,积累研发知识,节约研发成本。在很多制造企业的产品研发和设计中,CAE都承担着大量关键的业务。

不过,由于工程仿真的软件种类非常庞杂,按照专业不同,可以将其分为:结构力学、流体力学、多体动力学、碰撞仿真、噪声分析等。如何将这些多样化的CAE软件资源统一管理起来并进行动态调配及监控,已经成为企业CAE应用的一大难题。

目前设计行业中的航空航天、能源、冶金等大量使用到ANSYS、ABAQUS、3DMAX等软件,但很多设计企业仍然沿用单机运行方式,计算资源大多呈现分散无序的状态,伴随资源的发展不可避免的呈现出以下矛盾:硬件资源利用无序且低效;软件资源分配缺乏合理性;资源调度与项目要求不匹配;数据、流程安全保障手段弱;资源请求方式亟需简化。

而采用高性能计算平台则能够很好地解决企业所遇到的这些矛盾。高性能计算平台能够将各类CFD、动力学、电磁、噪声、性能等仿真应用软件(如NASTRAN、ANSYS、ABAQUS、FLUENT、ADAMS、STAR-CCM+、LS-DYNA等)、高性能计算硬件资源、高速互联网络资源以及对资源的管理调度,以一种WEB服务的形式提供给仿真分析人员,从而实现将传统的仿真软件工具发展成为“企业云”中的在线计算资源,大幅降低高性能计算资源的利用门槛,有效提高仿真计算工作效率。

在高性能计算平台的工作场景中,用户可以从多个层面切身体验云计算模式的便利性与高效性:仿真分析人员不再需要进行繁琐的客户端配置和操作,也不再需要关心服务器端软硬件资源的配置、管理、维护甚至升级,只需要通过标准的Internet浏览器,就能够登陆平台,方便、快捷的开展仿真计算工作;

研发管理人员不再需要进行费时费力的仿真研发工作报告的搜集、整理工作,经过流程定制后的管理门户将随时可以自动出具当前项目进展报表、软硬件资源使用情况;

研发机构领导不再需要担心软硬件投入理由缺乏论证数据,也不再将企业计算中心视为永远的成本中心,管理门户可以用翔实的数据、直观的图表阐明计算中心的价值所在,并可以详细预测后期软硬件资源的投资需求及短板。

可以预见,随着工程仿真技术在产品研发中的广泛应用、CAD-2-Mesh方式的流行、非线性技术的普及、多物理场耦合仿真以及多学科优化等技术的推广,高性能计算将成为企业研发的重要技术手段。

不过,当企业在设计CAE高性能计算整体解决方案时,要充分考虑需求,比如资金预算、问题类型、分析规模、用户数量、软件License个数等,以此来确定最终的硬件选型。特别是在软件选择方面,应能满足以下应用:

1、可以集成数值仿真软件并进行调用接口封装工作,将其从固定化软件工具转变成实时在线的仿真计算服务资源,方便即需即用;

2、封装所有的HPC操作指令等复杂操作,普通计算用户无需参加任何培训即可使用,同时可以了解自己的资源利用权限;

3、需要智能化监控软件License资源并实现精细化管理,在保证科学分配计算资源的同时可以提供详细的License利用情况分析报表,进一步揭示计算资源瓶颈;

第5篇:高性能计算范文

关键词:CAE 高性能 计算平台

中图分类号:TP338 文献标识码:A 文章编号:1007-9416(2016)06-0227-01

1 CAE高性能计算平台的需求和挑战

计算机辅助工程(CAE,Computer Aided Engineering)是用计算机辅助求解复杂工程和产品结构强度、刚度、屈曲稳定性、动力响应、热传导、三维多体接触、弹塑性等力学性能的分析计算以及结构性能的优化设计等问题的一种近似数值分析方法。CAE从60年代初在工程上开始应用到今天,现已成为工程和产品结构分析中(如航空、航天、机械、土木结构等领域)必不可少的数值计算工具,同时也是分析连续介质力学各类问题的一种重要手段。

2 CAE的主要步骤

CAE 应用程序基本可以分成两大类,一类是共享内存应用程序,一类是分布式内存应用程序。其主要有三个步骤,第一步是建模亦即前处理,通常在工作站上进行;第二步是求解过程,这是至关重要的一步,需要占用大量的CPU、内存资源以及存储空间,通常是在高性能计算机上完成。这个过程涉及到的软件有Fluent、Ansys、Nastran、Ls-Dyna等;第三步是后处理过程,对计算结果进行处理分析,通常也是在工作站上完成。CAE计算的核心内容是高性能计算。为了使高性能计算机系统能够更好的满足CAE应用软件的需求,需要对主流CAE软件进行深入分析。

3 CAE高性能的主要解决方案

通过对CAE软件的分析我们可以了解到,对于大部分CAE应用,对于节点间并行MPI支持非常好,适合在双路计算节点上运行,做通用计算,而部分CAE软件对内存的需求比较高,则适合在胖节点上用OpenMP方式来计算,因此我们推荐大内存的四路或者八路服务器作为集群胖节点。通过对于CAE应用性能的专业化分析和汇总,提供针对化的解决方案。在高性能应用集群主要解决CAE软件应用中的一下几个主要问题。

3.1 工作站解决方案

主要用于前后处理方面的工作,用于网格划分和可视化显示。由于对于服务器显示和处理能力的要求都比较高,因此我们推荐使用带有专业级显卡的工作站配置。

3.2 计算节点解决方案

显示算法和隐式算法对计算能力的需求不用,方案配置了双路节点,适合于分布式内存的显示计算和流体软件CFD的计算,配置了多路胖节点适合于共享内存的隐式计算。不同架构的设计体现针对化专业化的解决方案。

3.3 网络带宽问题解决方案

在大型CAE软件应用中,并行化对于网络延时和带宽的要求很高,因此要根据需求配置了以太网交换环境或者更快的40Gb的Infiniband网络,满足所有节点无阻塞的计算交换需求,网络延时低。

3.4 存储带宽问题的解决方案

部分CAE软件在计算过程中,会产生大量临时文件,一个优秀的存储系统能够满足软件对于网络带宽的需求。浪潮不仅可以提供了专业级的直连存储,更有8Gb接口的光纤存储系统,通过专有的存储节点构建Lustre并行文件系统,接入以太网,甚至40GB的Infiniband网络,不至于出现CPU等待数据计算的情况,大大提高了计算效率。

4 解决方案的注意事项

4.1 计算系统紧密结合客户应用

在高性能系统设计的过程中要充分考虑CAE客户典型应用,针对客户应用定制化开发系统。针对隐式有限元分析应用浪潮配置胖节点,可选八路胖节点;针对流体类应用配置双路主流计算节点,针对前后处理可选图形工作站,塔式、机架可选;存储方面可提供NAS存储、光纤存储、IB SAN存储等方案,对于IO带宽需求特别高的场合,可以配置性能较好、兼容性较高的并行文件系统。

4.2 完善互联系统

管理网络采用万兆为主干的千兆线速网络,可开辟对教育网/公网的独立IP,实现广域网用户登录使用集群;IPMI网络采用非线速千兆交换机,互联所有节点,管理员通过办公用机可实现集群的带外管理;KVM本地监控网络通过链方式,最多实现960台计算机的KVM监管;计算网络采用IB网络全线速互联,带宽达到56Gb/s,延时1微秒内,充分保证计算中间数据交互。

4.3 确保调度系统先进高效

集群管理软件要通过浏览器(IE,firefox等)进行操作,全面实现集群的监控、管理、报警的软件,用户通过ClusterEngine图形界面提交自己的科学计算任务,ClusterEngine会根据集群中的资源使用情况和作业的资源要求数量来合理的调度用户提交的作业,从而达到提高资源利用率和作业的执行效率的作用。ClusterEngine还可以为集群管理员统计作业的资源消耗情况和用户的资源使用情况,并生成报表,为集群管理员优化系统提供依据。

4.4 确保集群系统绿色节能

所有节点尽量采用80PLUS高效电源,提高电源转换效率,降低用户运维成本。结合Cluster Engine节能组件,可以自动将空闲资源设置为待机或者关机状态,整体节能至少会降低20%。

5 结语

自二十世纪六十年代以来CAE技术得到飞速发展,其原动力是不断增长的工业需求,这其中航天航空、能源动力等领域是其发展的强大的推动力。如大型复杂飞行器结构的流-固耦合计算,涉及计算空气动力学、计算燃烧学、计算传热学、计算结构力学等众多学科,目前CAE已成为航空、航天、能源动力等工业领域不可或缺的研究手段。CAE高性能计算平台的建设,对于企业生产目标的实现,有核心的基础技术支撑作用。

参考文献

第6篇:高性能计算范文

中国超算的发展速度赢得了世界的关注,国际超算权威专家、TOP500的发起人之一Hans Werner Meuer 博士用“big shocker”极具震撼力来形容中国超算的发展。

就在近日,国际TOP500组织在德国举行的2015年国际超级计算机大会上全球超级计算机500强最新榜单,中国“天河二号”以每秒33.86千万亿次的浮点运算速度第五次蝉联冠军。

谈到超级计算机,相信大家都太陌生,它能够提供超高的性能,其一般主要应用于科学计算、工程模拟、动漫渲染等领域,这些应用大多属于计算密集型的应用。而云计算则是在近两年随着互联网发展起来的新兴计算,其依靠着灵活的扩展能力主要应用于社交网络、企业IT建设和信息化等数据密集型、I/O密集型领域。

在橡树岭国家实验室有一个研究设施SNS(散裂中子源),它构建于2006年,曾引爆过世界上最强的材料中子束,帮助物理学家和化学家了解材料内部结构是如何形成的。

SNS产生了大量数据,它们需要被彻底分析。而科学家们相信,他们可以利用深度学习算法快速识别数据类型,并提升分析能力。识别数据类型是深度学习的专长。

但问题是,对于科学模拟来说,每次产生700TB数据似乎太正常不过了,不过这比美国国会图书馆所有信息加起来的量还要大。

应用方面,高性能计算机可称得上是行业应用的强力助手。中石油川庆钻探地球物理研究所计算所所长邓亚力在接受本站记者采访时表示:作为新一代的数据中心,在石油勘探应用方面最受关注的重点依然是性能。此次中石油部署的PMDC集装箱数据中心也表现优异。其采用了标准的20英尺集装箱,借助现代化物流可快速部署至全球任何地区。同时,采用高密度设计,使PMDC的占地面积很小,仅相当于同等性能数据中心占地面积的1/4。

据华大基因高性能计算研发主管王丙强博士介绍,GPU多流处理器架构以及超高的显存位宽和频率能够带来巨大的性能提升,在基因研究方面普遍可以带来10~20倍左右性能提升,如果说DNA上有一个点发生的基因突变,仅计算那一部分大概就可以提升70多倍。

原来在华大基因自己高性能计算平台上做,大概要好几年才能算完,后来转移到到天河一号A上去,用超级计算机加上NVIDIA Tesla GPU加速,只要5个多小时就能完成。

第7篇:高性能计算范文

[关键词]高性能计算中心 办公自动化 B/S 新闻管理

[中图分类号]TP311.1 [文献标识码]A [文章编号]1009-5349(2013)07-0018-02

引言

随着芯片的不断发展和多核与众核计算机体系结构的出现,高性能计算模型无论在硬件还是软件上都得到了迅速的发展。应用高性能计算系统辅助科研与教学如今已成为国内各大知名院校的共识,高校高性能计算中心为学校学科建设的长远发展提供强有力的支撑条件,为科技创新和重大工程应用提供服务,满足高校多学科领域对高性能计算的需求,有利于高校未来综合竞争力的提升。[1]针对高校高性能计算中心的服务对象与工作需求的不同,设计集新闻与管理、用户信息录入与上机申请提交、资源下载等功能于一体的OA系统成为迫切要求。与传统单一的具备新闻功能的OA系统不同,高校高性能计算中心OA系统更强调用户的使用需求,为用户上机申请提供线上提交支持。本系统采用Tomcat+JSP+MySQL框架、B/S体系结构,增加了中心协同办公的能力,从而大幅提高了工作效率。

一、系统体系结构设计

本系统采用B/S(Browser/Server)即浏览器/服务器结构。在B/S体系结构中,用户通过浏览器向服务器发出请求,服务器对请求进行分析处理,将用户所需信息返回给浏览器。[2]该结构的重点在服务器端的开发与维护,客户端通过浏览器即可访问web应用。这种结构减轻了系统维护与升级的成本和工作量,简化了客户端电脑负荷,降低了用户的总体成本。[3]B/S三层结构分别为:表示层、功能层和数据层如图1所示。

(一)表示层

表示层负责从web浏览器向网络中某一服务器发出服务请求、接收服务器端返回的信息结果并把它显示在浏览器上,同时负责简单的数据验证和格式化等功能。

本系统中表示层由JSP页面组成,包括登陆界面及前台简单的防SQL注入、上机申请信息录入和新闻列表与新闻内容动态页面的显示等功能。使用css样式表进行网页风格设计。

(二)功能层

功能层封装了实际业务逻辑,是整个web应用系统的核心[4],实现表示层与数据层间的数据通信,包括事务处理、权限处理等操作。

系统的功能层主要进行数据验证、流向、事务、权限等,将数据层取出的业务数据存在内存中,用于在系统的各个功能模块间传输,而不直接操作数据源。

(三)数据层

数据层为功能层提供与数据源交互的最小操作方式,可以理解为数据层就是数据库管理系统,负责对数据库数据的读写、存取和管理等工作以及访问数据的安全性、完整性和一致性,功能层完全依赖数据层所提供的服务。

二、系统开发工具与实现技术

考虑到JSP较高的运行效率与安全性,以及对Java的强大支持,本系统采用JSP作为网页开发语言。而Tomcat是一个免费开源的轻量级web应用服务器,其对JSP和Servlet的强大支持以及稳定的性能成为本系统部署的首选。而MySQL在网站开发中的广泛应用和开放源码显著降低了本系统开发的成本。基于这些工具的优点,本系统采用Tomcat+JSP+MySQL框架[5-6]、B/S体系结构,应用的主要技术如下:

JSP(Java Server Page)技术是一种类似于ASP的动态网页技术标准,鉴于JSP[7]开发web应用的跨平台性,适用于中心基于Linux操作系统下的web开发。JSP页面中可插入Java代码以封装产生动态网页的处理逻辑,也可在servlet中实现操作数据库和网页重定向的功能。JSP将网页逻辑与显示分开设计,也就是将表示逻辑从Servlet中分离出来。

JavaScript是通常用来在客户端给网页添加动态功能的脚本语言,[8]其用以响应用户的各种操作,进行简单的输入验证。同时,JavaScript又是面向对象和事件驱动的。面向对象保证了程序的直观化、模块化和可重用性。绝大部分事件是由用户的动作引发的,如点击鼠标或鼠标指针移动等。JavaScript[9]不需要在服务器端运行,只需在客户端的浏览器上就可执行,显然减轻了服务器的负担,但弱点是安全性较差。单纯在前台使用JavaScript进行输入验证并不能完全保证系统安全,因为恶意攻击可能绕过前台过滤直接对数据库进行注入,所以系统对数据库进行存取前应该在后台同样进行安全性检查。

CSS(Cascading Style Sheet级联样式表),顾名思义是用来定义网站外观风格的。常见的样式表使用方式有三种:网页链接外部css文件、网页嵌入css和网页元素内嵌css。外部样式表使用方式可实现统一多个网页风格的效果,在样式表中进行更改便会反映到所有链接该样式表的网页上[10],嵌入和内嵌样式表又可以实现不同页面的风格化。DIV+CSS的网页布局[11]方法可以实现分离的网页内容与表现设计,与table表格定位技术相比,页面代码更加精简,从而提升了浏览访问速度和用户体验。

正则表达式是指对符合某个句法规则的字符串进行描述或匹配的逻辑公式。[12]正则表达式虽然比较晦涩,但其表达灵活,逻辑简短,可以用极简单的方式实现复杂的控制,因此,在字符串处理中得到了广泛的应用。在计算机科学中,我们经常用正则表达式对字符串进行过滤,也可从字符串中获得想要的特定部分。

SmartUpload[13]是一个可以实现文件上传和下载的免费组件。使用SmartUpload使文件的上传下载及删除变得简单易行,并能获得上传文件的全部信息,方便对文件进行处理和下载。

数据库连接池是针对数据库连接管理以提高应用程序的安全和性能而提出的。数据库连接池负责数据库连接的分配、管理和释放,可以明显提高操作数据库的性能。[14]同时,在对数据库的存取、更新等操作中,使用PreparedStatement接口来代替Statement,不但增强了代码的可读性和可维护性,而且提高了操作数据库的安全性,有效地防止了SQL注入。

三、系统功能模块设计

结合高性能计算中心[15]的工作需求,系统主要有四大功能模块,分别为后台新闻管理模块、用户上机申请模块、用户登陆模块和资源下载模块,具备了新闻采集、整理和以及用户上机申请信息录入等中心办公自动化要求的功能,如图2所示。

(一)后台新闻管理模块

该模块包括新闻列表、搜索与动态显示,以及新闻添加、修改编辑和删除等功能。其中新闻添加时可设定标题和内容,通过SmartUpload组件实现图片和附件文件的上传,添加前可进行预览和修改,为保证系统安全新闻后台模块使用RBAC(基于角色的访问控制)模型[16]进权限控制。

(二)用户上机申请模块

有使用中心资源需求的用户可在此进行信息录入,完成“XX高性能计算中心上机申请表”的填写、修改、确认和提交。防止SQL注入,信息录入和提交时分别在前台和后台使用正则表达式对输入信息进行过滤。

(三)用户登陆模块

用户提交上机申请后可以使用注册时的账户ID和密码进行登陆,登陆后可查询用户信息、修改登陆密码和打印上机申请表。输入信息和登陆时同样分别在前台与后台采取防SQL注入措施,同时使用session保持用户进行“对话”的状态信息。

(四)资源下载模块

提供报销单填写模板、用户使用手册和相关工具软件等资源下载功能。将资源存于Tomcat中的webapps的相应目录下,使用超链接进行下载。

四、结语

本文结合高校高性能计算中心的服务对象与工作需求,阐述了高校高性能计算中心OA系统的功能模块设计、体系结构、开发工具及实现技术。系统集新闻与管理、用户信息录入与上机申请提交、资源下载等功能于一体,简化了用户的申请流程,大大提高了中心的办公效率。后续的研究工作主要集中在集群日志信息的提取与挖掘、集群监测和故障信息统计与成像功能模块的设计与实现。

【参考文献】

[1]李根国,桂亚东,刘欣.高性能计算技术及其应用[J].中国科学院院刊,2007,22(4):306-313.

[2]李书杰,李志刚.B/S三层体系结构模式[J].河北理工学院学报,2002,24(增刊):25-34.

[3]杨杰,刘丹.基于工作流和B/S结构的OA系统设计[J].武汉理工大学学报(交通科学与工程版),2005,29(1):56-59.

[4]赵宏伟,秦昌明.基于B/S3层体系结构的软件设计方法研究[J].实验室研究与探索,2011,30(7):65-66.

[5]边清刚,潘东华.Tomcat和Apache集成支持JSP技术探讨[J].计算机应用研究,2003(6):12-14.

[6]胡莉萍.Tomcat+JSP+MySQL整合配置初探[J].中国科技信息,2010,5.

[7]赵晓峰.基于JSP与JavaBean技术的Web应用开发[J].深圳信息职业技术学院学报,2005,3(1,2):39-43.

[8]李轶.基于JavaScript的面向对象程序设计研究[J].江汉大学学报(自然科学版),2010,38(3):52-56.

[9]张云苑.JavaScript在动态网页设计中的应用[J].科技信息,2007,5:23-24.

[10]车元媛.基于DIV+CSS的网页布局技术应用[J].电脑知识与技术,2011,7(9):2019-2020、2023.

[11]张丽姿.DIV+CSS技术在网页制作中的应用[J].电脑开发与应用,2010,23(5):47-49.

[12]杜冬梅,许彩欣,苏健.浅谈正则表达式在web系统中的应用[J].计算机系统应用,2007,8:87-90.

[13]陈焕英,张红琴.SmartUpload组件在JSP项目开发中的设计与实现[J].漯河职业技术学院学报,2012,11(2):18-19.

[14]罗荣,唐学兵.基于JDBC的数据库连接池的设计与实现[J].计算机工程,2004,30(9):92-93、111.

第8篇:高性能计算范文

[关键词]高性能计算;数据处理能力;石油勘探;云计算技术

[DOI]10.13939/ki.zgsc.2015.20.055

1 高性能计算在石油勘探开发方面的发展趋势

1.1 国外的发展趋势

目前,高性能计算机的性能的速度每年都在快速增长,使其不断向前发展,其应用由主攻科学计算和工程计算领域,延伸到网络信息服务和商业自动化领域。

为了提高性能,降低系统功耗,减少占地空间和解决编程和管理较麻烦等问题,高性能计算机技术在发展的同时不断融入许多新的内容。例如,美国,日本和其他国家试图运用科学和计算机体系结构的发展结合在一起提供一种新的方法,以此开出一条高性能计算机发展的可持续发展道路。同时,基于网格技术和以商业节点为基础的高性能计算系统发展非常迅速,其系统的性价比高,研制速度快,美国和欧洲的许多国家纷纷在这类高性能计算机系统研发上投巨资。为了进一步提高高性能计算机的综合能力,美国正在研究采用包括超导、光互联和超大规模集成电路等多项先进的技术和工艺。此外,基于量子运算的超高性能计算机的研究,目前正处于理论阶段。

1.2 国内的发展趋势

(1)标准化和集成化的需求:将集群技术标准化,促进了高性能计算机生产的快速发展,同时集成化的集群技术,又拓宽了高性能计算机的应用范围。坚持标准化与集成化特性和不断创新技术,高性能计算机的应用前景会越来越繁荣。

(2)集群式高性能计算机的发展:集群体系结构的高性能计算机,指用标准化的互联网络将高性能部件连接起来而形成的。科学计算、事务处理和信息服务应用等工作都可以在这个系统平台上进行。其优势在于它性价比很高并且具有较高的可靠性和可扩展性,低成本和易维护等。随着计算机性能的迅速提升和价格的进一步下降,集群式高性能计算机的应用呈现出了蓬勃景象。

(3)网格计算技术的应用:伴随着高性能计算机和互联网技术的发展,网格计算技术应运而生,是针对复杂的科学计算的一种全新的计算模式。它主要是通过互联网把许多分散在不同地理位置的计算机连接起来,形成巨大的高性能计算机。该技术,在石油勘探开发领域发挥了很大作用,成效令人瞩目。网格计算技术的推广和应用,定会使石油工业的未来更加繁荣。

2 高性能计算在石油勘探开发领域中的应用

在石油工程中,数据的处理不容忽视,一点误差就会带来很大的损失,这就要求计算机系统有非常高的计算能力,尤其在石油勘探中。石油勘探开发是石油工程的重要组成部分,将在石油的勘探开发中采收集的大量数据进行分析,从而判断油储的分布情况。一般是先根据这些数据画出数据场的等值线,再交由专业人员分析油的分布,有多少油,可想而知这样的处理方式必会受到限制。另外等值线是二维的,不能形成三维立体的画面,结果浪费大量的信息的同时又没有得到我们所期望的结果。如果利用计算机技术和可视化技术,就可以从这些庞大的地震勘探数据中构造出三维实体,显示参数,直观地再现油藏的地质构造以及油藏参数在石油开发过程中的变化,给专业人员准确分析和解释原始数据提供了巨大帮助。这样的分析将更加准确,定位更加科学,降低石油勘探开发的成本。因此,为了取得勘探的最佳效益,使用高性能计算处理这些海量数据成为必然,这也成为高性能计算在石油勘探领域高需求的主因。

目前,在石油勘探中从采集数据、分析数据、油气藏描述到开发、钻井乃至管理整个油田生命周期和对生命周期的经济评价,全都靠计算机完成。高性能计算机技术的应用非常广泛,随着科技的发展,不仅应用在石油化工领域,在气象预报、核能模拟和生物工程等领域都得到应用,取得了显著的成绩。尤其在石油勘探开发领域,高性能计算机的应用占据了不可或缺的地位,在许多方面象征着高性能计算机技术的发展水平。

3 高性能计算面临的问题

面对石油勘探行业的特殊性和复杂性,高性能计算如何满足越来越高要求的数据处理能力成为首要任务。但是目前在计算性能、系统建设与运行成本等方面使得高性能HPC集群计算机系统已经面临着许多问题,主要表现在三大方面:

一是CPU处理器性能无法满足对计算能力的需求;

二是石油勘探高速增长的数据和存储扩容越来越不匹配;

三是能耗制约越来越严重,高性能计算机体积大、耗电多以及对计算机房空间、空调、电量需求大。

总的说来,就是传统的高性能计算方法已无法满足目前石油勘探行业对计算能力越来越高的要求和对数据处理的大需求,更无法满足石油勘探发展与应用的需要,这必然导致其会成为制约石油勘探发展的因素。面对这些严峻迫切的问题,如何尽快找到满足高性能计算需求的方法成为石油勘探行业关注的热点。

4 云计算破局石油勘探高性能计算需求

从目前的形式来看,实现灵活的可伸缩性成为解决石油勘探行业面临的三大困境的唯一解决之道。也就是要构建满足石油勘探高性能需求系统的几大重要点:一是使高性能计算机具有可拓展可伸缩性的计算能力;二是能够实现对相当大的存储容量的负载和存储容量的可伸缩性;三是能够对计算能力和资源进行更好的管理。因此,许多业内人士将打破石油勘探高性能计算需求局面的希望投向了云计算。

其实,对高性能计算而言,云计算这个概念并不陌生。例如存在一种早期的云计算模式,它把昂贵的计算资源集中部署和集群应用,这就是已经发展近30年的超级计算中心。但这种高计算服务不同于当前所谈论的云计算。目前的云计算是传统计算机技术和网络技术发展融合的产物,这些技术包括分布式计算、并行计算、网格计算、效用计算、网络存储、虚拟化、负载均衡等。其目的是运用网络把一些较低成本的计算实体整合起来,打造一个具有强大计算能力的系统。如果有效的管理和调度这些用网络连接的计算资源,建立一个计算资源池以服务用户,成为云计算的核心思想。

第9篇:高性能计算范文

[关键词]协同研究 远程访问 PLATFORM 一体化应用平台 自助式智能集群部署

中图分陈类号:TP393.4 文献标识码:A 文章编号:1009-914X(2015)34-0217-01

1 问题的提出

大港油田信息中心当前对于计算资源的使用与管理,采用传统的集群式管理方案,这种资源固定分配的方式虽然能够为相应部门分配适用的资源,但是对于部门间需求的改变以及资源的按需调整无法提供一个灵活的、便捷的方法。无形中增加了资源管理部门的工作量以及工作难度,同时也无法将现有计算资源的利用充分的发挥出来。其次,信息中心所管理的数模、建模等应用软件,希望能够以桌面云的方式为用户提供远程访问接口,并且按需来自动分配登陆,改变传统的手动建立VNC登陆服务。

针对于此类问题,为大港油田信息中心建立一套完整的云管理平台,在此基础之上再根据信息中心针对于业务系统的使用动态建立高性能计算集群、数模、建模机群,将能在很大程度上解决上述问题,建立起适用于大港油田的、技术领先的高性能综合管理平台。

2 研究云平台建设内容

大港油田经过十多年的信息化建设,在勘探开发信息系统建设方面取得了一定的成绩,紧紧围绕“为油田主营业务发展提供强有力信息技术支撑”这一核心主题,大力推进信息化基础建设。现已拥有了大中型计算机服务器,如针对勘探开发业务研究,配置了64台高性能刀片服务器,其中48台支持常规解释和数值模拟应用,16台图形刀片服务器支Geoprobe、Petrel等三维解释类软件应用,存储容量达到了130TB,整个高性能计算环境达到了128个CPU,1024核心数,内存总量达到8TB,同时支持200个以上的用户开展勘探开发研究工作。在此基础上,部署了如OpenWorks、Geoframe地震解释系统、Petrel/SKUA/RMS/Direct地质建模系统、Eclips数字模拟系统、ComPass以及Assetview钻井工程设计系统等应用软件,并通过高性能PCM-AE云管理平台和独立仿真等技术,实现了基础设施及专业应用的集中部署、应用和管理,初步形成了当前大港油田的勘探开发研究环境格局。

3 研究云平台构架方案

针对于大港油田的云管理平台建设,以全面整合信息中心现有基础设施,并为日后新硬件环境的方便扩容为前提,IBM Platform Computing 所推出的云平台管理软件 PCMAE 将为大港油田信息中心提供整体的云平台基础框架。PCMAE 是一个面向高性能计算的云管理平台,可以整合数据中心的计算资源、存储资源和网络资源,为IT资源的统一整合、管理与分配提供有力的技术支持;同时,提供了最终用户直接请求资源的自助服务平台,通过丰富的策略为用户匹配和供给资源,带给最终客户灵活便捷的云资源申请和使用模式。另外,在虚拟化软件之上提供它们所不具备的虚拟机灵活定制与整体管理功能,对虚拟机集群及上层 HPC 集群进行统一的自动部署、监控和资源调度,实现资源的最大化利用与服务的最快交付。

4 平台展示

4.1 协同研究云环境全面建成,并投入应用

云计算的核心是多用户、自动化管控、弹性计算,信息中心通过部署Platform云计算管理平台,极大简化研究云环境管理,实现集群快速部署与调整、资源统一管理和自动调度,是中石油第一个全面云化的研究环境。在云平台基础上,建立两套高性能计算集群、远程可视化、自助式服务。与现有数模建模等应用软件进行集成。

通过云管理平台的应用,信息中心可以做到将整个计算资源放置到云端,快捷的部署物理机操作系统,以及快速创建虚拟机并且加入到高性能计算平台,使得原来需要数周的工作量简化到一个小时以内。

4.2 主流勘探开发研究软件的集中管理使用

取代了以往分散式的管理方法,将主流研究软件全部集中在了云管理平台之中,用户通过登录统一门户页面,选择需要使用的专业应用软件。高性能调度平台会在云端资源中分配出最适合的计算节点供用户使用。

在原有软件的基础之上,新部署了OpenWorks 5000.8,Geofrme 4.5两套地震解释环境以及Petrel 2013建模系统、Eclipse2013数值模拟系统、随钻分析、钻井设计,软件种类超过10种,并在不断扩展之中。

4.3统一的作业管理

当用户提交计算作业后,用户随时可以在门户页面上看到作业的运行状态,并且随时查看作业计算过程中所产生的数据文件、输出信息。无论作业的量级多大,都能快速定位,即便数月之前提交的作业数据也能很方便的查看。

作为云平台管理员则可以查看所有用户的作业信息,对用户的使用情况做到清晰了解,当发现任何作业出现异常时,在门户界面之中就能处理,不必再寻找该作业所运行的节点,登录该节点后才能处理。

6 应用平台实现的功能

6.1 自助式智能集群部署

提供了简单友好的自服务门户界面,用户只需通过门户提供的统一认证功能,只需要一次登录认证,就能直接调用运行集成在大港油田勘探开发协同研究云一体化应用平台上的20余种应用软件,在调用软件的同时, 系统在后台自动为用户完成应用环境、硬盘资源的配置, 解决了用户应用流程繁琐, 较大地提高了用户生产研究工作效率。

6.2 跨平台软件资源的共享

在勘探开发专业软件一体化应用平台上,整合了新老软件资源,集成了基于windows、Linux等不同平台上运行的软件, 在同一台客户端工作站,用户既能调用windows系统下的专业软件,也能运行Linux系统下的软件,实现了软件资源的跨平台共享, 大大提高了勘探开发软件的利用率。

6.3 显著减少了硬件投资和运行维护费用

使用集中部署和应用虚拟化技术后,客户端不再需要配备高性能专业图卡,不再需要不断升级客户机硬件,不再担心用户数据丢失,不再经常到用户端安装部署专业软件,显著减少了日后硬件投资和运行维护费用。

7 结论

通过专业研究软硬件集中部署和自助式智能集群部署技术在大港油田实践,搭建了支撑油田勘探开发协同研究工作的软硬件集中部署、数据统一存储、备份统一管理、应用统一、用户单点使用的集成应用环境,实现了基于Linux环境下不同平台应用系统界面集成和软件资源跨平台共享,把20多种异构专业软件统一在一个平台中集中管理起来,彻底解决了以往单机作战应用模式带来各种弊端,保证了油田各项研究工作的高效进行,具有良好的应用前景。

参考文献

[1]张军华, 臧胜涛,单联瑜,等. 高性能计算的发展现状及趋势[J]. 石油地球物理勘探,

[2]赵改善, 包红林. 集群计算技术及其在石油工业中的应用[J]. 石油物探,

免责声明

本站为第三方开放式学习交流平台,所有内容均为用户上传,仅供参考,不代表本站立场。若内容不实请联系在线客服删除,服务时间:8:00~21:00。

AI写作,高效原创

在线指导,快速准确,满意为止

立即体验
文秘服务 AI帮写作 润色服务 论文发表