网站首页
教育杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
医学杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
经济杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
金融杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
管理杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
科技杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
工业杂志
CSSCI期刊 北大期刊 CSCD期刊 统计源期刊 知网收录期刊 维普收录期刊 万方收录期刊 SCI期刊(美)
SCI杂志
中科院1区 中科院2区 中科院3区 中科院4区
全部期刊
公务员期刊网 精选范文 高性能计算机范文

高性能计算机精选(九篇)

前言:一篇好文章的诞生,需要你不断地搜集资料、整理思路,本站小编为你收集了丰富的高性能计算机主题范文,仅供参考,欢迎阅读并收藏。

第1篇:高性能计算机范文

摘要:随着我国高性能计算机系统性能的不断提升,如何更好的保障高性能计算机系统运行的精确成为了当前研究的重要问题,尤其体现在现行计算机研制过程中。为此,本文研究探讨高性能计算机可靠性现状与发展趋势相关问题,首先从高性能计算机可靠性现状分析出发,包括避错技术、静态冗余、动态冗余以及在线替换,然后对高性能计算机未来发展趋势从多核处理器的可靠性设计、增强的全方位内存防护技术以及刀片式架构的发展三个方面进行了深入的分析。其写作的主要目的在于为今后高性能计算机更好的发展奠定一个具有参考价值的文献基础。

关键词:高性能计算机;可靠性;发展趋势

一、高性能计算机可靠性现状分析

1.1避错技术

避错技术是指通过正确的设计及人为质量控制的方式最大程度上避免系统性故障和减轻计算机系统器件失效的问题。其中,计算机系统器件主要和计算机质量等级、使用的周边环境及温度、电路规模、封装复杂度等等因素有着密切的联系[1]。通过实践经验及查阅相关的文献发现,避错技术主要可以通过耐环境设计、热设计、降额设计、元器件控制等等方面实现。另外,需要特别注意的是,高性能计算机的可靠性设计需要尽可能的选取一些可靠的器件,例如高集成度的器件,并减少器件的数量[2]。

1.2静态冗余

静态冗余也称为故障屏蔽技术,主要是在计算机系统故障的前提之下,通过硬件冗余以及信息冗余的方式在系统故障发挥效应之前消除其不良影响。在当前高性能计算机的可靠性设计中,故障屏蔽技术被广泛的运用其中。一般而言,静态冗余主要包括了[3]部件冗余、数据通路冗余、信息冗余。其中,数据通路冗余在一定意义上也是一种部件冗余。信息冗余主要是通过在数据中附加冗余的信息,从而实现故障检测的目的。

1.3动态冗余

动态冗余是一种采取标准模块完成相关的配置工作,一旦检测及诊断出故障发生的位置,计算机系统就可以很好的对其进行重组或者是完成恢复工作,保障计算机正常的运行。动态冗余主要包括了故障检测与诊断、重组技术、恢复技术。其中,故障检测与诊断的作用是为了确保计算机系统是否存在故障,不但可以脱机运行,也可以联机运行。联机运行检测与诊断可以尽可能的提升计算机系统的可靠度,激活动态冗余。重组技术作为动态冗余的重要实现步骤,可以有效的防止计算机系统失效而产生的各种负面影响。例如,当检测出不可恢复性的系统故障时,借助于系统备用的部件来代替故障的部件,就可以消除系统性故障导致计算机运行中断的问题。恢复技术主要解决瞬态故障,是检测到瞬态可恢复故障时,采用针对性的措施实现计算机系统运行的重要环节。

二、未来发展趋势分析

2.1多核处理器的可靠性设计

随着计算机处理器集成度的提升、半导体硅尺寸逐渐缩小的进程中,由于计算机处理器而产生的故障越来越多,大体上包括硬错和软错两个大的方面。另外,由于多核处理器具有多核间共享部件的问题,一个核的软错误往往会传递到其他核中,为此多核处理器的软错误更为严重。针对这种现象,迫切需要加强多核处理器的可靠性设计,基本的方向包括双核锁步执行、微回卷、冗余执行、芯片级冗余多线程技术等等。另外,高性能计算机中多核处理器的运用,在可靠性方面的挑战与机遇是并存的,后期需要加强高性能计算机硬件容错技术的研发工作,保障高性能计算机系统正常的运行。

2.2增强的全方位内存防护技术

就目前来看,内存故障在高性能计算机系统故障中占据的比例较高,需要加强内存方面的故障防护技术研发工作。针对内存的软错及硬错,可以综合参考各种存储器容错技术来提升内存的可靠性,例如通过加固存储器的连接来实现电气和机械的可靠性。此外,部分高性能计算机设计的过程中,还可以借助于内存清洗、内存备件以及内存镜像等等方式完成处理器的可靠性设计技术。

2.3刀片式架构的发展

刀片式服务器泛指在标准高度的架势机箱内插装多个卡式的服务器单元板,是基于实现高可靠和高密度的高性能服务器。在刀片式架构中,通常采用的是模块化的冗余结构,实现风扇、电源、网络、背板等等关键性系统部件的冗余,进而消除单点故障,保障高性能计算机系统的正常运行。

三、结语

随着我国高性能计算机系统性能的不断提升,如何更好的保障高性能计算机系统精确的运行成为了当前研究的重要问题,尤其体现在现行计算机研制过程中。一旦发生故障而使系统无法工作,将会造成重大经济或军事损失。为此,本文研究探讨高性能计算机可靠性现状与发展趋势相关问题,首先从高性能计算机可靠性现状分析出发,然后对高性能计算机未来发展趋势进行了深入的分析。其写作的主要目的在于为今后高性能计算机更好的发展奠定一个具有参考价值的文献基础。(作者单位:池州学院)

参考文献:

[1]王俊超,彭涛,冯光柳.曙光高性能计算机在数值预报模式中的应用[J].计算机技术与发展,2014,10:178-181.

第2篇:高性能计算机范文

关键词:高性能计算机;计算速度;高端计算

1、高性能计算机与大众生活息息相关

1.1对制造业的推动:我国是一个制造业大国,高性能计算在制造业的广泛使用,不仅可以帮助工程师在设计阶段更科学地计算材料强度,更合理地选择和使用材料,设计出更符合空气和流体动力学原理和人体工程的产品结构和外形,而且可以在仿真基础上全面规划整个制造过程,有效提高产品制造的质量和产量。高性能计算的全数字化设计制造环境在缩短产品设计周期、节能降耗、降低污染、提高产品质量方面的作用不可限量。

1.2 对网络信息服务的影响:在网络日益普及的今天,我们已经渐渐习惯于从网上获得信息和服务,但是同时也经常为服务响应速度的迟缓而烦恼。要面对数千万、数亿用户的访问请求,服务器必须有强大的数据吞吐和处理能力。这又是高性能计算机发挥作用的舞台。高性能服务器每秒种可以处理数千万乃至数亿次服务请求,及时提供用户所需要的信息和服务,保证服务质量。

2、国内外高端计算发展现状

2.1国内高端计算机发展现状:根据中国软件行业协会数学软件分会2003年11月份公开的2003年中国高性能计算机TOP100排行榜最新统计,我国高端计算机系统的总计算能力在19.56TF/s峰值左右。 我国高端计算机系统研制开始于20世纪70年代中后期,大体经历了3个主要发展阶段:第一阶段从70年代中后期到80年代中期,主要以研制大型向量系统为主(以银河I为代表);第二阶段从80年代中后期到90年代末,主要以研制大规模并行系统为主(以神威I为代表);第三阶段从90年代中期起,主要以研制大规模机群系统为主(以曙光机为代表)。目前,参与高端计算机研制的单位已经从科研院所发展到企业界。

进入新世纪,随着研制高端计算机系统的诸多关键技术被攻克(尤其是机群技术),我国自行研制的高端计算机系统已开始形成自己的品牌系列和一定的市场规模,其发展呈现星火燎原之势头。近两年,随着“神威”、“银河”、“曙光”、“深腾”、“天梭”等一批知名产品的出现,使我国成为继美、日之后第三个具备高端计算机系统研制能力的国家,被誉为世界未来高端计算市场的“第三股力量”。根据中国软件行业协会数学软件分会2003年11月份公开的2003年中国高性能计算机TOP100排行榜最新统计,我国高端计算机系统的总计算能力在19.56TF/s峰值左右。

2.2 国外高端计算机发展现状“21世纪,高端计算技术已成为衡量一个国家经济技术综合实力的重要标志,它对国民经济、社会发展、国家安全和国防现代化建设具有重要意义。以美国和日本为代表的发达国家十分重视高端计算机系统的研制及其应用技术的开发。根据全球实用超级计算机500强最新排行榜的统计分析,目前国际上已经有242台系统的Linpack实测性能超过1万亿次/秒(2003年12月前只有131台);500强系统的总性能为813TF/(2003年12月前为528TF/s);排行榜中“最慢”系统(第500台机器)的速度为624GF/s(2003年12月前为40314GF/s);现在500强系统的主流结构是Cluster,Constellations和MPP三种结构类型。所有系统分布在世界上35个国家和地区,美、日、德、英等发达国家占了80%的计算资源,其中仅美国就安装了255台,占总性能的56%;并且500台系统中的91%是由美国制造的,所有这些数据均表明美国在高端计算机的使用和生产方面仍然保持着绝对的领先优势。

3、高端计算机发展趋势

国外高端计算系统今后的开发热点是计算速度为十万亿次/秒左右的系统,中期目标是百万亿次秒,长期目标是千万亿次/秒甚至更高。未来国际高端计算的发展将呈现以下趋势:随着高性能计算向高效能服务转变,超级计算机系统追求的目标也将从/高性能走向“高效能”。按美国DARPAHPCS计划说明,High productivity的综合含义是指提高超级计算机系统的计算性能、可编程性、可移植性和鲁棒性,同时努力降低系统的开发、运行及维护成本。HPCS计划表明,超级计算机要想保持快速发展势头,必须要有本质的变化,即必须采用先进技术,平衡各项设计指标,实现系统的高可靠性、高可用性、高可维性、高安全性和低功耗。

4、高性能计算机发展任重道远

4.1 应用软件匮乏:我国长期以来存在的重硬件、轻软件的现象在高性能计算领域格外突出,影响更大。对于高性能计算机而言,缺乏合适的应用软件就根本无法开展相应的应用,也无法吸引用户来使用高性能计算机。高性能计算机上运行的应用软件专业性强,价格昂贵,国内应用部门每年都花费大量经费,采购应用软件,但是这种采购一般是分散进行的,缺少相互协调,因此国家整体布局还不尽合理,有些软件多个部门重复采购,而另一些急需的软件又没人购买。

4.2 资源分布不均匀:国内高性能计算机主要分布在科研院所、大学以及石油勘探、气象预报等应用部门,地域分布也不均匀。资源分布的不均匀和资源访问的困难,使得不少高性能计算的潜在用户放弃了应用的打算。在经济效益不够好的传统产业尤其如此。这种资源分布的不均匀性一方面使需要资源的用户难以获得资源,另一方面也造成宝贵资源的闲置和浪费。

结语

我国的高性能计算事业必须走可持续均衡发展的道路。高性能计算是昂贵的,不仅有设备的初始投入,而且有场地条件、电力消耗、运行维护和人员队伍建设等多种费用。因此,一定要切实从应用需求出发,大力促进应用的进步,以此推动高性能计算的发展。强调应用需求牵引并不是忽视技术的推动作用。技术的进步可以创造新的应用,调动新的应用需求。网格以其资源共享、协同工作的固有能力和网格服务的形式,支持用户共享使用Internet中的各类资源;网格允许用户克服地理的障碍,更便捷地获得高性能计算的能力;网格简化高性能计算机的使用方式,使更多的普通用户能够利用高性能计算机的能力去解决过去难以解决的问题,扩大了高性能计算机的应用范围。需要强调的是,高性能计算的技术创新有赖于国家持续的支持,以保证足够的研究经费和一支高水平精干的研究队伍。高性能计算人才的培养是一项长期的艰巨任务,不仅要通过改革高校的学科划分和专业设置来加强高性能计算复合型人才的培养,还要通过应用系统的开发,培养和锻炼各个行业与领域熟悉高性能计算的人才,只有这样才能真正保证高性能计算及应用的可持续发展。

参考文献:

第3篇:高性能计算机范文

“事实上,星云的变化,是曙光和国家超算深圳中心协商后,人为主动地降低的。”曙光副总裁聂华向记者透露,星云今年被一拆为二,一部分面向传统科学计算和高性能计算,另一部分则在拆分的同时,去除了一些加速部件,增添了一些灵活通用、面向分布式网络的部件,做好了迎接云计算应用的准备。

这一变化体现了曙光的未来策略的转变。“曙光今年很重要的工作,是在维持原有高性能计算领先优势的基础上,大力推广云计算。”聂华说。

不过,高性能计算机与云计算集群能够很容易地转换么?

高性能计算机也能做云计算

“确实有一种观点认为,高性能计算机不能用来做云计算。”聂华对高性能计算机和云计算的集群系统进行了比较:“传统意义上的高性能计算机,其节点间的耦合非常紧密。而云计算的集群系统耦合比较松散。但是,从技术角度来看,松耦合的系统想改进成紧耦合系统是非常难的事情,而紧耦合系统按照松耦合的系统来使用,在技术上不存在任何障碍。”

今天,高性能计算和云计算在技术上已经有很多共同点,云计算很多技术,尤其是基础架构方面的技术,其实是对高性能计算机技术的延伸。“最早的高性能计算机为了让耦合度更紧密,需要采用专用部件、网络。发展到通用集群架构之后,不再像传统大型机一样需要将整个系统整合到一台设备中,与云计算所用的集群技术重合度越来越高。”聂华表示,曙光在高性能计算方面的很多技术积累完全可以应用在今天的云计算系统上。当然,也有一些虚拟化方面的技术、分布式网络的技术是与云计算一同出现的。

同时,高性能计算机也开始面临一些新的问题。“计算能力充足之后,高性能计算机也要解决I/O墙的问题,因此也衍生出了高吞吐计算机的概念。今天,高性能计算机也需要解决进行大量数据交换的问题。这些恰恰是云计算主要面对的问题。”聂华表示,从这一发展过程来看,高性能计算机在技术角度上完全可以在未来承担云计算的任务。只不过,高性能计算机成本更为高昂,从运营角度来看,所付出的成本等代价过高。因此,高性能计算机与云计算集群系统依然需要各司其职。

要为应用做计算机

未来,高性能计算也会出现不同的分支。“传统科学计算中,有一类问题的特点是计算规模非常庞大、数据关联度比较低,像气象问题等。这些计算以后会更加趋向于通过专门的加速器来进行加速。另一类是一些传统工程计算,这些计算往往涉及到一些大型商业软件,因此系统架构不会发生太大变化。”聂华说。

“与专用计算机相比,我们设计过的最难高性能计算机恰恰是为上海超算中心设计的更通用的计算机。”说到架设云计算系统和高性能计算系统的不同,聂华半开玩笑地举例:“针对特定应用开发的专用系统,只需要某一方面的性能足够强。但上海超算这样的系统对各个方面的指标都有要求,即使只有1%的应用对某项指标有要求,也需要达到这个标准。”

面向云计算的系统,其指标要求和高性能计算不尽相同。而且,高性能计算还可以靠虽然未必全面,但大家普遍认可的Linpack标准进行衡量,但云计算还没有这样一个可以让大家普遍接受的衡量标准。

“云计算最重要的是什么?有人说是运营成本,有人说是易用性、方便性、弹性,目前还没有找到一个最具参考性、最有效的指标。只是在某一方面有一些标准出现,例如,对能耗,有QUE这一指标进行衡量。一个行业普遍认可的标准不是短期内能出现的。实际上,没有一个应用的过程,你很难去总结出这样一个指标,也很难进行针对性的提升。”聂华说。

第4篇:高性能计算机范文

关键词:高性能计算 加速比 性能评价

中图分类号:TP31 文献标识码:A 文章编号:1672-3791(2016)07(b)-0014-03

不同应用领域的科学程序使用的算法不同,对高性能计算系统的要求也有所不同。比如,通信密集型的算法对机器的网络性能要求较高,计算密集型的算法对处理器性能要求较高。面对众多的高性能计算系统,如何评测和选择适合气象数值天气预报业务应用的高性能计算系统是必须解决的问题。

1 HPC系统性能评测指标

在评测高性能计算系统时,有以下4种基本性能指标[1] :系统规模、系统峰值、网络带宽和网络延迟,表1给出了高性能计算系统基本性能参数。对于高性能计算应用的性能评价,则还有计算规模、计算时间、计算效率、并行加速比等评价指标。

高性能计算机系统的基本参数指标,往往回答不了用户关心的问题。而且,由于处理器结构、存储层次结构、互联网络拓扑等的差异,系统规模、系统峰值、网络带宽与延迟等单一性能指标也确实难以表征系统的综合性能,因此需要进一步作高性能计算系统的综合性能评测。

2 HPC系统性能评测方法

高性能计算系统性能评测方法主要包括基准测试和实际工作负载驱动测试两类。基准测试[2]是指利用业界开发的多种基准测试程序来测试高性能计算系统的性能指标,一般都是针对系统某方面或某分系统性能进行测试,反映系统某一特定方面的性能指标。基准测试程序是用户理解系统性能比较直接的方式。作基准测试程序时,还需要考虑数据集以及运行规模等方面的问题。

在性能评测中实际工作负载驱动测试也是一个极其重要的测评指标。实际工作负载驱动测试[3]是指采用用户自己的业务应用程序进行实际的测试。通常高性能计算机的峰值性能与实际应用/实测可获得的性能仍然存在很大的差异。峰值性能是指在理想情况下计算机系统可获得的最高理论性能值,它不能反应系统的实际性能。在性能测评中实际工作负载驱动测试是一个极其重要的测评指标。

3 系统性能评测方案设计

气象数值预报是高性能计算应用的一个传统领域,复杂的气候三维模型对高性能计算有着巨大需求。省级气象行业的主流数值预报模式的类型主要有中尺度非静力格点模式MM5(Mesoscale Model5)、WRF(Weather Research and Forecasting)、中国新一代数值预报模式GRAPES(Global/Regional Assimilation and Prediction Enhanced System)以及区域气候模式RegCM等等。这些气象数值预报模式的特点是计算量巨大、通讯极为密集、实时性强,因此在测试方案设计上,需要重点关注并测试高性能计算机系统的高性能浮点处理能力、高性能网络环境和系统的高稳定性这3个主要方面。

在建设气象高性能计算系统过程中,采用了以实际数值预报模式测试为主、基准测试为辅的综合测试方案。充分了解气象应用领域对高性能计算系统的需求,利用实际工作应用程序进行测试更有针对性,更具实用价值,为气象部门购买高性能计算机系统提供依据。各项测试分为非优化测试和优化测试。非优化测试便于考察集群对原代码的适应性。优化测试可以让厂家充分展示机器潜在性能的机会,在测试厂家的技术实力的同时,也获得厂家的优化代码,以便有效地构建满足特定应用需求的高性能计算机系统。

气象高性能计算系统测评方案具体分为应用测试、基准测试、功能测试和测试题4个部分。通过对两个气候和气象预报模式的测试,来验证和确定厂家的高性能计算机是否适合气象数值预报目标系统的性能规模和内存配置;利用基准测试程序来测试系统的相关性能指标,如单CPU性能、I/O速度、结点互连网速度、通信延迟、内存带宽等等。

4 系统性能评测结果分析

4.1 测量时间分析

时间是高性能计算机性能测量的主要标准。测量某一任务所花的全部时间称响应时间。响应时间[4]也称墙钟时间或周转时间。响应时间=CPU时间(用户+系统)+ I/O时间+通信时间。一个程序的CPU时间包含用户CPU时间(执行程序的时间)和系统CPU时间(操作系统的开销)。系统性能对应于响应时间,而CPU性能对应于用户CPU时间。

从实际业务运行时间与峰值速度的比较图1中可以看到:高性能计算机的峰值性能与业务实际应用可获得的性能存在较大的差异。如图1中所示,公司B的HPC系统运行提供的实际业务应用模式所需的墙钟时间是最少的,但是它的理论峰值速度却不是最高的。相反,公司C的理论峰值速度很高,但是运行实际业务程序所需的时间却较长。

第5篇:高性能计算机范文

“顶天”更要“立地”

很多高性能计算机的从业者已经淡化了对“运算速度”的追求。曙光4000A速度超过每秒10万亿次时,尽管外界给予了众多的掌声,但该产品的主要研发者孙凝晖心情非常平静。他说,应用才是更大的挑战。采访中,他说中科院计算所系统结构研究所未来的重点是做“普及大众的计算机”,怎样把高性能计算机的成本降下来、稳定性提高、功耗降低、管理更方便,这是比提高运算速度更难的事。

孙凝晖说,高性能计算机的发展可分为三个阶段: 第一阶段是打破“玻璃房子”,国外不再对中国实行禁运;第二是高性能机要产业化,走下神坛;第三阶段是“普及化”,希望一些科研和设计人员的桌面上能装一个高性能计算机。

中国经济的体制结构正在发生转变,粗放型的经济增长模式正在萎缩,取而代之的,是越来越多地依靠科技研发和原创设计商业机会,这意味着普通的商业用户对高性能计算机的需求会增多。

在曙光公司的规划里,2008年将研制出运算速度达到每秒百万亿次的高性能计算机。但曙光总裁历军坦率地对记者说,让他更高兴的是,到今年10月份为止,曙光高性能机器已经卖了290多套。“‘卫星’(指运算速度在世界水平的高性能计算机)要放,因为那样可以提高品牌的认可度,但最为重要的是,产品卖得好,企业能活下去,能赚钱。”

“运算速度进入T0P 500的那些机器,如同高性能计算机的‘塔尖’,没有广泛应用的‘塔身’和‘塔基’,这个塔是摇摇欲坠的。”王恩东说,我国高性能计算机一定要重视应用。

“顶天立地”是我国高性能计算机发展的指导思想,是指企业在技术上要“顶天”,以技术发展为先导,立足技术领先;应用上要“立地”,将技术融入实际应用的解决方案中。

相对“顶天”,国产高性能计算机的“立地”更难。

“国外品牌进入银行、电信等领域比较早,经验很丰富,而且很多软件就是IBM、HP等公司与其他软件公司联合开发的,所以国产高性能服务器要进入银行等金融市场非常难。”联想集团首席科学家祝明发分析说,这种状况形成了“蛋生鸡和鸡生蛋”的怪圈,因为国产品牌在实际上运用少,发展比较缓慢;发展得慢,用户信任度低,国内品牌在实际使用中就越少。

当然,国产品牌在商业领域的应用也并非毫无优势。河南漯河市公安局经过比较,2004年开始采用了天梭TS20000系统,2005年10月多个关键应用正式在浪潮天梭TS20000系统中运行。漯河市公安局通讯科张居辉科长在接受采访时说,在综合比较国外品牌和国内品牌的高性能服务器之后,发现国外品牌的造价太高,远超过了原先的预算,而且机器系统复杂,该局现有的技术人员恐怕维护起来有一点吃力,如果请国外公司来维护,费用又是一大笔钱。浪潮的天梭在这两方面比较有优势。而且从业务应用上看,也够用了。

依靠价格“立地”是中国很多IT产品跟国外品牌抢市场的法宝之一,但最后能制胜,还得靠质量和提供符合客户需求的应用。高性能计算机也不例外。

模式要创新

由于受到资金、应用水平等因素的限制,中国高性能计算曾经长期盘踞在以政府主导比较集中的能源、气象、政府等领域。让更多的普通用户应用高性能计算,让高性能计算平民化,一直以来是业内专家学者和用户多方所提倡的。

但用户之间的经济实力、应用需求是千差万别的,让他们都通过自行购买高性能计算产品来用上高性能计算是不切实际的。即使都来购买,目前也存在着资源分散、应用效率不高的弊病。而将高性能计算作为一种公共服务,立足高性能计算应用需求集中的某一地域,面向地区性用户提供这种公共服务的机构平台的出现,为高性能计算的平民化开创了一种新的模式。作为上海信息港主体工程之一,由上海市政府投资建设,坐落于浦东张江高科技开发园区内的上海超级计算中心,已经成为了这种模式应用探索的一面旗帜。

上海超级计算中心(SSC)成立于2000年12月,是中国第一个面向社会开放、资源共享的高性能计算公共服务平台。上海超级计算中心自投入运行以来,本着随需应变、合作共赢的理念,为上海各行业提供了大量的高性能计算应用服务,在气象预报、药物设计、生命科学、汽车、新材料、土木工程、物理、化学、航空、航天、船舶等10个应用领域取得了一批重大成果,充分发挥了公共服务平台的重要作用。2004年上海超级计算中心引进了峰值速度超过10万亿次/秒的“曙光4000A”高性能计算机,更是实现了中心高性能计算研发与应用双跨越。

上海超级计算中心副主任袁俊告诉记者,“上海超级计算中心目前配置了相对比较丰富的高性能计算应用软件,并且组建了一支高素质的人才队伍。上海超级计算中心的发展目标,就是立足上海、辐射华东、服务全国,努力成为世界一流的高性能计算公共资源服务中心、高性能计算技术支持中心、高性能计算增值服务中心。

值得一提的是,曙光4000A是曙光公司和上海超级计算中心联合开发的。曙光公司总裁历军认为,用户和制造商联合开发高性能计算机是未来的一种有效的合作方式,用户更了解需求,双方合作的产品将更加符合市场的需求。

人才培养不容忽视

“对于一个企业而言,它的目标就是利润。目前中国企业规模小,很多难以承担类似高性能计算这样投入大、回报时间长的产品,企业进入或者退出高性能计算领域都是可以理解的。高性能计算属于基础产业,必须由政府牵头去进行研究推进。”一位老院士接受采访时说。在这次采访中,相关的从业人员呼吁政府加大推进高性能计算机发展的声音不止一次听到。

浪潮集团高级副总裁王恩东甚至建议,国家相关机构在采购高性能机时,应优先采购国产品牌。但目前这点完全没有体现出来。

国家和相关高校要推进高性能人才的培养也成为焦点。 目前中国专门从事高性能计算研究的人才积累不如国外,跨学科高性能计算应用人才缺乏,持续加强高性能计算人才的培养刻不容缓。

作为人才培养摇篮的教育机构,对于担负起高性能计算人才的培养责无旁贷。目前有一些高等院校已经搭建起高性能计算系统,高性能计算在高校的普及已经逐渐拉开。充分利用目前设备,立足自身需求,培养更多的复合型高性能计算人才,应该是下一阶段高等院校高性能计算应用的一个重点。

第6篇:高性能计算机范文

高性能计算集群逐渐替代专用、昂贵的超级计算机对大规模并行应用构建原型、调试和运行。

基于PCs或工作站的高性能计算快速部署及其可靠性和可管理性研究,对高性能计算集群在科学研究和工程计算等领域的应用,促进高性能计算技术的应用方面具有深远的意义。

本文以OSCAR集群为实例,部署一个五结点的集群环境并运行简单的并行测试例子。

关键词:高性能计算;集群;OSCAR;MPI;并行计算

中图分类号:TP312文献标识码:A文章编号:1009-3044(2008)14-20971-03

1 引言

自20世纪90年代早期以来,昂贵而特制的并行超级计算机逐渐向由单个或多个处理器的PCs或工作站[1]组成的价廉、通用、松耦合的系统转换,而促成该转换的主要驱动力是高性能工作站和网络部件的快速商品化。这些技术的发展使网络化计算机(PCs或工作站)成为并行处理的理想工具,从而导致了普通商品化超级计算机的出现。

自1994年美国航空航天局(NASA)的Goddard航天中心采用16个66MHz 处理器的PCs和10Mbit/s 以太网组成了第一个计算机集群系统(Beowulf Cluster)[2]以来,随着计算机制造技术的飞速发展,硬件设备逐步实现商品化和标准化,PC机的性能越来越高而价格越来越低;同时开源的Linux操作系统内核及集群工具套件(Cluster Toolkit)也日趋成熟稳定,高性能计算集群逐渐发展起来,成为主流的高性能计算平台,在2007年11月Top500的分析报告中,采用集群架构的超级计算机系统已占81.2%[3]。

使用高性能计算集群对并行应用构建原型、调试、运行逐渐替代使用专用,特别是昂贵的并行计算平台。一些集群软件工具套件已经具有很多的整合性、可管理性、易配置,例如OSCAR[4, 6]等工具套件。研究基于PCs或工作站的高性能计算集群快速部署及其可管理性和可靠性研究,对高性能计算集群在科学研究和工程计算等领域的应用,促进高性能计算技术的应用方面具有深远的意义。

2 集群系统架构

高性能计算集群是一种并行处理系统,由多个连接在一起的独立计算机组成,像一个单独集成的计算资源一样协同工作[5],用来解决具有重大挑战的问题。集群是全体计算机(结点)的集合,这些计算机由高性能网络或局域网物理互连。一般情况下,每个计算机结点是一台PC机、工作站或SMP服务器。重要的是,所有集群结点能一起协同工作,如同一个单一集成的计算资源提供服务。集群概念带来了许多好处,其中重要的是能用性、可用性、可扩展性和性能价格比。

从硬件架构看,集群结点可以是PCs、工作站、SMP服务器,甚至子集群。但集群各结点在保持本身计算机系统完备性的同时,能够相互协作,形成单一、集成的计算资源。典型集群系统包括下列结构组件[5],如图1所示。

多个高性能计算机(PCs、工作站或SMP);

分层或微内核结构的操作系统;

高性能互连网络;

网络接口卡;

快速通信协议与服务;

含单一系统映像(SSI)、高可用性(HA)工具和资源管理与调度的集群中间件;

诸如消息传递接口(MPI)[8]等并行编程环境与工具;

串行、并行或分布式等应用。

3 集群系统构建

2001年,Open Cluster Group开源集群应用资源(Open Source Cluster Application Resources,OSCAR)。该集群工具套件具有以下特点:统一框架中安装、配置和管理集群;基于向导(Wizard)的集群组件安装;统一的结点映像。OSCAR集群工具套件提供了构建和运行一个高性能计算集群所需要的工具。在安装OSCAR的同时也默认安装了并行编程环境MPI、PVM及作业调度系统PBS等软件包。其中系统安装套件 (SIS),集群控制工具套件(C3),环境切换器(switcher)和OSCAR向导用于集群系统的安装和配置。SIS是一个基于映像的安装包,可通过使用SIS来引导节点的安装:内核引导,磁盘分区,和操作系统的安装等。C3方便并行命令的执行,使用户输入的命令可同时在所有的节点上运行。用户可以用环境切换器来定制环境变量。OSCAR向导提供了一个图形化界面来帮助用户完成集群系统的安装和配置。

本研究课题以5台PCs结点,100Mbit/s以太网互连网络搭建一个OSCAR集群环境。

(1)硬件环境

管理结点:一台Intel Pentium3 2.0GHz处理器,256MB内存,20GB硬盘存储。

计算节点:四台Intel Pentium3 2.0GHz处理器,256MB内存,20GB硬盘存储。

互连网络:100Mbit/s 以太网交换机。

(2)软件环境

操作系统:Red Hat Enterprise Linux 4。

OSCAR版本:5.0,已集成以下软件工具包:

Open MPI 1.1.1:并行编程环境;

Maui 3.2.6p14 + Torque 2.0.0p8:作业调度系统;

SGE 6.0u8:作业调度系统:

LAM/MPI 7.1.2:并行编程环境;

MPICH 1.2.7:并行编程环境;

Ganglia 3.0.3:集群状态监控系统;

SC3:扩展的C3集群管理工具;

Netbootmgr:管理结点PXE启动;

sync_files 2.4:控制异构集群中用户的数据库;

packman 2.8:包抽象管理器;

systeminstaller-oscar 2.3.1:应用packman创建映像image;

Systemconfigurator 2.2.7-12ef:安装配置框架。

OSCAR安装向导[7]提供了一个图形化界面来帮助用户完成集群系统的安装和配置。如图2所示。该向导将引导用户方便快捷地进行集群的安装和配置,用只需要按步骤点击向导按钮,每一个步骤都会有按钮,点击显示该步骤的目的。

按照此向导逐步执行,最后配置结点从网络启动,等待所有的结点从网络启动并成功加载映像重启之后,安装向导执行完毕,OSCAR集群系统的安装完成。

4 简单并行例子

执行下面一段并行C语言程序hello world,测试OSCAR集群环境。该程序打印参与运算的结点主机名及进程ID,存储为hello.c,运用mpi命令进行编译、运行:

#mpicc Co hello hello.c

#mpirun Cnp 4 hello

Hello World! Process 1 of 4 on oscarnode1

Hello World! Process 3 of 4 on oscarnode2

Hello World! Process 2 of 4 on oscarnode3

Hello World! Process 0 of 4 on oscarnode4

#include "mpi.h"

#include

#include

int main(int argc,char *argv[])

{int myid, numprocs;

int namelen;

char processor_name[MPI_MAX_PROCESSOR_NAME];

MPI_Init(&argc,&argv);

MPI_Comm_rank(MPI_COMM_WORLD,&myid);

MPI_Comm_size(MPI_COMM_WORLD,&numprocs);

MPI_Get_processor_name(processor_name,&namelen);

fprintf(stderr,"Hello World! Process %d of %d on %s\n",

myid, numprocs, processor_name);

MPI_Finalize();

}

5 结论

本文在研究高性能计算集群的发展技术及体系结构的基础上,以OSCAR集群为实例,快速部署一个五结点的集群环境并运行简单的并行测试例子。高性能计算集群将逐渐替代专用、特别是昂贵的超级计算机对大规模并行应用构建原型、调试和运行。基于PCs或工作站的高性能计算快速部署及其可靠性和可管理性研究,对高性能计算集群在科学研究和工程计算等领域的应用,促进高性能计算技术的应用方面具有深远的意义。接下来的工作将集中在集群环境的可靠性及可管理性研究,是高性能计算集群更好地为科学、工程计算服务。

参考文献:

[1] Thomas E. Anderson, David E.Culler, David A. Patterson et al., "A Case for NOW (Networks of Workstations),"IEEE Micro, February 1995,pp.54-64.

[2] Beowulf Project, /.

[3] TOP500 Report,available from/.

[4] OSCAR Project, /.

[5] 郑纬民,等,译.[美]Rajkumar Buyya,编.高性能集群计算:结构与系统(第1卷),电子工业出版社,2001.

[6] Timothy G. Mattson,"High Performance Computing at Intel: The OSCAR software solution stack for cluster computing", IEEE Proceedings of the 1st International Symposium on Cluster Computing and the Grid (CCGRID’01).

[7] OSCAR Administrator’s Guide, /.

第7篇:高性能计算机范文

2005年12月,浪潮高性能计算创新奖励基金管理委员会在京正式征集成果,对获奖项目、获奖机构或人员颁发奖励证书和奖金,同时2006年“浪潮高性能计算创新奖励基金”成果征集公告。

据IDC统计,中国的高性能计算市场年增长率达到20%~30%。近年来,高性能服务器的市场随着需求而迅猛增长:2003年,中国服务器市场上高性能服务器的销售量已经达到2.325万台;2004年高性能服务器的市场销售量有增无减,销售额却占据了整个服务器市场销售额的50%以上。而一直以来,这一市场基本上被国际厂商所垄断。

国产服务器厂商浪潮认为,中国的政府、服务器厂商以及相关的科研院所必须承担起高性能自主化和产业化的重任。浪潮服务器技术总监胡雷钧说,开放架构在高性能服务器领域的应用,使得国内厂商拥有与国外厂商同等的技术“起跑线”,将会为中国本土高性能服务器产业的兴起提供重要的发展契机。

据了解,“浪潮高性能计算创新奖励基金”,是国家“863计划”计算机软硬件技术主题专家组与浪潮集团联合设立的一项长期的社会奖励基金。该奖励基金主要面向国内高性能计算机和商用高性能服务器系统的研究与开发领域,旨在鼓励国内在高性能领域的科技创新和技术成果转化,推动国内高性能计算领域的研究、开发和产业化。胡雷钧说,这是浪潮回报社会的一种方式。

胡雷钧介绍,高性能计算从市场应用角度大致分为两个部分:高性能科学计算(HPC)和高性能商用计算(HPS)。前者对服务器的计算性能提出了很高要求,主要应用在科学研究、地质勘探等领域; 后者则要求服务器具有强大的事务处理能力,在金融、证券、电力、税务等行业有着广泛的应用。高性能商用计算占到整个高性能计算市场份额的95%。

胡雷钧认为,国产高性能要实现产业化,需要着眼于占市场份额绝大部分的高性能商用计算市场,发展具有强大事务处理能力的高性能系统。这其中,实现应用的突破和创新才是创新的关键,高性能产业的发展重点应该是商用高端应用,围绕商用高端应用,重点发展高性能体系结构、操作系统与应用软件的应用价值。

我国高性能产业经过多年的发展,已经取得了长足的进步。据不完全统计,863项目在高性能计算领域已经鉴定的成果近400项,这些成果中已应用的成果有230多项,已形成产品并取得明显效益的有80多项。

但是,胡雷钧介绍,与国际先进水平相比较,我国高性能产业还存在较大差距,无论技术、应用,还是发展模式上都有待进一步提升。

第8篇:高性能计算机范文

高性能计算是计算机科学的一个分支,研究并行算法和开发相关软件,致力于开发高性能计算机。在科学技术迅猛发展的今天,高性能计算已经成为科学技术发展和重大工程设计中具有战略意义的研究手段,它与传统的理论研究和实验室实验一起构成了现代科学技术和工程设计中互相补充、互相关联的研究方法,提高了科学研究的能力,促进和推动了现代科学与工程技术的发展。美国等发达国家在高性能计算方面发展很快,并一直把它作为国家战略给予高度重视,在国家层面予以组织实施。目前,高性能计算在国内外很多领域已经取得了大量应用成果。在生命科学领域,高性能计算在探究基因奥秘、蛋白质结构、生物信息以及医药设计等方面已经成为不可或缺的辅助工具;此外,将生命科学和信息科学进行结合,从而为生物医学提供有价值的信息作为参考依据更是被一些主流研究机构视为重要的应用。目前,我国的高性能计算虽然与发达国家相比还有很大的差距,但在很多的科技领域已经通过有效地引进和运用高性能计算取得了很多的科研成果。

   

鉴于目前高性能计算在国内外的快速发展和广泛应用,中国中医科学院中医药信息研究所在2007年10月购置和引进了中医药行业第一套高性能计算系统——曙光tc 2600刀片服务器。该系统具有50个计算节点,2个数据库节点,1个i/o节点,1个管理节点,一个登陆节点,共计55个节点,存贮达4 t容量,峰值浮点计算能力11 800亿次/s,实测并行性能8 600亿次/s。在2007年12月完成了设备的验货、安装、调试、测试、验收,目前已经测试运行了linpack、pmb、iozone、stream等程序,以及生物计算领域的vasp应用程序;安装了中国科学院计算技术研究所开发的网格软件gos3.0,目前正在与浙江大学计算机系合作进行中医药网格的研制和开发工作。

    系统硬件配置:曙光tc 2600刀片服务器,2*amd opteron 2218双核cpu,4 gb内存;80 g硬盘,千兆以太网卡,共50台刀片机组成;i/o管理节点2台;登录节点1台;数据库节点2台,4*amd opteron 8214双核,16 g内存,73 g硬盘两块;infiniand 10 g网络1套;磁盘阵列:300 gb fc硬盘8块,500 gb sataii硬盘8块。

   

系统软件配置:linux操作系统 redhat企业版1套;曙光刀片管理软件1套;集群系统软件:曙光集群系统管理软件(dcms)1套,曙光集群系统部署软件(dcis)1套,并行命令软件(mterm)1套,作业调度系统(dpbs/torque)1套;双机高可用软件roseha 1套;gnu c/c++编译器1套;gnu fortran77/90编译器1套;datadisplay debugger 1套;codeanalyst系统性能分析工具1套;openmpi 1套;mvapich 1套;mpich/lam-mpi 1套;pvm 1套;acml 1套;apl 1套;lapack,scalapack 1套;hdf5 1套;blas、goto、atlas 1套。

    这套系统是目前我国中医药行业引进的第一套高性能计算设备,由于中医药行业的独特性,目前国内外还没有这方面成熟的行业应用经验可供参考,如何使高性能计算尽快成功应用于中医药行业,目前还面临着许多开创性的工作。希望能够通过借鉴目前国内生物医学领域的一些成功应用,为加快高性能计算在中医药行业的应用、普及和提高提供些有益的帮助和借鉴。

    上海超级计算中心:上海超级计算中心成立于2000年12月,由上海市政府投资建设,座落于浦东张江高科技开发园区内,是国内第一个面向社会开放,资源共享、设施一流、功能齐全的高性能计算公共服务平台,目前已经在气象预报、药物设计、生命科学、汽车、新材料、土木工程、物理、化学、航空、航天、船舶等多个应用领域取得了一批重大成果,发挥了重要作用。

    上海药物研究所:中国科学院上海药物研究所药物发现与设计中心成立于2001年,是一个以基因信息和蛋白结构为基础,以药物设计、化学合成和现代生物技术为主要研究手段的创新药物研发中心。该中心除了拥有大量先进的用于分子生物学和药物研究的实验仪器设备,以及sgi(64个cpu)和国产“神威”高性能计算机之外,还拥有最先进的分子模拟和药物设计软件,如:insightii、catalyst、topkat、sybyl和dock等。此外,他们还利用mdl公司所提供的“药物数据报道数据库(mddr)”、“综合药物化学数据库(cmc)”、“化合物筛选数据库(acd-sc)”和自主开发的“中国天然产物数据库(cnpd)”等数据库,建立了超过250万个化合物的大型药物虚拟筛选数据系统。在抗sars科研攻关中,他们参加了抗sars的药物研究,在探索sars病毒的致病机理、药物设计、虚拟筛选和分子水平筛选的工作中高性能计算发挥了非常重要的作用。

    此外,中国科学院院上海药物研究所沈建华等学者密切注意国际网格技术发展动向,及时组织跨学科、跨科研院所和跨地区的交叉学科研究队伍,开展高性能药物研发网格技术研究,该项研究2002年获得“863”计划“高性能计算机及其核心软件专项”的支持,研究人员针对高通量虚拟筛选计算量和数据量大的特点,开展了药物设计网格的各种关键技术的研究,建立了“新药研发应用网格”技术平台。目前,上海、北京和香港地区的多个超级计算机和计算机机群等计算资源已经加入这一平台,形成了超过每秒万亿次浮点运算能力的应用网格系统。上海药物研究所将自己开发的高通量虚拟筛选软件进行了异机(不同型号的计算机之间)并行化,安装在该技术平台上;同时,在该平台上还安装了含有120万个化合物信息的数据库和各类药物靶标蛋白结构数据库,在该平台上开展了多项国际合作研究。新药研发网格的建立,为真正实现公共计算和数据资源的共享奠定了基础,对创新药物研究具有重要的意义。

    国家新药筛选中心:国家新药筛选中心应用先进的高通量和高内涵药物筛选技术,对我国特有的化合物样品库(包括中药在内的天然产物)在高性能计算平台上实施大规模随机筛选。在对筛选发现的活性化合物进行结构优化改造的基础上,开发治疗肿瘤、中枢神经系统疾病和代谢性疾病的原创新药。该中心在国际合作方面不断取得进展,如在与瑞士actelion 医药公司的合作中发现了一个至今尚未见报道的神经调节肤 u-1受体选择性小分子激动剂;与日本田边制药株式会社开展原创药物筛选合作研究中发现了一个具有高度生物活性、结构全新的烟碱型乙酰胆碱受体的小分子调节剂;与美国celloinks公司建立了战略伙伴关系,建立了我国首个具有国际先进水平的高内涵药物筛选技术平台并投入实用。这些成绩不仅提升了我国新药研究的技术水平和国际知名度,而且为相关先导化合物的下游开发奠定了坚实的基础。

    复旦张江新药筛选及评价研发平台:在新药筛选及评价研发平台的基础上,复旦张江与中国药物研发领域的顶级机构之一中国科学院药物研究所合作成立了“上海先导药业有限公司”。为了更加快速主动地寻找有可能成为新药的化合物,复旦张江在技术上利用计算化学、组合化学等高效筛选技术建立了不同层次的药物筛选和评价模型,在高性能计算平台上对有可能成为新药的化合物进行筛选和评价,成功建立了新药筛选及评价研发平台。

    华中科技大学——浪潮高性能生物信息中心:2003年华中科技大学由浪潮北京电子信息产业公司捐助建设的“华中科技大学-浪潮高性能生物信息中心”正式启用,该中心引进了亚太区第一套基于infiniband高速互联技术的浪潮天梭ts10000高性能系统,主要用于生物信息学中的科学计算、模拟和可视化研究,构建大型生物信息数据中心。

    北京生物医学研究所:北京生物医学院研究所与高性能计算厂商蚬壳星盈合作,引入了星盈亿万次实时协作式超级刀片计算机系统并建立了具备国际领先水平的生物科学超级计算和研究中心,为科研人员的研究课题提供了强大计算服务平台。

    中国科学院昆明动物研究所:昆明动物研究所是中国科学院所属的20多个生物类研究所之一,也是国内一流的动物研究机构之一。他们购置了一套曙光峰值运算能力为2.75万亿/s的高性能计算系统,帮助研究所打造我国生物资源和生物多样性研究基地。

    北京放射医学院研究所:北京放射医学院研究所与国内知名刀片高性能计算服务器厂商蚬壳星盈合作,引入了星盈亿万次实时协作式超级刀片计算机系统,并建立了具备国际领先水平的生物科学超级计算和研究中心,为科研人员的研究课题提供了强大计算服务平台。

    北京生命科学研究所:北京生命科学研究所由科技部、发改委、教育部、中国科学院等8个部委共同筹建,主要从事生物大分子方面的研究,发表在《科学》、《自然》、《细胞》等生命科研领域的国际顶尖杂志上的论文数量居国内首位。目前对生物大分子进行深入研究,从原子水平上来掌握生物大分子的三维结构和生物功能之间的关系,并在此基础上进行药物设计,是近年国际生物医药研究的前沿课题,也是该所重要的科研方向之一。大分子是目前自然界物质结构最复杂的分子,一个生物大分子及其环境组成的系统往往包括几万至几十万个原子,高性能计算的应用在研究中起到重要的作用。他们购置了拥有102个节点的浪潮天梭高性能集群,通过该计算平台,利用上百个节点进行并行计算可提高模拟效率几十倍,过去利用单机工作站几天才能完成的实验模拟,现在几个小时就可以完成,大大提高了科研的进度。

    北京大学生命学院:以北京大学生命学院为龙头的一些生物科研机构已经加入了有关的国际组织,并在网格上分享现代生物信息资源,开展了应用高性能网格计算建立生物信息学中心的配套研究工作。

    北京华大基因研究中心:北京华大基因研究中心成立于1999年9月,该中心长期致力于基因组学、蛋白质组学、生物信息学方面的研究,目前所从事的基因组测序与组装、基因预测、基因功能分析等课题,都是超大规模的海量计算。有些计算任务如果使用现有的计算机需要1个月,甚至1年的时间才能完成,所以只有引进高性能计算产品才能满足研究中心的计算任务。华大研究中心使用了与中国科学院计算所联合研制,专门为生物信息学研究使用的“曙光4000 h”高性能计算系统,以及ibm、sun等厂商的高性能计算产品,他们利用这些高性能计算系统完成了1%人类基因组计划、超级杂交水稻基因组测序等诸多科研项目。

    北京医学信息研究所:北京医学信息研究所与蚬壳星盈合作建立了生物医学超级计算与研究中心,引进了一套星盈万亿次实时协作式超级刀片计算机系统,研究人员在超级刀片计算平台,使用blat、estalign等程序研究基因转录和可变剪接等问题时,利用56个计算节点并行运行blat,仅耗时7.5 h就可完成unigene数据库中五百多万条人类est序列对基因组数据库的比对,而相同的任务若在一般的服务器上用双cpu的pc服务器需要3周时间。

第9篇:高性能计算机范文

日前,德州仪器宣布推出TMS320C66x系列最新产品TMS320C6678与TMS320TCl6609数字信号处理器(DSP),为开发人员带来业界性能最高、功耗最低的DSP,这预示着全新高性能计算(HPC)时代的到来。TITMS320C6678与TMS320TCl6609多核DSP非常适合诸如油气勘探、金融建模以及分子动力学等需要超高性能、低功耗以及简单可编程性的计算应用。TI不但为HPC提供免费优化库,无需花费时间优化代码,便可更便捷地实现最高性能,而且还支持C与OpenMP等标准编程语言,因此开发人员可便捷地移植应用,充分发挥低功耗与高性能优势。

“TI全新系列多核DSP提供每瓦出色的浮点运算性能以及极高的密度与集成度。加上各种支持高速、低时延以及可实现互连连接的插槽等选项,TIDSP确实是未来高性能高效率HPC系统的理想构建组块。”德州仪器半导体技术(上海)有限公司通用DSP业务发展经理郑小龙表示。

性能强劲的DSP内核

TI基于C66x KeyStone的多核DSP支持16 GFLOPs/W最高性能浮点DSP内核,正在改变HPC开发人员满足性能、功耗及易用性等需求的方式。电信计算刀片及多核处理器平台制造商Advantech开发了DSPC-8681多媒体处理引擎(MPE),该款半长PCIe卡可在50W的极低功耗下实现超过500GFLOP的性能。除目前提供的PCIe卡之外,TI和Advantech还将很快推出支持1~2万亿次浮点运算性能的全长卡,为HPC应用带来更高效率更快速度的解决方案,实现业界转型。TI优化型数学及影像库以及标准编程模型可帮助HPC开发人员快速便捷实现最高性能。

Advantech业务开发助理副总裁Eddie Lai表示:“今年早些时候我们DSPC-8681以来,该产品已经在高强度计算雷达与医疗影像应用中得到早期市场采用。TI最新系列多核开发工具的推出不但将显著加速HPC应用客户的评估,而且还将在超级计算领域全面发挥C6678多核DSP的潜力。”

免责声明

本站为第三方开放式学习交流平台,所有内容均为用户上传,仅供参考,不代表本站立场。若内容不实请联系在线客服删除,服务时间:8:00~21:00。

AI写作,高效原创

在线指导,快速准确,满意为止

立即体验
文秘服务 AI帮写作 润色服务 论文发表