公务员期刊网 精选范文 数据中心存储方案范文

数据中心存储方案精选(九篇)

前言:一篇好文章的诞生,需要你不断地搜集资料、整理思路,本站小编为你收集了丰富的数据中心存储方案主题范文,仅供参考,欢迎阅读并收藏。

数据中心存储方案

第1篇:数据中心存储方案范文

近日,IBM对外公布了其闪存计划,其中包括投资10亿美元用于研发闪存技术和使用固态硬盘的一系列系统。据悉,IBM将通过这项计划将闪存应用到数据中心之中。

无独有偶,在2013年年初,NetApp公司宣布,推出全闪存阵列EF540,“这是一款用于当今性能要求极高的企业应用程序的全闪存阵列;同时预先展示了其专门打造的新 FlashRay?产品系列,它将提供丰富的扩展和存储效率功能,便于发挥全闪存陈列的优势。” NetApp公司大中华区技术及专业服务部总监何英华说。

在NetAppEF540不到两周之后,EMC也了新的Xtrem闪存产品家族,包括已开始向精选客户交付XtremIO全闪存阵列。

闪存技术化解数据中心存储难题

闪存技术为什么得到了这些IT厂商的一致关注?

“众多厂商都将目光聚焦于闪存技术,很大程度上是为了争夺下一代数据中心存储市场。”业内资深人士梁天昊分析说。

事实上,数据的可靠性和系统正常运行时间一直是数据中心管理人员最关注的问题,但随着企业IT应用的增加以及移动互联网的飞速发展,对企业数据中心的存储和处理能力提出了更高的要求。确实,不断增长的海量数据给企业的IT管理员带来巨大的压力:因为,用户需要快速、按需地存取数据。这意味着数据中心必须在无数据丢失的环境下以前所未有的速度提供更多数据。面对这一挑战,传统数据中心的存储技术往往显得有些乏力。

“我们对交易的响应时间十分关注,而传统存储的响应时间无法保证低于3毫秒。”一位银行IT管理人员如是说道。

而闪存技术则可以帮助这位IT管理人员很好的解决这一难题,甚至可以让响应时间缩短到亚毫秒级别。可以说,同传统硬盘技术相比,基于闪存的存储技术的优势是十分明显的。

IBM系统与科技部存储事业部全球总经理Ambuj Goyal说:“由于闪存的经济性和高性能,这项技术将会对企业产生革命性的影响,尤其是对于事务密集型应用。大数据、社交网络、移动互联和云技术重塑了今天的企业环境,这一切需要更快速、更高效、更容易接入的业务洞察力,而闪存正是提供这一能力的有效方案。”

而在何英华看来,与传统硬盘技术相比,闪存技术的吸引力主要在于可靠性、性能和成本。“例如,闪存与硬盘技术的常规比较表明,闪存较之企业硬盘技术具有以下优势:I/O 操作(读取)性能高 250 倍、吞吐量(读取)高 3 倍、I/O 操作单位成本低 40 倍、IOP 单位电耗少 600 倍、固态驱动器 (SSD) 单位电耗少 2.5 倍 。”

显然,闪存的潜力巨大,可显著提高数据中心的效率,还能提高时效性强的业务应用程序的性能,从而增强业务和竞争优势。“闪存为企业提供了加速关键业务负载的诸多优势,包括:提升IT运营能力及加速关键业务应用性能。对于包括OLTP(联机事务处理),网络搜索以及高性能计算等在内的关键业务而言,相比传统的存储环境,会提升至500%。” 何英华介绍道。

IBM院士兼存储首席技术官许育诚则认为,闪存对存储系统带来的最大的变化体现在软件上。传统的业务软件编程的逻辑完全依照以前的磁盘存储原理,因此应用闪存最重要的在于优化软件,使闪存的存储优势在业务实践中充分展现。“以大数据的分析为例,很多时候我们是将数据保存在线下,但今天,用户对实时数据处理的要求越来越多,所以未来的方向是将数据全面保存在闪存上,并基于闪存进行实时数据分析与处理。”

经济效益优势明显

看上去闪存技术确实有着很多的优点,但闪存技术并非现在才产生。那么在此之前,闪存技术为何没有在企业数据中心存储中得到大规模的推广和应用呢?

“关键在于价格。和传统的硬盘技术相比,闪存技术的应用价格比较昂贵,因此之前在数据中心内,很难得到大规模的应用。”梁天昊说。

不过,随着各大厂商在闪存技术方面的不断研发,闪存技术的应用成本已经得到了大幅度的降低。

目前,闪存的单位成本可以达到每GB 10美元,相比之下传统硬盘的单位成本为每GB 6美元。显然,两者在成本上的差距已经不象以前那样悬殊。如果考虑到硬盘的利用率,那么与传统硬盘相比,闪存的经济效益优势已经比较明显。

也正是因此,IBM存储系统部门总经理安步吉戈雅表示,从经济角度来说,闪存已经能够在数据中心中普及应用了。

而IBM软件与系统部门主管史蒂夫米尔斯则认为,当创新技术满足了规模经济的要求时,就会出现拐点。“我们认为现在已经处在闪存或固态硬盘的拐点上了。”在米尔斯看来,闪存技术本身的规模经济、成本降低以及大数据带来的新机遇将促成闪存数据中心的出现。

对此,何英华也表示,闪存在数据中心的运用会越来越多。“其潜力巨大,可显著提高数据中心的效率,还能提高时效性强的业务应用程序的性能,从而增强业务和竞争优势。最终,闪存技术将促使企业重新评估其存储战略,包括可能会停止过度配置存储,提高 IT 投资的 ROI(投资回报率)。为了达到所需的性能水平,那些采用过度配置方法的公司通常别无选择,因为他们受到硬盘技术的限制。”

事实上,随着价格的降低,闪存的经济效益优势在企业数据中心中已经体现在很多方面,包括数据中心占地面积减小、冷却、更好的应用性能、通过减少计算核心数量以及减少授权和维护需求来降低软件成本、通过提高设备利用和减少服务器数量来降低硬件成本等等。

近期不会完全取代传统硬盘

既然有如此多的优势,那么,如今闪存技术是否会完全取代传统硬盘技术,从而一统数据中心存储呢?

何英华表示,闪存技术在近期不会完全取代传统硬盘技术。在未来数年内,闪存与硬盘技术将继续互为补充。“关键是要善于找到适当的工作负载来利用闪存技术,以实现较高的性价比,最终改变内存、缓存和持久存储之间的平衡。闪存技术主要用于需要近乎瞬时应用响应速度的工作负载,例如数据库应用、事务处理和虚拟桌面实施等工作负载,以加快产品或服务的上市时间。”

不过,何英华认为,2013年对于纯闪存阵列来说将是具有里程碑意义的一年。

在他看来,2013年,大型存储供应商动作频频,不断收购成果或自行研发活动的成就。同时,供应商依然在为如何提供最高的性价比而一争高下。但是,随着闪存的企业渗透力逐渐提高,单纯的性能不再是差别优势,如何能为大型企业部署、做好产品和公司管理上的准备将起决定性作用。“目前不太受关注的软件集成以后将得到高度重视,而且性能提升和数据管理将成为实施决策的两个同等重要的标准。此外,随着对NAND闪存的关注逐渐白热化,其他固态存储技术也将进入人们的视野。”

虽然在短期内不会完全取代传统硬盘,但闪存在企业数据中心存储方面的应用前景却是毋庸置疑的。

第2篇:数据中心存储方案范文

谈到云计算,EMC全球副总裁、大中华区总裁叶成辉显得很兴奋。他表示:“与许多热衷于炒作概念的公司不同,EMC在云计算方面强调实干。未来2~3年,EMC将推出面向不同云计算应用的产品和解决方案。”

一提到云计算,很多人首先想到的是Google等互联网服务商提供的云服务,这是典型的公共云。“在与客户接触的过程中我们发现,很多用户认为云计算就是公共云,而忽视了私有云存在的必要性和重要性。某商业银行的客户认为,云计算就是软件即服务(SaaS),或是可以在淘宝等网站上获得相关的云服务,而云计算在企业中的应用有些遥不可及。我向客户解释了什么是私有云,企业如何借助云计算技术建立虚拟数据中心。”叶成辉表示,“在美国,很多用户已经使用像VMware这样的虚拟化软件建立虚拟数据中心,从而节省成本,提高应用的灵活性。企业用户建立虚拟数据中心是必然趋势,中国用户也不例外。”

EMC不仅是虚拟数据中心理念的倡导者,而且是积极的实践者。2004年,EMC在全球拥有5个数据中心,服务器数量超过1000台。服务器不仅多,而且分布广,管理比较复杂,每增加一个新应用都十分困难。为了解决这个难题,EMC利用VMware的虚拟化软件对原有的数据中心进行了整合,形成了一个虚拟数据中心。解决了基础架构的问题,EMC又开始考虑数据备份、数据分层等数据管理方面的问题。EMC将虚拟数据中心内部划分成五个层级,将数据按照其价值的不同分别存储在不同层级的磁盘上,比如SSD盘、光纤磁盘、SATA或SAS磁盘。EMC用三年时间完成了数据中心的整合,整合后实际使用的服务器数量只有以前的30%。很多人感觉云计算的概念比较模糊,但是建设虚拟化数据中心是实实在在的事情。虚拟化数据中心是构建私有云的前提。

在私有云方面,EMC于2009年推出了专为虚拟数据中心设计的高端存储产品Symmetrix V-Max。叶成辉表示,Symmetrix V-Max可实现虚拟数据中心存储的海量扩展,是虚拟化计算基础架构的基石。EMC Virtual Matrix Architecture(虚拟矩阵架构)集行业标准组件与EMC Symmetrix的独特功能于一身,具有高可扩展性,存储量最高可达数十万TB,并且能够支持数十万台虚拟机和其他虚拟设备。

谈到EMC、思科与VMware成立的云计算联盟,叶成辉表示,成立这个联盟旨在推动虚拟数据中心和私有云的建设。该联盟主要关注三方面问题:构建信息基础架构,实现虚拟化以及提供相关的服务。在研发方面,三方将有更多合作。思科的服务器与网络产品、EMC的存储与VMware的软件将整合在一起,实现统一管理。该联盟不仅能够为用户提供基于整合解决方案的服务,而且会不断推出面向虚拟数据中心的新产品。

第3篇:数据中心存储方案范文

为了应对海量数据和云服务,以互联网公司为代表的大型数据中心正从标准化的OEM架构向自己设计的超大规模架构转变,通过低成本、高效率的服务器,以及标准组件的装配,使整个数据中心变成一台超级计算机,以满足低成本和高效率的规模运营需求。Tom Swinford说,从2009年开始,LSI一直保持与超大规模数据中心的密切合作,与他们共同改进和优化不断演进的全新IT架构,而这些超大规模数据中心正是IT趋势的引领者,因此,LSI愿意将这些领先的经验和技术优势与中国的企业分享。

LSI公司CTO办公室高级技术专家Robert Ober认为,超大规模数据中心所带来的硬件创新主要包括三方面:一是自动化的基础设施,只有自动化、能够自我管理,甚至能自我部署的数据中心基础设施,才能支持业务快速扩展的需求;二是数据中心的高可靠性,超大规模数据中心与传统数据中心不同的是,它允许某个系统和组件出现故障,但必须确保整个数据中心的可靠性;三是大数据所需的分布式系统基础架构,其中存储成为重要力量,“LSI的嵌入式HDD控制器、SAS HBA和RAID控制器都在这一发展演进过程中发挥着重要作用。”他说。

Tom Swinford介绍说,LSI在2009年启动了“超大规模数据中心”合作计划,并由此催生了LSI Nytro闪存应用加速产品,之后,LSI不断与超大规模数据中心密切合作,美国前三大互联网公司之一正在其IT基础设施中使用Nytro的产品。他说,目前在他所领导的DCSG,RAID、加速、闪存是三大块重要的产品,其闪存控制器已经用在了全线PCIe闪卡产品上,“在PCIe闪卡上配备的工程师数量已经超过了500多名”,足以看出LSI对这一领域的重视。据介绍,目前在PCIe闪存细分市场中,LSI的份额已经位居第二。

第4篇:数据中心存储方案范文

多模光纤一直是企业系统网联结构(ESCON )及其相关交换机网络的选择,而且大多数现代化SAN和LAN也采用了多模光纤。其他应用,例如光纤信道连接结构(FICON )可能被要求使用单模连接,而磁带或磁盘存储器可根据接口选择光纤类型。SYSTIMAX LazrSPEED 激光优化多模光纤解决方案,其性能可提高到10Gb/s,传输距离达到550m。由此,减少了原先用来实现多模光纤上10Gb/s传输的昂贵的光电子设备数量,从而降低了企业的成本。对于需要灵活、可升级光纤信道的各种数据中心存储配置而言,LazrSPEED是理想的解决方案,它尤其适合于使用冗余网络拓扑以确保网络连续性的第3级和第4级数据中心。

对于长距离传输或某些特定应用,例如FICON,单模光纤能以更高速率提供LAN解决方案。对于延长的主干网链接而言,单模光纤是多模光纤的完美补充。当多模光纤无法满足距离要求时,可用单模解决方案作为替代。SYSTIMAX TeraSPEEDTM零水峰单模光纤解决方案通过降低由于1400nm区域水杂质造成的高损耗,提供使用范围更广的波段。随着水峰的消除,从1260nm到1620nm整个波段都可使用。并且通过使用经济实用的粗波分复用(CWDM)技术,可实现今后数据传输率的扩展和提供其他服务。

TeraSPEED或LazrSPEED光纤,当用于SYSTIMAX联锁铠装室内电缆时,能提供使用数年的坚固基础结构。联锁铠装电缆加了一层电缆防护层,当布线穿过地板或架空电缆槽时十分有用。联锁铠装电缆的实施成本要比带导管的电缆低,安装时间只需一半,而且,只占用不到50%的路径空间。

当数据中心需要快速配置或重新设置时,SYSTIMAX InstaPATCH Plus 系统无疑是不错的选择。它具有高密度、工厂端接、工厂测试、模块化等特点,允许安装者便捷、快速地连接系统部件,使用这种模块式配线方法连接96芯光纤与传统手段连接单芯光纤所花费的时间相同。该系统结合SYSTIMAX LazrSPEED多模光纤和TeraSPEED单模光纤技术,能支持目前各种较高需求的应用,同时允许现有技术方便地过渡到下一代。

为了满足高性能数据中心的要求,InstaPATCH Plus系统还包括预端接硬件、预端接主干光缆、加强型MPO-LC/SC/ST光纤分支跳线和标准光纤跳线。它使用通用模块、通用扇出与标准光纤跳线,保持了方便安装及管理的优势,同时能方便今后的升级。此外,InstaPATCH Plus系统具备改良的标签系统。该系统以4种方向定位,准确且有逻辑,可在设计、安装、应用方面提供更多的灵活性。

第5篇:数据中心存储方案范文

DDN总裁兼联合创始人Paul Bloch认为现在是个好时机,“DDN是内容存储和云时代高可扩展存储方案的先驱,在中国广阔的云计算和高性能计算市场上,未来五年DDN将大有可为”。

金刚钻与瓷器活

虽然在规模上与前三名相比还有很大差距,但Paul Bloch认为,DDN的特长在于技术。它能解决的问题,很多时候竞争对手还难以解决,尤其是在有高吞吐量、高实时性要求的应用领域,技术方面的领先优势决定了DDN日后还将高速成长。

相比传统数据库应用中可预期的结构化数据增长,声音、图像、视频这类非结构化数据的增长速度惊人,云计算、移动互联网和物联网更导致非结构化数据产生的过程将是“爆炸性”的。为了对数据进行智能化分析,相当一部分数据要被长期储存以供灵活调用。“这类应用领域在DDN的市场范围内。”Paul Bloch说,DDN提供的存储系统正是以服务于超大数据量和高带宽应用而著称的。

的确,在HPC和内容核心存储领域,DDN是当之无愧的明星供应商。去年底的HPC Top500榜单显示,前十名中有八套系统采用了DDN存储。“我们刚刚为中科院过程所安装了一套存储系统,DDN产品的读写性能是其他厂商的十倍;中央电视台在2008年奥运会转播以及电视、电影后期制作时,对很多产品都做了测试,最后选定了DDN。”

Paul Bloch介绍说,在美国,DDN的用户有做核武器的,也有研究生命科学的,还包括很多如空中客车、波音、环球影城这样的大公司。“我们的合作伙伴IBM、HP、DELL早已把DDN存储带往全球,为超算中心、云计算中心和一些企业级数据中心服务。”

DDN选择在各地都与合作伙伴联手。比如在中国的HPC市场,DDN与浪潮、曙光都有合作,在富媒体领域,索贝和大洋也都是DDN的合作对象。Paul Bloch对这几年DDN在HPC、富媒体、政府数据安全,包括中国平安城市项目上的业务拓展非常满意。

存储云,我所欲也

在现有产品线中,DDN把产品分为优化应用、阵列平台、文件存储和云存储四大类别,分别面向不同应用。

除了在硬件设计上占地小、耗电低之外,DDN更突出的优势是技术专家以硬件平台搭配不同的文件系统,并拥有众多解决各类复杂应用存储问题的成功案例。“它们帮助用户优化系统,提供更高的价值。”Paul Bloch说。

常规产品的高性能为人称道,在云存储方面,DDN也是先行者。在云时代,存储工程师必须要处理分布在各地数据中心的大量数据,并设计出能让内容在多处实现同步的方案。而传统存储解决方案遭遇的挑战,最主要的原因在于设计初衷就是用于单一位置部署。在云时代,旧机制导致传统方案越来越不能满足要求。在数据量提高到PB级时,内容分发的成本也显得过于高昂。

第6篇:数据中心存储方案范文

【关键词】云计算;IaaS数据中心;网络虚拟化;存储虚拟化

【中图分类号】G40-057 【文献标识码】A 【论文编号】1009-8097(2012)03-0099-05

引言

随着的IT(Information Technology,信息技术)逐渐渗透到高校的教学、科研和办公等核心业务,各类信息系统数量和存储的数据越来越多,数据中心规模越来越大,学校对数据中心的可靠性、安全性、灵活性提出了更苛刻的要求,传统的数据中心建设管理模式己无法满足当前数字化校园的建设需求。服务器虚拟化以其高效、节能、高可用等诸多优点已经为人们所熟知,在高校校园网中服务器虚拟化的应用也越来越广泛。许多高校在使用虚拟化技术改造或新建数据中心时,仅实现了服务器的虚拟化,对实现数据中心整体虚拟化及云计算技术在数据中心的研究和应用较少。服务器虚拟化提升了服务器硬件使用效率,但如果不能实现数据中心的整体虚拟化,虚拟机得不到存储及网络系统的支持,虚拟化技术提供的高可靠性、高可用性、灵活性等更有价值的功能将无法得到应用。本文分析了利用云计算、虚拟化和无状态计算等技术对服务器、存储、网络和应用交付设备进行全面虚拟化整合的方法,并对关键技术的选择进行了深入的探讨。最后在徐州师范大学数据中心建设方案的基础上,提出了一套基于云计算以实现数据中心计算服务化、资源虚拟化和管理智能化为建设目标的数据中心优化解决方案。

一、高校数据中心建设的现状

不断成熟的虚拟化技术正在帮助更多的高校数据中心减少服务器数量、优化资源配置并简化管理,利用虚拟化和云计算技术可以实现动态IT基础设施环境,进一步改善现有的架构和管理模式,得到了诸多高校的认可。但是目前多数高校仅实现了用虚拟服务器简单代替物理服务器,而没有把数据中心内的存储、网络及应用交付系统进行针对性调整,虚拟化技术提供的高可用性、高可靠性和资源动态分配等非常有应用价值的功无法实施,传统数据中心普遍存在的业务连续性差、灵活性差、业务部署周期长、管理维护成本高和高负载应用(如每学期的集中选课)等问题依然没有得到解决。

在数据中心仅对服务器进行虚拟化,而不对其它硬件资源进行针对性的调整,各类信息系统仍然无法与其使用的硬件资源彻底脱离关系。当应用系统使用的硬件资源性能无法满足需要或出现故障时,信息系统的运行仍将受到影响。在利用云计算技术实现了存储、网络应用交付系统整体虚拟化的数据中心,所有的硬件资源都在一个统一管理、分配并具有弹性伸缩能力的资源池中,这可以为应用系统屏蔽底层硬件架构的复杂性,使应用系统与硬件资源彻底分离,系统使用的计算、存储和网络资源可以从数据中心的资源池中按需获取,资源池中的设备出现故障时或系统需要更多的计算、网络和存储资源时,云计算管理平台可自动从资源池中分配新的可用资源,从而保证业务的连续性和可用性。数据中心整体虚拟化基础架构与服务器虚拟化架构比较如图1所示。

在高校数据中心建设中可以通过云计算技术解决服务器虚拟化带来的问题。云计算是通过整合、管理、调配分布在数据中心的各类资源,并以统一的界面向用户提供安全可靠的数据存储、网络和计算能力。作为一种共享的网络交付信息服务的模式,云计算的使用者看到的只有服务本身,而不用关心相关基础设施的具体实现,利用云计算和虚拟化技术构建数据中心,对数据中心的服务器、存储、网络和应用交付系统进行整体虚拟化,使整个数据中心的运行实现高效、可靠、安全和高可用的同时,还可对硬件资源进行智能管理、灵活部署、动态调整和按需分配,最终实现IaaS(Infrastructureas a Service,基础设施即服务)的目标。利用云计算技术可根本解决高校传统数据中心普遍存在的多种问题,考核数据中心运维情况的TCO、服务器利用率、节能、稳定性、容灾、可用性、安全性等指标,与传统无虚拟化的数据中心和仅对服务器做了虚拟化的数据中心相比有明显提升,根据[3]中调查数据,利用雷达图对相关指示做了比较如图2所示。

二、云计算数据中心的关键环节

建设云计算数据中心时,除了已被广泛接受的虚拟化技术以外,资源池化、资源动态管理和资源动态扩展等技术是实现高校云计算数据中心的关键环节。本节将分析这些环节实现技术的特点及其在数据中心建设过程中的作用。

1.资源池化

资源池化是指通过虚拟化手段,将数据中心内的软、硬件资源虚拟成一个大的“资源水池”,从而简化硬件资源管理、调度难度,实现资源按需获取和空闲资源自动释放,是实现云计算数据中心的关键技术之一,也是实现云计算数据中心的基础。云计算数据中心对虚拟化的要求不仅仅是将一台服务器变成多台这么简单,它需要把数据中心的各类硬件资源虚拟并转化为多个资源池,包括计算资源池、网络资源池、存储资源池、安全和应用交付池等。资源池化是云计算的一个典型特点,只有实现了资源的池化,才有可能实现资源的灵活分配。

实现资源池化可以使数据中心的硬件资源管理方式由管理离散的硬件更改为管理虚拟化的共享资源池,管理工作将变得更加简单和高效,同时还可以提高硬件资源利用率并针对关键应用优先进行动态的资源分配。从资源池可以按应用系统需要分配出个性化的逻辑构造块(包含计算、网络、存储和安全能力),根据应用系统需求这些从资源池中获取的逻辑构造块经过针对性调整,可提供修改化的服务级别或业务需求。实现资源池还有一个优势就是可以实现业务的快速部署,将资源池中的资源动态的分配给应用程序。每个应用程序与。个vApp(Virtual Application,虚拟化应用程序)堆栈捆绑,而vApp配有应用程序需要的应用服务器、数据库和服务器操作系统配置,这使得业务部署变得更加灵活、高效。

2.资源动态管理

资源动态管理可以简化资源管理、调度难度,实现资源按需获取和空闲资源快速释放是云计算数据中心必须具备的能力。变更指定给应用系统负载的硬件资源或硬件资源离线维护时,负载需要在硬件资源之间进行转移,这需要数据中心对资源池进行动态管理。如何智能化的分配、调整、回收资源池中的资源是云计算数据中心必须解决的问题。数据中心资源的动态管理可有效提高设备利用率和数据中心可用性、可靠性和灵活性。

数据中心资源池的管理和调度可以通过负载均衡设备及虚拟化软件的DRS(Distributed Resources Scheduler,分布式

资源调度)、HA(VMware High Availability,高可用性)、FT(Fault Tolerance,系统容错)等功能实现各类应用程序产生的负载在不同的硬件资源上动态移动,从而实现硬件资源的按需分配、动态调整和自动回收。通过多种资源管理技术的实施可以整合工作负载、提高利用率、减少单点故障、实现故障自动切换等功能,使各类应用系统不必再去关心硬件资源的分配及运行情况,应用系统面对的只是一台虚拟机,虚拟机产生的数据流被灵活、均衡地分配到资源池中,从而实现了资源的动态管理。

3.动态扩展

现有资源池内的资源无法满足应用系统的需求时,就需要数据中心的资源池可以在不中断服务的情况下实现快速扩容。采用模块化数据中心(Portable Optimized Datacenter.POD)的建设方式,在每个模块里有支撑业务部署的计算、网络、及存储资源,这种方式实现了资源的高度整合,缩短了建设周期,避免了大型平台建设中不必要的衔接问题。同时每个模块具有独立承载业务能力,提升了后期设备选型的灵活性。随着技术的发展,IT行业越来越意识到把应用部署在单一支撑点的缺陷,云计算环境建议采用并行分布部署方式将业务加载到多个物理上完全独立的模块上,从而确保云环境下应用的高冗余及业务连续性。通过POD建设方式动态扩展资源池的过程如图3所示。

三、关键设备和软件的选型

本节将介绍各资源系统实现方法并给出一些高校在建设云计算数据中心时技术、设备选择的建议。重点介绍计算系统、网络系统、存储系统和安全应用交付系统和云管理平台的建设方法。

1.计算系统设计与实现

计算资源的虚拟化是通过服务器虚拟化软件来实现的,关于服务器虚拟化软件的选择争议并不大,在高校中应用最广泛、最具有代表意义的服务器虚拟化软件是VMware公司的vSphere,也有部分高校使用了少量的Hyper-V、XenServer和Virtuozzo。vSphere是目前唯一可供生产环境使用的虚拟化套件,与同类产品相比其整合比最高,优势明显。

在服务器的选择上首先考虑的是设备的性能,系统最终能否支持海量用户服务及时响应的需求是系统设计是否成功的关键。其次是系统结构应该具有伸缩能力,保证系统能够在维持系统框架、追加少量备件或设备的前提下,满足数年内学校业务增长的需要。徐州师范大学计算系统采用统一计算、一体化架构设计,计算能力主要由两台Cisco UCS 5108刀片服务器提供。UCS采用了Service Profile和无状态计算概念,UCS中的所有服务器在没被启用前均可视为裸机,其物理特性已经不再重要。配置文件会自动寻找第一个可用的服务器,并和它关联。当该服务器损坏,配置文件会自动寻找第二个可用服务器。由于配置文件中设置了服务器的物理参数,备用服务器也会获取和原服务器一样的物理参数,因此,无需在网络和存储设备上做任何重新设置,备用服务器就能具有原服务器所有物理特性,操作系统和应用还可以实现自动重启,完全无需人工干预即实现了备机的自动上线。

高校公共数据平台使用的数据库产品多数是Oracle,因Oracle公司不建议将其产品部署于第三方公司的虚拟化平台上,同时高校公共数据平台是整个数字化校园的基础,对硬件性能、可靠性、可用性要求都非常高。因此在徐州师范大学计算资源中还另外增加了两台IBM公司的Power 740小型机供数据库系统使用,同时服务器负载均衡,这在提升了服务器处理能力的同时实现了双机热备,该方案整体性能可满足学校公共数据平台运转需求。

2.网络系统设计与实现

云计算数据中心网络区别于传统的数据中心网络及校园网,网络资源调用方式是面向云服务而不是面向复杂的物理底层设施进行设计的。通过网络虚拟化可以把数据中心的网络设备以一种与物理位置、物理存在和物理状态无关的方式进行调用,这是云计算架构中IT资源池形成的关键环节。网络虚拟化是实现网络资源复用、降低管理维护复杂度、提高网络设备利用率、保证全局服务策略一致性的关键,同时也是为自动化资源调用和配置打下基础。

高校数据中心承载业务的应用特点决定了其网络既要考虑传统校园网络接入,又要考虑数据中心网络接入,因此在方案设计上采用超大规模数据中心交换机Cisco Nexus 7000作为核心,在性能上实现了网络核心和数据中心汇聚交换机资源的共享和复用,解决了核心层数据量和数据中心数据量可能存在较大差异的问题。数据中心核心配备了两台10插槽Nexus 7000,通过虚拟交换技术以双机冗余的方式部署在网络核心。配置了1块48端口1/10G板卡,通过选配不同的光纤模块,可同时实现万兆和千兆的接入。在网络虚拟化方面,Nexus采用了VDC(VirtualDeviceContent,虚拟化数据中心)技术,可以将一台物理交换机逻辑上模拟成多台虚拟交换机,从而实现更加灵活的、与物理设备无关的跨平台资源分配能力,为数据中心这种底层设施资源消耗型网络提供更经济高效的组网方式,也为管理和运营智能化、自动化创造了条件。

另外还可以通过改进虚机系统平台内的软交换机运行方式来提升虚拟化网络的运行质量。Cisco与VMware联合推出了一款内置于vSphere系统的分布式交换机Nexus 1000v,替代V/V1ware原有的vSwitch和分布式交换机。该交换机使得在一个集群内主机上的所有虚机可以看成连接在单一的一台智能化交换机上,如图4所示,它可实现无论虚机如何迁移,配置在虚拟交换机上的所有网络策略都随虚机迁移而自动跟随,这在降低管理复杂性的同时提升了虚拟机的迁移速度。

3.存储系统设计与实现

云计算采用分布式存储的方式来存储数据,在云计算数据中心对服务器稳定性的要求有所降低,但对存储可靠性与性能要求大幅提高。存储系统是数据中心的核心基础,其性能的优劣、质量的好坏,对全局影响重大,因此如何保证数据中心的存储系统能够不断地完善、发展,保持系统的实用性和技术的先进性是在整个数据中心建设方案中必须重点考虑的问题。在存储系统平台的选型上应充分考虑系统应用水平和处理数据量的大小,在云计算数据中心因虚拟化带来的服务器密度增加,导致I/O(Input/Output,输入输出)成为系统性能瓶颈,因此需要根据实际情况重点考虑系统I/O性能。

云计算数据中心存储系统建设基本原则是利用虚拟化技术和先进的大容量存储设备,集中、智能管理所有存储设备,形成存储资源池。系统应能提供完善、便捷的备份恢复解决方案,保证数据的高可用性。EMC公司VNX存储系统在以上几个方面都有卓越的表现,并且和本方案的软、硬件基础架构有机结合,形成一个完善的软硬件存储系统虚拟化解决方案。徐州师范大学数据中心建设方案中,我们采用一台EMC VNX5300存储作为数据中心主存储,配置两个SAN(Storage

Area Network,存储区域网络)控制器,已提高系统的可靠性,配置一个NAS(network attached storage,网络附加存储)控制器以提高系统的灵活性。配置SAS硬盘,用于对I/O性能要求高的应用。为了降低成本,还配置了SAT硬盘用于存储对容量要求高,但对性能不太敏感的数据。另外设计一台EMC VNX5100存储作为数据中心的容灾存储。存储网络通过FC(Fiber Chanel,光纤通道)和FCoE(Fibre Channel over Ethernet,以太网光纤通道)共存的方式实现,这样不仅解决了新旧技术过渡问题,还减少了接入交换机类型、数量和复杂性,整合了网络资源,提高了数据中心资源部署效率,降低了功耗。

4.安全应用交付系统设计与实现

虚拟化环境下虚拟机的数量及密度迅速膨胀,为了减少防毒过程中的资源消耗、简化管理手段并加强虚拟机的透明性和安全性,我们在虚拟机安全产品上选择的是Trend公司的Deep Security。该系统是一套保护服务器和应用程序的综合安全系统,拥有无安全防护技术,该系统通过与VMware的控管中心整合,无需在虚拟机中安装任何插件,即可实现对虚拟机的安全防护,这进一步减少了虚拟服务器的资源消耗,提升了计算资源工作的有效性。

虚拟化平台本身具备部分对平台内的计算资源、存储资源的负载均衡能力,可以在运行期间持续监控群集内所有主机和虚拟机的CPU、内存资源的分布情况和使用情况,根据运行情况执行相应虚拟机迁移或提供迁移建议,从而保持计算资源的负载平衡。徐州师范大学数据中心建设中,轻负载通过创建基于VMware vSphere的主机DRS集群和存储SDRS(Storage Distributed Resources Scheduler,分布式资源调度)集群实现管理。大型负载如选课、统一身份认证的负载分流由F5公司的本地流量管理设备BIG-IP LTM实现。该设备通过与vSphere的深度整合,维护方便,利用虚拟化环境软件的自动迁移功能,可靠性也较高。

根据主流备份系统的搭建准则,徐州师范大学通过具有重复数据删除功能的EMC Avama备份系统组建了统一的智能备份系统。通过新的数据备份技术,实现了在存储系统中完成对所有数据的备份工作,备份工作不再基于数据所处的操作系统,这在大幅简化数据备份工作难度的同时,提升了数据备份的效率。同时因备份工作不再通过服务器,从而节省了大量的计算和网络资源,降低了数据中心的负载。Avama直接运行于VMware vSphere虚拟化平台之上,无需其他操作系统支持。另外系统支持操作系统的快速恢复,且备份的操作系统可以灵活的恢复到不同的硬件服务器上。恢复数据时不需采用全备份叠加增量备份来恢复至指定的时间点,而是采用任意时间点恢复的方式。

5.云管理平台

云管理平台负责整个数据中心资源管理,是各资源池的管理和工作负载交付管理平台,是实现IaaS的关键环节。云管理平台应能针对不同的资源池,提供统一的云管理接口,以实现对本架构中的各资源池集中管理,包括资源管理、监控、配置、诊断、故障检测、审核及统计数据收集等方面的管理。徐州师范大学云管理平台是在vSphere为云计算系统提供的基础设施架构的基础上,通过第三方个性化开发软件实现了与vSphere的对接。该平台具有良好的跨平台和功能扩展性,系统用户通过Web界面就可以实现自助式申请和管理,系统管理员不再需要手工生成和配置用户所要求的虚拟机,而是交由管理平台自动完成。

6.数据中心拓扑

根据本文论述的建设思路及建设方法,在我校数据中心建设的基础上结合云计算技术,完成了数据中心的整体方案设计及关键设备、软件的选型工作。数据中心核心交换通过万兆光纤实现了与校园网的冗余连接。通过POD的建设思路对学校原有硬件资源进行了整合,整个数据中心服务器、网络、存储和应用交付设备都实现了冗余和负载均衡,数据中心的拓扑关系如图5所示。

第7篇:数据中心存储方案范文

【关键词】云数据中心 虚拟化 云计算 大数据处理 网上证券

云数据中心在证券行业的应用,目的就是利用云平台技术及服务,将证券行业的传统证券行情系统、证券资讯系统以及现在需要进行大数据计算处理的智能化行情系统、量化资讯系统等服务外包,让专业的人做专业的事、让券商更能专注于核新业务,并节约成本。

一、各券商的网上证券系统存在如下不足

(1)扩容周期较长:网上证券系统扩容周期一般取决于硬件设备进货周期(大约为半个多月),时间较长。

(2)容量不能按需伸缩:网上证券行情、交易容量一旦部署完成,便基本固定,一般不能随着行情的周期变化而随意伸缩;互联网线路(一般采取长年租用ISP运营商的线路)容量,也不可以随意伸缩,其扩容周期受制于ISP运营商,一般也较长。

(3)设备资源浪费:服务器等设备资源不论网上证券在线客户数多少以及CPU、内存等资源的利用率多少,一般均不可随意变化;同时,硬件设备都有老化、使用周期,需要定期更换,费力费时还不节约费用,并逐年增加报废设备。

(4)不能按所用计费:互联网线路等也不可以按流量、按照行业4小时特色需求进行量化策略计费租用。

二、云数据中心提供的服务

云数据中心一般可以涵盖IaaS(Infrastructure as a Service)、PaaS(Platform as a service)、SaaS(Software as a Service)三个层面的云计算整体解决方案服务能力,可提供基于虚拟化技术的软硬件一体化的云计算、大数据处理等。

具体地讲,虚拟主机、存储、互联网线路等可以为网上证券提供硬件设施方面的支持;虚拟化、云计算、大数据处理等可以为网上证券提供软件方面的支持;安全管理、设备运维管理、7*24小时运维管理服务等可以为网上证券提供管理支持;所有这些,云数据中心可以为网上证券系统提供整体的基于云平台的解决方案。同时,云数据中心提供的上述服务支持的计费方式可以量化,可根据实际资源使用情况提供灵活的计费模式。

三、问题的解决

通过网上证券系统在云数据中心的应用,目前存在的许多不足都可得以解决。首先,服务器、网络设备、互联网线路等资源可以得到更加合理的应用;按所用策略计费,可减少设备4小时外的空运行所造成的浪费;可减少公司硬件设备的定期更新等。其次,更重要的是,通过云数据中心的虚拟化技术的应用,可灵活、快速的进行容量伸缩,满足券商在行情火爆时快速扩容、在行情低迷时缩减容量的要求。第三,通过云计算、大数据处理等的应用,可以为数据的挖掘分析提供更有力的技术工具。第四,云数据中心可提供专业的安全保障。第五,云数据中心可提供量化的计费模式,做到资源可量化收费,让券商能有效减少资源(硬件、线路等)的浪费。第六,通过云数据中心的日常专业运维,可减轻券商的日常运维管理压力。

四、云安全问题及解决办法

网上证券系统在云数据中心的应用,与传统应用一样,一般存在如下安全问题:云数据中心自身安全。主要是云数据中心自身的管理安全和机房安全、设备安全等。网络接入安全。对证券投资者的接入云数据中心的接入认证、黑客攻击、病毒、DDOS攻击等的安全防护。数据安全。云数据中心接入层的日志信息、落地信息的安全保密,以及应用数据、实时数据、历史数据等的安全保密,客户信息安全保密等。应用安全。云数据中心的券商应用系统对接云计算、大数据处理应用所产生的数据、算法等的保密和安全保障。实时监控。包括云服务器CPU、内存、磁盘空间等虚拟主机性能及网络设备等资源使用效率的监控,以及互联网带宽、网络的流量监控,以及病毒、网络攻击等安全监控,以及操作系统、应用系统的应用监控等。

解决办法:

首先,要按照国家、行业的法律法规来约束云数据中心的行为和技术管理,需要云数据中心的承诺和技术保证,如签署安全合同以及网络物理隔离等;其次,云数据中心的网络接入安全应至少做到传统技术安全措施:采用防火墙技术措施保证不被非法访问,使用杀病毒软件保证云数据中心服务器及网络设备不被感染,用入侵检测和防御设备防止黑客的入侵等;第三,券商应慎重考虑、平衡需要在云数据中心存储、落地的数据,在云数据中心存放、落地的数据应加密,应尽可能减少重要数据的落地,应用数据应加密传输,同时注重敏感数据的及时清理和销毁;第四,应对传统券商交易系统接入层进行适当加固,在技术上,既要应用云计算及大数据处理技术,还要增强敏感数据的安全保密,同时尽可能的减少敏感数据的落地和被窃取;第五,加强监控,券商应自行进行安全监控、资源监控、应用监控等。

五、应用展望

第8篇:数据中心存储方案范文

高效仍是最大挑战

在IBM全球科技服务部举办的2012 IBM智慧云数据中心高峰论坛上,IBM了该报告。报告显示,能效仍然是全球数据中心面临的重要挑战。只有21%的被调查的全球企业及组织机构的数据中心处于最高效的战略型数据中心水平,62%的被调查者仅具有中等效率,而17%的数据中心处于运行效率非常低的基础水平。

从调查数据中我们发现,中国企业的数据中心展现出与众不同的高效性,高效数据中心所占比例高达64%,是美国高效数据中心比例的两倍以上,更远远高于法国、加拿大、印度、巴西等发达国家和发展中国家的水平。这与中国的很多数据中心都为近年来所建不无关系。

在采用新技术方面,调查显示,与低效数据中心相比,高效的数据中心会将超过 50%的资金投入到新项目及创新中,而不是用于维护已有的IT系统。而低效的数据中心在新项目方面的投入只占其总预算的35%,相反,他们会把65%的资金用于维护其现有的基础架构上。从对新技术的接受意愿来看,68%的受访人表示会积极应用新技术,甚至会成为新技术的首批使用者,并希望通过这种方式抓住新的发展机遇以获得成长。

高效数据中心四大特征

通过调研,IBM总结出高效数据中心的四大特点,这四点也成为企业打造自身高效数据中心的重要途径。

第一,优化IT设施,实现存储容量和可用性的最大化。虚拟化是数据中心能力改善的先决条件,事实上一旦数据中心达到高效的战略型数据中心阶段,它们将会实现服务器、存储和网络环境的高水平虚拟化,并且在软件和自动化工具的应用方面获得发展。调查显示,在高效的战略型数据中心中48%的服务器实现了虚拟化,而处于基础水平的数据中心的虚拟化率仅为27%;战略型数据中心存储虚拟化率达到了93%,而基础数据中心仅为21%。在服务器与存储优化方面,中国高效数据中心应用比例比全球高出10个百分点。但中国的基础数据中心中采用服务器与存储优化的比例却只有10%,明显低于全球平均水平。

第二,实施灵活性设计以支持不断变化的业务需求。在服务器、存储、网络和管理规划时应用更加灵活的设计,将解决安全威胁和服务中断等问题。调查显示,90%的战略型数据中心拥有双活配置,基础数据中心拥有该配置的比例则仅为10%。战略型数据中心可以通过采用双活配置提供最佳的可用性以满足业务需求,从而在发生故障的情况下实现故障切换。47%的战略型数据中心可以无需中断运行便可升级机械和电气设备,相比之下基础数据中心的这一比例则仅为9%。同时,高效的战略型数据中心在灾难备份等方面也具有比基础数据中心更加完备的设计与机制。调研显示,中国处于不同效率水平的数据中心在网络灵活性方面都低于全球同类型数据中心的平均水平10至20个百分点。由此可见,中国数据中心的网络灵活性需提升。

第三,利用自动化工具提高服务水平和可用性。引进更高水平的自动化可以实现更大程度的灵活性,有助于支持更高水平的可用性,依靠自动化工具和新技术可以提升系统可靠性,并通过减少系统管理员的工作量来降低出错率,确保应用性能满足其服务水平协议SLA的要求。调查显示,在服务器管理方面,100%的战略型数据中心利用自动化工具管理他们的服务器环境,还有58%的战略型数据中心会利用自动化工具来迁移虚拟机,而无需人工介入,但基础数据中心的这一比例为1%。在存储管理方面,87%的战略型数据中心利用存储服务目录方法,实现了更高水平的可用性和自动化,与此相比基础数据中心这一比例仅为3%。在网络管理方面,30%的战略型数据中心利用策略管理流程来自动分配网络服务,而基础数据中心应用这一工具的比例仅为3%。

无论是在存储管理或服务器管理方面,中国数据中心中应用自动化工具的比例都比全球平均水平高10个百分点。但在网络管理的自动化工具应用方面,中国数据中心低于世界平均水平20个百分点。

第四,制定规划保证与业务目标的一致性。由于面对外部市场环境与企业内部的快速变化,企业迫切需要利用有效规划实现对复杂变化的应对,这主要包括技术规划、管理与IT规划以及对利用IT外包的规划。

在制定技术规划方面,战略型数据中心表现更加积极。调查显示62%的战略型数据中心表示会在未来12~23个月内进行技术更新,而基础数据中心中具有这一规划的比例是27%。在管理与IT规划方面,战略型数据中心对外部环境变化具有更加充分的准备,他们在电力与空间预测、整体扩建方面都有更高的前瞻性。在IT外包方面,拥有战略型数据中心的组织更了解如何充分利用外部资源以实现高效的IT管理与运营。在战略型数据中心中,完全依赖自身内部进行IT运营与管理的比例为64%,而在基础数据中心中,这一比例高达80%。

参与调查的中国数据中心在融合基础设施、技术更新与新技术应用方面都表现的更加积极,表示会采取上述措施的数据中心比例比全球平均水平高10个百分点。

领先技术

第9篇:数据中心存储方案范文

关键词:云计算 数据中心 虚拟化 存储;VMware

中图分类号:TP333.96 文献标识码:A 文章编号:1007-9416(2012)09-0213-02

加强优质教育资源和信息化学习环境建设,推进信息技术与教育教学资源的全面深度融合,加快提升教育信息化整体水平,是教育理念和教学模式的深刻变革,是促进教育公平、提高教育质量的有效手段;是实现终身教育、构建学习型社会的必由之路。是实现教育现代化、建设学习型社会和人力资源强国的坚实支撑。信息技术进入到了新的发展应用高峰期,网络应用新技术也不断涌现和成熟:云计算等正在改变着信息化生态环境,信息系统的开放共享正在成为常态,开放系统用开放性换来了规模效应、数据积累和用户集聚;硬基础设施建设逐步发展为软基础设施建设。云计算伴随着网络的发展呈现日新月异的发展。

云计算是一种新型的计算模式,能够把基础设施资源、应用系统作为服务,通过互联网提供给用户。云计算同时也是一种新的基础架构管理方法,能够把大量的、高度虚拟化的资源管理起来,组成一个庞大的资源池,以服务方式进行管理。基于云计算的特点,支持云服务对数据中心基础设施的需求,解决传统数据中心的一些不足。同时,通过采用新的技术,持续进行数据中心的优化,将校园数据中心建成一个可信赖的云数据中心。

我单位通过前期调研与测试,决定启动基于云计算的数据中心项目的建设。利用全新的网络、存储和虚拟化技术,将数据、存储和服务器整合至一个通用、统一、高效、可靠的环境中,大幅简化和集成原来的服务器和存储SAN和NAS架构,把大量的、高度虚拟化的资源管理起来,组成一个庞大的资源池,以服务方式进行管理。采用VCE(Virtual computing environment,虚拟计算环境)构建新一代教育云数据中心,利用思科的统一计算系统(UCS)、EMC集中存储解决方案和VMware虚拟化技术,将各个分散的系统平台、各个部门的资源,统一集中在学校数据中心虚拟计算环境中,由校园网络中心按照统一规划、分步实施、优化资源、集中管理、面向需求、加强应用的建设原则,确保充分而高效地使用教学资源。

1、数据中心计算池

配置8个两路计算节点模块,每节点配置2颗Intel至强E7-2860十核CPU;配置DD3内存128GB,内存扩展槽位≥12个,最大可扩容至256GB;配置2端口10GB FCoE接口。

2、数据中心统一交换网络

配置两台统一交换机作为计算节点、存储、网络的纽带,整合计算、网络、存储接入与虚拟化。万兆以太网接口数≥20,支持FCoE,8G FC接口≥6,吞吐量≥500Gbps,转发能力≥350Mpps;每台交换实配4个万兆模块连接刀片机箱,2个万兆模块连接校园网核心交换机,2个8G FC模块连接SAN网络。

3、数据中心SAN存储网络

采用两台8Gb光纤通道交换机部署高速可靠的数据中心SAN网络,单台实配有效端口16个,并配置16个8Gb短波模块。

4、分布式虚拟交换机

数据中心分布式虚拟交换机,可运行VMware vSphere、Microsoft Hypere-V平台,配置不少于16个CPU的许可。该虚拟交换机在虚拟环境下支持策略移动,接口的配置可以随着vMotion的移动进行移动。

5、数据中心存储池

配置两个存储控制器实现冗余,要求缓存采用掉电保护技术,意外断电时能够将缓存中的数据写入硬盘,保证长时间停电情况下缓存数据永不丢失。配置8个8Gb光纤通道接口,配置两个NAS控制器,采用Intel四核处理器,主频≥2.1GHz;配置≥24GB内存,采用NAS专用操作系统(非windows storage系统),每个控制器配置2个10Gb端口。操作系统支持:Windows、Linux、AIX、Solaris、HP-UX、VMware ESX等。磁盘接口≥4个6Gb四通道SAS磁盘接口,最大可扩展硬盘数量不少于250个, 支持RAID 0,1,1/0,3,5,6等多种RAID类型;配置600G、15000转SAS硬盘18个,2TB NL-SAS磁盘45个,100G企业级闪盘5个,总存储容量达到100T。

6、虚机与链路负载均衡

提供一套负载均衡设备,可以实现对出口链路的负载均衡,支持多条链路的智能选路功能,支持所有基于TCP/IP协议的服务器负载均衡;支持最小连接数、轮询、比例、最快响应、哈希、预测、观察、动态比例等负载均衡算法。

7、专用云管理平台

提供本地及远程方式下对体系架构中的硬件及软件的访问、资产管理、配置、诊断、监控、故障检测、审核及统计数据收集工作等(如图1)。

该系统在一个万兆以太网统一阵列中集成了企业级服务器,提供了虚拟机和虚拟化软件所需的I/O带宽和功能。思科扩展内存技术为高度虚拟化所需要的大内存提供了一种极为经济的配置方法。思科统一计算系统(UCS)将网络访问层集成为一个能轻松管理的实体,在此实体中,能像物理链路一样配置、管理和移动虚拟机链路。该系统继承了思科长期以来的优秀创新传统,在架构、技术、合作关系和服务方面都进行了出色的创新。

经过云计算数据中心建设、运行、测试、使用后,得出如下结论:(1)云计算环境下数据中心的资源是高度虚拟化的,需要对资源进行动态部署,全面完备的云管理平台对校园软硬件资源合理配置,解决了资源管理与配置问题,同时通过整合网络资源,为实现数字化校园提供了良好的运行环境。(2)在云计算环境下,应用程序与组件是多对多的依赖关系。一个应用程序出了故障,很难很快地准确定位是哪一个组件出现了问题。因此,问题故障的定位是云计算环境下数据中心管理的一大挑战。(3)云计算时代的IT资源是通过网络以服务的形式提供给用户的,通过实现云数据中心的建设,服务质量通过实际使用一台新服务器资源的添加能在几分钟内完成。(4)云安全带来的安全问题比以往更为突出,通过双活或多活云计算数据中心架构,可以很轻松地实现跨数据中心的应用在线移动、无宕机的数据中心维护、数据中心自然灾害避免、迁移关键应用至另一数据中心。(5)云时代的数据中心,资源全部池化,服务平台化、自动化,在建设云数据中心的过程中,建设成本可能比传统的建设成本要高,但从长期的运行管理和应用综合因素考虑,要比传统的数据中心应用方便、部署快捷、管理智能化、应用效率高、节约电力资源、节约机房空间。(6)基于云计算技术的校园数据中心运行环境促进了数字校园的建设和应用,利用数据中心的高度虚拟化,将各系统整合到统一的平台中集中管理,实现统一身份认证、统一信息门户、统一数据交换和共享数据库。

云计算数据中心带来了众多优势,可以实现15:1以上的整合率,同时通过管理自动化为关键业务应用程序动态分配资源,从而提高效益。但同时它也向数据中心提出了挑战。如果有统一的I/O配置和足够的带宽,在每台物理服务器上支持大量VM,则资源池的管理会较为容易。资源池将能更快速地应对迅速变化的业务情况和工作负载,新服务器资源的添加能在几分钟内完成,然后设置并投入使用,而无需准备服务器接口、固件和设置。通过平衡CPU处理能力和经济高效的内存配置,提高虚拟机密度,就能够更轻松地实现服务器虚拟化的经济优势。最后,在统一了网络接入层,并以相同方式对待虚拟机链路与物理服务器链路时,能够更高效、更安全地管理虚拟环境,并获得更出色的服务质量。

参考文献

[1] 沈立强.云时代的校园数据中心.中国教育网络,2012(6):20-21.