数据中心(收集3篇)
数据中心范文篇1
要从数据中心轻松选择可以精简的对象,这并非易事。
大家都知道,对空调、电力供应或者冷却方案进行任何改动都并非易事。改动数据中心的基础设施无异于动大手术。那么对数据中心里面的IT设备进行改动,效果又会如何?
不妨把IT设备分成服务器设备、存储设备和网络设备,有两种精简方法对付它们。首先,需要找出未充分利用的设备,然后对它们进行处理。第二,可以进一步提高设备的利用率,就会空出一些现在不需要的设备。这就意味着对服务器的工作负荷进行合并或者对它们进行虚拟化处理。
虚拟化服务器
由于Windows的多任务处理功能不太好,需要更多的存储设备,这样助长了购买另一台服务器来应付性能下降或者利用新应用软件处理问题的风气,结果服务器在数据中心到了泛滥成灾的地步。
一种采用硬件的对策就是,推出刀片服务器,把多块服务器刀片安装在一个机架上,而不是安装在单个的机架单元上。这可以把机架的服务器密度提高三四倍,因而腾出了空间。不过这本身也会带来新问题:机架的电源要求随之增加,冷却要求也是如此,这就进一步增加了电源要求。
所以,虽然刀片服务器有助于解决数据中心的空间问题,但同时加剧了数据中心的电源和冷却问题。为了能够获得一种比较简单的方法而把服务器激增现象减少到一定程度,就需要采取另一种方法来处理服务器――软件虚拟化路线。
这当然指的是VMware。它的迅速崛起表明了Windows在多任务处理方面有多么糟糕。单单一台VMware服务器就能取代五台、十台甚至更多台的Windows服务器,不过这基本上是同一个硬件,而现有的工作效率却大大提高。事实证明,对服务器进行虚拟化处理是一种有效减少服务器在数据中心占用空间的方法,又不必加大电源和冷却要求。
Unix和Linux也有各自的虚拟化产品,比如XENSource和Solaris容器。有了这些产品,同样可以合并服务器硬件。
购买VMware后,显然可以把相当多比例的设备单单运行一种应用的Windows服务器――空出来。客户声称,x86服务器的利用率达到了60%到80%,而如今的利用率只有5%到15%。这表明,对于10台利用率仅为10%的服务器,可以扔掉其中的8台服务器,而让另外两台服务器各自运行在50%的利用率下――从减少电力和冷却成本方面来看,这是一种不错的想法。
不过一个新问题是,8台被丢弃的服务器都是直连到存储。又该如何处理这个问题呢?
合并存储设备
如果把存储设备合并到SAN,那么就要为每台物理服务器添加主机总线适配器(HBA)。HBA最好具有虚拟化功能,这样它们就能够与VMware虚拟机、光纤通道线缆、SAN光纤通道交换机设备、与光纤通道相连接的一组驱动器阵列以及SAN管理软件协同工作。
但这增加了设备电力成本和管理员费用及技能。
如果使用iSCSISAN或者NAS方案,那么可以使用以太网作为存储链路,从而避免了与光纤通道相关的费用和技能。
合并存储设备是虚拟化服务器方案的一种自然延伸。
对存储设备进行虚拟化处理可以提高阵列磁盘的利用率。要是采用了虚拟化处理,应用就以为独立享用了存储设备的逻辑单元号(LUN),而实际上LUN被虚拟化软件映射到任何驱动器阵列卷,存储管理员可以设置这个卷,还可以随意移动。
对存储设备进行自动精简配置(thinprovisioning)是一种更好的方法。在过去,存储应用会分配到在一段时间内需要的所有块存储,比如12个月或者更长时间。不过很多应用实际上不需要所有这些磁盘块;它们可能这个月只用10%的磁盘块,下个月使用另外10%的磁盘块等等。
自动精简配置的功能就是,比如告诉某个应用它有100GB大小的LUN,但实际上只分配了10GB。存储空间快用完时,就会分配另一批实际存储资源。3PAR、惠普和日立数据系统等供应商都有这项功能,EMC目前还没有。
另一种大有希望的方法就是删除重复数据。把数据备份到磁盘后删除重复数据,这样就可以确认文件里面及文章之间的重复字符串,然后用指针取而代之。重复数据删除比率可以达到10:1,甚至30:1。信息实际上只存储了一次。如果以前需要30TB的磁盘来保存基于磁盘的备份内容,现在只要5TB或者更少的磁盘就能满足要求。
还可以进一步采取的一个措施就是,把需要联机但访问不频繁的辅助数据保存在MAID驱动器阵列上,MAID的全称是大规模非活动磁盘阵列。大多数磁盘停止转动,因而不消费能源。如果需要非活动磁盘上的数据,磁盘又会转动起来。
因为大多数磁盘没有转动,驱动器阵列不会变得太热,更多的磁盘可以塞入到同一个空间。这样就降低了电源、冷却和空间等方面的要求。
最后,可以继续使用磁盘或者光学存储介质用于保存第三级数据(tertiarydata)。第三级数据是指必须保存起来,但可能好几周、甚至好几个月都没有访问的数据。一旦数据写入到了磁带或者光学存储介质上,该介质就能处于离线状态,放到架子上或者磁带库槽位里面,这根本不耗电。
总而言之,可以采取几个进一步的措施来减少存储设备的电源和冷却要求,并且摒弃一些驱动器阵列。
使用网络端口多的设备
数据中心范文篇2
《全球高效数据中心最佳实践》调研针对目前全球数据中心运营与发展的状况,深入访谈了来自全球7个国家,25个行业的超过300位IT主管与CIO,其中包括来自中国的47位IT主管。此次调研目的是为了帮助IT管理者认知当前数据中心发展的状态,并帮助他们从同行身上学习相关知识与经验,以指导数据中心当前与未来的决策。通过对数据中心多项指标的综合对比分析,所有数据中心的效率状况被分为了由低到高的四类:基础型、整合、可用类和战略类。通过深入访谈与分析,此次调研发现全球数据中心正面临着如何实现更高效能的困扰。调查显示只有21%被调查的全球企业及组织机构的数据中心处于最高效的战略型数据中心水平,62%的受调查者仅具有中等效率,而17%的数据中心处于运行效率非常低的基础水平。
中国企业与组织的数据中心却体现出与众不同的高效性,在47位受访企业中,30家的数据中心处于高效运营水平,远高于来自于其他国家的受访者。这一比例都远远高于数据中心发达的美国地区,美国高效数据中心仅占25%。由此可见,在经济的快速发展的推动下,中国的数据中心也在短时间内经历了发达国家数十年的发展历程,并能够实现跨越式的发展。
数据还显示,与低效数据中心相比,高效的数据中心会将超过50%的资金投入到新项目及创新中,而不是用于维护已有的IT系统。而低效的数据中心在新项目方面的投入只占其总预算的35%,相反,他们会把65%的资金用于维护其现有的基础架构上。这意味着,高效的数据中心可以将资金投资到更加创新的项目上来,这也将进一步提升高效数据中心的能力,并为企业提供新的发展机遇。
数据中心范文篇3
在大数据时代,从数据中心的基础架构到运营服务,从数据的分析到数据治理,大数据积聚了多少新的需求,数据中心又将经历怎样一场轰轰烈烈的变革呢?
云计算数据中心、云基地、超级计算机中心……这些与云沾边的数据中心的新称谓让用户难以区分清楚。其实,云只是一个定语,它所修饰的后面的名词(某项具体的业务或应用)才是用户真正应该关心的。比如云基地,它就是希望通过云计算技术为园区内的企业提供一种共享的服务。“企业无论要建设什么类型、具备何种功能的数据中心,都必须从业务和应用的需求出发,明确建立数据中心的目的。”中国惠普有限公司技术服务事业部IT规划与咨询、云计算服务总经理卫东表示。
大数据的三维视图
有市场分析机构预测,未来12~18个月内,全球产生的数据量是现有数据量的总和。数据量的迅猛增长给企业的数据存储、管理和分析带来了巨大的压力。另一方面,有统计表明,企业能够有效利用的数据量只占数据总量的5%。这些就是大数据(BigData)带来的难题。
大数据包含了不同来源的所有结构化和非结构化的数据。大数据在数据量的大小以及复杂性方面已经远远超出了用户现有的能力范围。这也意味着在合理的成本范围和时间区间内,人们已经无法使用整理的数据处理技术来收集、管理和分析大数据。卫东表示,用户可以通过三维视图来理解什么是大数据:从数量级来看,交易数据量以几何级数倍增;从数据的多样化来看,除了结构化数据以外,还有大量非结构化数据需要进行处理,比如社交网络媒体资料、视频、音频、邮件、图像等;从数据处理的角度来看,人们希望以更快的速度来处理大量的数据。
“很多中国用户在新建数据中心时明确提出,数据中心的建设要为大数据服务,因为大数据与企业的业务应用密切相关。数据中心架构的融合、变革和转型是当务之急。”卫东表示。
那么,传统数据中心与大数据时代的数据中心或者说新一代数据中心到底有什么区别呢?
通常来说,传统的数据中心包括与风、火、水、电相关的数据中心基础设施以及IT硬件设备。新一代数据中心除了包含上述基础设施以外,更重要的是应用一些新技术让数据中心的架构变得更加灵活和高效,比如采用新的数据处理架构以及一些节能减排的新技术等。“传统数据中心是堆栈式的,而新一代数据中心是模块化的,其动态架构的好处可以在日后数据中心的运营过程中得以充分展现,比如降低运维成本,管理更简单等。”卫东表示,“用户在建设数据中心时,除了要关注数据中心的土建以外,更要考虑数据中心内设备的摆放。惠普现在能为用户提供包括数据中心基础架构、云计算、能源管理服务等在内的全套数据中心解决方案。”
大数据带来的三大改变
大数据的出现将给数据中心基础架构、数据中心的应用和运维带来什么样的挑战呢?
卫东表示,总体来看,由于数据量的增加,企业首先需要灵活、可扩展的存储解决方案;其次,企业需要相应的商务智能处理软件、算法模型来访问并分析大量结构化和非结构化的数据;最后,随着需要大数据分析的企业、部门、人员逐渐增多,势必需要整个数据中心的计算能力、网络速度以及整体业务反应能力得到进一步提升,这将促使数据中心整体架构加速向以适应性数据服务(AdaptiveDataservices)为特征的新一代数据中心架构转变,集中化的数据中心、云计算中心和超级计算机中心将成为用户努力的目标。
从数据中心架构的角度分析,在大数据时代,数据中心呈现出数据密集的特征,存储、计算、网络传输的需求呈指数增长,高并发、低延迟的环境要求数据中心架构具备更强的横向扩展能力。由于数据增长具有不确定性,“数据洪流”发生的时间、流向、支流发展也无法确定。因此,用户对数据中心架构的灵活性要求更高。未来的数据中心将更多地采用分布式的数据库和文件系统,比如Hadoop架构可以存储和访问大数据,同时满足数据中心架构对灵活性的要求。
从应用的角度分析,数据仓库、数据挖掘和商业智能等应用领域会发生重大变革,对半结构化、非结构化数据的支持,尤其是基于非结构化数据的搜索应用将大量涌现。应用对大量数据的实时处理能力要求更高,并且希望利用更小的内存/磁盘空间处理更多的数据,同时借助数据压缩、网络优化等技术提升存储、网络等资源的使用效率。大数据分析要求企业拥有充足的IT资源。因此,并非所有的企业都需要自备完整的大数据分析能力,数据分析云服务可满足中小规模企业的分析需求。
从数据中心运维的角度分析,随着数据存储量急速增加以及应用模式的转变,用户在数据中心的运维方面将更关注如何提高性能和降低成本。用户可以借助精简配置(ThinProvisioning)等技术,提升IT设备的使用率,同时降低成本。此外,数据的分级存储变得更为重要。借助分级存储技术,用户可以根据数据的活跃程度、访问频度等分配不同级别的存储设备和网络区域。由于深度挖掘的分析结果的价值不同,与之相匹配的IT资源也不同。
惠普亚太区存储策略师PaulHaverfield指出,存储管理者面临着五大挑战:第一,如何以更低地成本访问数据;第二,如何让数据的组织、查找和处理过程更加高效;第三,如何更好地备份和保护数据;第四,如何删除不想要的数据;第五,如何提高数据中心的能效,节省空间。
避免陷入误区
许多用户在新建云计算数据中心时喜欢追时髦,而对于云数据中心到底能发挥什么样的作用,如何去运维缺乏清晰的认知。
“始于基建,止于基建是许多中国用户易犯的通病。”卫东表示,“由于数据中心的建设与使用分属基建和科技两个部门,基建部门建好数据中心就算交差,根本不会考虑数据中心内部IT设备应如何摆放。这就很容易造成数据中心在日后的运营过程中出现种种问题。”还有一些用户并没有真正理解新一代数据中心的内涵,单纯地以为新一代数据中心就是绿色、节能的数据中心,并且认为仅凭PUE值等几个简单的指标就能全面描述数据中心的状况。
卫东表示:“用户在新建数据中心前,一定要想好数据中心能为业务的发展提供什么样的支撑。新一代数据中心的建设要与业务运营相结合,要考虑与大数据之间的关系,只有这样才能缩短数据中心的建设周期,节省成本,避免风险。”
有些人认为,数据中心就是一幢房子,是固定资产。其实,数据中心是企业的战略性资产,是运营的基础。在建设数据中心的过程中,企业要把技术、管理和人的因素全都考虑进去。惠普能够为企业提供转向新型数据中心的全面服务。
针对企业在构建新型数据中心架构时可能遇到的问题,卫东提出了以下建议。
第一,在数据中心的自建、合建、租赁模式之间做出选择。企业可以根据自身的需求、资金实力等来判断。如果数据都是企业专有的并且企业拥有足够的资金,那么企业可以选择自建数据中心。
第二,制定战略目标。企业有了清晰的战略目标,才能更清楚自己需要什么以及如何实现目标和先后步骤等。