按照10:1的虚拟化服务器和物理服务器的整合比,服务器的采购金额,维护费用中的电费支出将节省一半。这******不是你******次也不会是***后一次听到虚拟化专家们这样布道。
当然这个计算里没有考虑现金流,毕竟企业的CIO或者布道虚拟化的专家都不是财务出身的。
实践中这个算法的缺陷在于,整合的应用往往来源于已经拥有的服务器,所谓服务器支出的减少就无从谈起。而投资虚拟化需要的软件许可、咨询服务甚至增加存储方面的支出却一分也不会少。对老板而言,已经购买的服务器是沉没成本,除非给这些老旧的服务器重新派上用场。
戴尔公司全球基础咨询服务虚拟化实践执行官Ron Oglesby
如果CIO按照上述建议去说服CEO,很可能CEO会叫来CFO给CIO上一课加减法的启蒙课。
当然,已经部署虚拟化的大型机构并不是有钱烧得慌,从虚拟化中得到的好处包括提高可靠性,基础架构的动态化和自动化程度的提高等等,服务器整合只是其中一个好处而已。
从中期来看,企业购买服务器的需求不会结束,上新的应用、业务量的增加都需要更多服务器的支持,而能够大大提高服务器利用效率的虚拟化技术显然在这个过程中会发挥巨大的作用。
戴尔公司全球基础咨询服务虚拟化实践执行官Ron Oglesby以戴尔自身的例子来说明虚拟化的作用。Ron Oglesby介绍到2008年5月为止,戴尔在自己的基础架构就已经部署差不多5000台的服务器在虚拟化的平台上运行。并计划在2009年做到1万台左右。在达到5000台服务器的虚拟化时,戴尔财务部统计结果大概节约了2900万美金左右。根据戴尔财务部的估算,2009年达到一万台时,预期节约成本是在5200万美金左右。
如果按照销售额计算,戴尔是全球******的电子商务公司,拥有这样庞大服务器规模也在意料之中。戴尔的节约很容易理解,通过服务器整合,仅数据中心空间的节省以及维护费用的减少就是一笔庞大的费用,更不用说戴尔这样规模的数据中心,服务器的更新是常态,通过虚拟化提高服务器效率,降低更新频率就是一个完全可信的结果。
有过数千台虚拟化实践的Ron Oglesby提及,在欧美很多大型机构的虚拟化采用微软hyper-v和VMware的混合环境。Ron Oglesby没有仔细解释原因,但是特别提到Hyper-V28美元的许可费用。
其实从CIO的角度来看,这种混合环境很容易理解。毕竟Hyper-V近似免费的价格有很大的吸引力,尤其是在以服务器整合为目的的虚拟化初期。实际上即便到现在,微软虚拟化解决方案还缺乏非常重要的功能——实时迁移,这项功能必须要到Windows Server 2008 R2正式发布后才具有。这就意味着目前微软的Hyper-V还不能实现高可用以及动态资源调配等虚拟化关键功能。
对多数CIO而言,服务器整合、高可用和动态资源调配是虚拟化不同时期的需求。而在******实施虚拟化之前取得虚拟化的经验至关重要。
Ron Oglesby分享了他在戴尔的经验,例如在评价一个应用是否可以虚拟化时,需要评价服务器的CPU利用率、IO数、内存占用和网络带宽开销。一般服务器CPU利用率在10%以下,IO数不超过250,带宽不超过100M的应用比较适合虚拟化。高于此数的应用可能就未必适用虚拟化环境。
Ron Oglesby在解释自己长长的头衔时就说,他在戴尔内部主要负责两方面的工作,一个是将戴尔在虚拟化方面的实践整理成工具和模型,从大量实践中抽象出一整套的评估方法,另一项重要的工作就是为戴尔******的虚拟化客户服务。
像所有的IT技术一样,从来没有只有优点没有缺点的解决方案,虚拟化也是如此。采用虚拟化解决方案带来的基础架构的巨大变化就是其中的一个挑战。
比如旧有的网络设备和安全设备都是按照物理服务器设计,端到端的服务器品质保障实际上就是客户端到物理服务器端的品质保障。但是虚拟化的引入,一台物理服务器将包含众多的服务器应用在运行,对网络和安全的挑战将是全新的。
再比如原来存储的考虑重点放在客户数据上,通常服务器操作系统都是放在服务器直连存储上,对空间和性能的要求并不高。但是在虚拟化环境中,虚拟机就是靠虚拟文件来保障,必须放在安全的存储上,同时在虚拟机动态迁移的过程中还必须考虑对存储网络的影响。换句话说,在一个虚拟化的基础架构里,存储系统的设计和规划几乎也是全新的。
刚刚开始虚拟化的CIO显然对这些问题缺乏经验。这跟当年的ERP如出一辙,因为对问题的估计严重不足,缺乏足够的经验让很多ERP项目以失败告终。但是今天再来看ERP,几乎很难找出大中型企业完全没有上ERP的例子。10年前上ERP是找死,现在不上ERP就是找死。
虚拟化的问题也是这样,目前业界对虚拟化的方向已经看得非常清楚。从硬件供应商例如Intel、AMD、EMC到软件供应商微软、VMware、思杰以及解决方案供应商IBM、HP、戴尔等等,整个IT产业都在向虚拟化方向努力。x86服务器计算能力的巨大提升和多核化趋势跟虚拟化是并行不悖的两条路线。但是企业如何正确利用虚拟化技术,实现提升效率并节省开支,实践将至关重要。
Ron Oglesby就领导过超过3000台服务器整合的虚拟化项目。项目开始进行项目评估时,Ron Oglesby带领的小组会跟客户的服务器、网络、安全以及存储等所有基础架构的工程师一起来分析需求和挑战。分析完成并得出解决方案后,所有的这些工程师都要对解决方案签字画押。
当然,签字归签字,保证整个虚拟化的顺利才是***重要的。戴尔的项目团队要将虚拟化的项目计划落到实处,这是需要跟客户的实施团队一起挽起袖子来干,这个过程也保证了戴尔工程师实践经验的转移。
对用户而言,选择虚拟化的合作伙伴如同选择ERP的合作伙伴一样重要,合作伙伴的知识和经验是否应对虚拟化过程的挑战将是项目成败的关键。
当然,***了解用户需求的还是用户自己,虚拟化解决方案的评估仍然要用户来执行。一个最简单的例子,在实施虚拟化过程中,对服务器负载的评估是开始也是标杆,但是评估的过程是有时间和成本限制的,这个时候用户的经验将更加重要。否则当10个服务器应用整合到一台物理机后,出现问题的后果将是灾难性的。
Ron Oglesby***后提出两条虚拟化失败的主要原因,******条是能否说服足够多的应用真正整合到虚拟化平台下;第二条是不能坚持到虚拟化成功。
对******条,实际上是虚拟化规模效应的问题,如果以服务器整合为主要诉求并向老板承诺可以借助虚拟化缩减成本,那么是否有足够的应用以及能否顺利整合到虚拟化平台,将是项目成败的关键。不过对这一点,中小企业的CIO和大型机构的CIO可能会遇到不同的困难。中小企业的CIO很大程度上是要说服业务领导,而大型机构的CIO则解决说服自己人的问题。
第二条听起来像是废话,但是实际情况就是如此。虚拟化一定有一个投入期和产出期,项目初期,购买软件许可的费用、实施费用和因为虚拟化而添置的硬件费用都不是一个小数目,但是虚拟化的收益要逐渐才能体现,例如因为服务器的整合和缩减的空间占用,维护费用的减低都需要一定时间才能体现。更重要的是,用户经验的积累也需要时间,对初期的困难准备不足或者遇到困难就退缩,必然导致虚拟化项目的失败。
天下重来就没有免费的午餐,虚拟化核心的技术目前已经趋于成熟,但是对整个基础架构的影响整个业界都还在评估应对中。例如思科开始与VMware合作就虚拟化对数据中心网络的变化提出应对措施,而存储厂商也在不断发布支持虚拟化的新产品和方案。包括Intel和AMD也在考虑对IO设备重新设计以支持虚拟化对服务器平台带来的变化,虚拟化技术外延的发挥还有加快的势头。
从市场的竞争格局看,提供虚拟化核心方案的从一家变成了多家,微软这个玩家还在玩命的追赶,市场格局现在还远没有确定,从价格的角度看,虚拟化也许还有很大的价格空间。
综合评估这一切,对一个CIO而言并不是一件容易的事。虚拟化技术能够为企业省钱,不论是理论论证还是实践经验已经验证,但是做到省钱远非厂商说的那么容易。