数据中心的服务器虚拟化与运维管理解决方案模板vSOM-V6.2-1.docx

  • 文档大小:28.64 MB
  • 文档格式:docx
  • 约 172页
  • 2022-08-22 发布
  • 举报
数据中心的服务器虚拟化与运维管理解决方案模板vSOM-V6.2-11 数据中心的服务器虚拟化与运维管理解决方案模板vSOM-V6.2-12 数据中心的服务器虚拟化与运维管理解决方案模板vSOM-V6.2-13 数据中心的服务器虚拟化与运维管理解决方案模板vSOM-V6.2-14 数据中心的服务器虚拟化与运维管理解决方案模板vSOM-V6.2-15 数据中心的服务器虚拟化与运维管理解决方案模板vSOM-V6.2-16 数据中心的服务器虚拟化与运维管理解决方案模板vSOM-V6.2-17 数据中心的服务器虚拟化与运维管理解决方案模板vSOM-V6.2-18 数据中心的服务器虚拟化与运维管理解决方案模板vSOM-V6.2-19 数据中心的服务器虚拟化与运维管理解决方案模板vSOM-V6.2-110
试读已结束,还剩162页未读,您可下载完整版后进行离线阅读
文档单价:6.00 会员免费
开通会员可免费下载任意文档
  1. 1、本文档共172页,内容下载后可编辑。
  2. 2、本文档内容版权归属内容提供方,所产生的收益全部归内容提供方所有。如果您对本文有版权争议,可选择认领。
  3. 3、本文档由用户上传,本站不保证质量和数量令人满意,可能有诸多瑕疵,付费之前,请仔细先通过免费阅读内容等途径辨别内容交易风险。如存在严重挂羊头卖狗肉之情形,可联系本站下载客服投诉处理。
目录1概述.........................................................................................................................51.1项目背景.................................................................................................................................51数据中心的服务器虚拟化与运维管理解决方案模板2022/8/221.2现状分析.................................................................................................................................52VMware服务器虚拟化与运维管理解决方案概述..................................................122.1服务器虚拟化解决方案..........................................................................................................132.2虚拟化环境下的运维管理解决方案........................................................................................142.3版本比较...............................................................................................................................183服务器虚拟化解决方案.........................................................................................213.1vSphere体系架构................................................................................................................213.1.1基于vSphere的虚拟数据中心基础架构.....................................................................213.1.2ESXi体系结构............................................................................................................233.1.3资源分配方式..............................................................................................................283.2计算功能特性........................................................................................................................303.2.1虚拟机计算性能..........................................................................................................303.2.2虚拟机性能.................................................................................................................373.2.3关键应用虚拟化..........................................................................................................373.2.4虚拟机迁移.................................................................................................................383.2.5向大数据扩展..............................................................................................................433.2.6CPU和内存的热添加和磁盘的热扩展.........................................................................443.2.7分布式资源调度DRS..................................................................................................453.2.8分布式电源管理DPM..................................................................................................473.2.9NVIDIAGRIDvGPU..................................................................................................483.3网络和安全功能特性.............................................................................................................493.3.1vSphere标准交换机(VSS)....................................................................................503.3.2vSphere分布式交换机(VDS)................................................................................513.3.3网络I/O控制(NIOC)................................................................................................553.3.4无代理终端安全防护...................................................................................................573.4存储功能特性........................................................................................................................623.4.1虚拟化环境的存储.......................................................................................................633.4.2vSphere存储体系结构...............................................................................................643.4.3StorageDistributedResourcesScheduler(DRS)..................................................653.4.4基于存储策略的管理...................................................................................................673.4.5StoragevMotion.......................................................................................................693.4.6存储I/O控制.............................................................................................................723.4.7VirtualMachineFileSystem(VMFS).......................................................................733.4.8StorageThinProvisioning.......................................................................................763.4.9存储API....................................................................................................................773.4.10VirtualVolumes........................................................................................................793.4.11vSphereFlashReadCache.....................................................................................8123.5可用性功能...........................................................................................................................843.5.1VMwareHighAvailability.........................................................................................853.5.2VMwareFaultTolerance..........................................................................................893.5.3VMwareDataProtection..........................................................................................923.5.4vStorageAPIsforDataProtection..........................................................................953.5.5vSphereReplication.................................................................................................963.6管理和自动化......................................................................................................................1033.6.1集中式控制和主动式管理..........................................................................................1033.6.2自动化管理与调配.....................................................................................................1074虚拟化环境下的运维管理解决方案.....................................................................1124.1主要价值.............................................................................................................................1124.2体系架构.............................................................................................................................1124.3基本功能.............................................................................................................................1144.4典型应用场景......................................................................................................................1224.4.1性能监控与故障修复.................................................................................................1224.4.2容量优化...................................................................................................................1274.4.3vSphere安全加固....................................................................................................1304.4.4通过增强型DRS集成在集群之间实现各种资源再平衡.............................................1335VMware解决方案规划设计.................................................................................1385.1计算资源规划......................................................................................................................1385.2存储资源规划......................................................................................................................1425.3网络资源规划......................................................................................................................1475.4可用性规划.........................................................................................................................1505.5管理与监控规划..................................................................................................................1536方案优势总结......................................................................................................1617配置清单及说明..................................................................................................1637.1硬件配置需求......................................................................................................................1637.2虚拟化软件配置需求...........................................................................................................1638专业服务.............................................................................................................1648.1VMware专业服务介绍........................................................................................................1648.2专业咨询服务内容...............................................................................................................1648.2.1VMwareAccelerate咨询服务..................................................................................1648.2.2技术咨询服务............................................................................................................1658.2.3技术客户经理(TAM)服务...........................................................................................1658.3专业服务实施流程...............................................................................................................1668.3.1评估..........................................................................................................................1678.3.2规划与设计...............................................................................................................16738.3.3实施..........................................................................................................................1678.3.4运维..........................................................................................................................1689支持服务概述......................................................................................................1699.1VMware支持的角色和职责.................................................................................................1699.2全球技术支持服务...............................................................................................................1699.3自助服务支持......................................................................................................................1709.3.1社会支持...................................................................................................................1709.3.2其他资源...................................................................................................................17110培训服务............................................................................................................17210.1认证体系与学习路径...........................................................................................................17210.2培训课程.............................................................................................................................17311缩略语解释........................................................................................................17741概述1.1项目背景不断增长的业务对IT部门的要求越来越高,所以数据中心需要更为快速的提供所需要的能力。如果不断购买新的服务器,又会增加采购成本和运作成本,而且还会带来更多供电和冷却的开支,同时,目前的服务器还没有得到充分的利用。通常情况下,企业的服务器工作负载只利用了5%,这导致了大量的硬件、空间以及电力的浪费。同时由于应用程序兼容性的问题,IT人员只能通过在不同场所的不同服务器中分别运行应用的方式,将应用程序隔离起来,而这又会导致服务器数量的增长。购置新的服务器是一项漫长的过程,这使得IT部门更加难以应对业务快速成长和不断变动的需求。例如,对于新业务系统平台的供应和拆除需求,往往就需要消耗大量宝贵的资源和时间。从IT管理员的角度来看,推动虚拟化技术发展的主要动力是基础架构设施的迅猛增长,而硬件部署模式又进一步加剧了基础架构的复杂程度。应用越来越多,也越来越复杂,因此就变得更加难以管理、更新和维护。用户希望能采用各种桌面设备、笔记本电脑、家用PC和移动设备来进行工作。服务器价格急剧下降,服务器散乱现象仍然存在。随着图形和多媒体的发展,数据也变得越来越丰富,文件的平均大小也在不断上升,要求不间断的在线存储。纵观整个数据中心,技术不断增多,分布也越来越广,另外,业界和法律法规也在不断要求企业加强IT管理控制。在这种环境下,虚拟化技术就体现了整合的优势。应用在IT的不同层面,从逻辑层将物理层抽象出来意味着逻辑组件会得到更一致的管理。从安全监督来看,虚拟化技术提升了X86服务器的可靠性、可用性,从基础架构层面获得了原先单机系统无法想象的功能,大大提高了业务连续性的级别,降低了故障率、减少了系统宕机的时间。从服务器的角度来看,虚拟化技术让每台设备都能托管多套操作系统,最大化了利用率,降低了服务器数量。从存储的角度来看,虚拟化技术可网络化、整合磁盘设备,并让多个服务器共享磁盘设备,从而提高了利用率。从应用的角度来看,虚拟化技术将应用计算从用户设备中分离出来,并在数据中心对应用及相关数据进行整合,通过集中化技术改善了管理和系统的安全性。XXX客户作为国内大型企业,信息化建设不断发展。目前信息化网络以信息中心为运营维护单位,覆盖出单、收付等多套业务系统,服务器资源庞大。出于经济效益和管理安全性考虑,针对基础架构的虚拟化整合已势在必行。1.2现状分析本小节首先将对XXX客户数据中心的现状进行描述,统计了现有物理服务器的型号、配置以及其上运行的业务系统的情况,同时还对数据中心里的存储设备的配置与使用情况进行了总结。接下来,本文将对当前的现状进行分析,指出数据中心存在的问题并给出相应的解决方案。现状描述XXX客户数据中心目前以X86服务器为主,运行着人力资源、市场计费、生产经营、资产管理、网络管理、邮件、安全等业务系统。具体的服务器配置如下所示,该表涵盖了主要业务系统的服务器配置。5系统型号配置视频服务器PowerEdge2950XeonE5410*2/4GB下载服务器PowerEdge2950XeonE5110*2/2GB生产经营管理系统PowerEdge2950XeonE5410*2/4GB固定资产管理系统PowerEdge2950XeonE5410*2/4GB移动站业务管理系统PowerEdge2950XeonE5410*2/2GB网管系统PowerEdge2950XeonE5410*2/2GB财务系统PowerEdge2950XeonE5410*2/2GB防病毒系统PowerEdge2950XeonE5410*2/2GB邮件系统PowerEdge2950XeonE5410*2/2GB安全评估系统PowerEdge2850Xeon2.8G*2/2GB人力资源系统PowerEdge2850Xeon2.8G*2/2GB任务管理系统PowerEdge2650Xeon2.8G*2/2GB库存管理系统PowerEdge1750Xeon2.4G*2/1GB身份认证系统PowerEdge750P42.8G/1GB表:XXX客户数据中心服务器上述服务器中,除了视频服务器和下载服务器外,其它服务器的负载都非常小,远没有达到充分利用的状态。虽然视频服务器和下载服务器的负载相对较高,但是也没有充分发挥硬件平台的资源效率。另外还有一些运行边缘业务的服务器,由于设备老旧以及所在位置等原因,本次尚未统计在内。在存储阵列方面,XXX客户数据中心的主要存储设备及其相应系统的容量与使用率情况如下所示。IBMDS4700阵列上,网管系统可使用的总容量为1400G,现已使用了800G,使用率为57%;邮件系统可使用的总容量为1950G,现统计分析系统已使用了900G,使用率为67%。人力资源系统可使用的容量已全部分配完毕。IBMFastT600阵列上,库存管理系统可使用的总容量为1340G,现已使用了1340G,使用率为100%;身份认证系统可使用的总容量为340G,现已使用了170G,使用率为50%。6IBMDS5020阵列上,视频服务器可使用的总容量为1540G,现已使用了1530G,使用率为97%;防病毒系统可使用的总容量为270G,现已使用了206G,使用率为76%。EMCCX3-40阵列上,财务系统可用总容量为941G,现已使用了325G,使用率为32%;移动站业务管理系统可用总容量为800G,现已使用了270G,使用率为34%;安全评估系统可用总容量为600G,现已使用了305G,使用率为51%。EMCCX500阵列上,任务管理系统可用总容量为120G,现已使用了95G,使用率为79%;固定资产管理系统可用总容量为300G,现已使用了280G,使用率为94%。EMCCX4-480阵列上,下载服务器可用总容量为2000G,现已使用了2000G,使用率为100%;生产经营管理系统可用总容量为980G,现已使用了800G,使用率为82%。上述存储设备及其相应系统的容量与使用率情况如下表所示。阵列名称使用系统可用空间已用空间使用率IBMDS4700网管系统1400G800G57%邮件系统1950G900G67%人力资源系统400G400G100%IBMFastT600库存管理系统1340G1340G100%身份认证系统340G170G50%IBMDS5020视频服务器1540G1530G97%防病毒系统270G206G76%EMCCX3-40财务系统941G325%32%移动站业务管理系统800G270G34%安全评估系统600G305G51%EMCCX500任务管理系统120G95G79%固定资产管理系统300G280G94%EMCCX4-480下载服务器2000G2000G100%生产经营管理系统980G800G82%表:XXX客户数据中心存储阵列7可见,目前XXX客户的磁盘阵列划分孤立、分散,造成了磁盘阵列的浪费以及数据的高风险性,而且十分不易于维护。随着之后系统和数据量的不断增加,这一现象将会持续加剧。现状分析通过对XXX客户服务器和存储现状的分析,目前IT基础架构有以下几个问题亟待解决:服务器的利用率低。现在机房内运行的大部分机器的利用率都非常低,由于一台服务器只能有一个操作系统,受系统和软件开发平台的限制,CPU、内存、硬盘空间的资源利用率都很低,大量的系统资源被闲置。可管理性差。首先是可用性低,几乎每个应用服务器都是单机,如果某台服务器出现故障,相对应的业务也将中断。其次是当硬件需要维护、升级或出现硬件故障时,上层业务系统均会出现较长时间的中断,影响业务的连续性,其中包括一些重要业务系统,一旦中断服务影响很大,未来数据中心搬迁时会更加麻烦。兼容性差。系统和应用迁移到其他服务器,需要和旧系统兼容的系统。新的软件包括操作系统和应用软件无法运行在老的硬件平台,而老的代码有时候也很难移植到新的硬件平台上。例如:由于各种资源数据库不同公司分别开发,需要的运行的软硬平台很多时候不能保证兼容。为节省时间、物力和保持系统部署的顺利,只能用增加服务器单独部署的方法来解决。服务器和存储购置成本高,维护成本递增,也不得不考虑。随着应用的不断增加,服务器数量也跟着增加,每年要支出高额购置费用不说,还有部分服务器已经过保修期,部件逐渐进入老化期,维护、维修预算费用也逐年增加。对业务需求无法做到及时响应,灵活性差。当有新的应用需要部署时,需要重新部署服务器,存储系统,并需要对网络系统进行调整以适应新的IT应用的需求。目前为每套生产系统,在开发测试中心均要保留一套开发测试环境,造成了资源很大的浪费。通过使用VMware的服务器虚拟化技术,上述这些问题可以得到很好地解决,它可以提高资源利用率,降低能耗,具有更好的可用性与安全性。可是,虽然服务器虚拟化可以解决XXX客户现有数据中心的诸多问题,但随着虚拟化的引入,现有的传统运维管理方式已经不能满足虚拟化环境对运维管理的需求,现有的这些运维方法在新环境下存在诸多的挑战,使用起来也将显得捉襟见肘,接下来的部分将对这些挑战进行分析。现有的传统管理工具和方法是为了支持孤立的计算环境而设计的,因此IT团队面临着如何利用传统管理工具和方法有效地支持新的动态IT基础设施(虚拟化环境)的挑战,这些挑战主要包括如下四个方面。第一,虚拟化环境中有大量的数据需要管理,相对于物理环境而言,管理员可管理的虚拟机数量要多出达5~10倍,服务器和变更的数量也明显增多。这些都使得IT专业人员在尝试部署新的虚拟化管理计划时要面对重重困难。同时,环境中的伪警报数量大幅度增加,使得客户非常难以应对其环境所面临的挑战和性能问题。现有的运维管理方法已经无法保证管理员可以高效地管理如此大量的数据并对问题做出快速地响应。因此,新的运维管理方法需要提供整个基础架构和应用的运行状况、风险和效率的全面可见性,并可以提高管理员对问题的响应速度。8图:当前的传统运维管理方式第二,对于虚拟化平台的管理员而言,工作中遇到的问题大多是性能方面的问题,处理性能问题所花费的精力大约占到全部管理任务的80%,要迅速定位并解决性能问题,需要高效的工具来辅助,单纯地使用“红黄绿”三色交通灯的性能指示是无法迅速地解决这些性能问题的。因此,这就需要一种主动管理基础架构和应用性能而不是被动监控的解决方案。第三,管理员在使用虚拟化平台时会面对两个对立的目标:一方面,要尽可能地增加虚拟机的密度以充分利用硬件平台的处理能力,增加投资回报。另一方面,虚拟化的主要特征就是资源池化,资源整合以后,调配资源的灵活性大大提高,但同时也对性能和容量的管理带来了更大的挑战,如果不能有效地管理资源分配,则可能出现资源滥用,资源匮乏等情况。实际的生产环境中一个比较常见的问题就是容量“过度调配”和硬件利用率低下,它会损害组织最初在节约成本方面寻求的核心价值,同时它还会使组织无法实现最初部署虚拟化和云计算时所寻求的敏捷性。因此,这就需要推动更高的整合率,管理员需要随时保证业务增长对性能和容量的要求。第四,现有的运维模式容易导致大家相互指责,同时无法迅速查明问题的源头、在哪方面需要立即采取措施,以及如何尽快恢复服务。为了解决这个问题,新的运维管理方法应该能够帮助管理员高效地定位问题的根源,它应该可以快速地缩小问题的范围,迅速定位问题所属的范畴,例如:计算,存储,网络等。下图显示的是在一项调查中,众多已经部署虚拟化的客户选出的他们在运维管理方面所面临的主要难题,这项数据从另一方面展示了现有的传统运维管理方法在虚拟化环境下存在的主要问题。9图:虚拟化环境下运维管理的棘手问题通过上图可以看出,容量监控与规划,协同合作,性能问题定位与调优以及根本原因定位是客户在虚拟化环境下进行运维管理所面临的主要难题。由于传统运维管理方法在虚拟化环境下存在上述诸多不足,因此,运维管理方面的新需求应运而生,这些需求可以从如下两个方面进行概括。图:虚拟化环境对运维管理的新需求首先,新的方案应该能够保证服务质量,能够迅速缩短问题的平均解决时间、提高基础设施和应用的可见性、能够主动快速解决影响业务的问题,这些都是客户所追求的基本能力,因为这个能力直接关系着服务的质量。其次,新的方案应该可以像虚拟化的早期阶段一样,在降低资金开销和运维开销方面获得收益。这意味着该方案不仅需要优化环境中的计算资源,同时也需要优化该环境中的人力资源。VMware的服务器虚拟化与运维管理(vSpherewithOperationsManagement,vSOM)解决方案不仅可以帮助客户很好地完成服务器虚拟化的目标,10同时还可以解决上述这些虚拟化环境下运维管理的问题,提供整个虚拟化环境的可见性,最大限度提高容量利用率和运营性能。除了上述这些在服务器虚拟化后会立即显现的运维管理问题外,从长远来看,尽早地采用VMware提供的运维管理方法也是大势所趋,越早采用,越早受益。这是因为目前市场上的VMware虚拟化程度大约在65%以上,随着虚拟化比率的不断提高,客户也在不断扩大对虚拟化功能的运用范围,开始采用软件定义的存储以及网络与安全模式,从而逐步完全过渡到软件定义的数据中心(SoftwareDefinedDataCenter,SDDC)。而这一转变使得IT部门能够转变运维方式,从本质上被动反应也就是往往需要竭力应付业务需求并面对日益积压的应用请求的部门,转变为主动创新的部门,将节约的IT资源重新投入到有助于实现关键业务目标的新应用、服务和计划中去。主动创新的部门更能与业务目标保持一致,并且对企业的发展、创新和竞争能力起着更为关键的作用。可见,无论是对眼前问题的考虑,还是着眼于长远的效益,尽早使用VMware高效的运维管理方法都是一个必然的选择,而VMware的服务器虚拟化与运维管理解决方案(vSOM)是这一选择的最佳起点。下面的章节将从方案概述、整体规划设计、服务器虚拟化解决方案、运维管理解决方案、方案优势总结等方面对该方案进行全面地分析与介绍。112VMware服务器虚拟化与运维管理解决方案概述随着服务器虚拟化的持续发展,用户需要主动型管理解决方案来清晰地了解自己的业务运行健康状况,虚拟数据中心的工作负载容量和性能,以确保高效利用资源,并防止出现影响业务的故障和性能问题。而VMware的服务器虚拟化与运维管理解决方案(vSpherewithOperationsManagement,vSOM)将全球领先的虚拟化平台与一流的管理功能相结合,它可以使用户了解整个虚拟化环境的运营状况,实现性能提升,同时优化容量,确保关键应用的稳定健康运行。借助vSOM,用户可以使用单一控制台来优化容量和监控工作负载性能,例如:用户能够回收未使用的容量、将虚拟机调整至适度规模、改善利用率并提高整合率,从而充分利用虚拟化平台。vSOM支持来自1,650多家ISV合作伙伴的3,000多个应用,它为虚拟化关键业务应用提供了最广泛的选择。vSOM是一款包含了vSphere与vRealizeOperations标准版的解决方案套件,它高度集成了全球最可靠的虚拟化平台与强大的自动化运维管理工具。图:vSOM高度集成了vSphere与vRealizeOperationsvSOM是一个托管式虚拟化平台,其中,vCenterServer从vSphere主机收集实时性能数据并将数据存储在vCenter数据库中,同时保留历史数据汇总信息。vRealizeOperations则从vCenter收集指标,并提供对IT基础架构的运行状况、风险和效率的全面和深入地分析,同时将这些信息以图形化的方式展现出来。12图:vSOM体系结构下面将分别对vSOM的服务器虚拟化与运维管理解决方案进行介绍。2.1服务器虚拟化解决方案VMware的服务器虚拟化解决方案vSphere是业界领先的用于构建云计算基础架构的虚拟化平台。它使得IT能以最低的TCO(总体拥有成本)满足要求最严格的关键业务应用的SLA。vSphere通过在计算、存储、网络、可用性、安全和自动化等方面提供的一整套应用和基础架构服务实现了一个完整、高效,安全的虚拟化平台。vSphere所提供的服务如下图所示。13图:VMwarevSphere虚拟化平台vSphere具有如下的优势。通过提高利用率和实现自动化获得高效率:可实现15:1或更高的整合率,将硬件利用率从5%~15%提高到80%甚至更高,而且无需牺牲性能。大幅降低IT成本:可使资金开销最多减少70%,并使运营开销最多减少30%,从而为vSphere上运行的每个应用降低20%~30%的IT基础架构成本。兼具敏捷性和可控性:能够快速响应不断变化的业务需求,而又不牺牲安全性或控制力,并且为vSphere上运行的所有关键业务应用提供零接触式基础架构,并内置可用性、可扩展性和性能保证。可自由选择:借助基于标准的通用平台,可以充分利用各种现有IT资产及新一代IT服务,而通过开放式API,可借助来自全球领先技术提供商体系的解决方案使vSphere提供更强大的功能。作为一款先进的虚拟化平台,vSphere拥有如上诸多的优势,但是,仅仅使用vSphere会存在一些运维管理方面的不足,例如:性能优化与容量管理。这些不足使得vSphere的优势不能够完全发挥出来。因此,为了将vSphere的优势发挥到极致,一套与之紧密结合的运维管理工具是必不可少的。而vSOM是vSphere与vRealizeOperations标准版的集合,它除了可以高效地完成服务器虚拟化,让整个数据中心更加地灵活,敏捷,高效外,还可以深度监控整个IT基础架构的容量与性能,可以实现更高的容量利用率、整合率和硬件节约,同时还可以缩短问题诊断和解决的时间,避免业务受到影响,下面将介绍vSOM所提供的运维管理解决方案。2.2虚拟化环境下的运维管理解决方案vSOM中的vRealizeOperations标准版提供了虚拟化环境下的运维管理解决方案。功能特性vSOM的运维管理解决方案具有如下的功能特性。14一致性管理统一的命令控制台:让用户能够查看用可轻松识别的彩色徽标来表示的关键性能指标,以全面了解哪些因素可能导致当前和将来的潜在性能和容量管理问题。预测性分析:借助600多个vSphere性能指标获得全面可见性,从而管理运维状况和风险。性能监控和容量管理:可分析vCenterServer的性能数据并创建动态阈值,用于提供有关运行状况降级、性能瓶颈和容量短缺的智能警报。智能运维应用感知能力和依赖关系映射:简化影响分析,让用户能更轻松地确定根本原因。拟定全面的灾难恢复计划。存储分析:利用对虚拟和物理存储基础架构拓扑的深入了解,轻松识别配置错误、资源匮乏情况和性能问题。高级容量建模:保存“假设”场景并将容量模型提交给分析引擎,以提供更好的容量计算和智能警报。实时日志分析:主动进行故障排除并改进根本原因分析。智能均衡工作负载:直观显示跨集群、vCenter和数据中心的工作负载的容量利用率。均衡计划能够就工作负载的安置提出最合理的建议,并与DRS集成以均衡不同集群间的工作负载。运维自动化引导式修复:对问题进行简要可行的说明,并提出纠正措施建议。自动容量优化:通过自动容量优化和规划来提高资源利用率。自动强制实施标准:自动检测和强制实施标准,以确保合规性。集中控制和主动资源优化简单部署:可标准化和简化用户vSphere主机部署的配置和管理方式。集中控制:支持通过任意浏览器管理vSphere的重要功能。主动资源优化:管理分配给相同物理服务器上的多个虚拟机的处理器和内存资源。工作流编排工作流创建:使用工作流编排捕获关键服务器管理流程,将其作为最佳实践。加速实现流程自动化:使用即时可用的工作流,以及VMware和合作伙伴提供的vRealizeOrchestrator工作流和插件。强大的管理功能:可扩展插件、集中管理脚本以及与流程相关的基元,并能够导出工作流。工作负载容量优化和性能容量优化:确保适当调整环境的规模,从而满足用户的需求。性能监控:在终端用户受到影响之前识别新出现的问题。运维可见性:支持自定义仪表盘,并提供基于角色的访问,以实现更有效的协作。15vSOM的运维管理解决方案的管理界面可以显示虚拟基础设施的健康状态、风险和效率。此外,管理界面还可以显示当前虚拟基础架构中各节点(可以在vCenter级别,数据中心级别,集群级别,ESXi主机级别以及虚拟机级别上显示节点信息)的资源使用情况和资源需求情况,并以数字的形象直观地呈现负载的高低。对于主要的环境资源,包括CPU,内存,网络以及存储等,进行使用情况汇总。图:vSOM运维管理的基本界面vSOM提升了vSphere的价值如果只使用vSphere,用户可以节约28%的运维成本,如果在vSphere环境下使用vRealizeOperations,那么可以节约50%的运维成本,因此,vRealizeOperations可以大幅提升vSphere的价值。16图:vRealizeOperations提升了vSphere的价值ManagementInsightTechnologies对vSOM的调查研究表明,vSOM可以使客户获得比单独运行vSphere更多的好处,一些主要的优势提升数据如下:提高基础架构和应用可用性将应用的停机时间减少36%将故障诊断和解决问题的时间减少26%降低成本实现约双倍的vSphereIT成本节约提高容量利用率将vSphere容量利用率提高40%,将整合率提高37%vSOM相对于单独使用vSphere所带来的运维成本收益,如下图所示。图:在vSphere环境下部署vRealizeOperations所带来的运维收益除了可以节约运维成本,vSOM在关键性能指标上,相对于单独使用vSphere都提高了30%~40%,具体的性能收益数据如下图所示。图:在vSphere环境下部署vRealizeOperations所带来的性能收益可见,无论在降低运维成本还是提高整体性能方面,vSOM都可以在很大程度上提升vSphere的价值,它拥有单独部署vSphere所无法比拟的优势。2.3版本比较17vSOM分为标准版,企业版与企业增强版三个版本,各版本的功能特性对比如下图所示(注:vSOM标准版和企业版已于2016年6月30号停止销售)。18图:vSOM各版本比较193服务器虚拟化解决方案本章节将从体系结构、计算、网络与安全、存储、可用性以及管理与自动化等方面对vSOM的服务器虚拟化解决方案vSphere进行介绍。3.1vSphere体系架构3.1.1基于vSphere的虚拟数据中心基础架构vSphere可加快现有数据中心向云计算的转变,同时还支持兼容的公有云服务,从而为业界唯一的混合云模式奠定了基础。vSphere,许多群体称之为“ESXi”,即底层虚拟化管理程序体系结构的名称,这是一种采用尖端技术的裸机虚拟化管理程序。vSphere是市场上最先进的虚拟化管理程序,具有许多独特的功能和特性,其中包括:磁盘空间占用量小,因此可以缩小受攻击面并减少补丁程序数量不依赖操作系统,并采用加强型驱动程序具备高级内存管理功能,能够消除重复内存页或压缩内存页通过集成式的集群文件系统提供高级存储管理功能高I/O可扩展性可消除I/O瓶颈基于VMwarevSphere的虚拟数据中心由基本物理构建块(例如x86虚拟化服务器、存储器网络和阵列、IP网络、管理服务器和桌面客户端)组成。20图:vSphere数据中心的物理拓扑vSphere数据中心拓扑包括下列组件:计算服务器在祼机上运行ESXi的业界标准x86服务器。ESXi软件为虚拟机提供资源,并运行虚拟机。每台计算服务器在虚拟环境中均称为独立主机。可以将许多配置相似的x86服务器组合在一起,并与相同的网络和存储子系统连接,以便提供虚拟环境中的资源集合(称为集群)。存储网络和阵列光纤通道SAN阵列、iSCSISAN阵列和NAS阵列是广泛应用的存储技术,VMwarevSphere支持这些技术以满足不同数据中心的存储需求。存储阵列通过存储区域网络连接到服务器组并在服务器组之间共享。此安排可实现存储资源的聚合,并在将这些资源置备给虚拟机时使资源存储更具灵活性。IP网络每台计算服务器都可以有多个物理网络适配器,为整个VMwarevSphere数据中心提供高带宽和可靠的网络连接。vCenterServervCenterServer为数据中心提供一个单一控制点。它提供基本的数据中心服务,如访问控制、性能监控和配置功能。它将各台计算服务器中的资源统一在一起,使这些资源在整个数据中心中的虚拟机之间共享。其原理是:根据系统管理员设置的策略,管理虚拟机到计算服务器的分配,以及资源到给定计算服务器内虚拟机的分配。在vCenterServer无法访问(例如,网络断开)的情况下(这种情况极少出现),计算服务器仍能继续工作。服务器可单独管理,并根据上次设置的资源分配继续运行分配给它们的虚拟机。在vCenterServer的连接恢复后,它就能重新管理整个数据中心。管理客户端VMwarevSphere为数据中心管理和虚拟机访问提供多种界面。这些界面包括VMwarevSphereClient(vSphereClient)、vSphereWebClient(用于通过Web浏览器访问)或vSphereCommand-LineInterface(vSphereCLI)。3.1.2ESXi体系结构3.1.2.1ESXi架构和组件ESXi是组成vSphere基础架构核心的虚拟化管理器,可直接安装在物理服务器之上,并允许多个虚拟机运行于虚拟化层之上。每个虚拟机与其他虚拟机共享相同的物理资源,并且它们可以同时运行。与其他虚拟化管理程序不同,ESXi的所有管理功能都可以通过远程管理工具提供。由于没有底层操作系统,安装空间占用量可缩减至150MB以下。21ESXi体系结构独立于任何通用操作系统运行,可提高安全性、增强可靠性并简化管理。紧凑型体系结构设计旨在直接集成到针对虚拟化进行优化的服务器硬件中,从而实现快速安装、配置和部署。如下图所示,从体系结构来说ESXi包含虚拟化层和虚拟机,而虚拟化层有两个重要组成部分:虚拟化管理程序VMkernel和虚拟机监视器VMM。ESXi主机可以通过vSphereClient、vCLI、API/SDK和CIM接口接入管理。图:ESXi体系结构3.1.2.2VMkernelVMkernel是虚拟化的核心和推动力,由VMware开发并提供与其他操作系统提供的功能类似的某些功能,如进程创建和控制、信令、文件系统和进程线程。VMkernel控制和管理服务器的实际资源,它用资源管理器排定VM顺序,为它们动态分配CPU时间、内存和磁盘及网络访问。它还包含了物流服务器各种组件的设备驱动器——例如,网卡和磁盘控制卡、VMFS文件系统和虚拟交换机。VMkernel专用于支持运行多个虚拟机及提供如下核心功能:资源调度I/O堆栈设备驱动程序VMkernel可将虚拟机的设备映射到主机的物理设备。例如,虚拟SCSI磁盘驱动器可映射到与ESXi主机连接的SANLUN中的虚拟磁盘文件;虚拟以太网NIC可通过虚拟交换机端口连接到特定的主机NIC。223.1.2.3虚拟机监视器VMM每个ESXi主机的关键组件是一个称为VMM的进程。对于每个已开启的虚拟机,将在VMkernel中运行一个VMM。虚拟机开始运行时,控制权将转交给VMM,然后由VMM依次执行虚拟机发出的指令。VMkernel将设置系统状态,以便VMM可以直接在硬件上运行。然而,虚拟机中的操作系统并不了解此次控制权转交,而会认为自己是在硬件上运行。VMM使虚拟机可以像物理机一样运行,而同时仍与主机和其他虚拟机保持隔离。因此,如果单台虚拟机崩溃,主机本身以及主机上的其他虚拟机将不受任何影响。3.1.2.4虚拟机虚拟机是一个由VMkernel控制的软件构造体。所有虚拟机配置信息、状态信息和数据都封装在存储在数据存储中的一组离散文件中。这使虚拟机具有可移动性,并且易于备份或克隆。图:虚拟机文件3.1.2.4.1虚拟机的特性虚拟机具有如下基本特性:分区:可在一台物理机上运行多个操作系统,并在多个虚拟机之间分配系统资源隔离:虽然多个虚拟机可以共享一台计算机的物理资源,但它们相互之间保持完全隔离。由于隔离的原因,虚拟环境中运行的应用在可用性和安全性方面远优于在传统的非虚拟化系统中运行的应用。封装:虚拟机实质上是一个软件容器,它将一整套虚拟硬件资源与操作系统及其所有应用捆绑或封装在一起。通过封装,虚拟机获得了超强的移动性并且易于管理。硬件抽象化:虚拟机完全独立于其底层物理硬件。可以为虚拟机配置与底层硬件上存在的物理组件完全不同的虚拟组件。由于虚拟机独立于硬件,再加上它具备封装和兼容性这两个特性,因此可以在不同类型的x86计算机之间自由地移动它,而无需对设备驱动程序、操作系统或应用进行任何更改。事实上,用户可以在一台物理计算机上混合运行不同类型的操作系统和应用。23图:虚拟机特性3.1.2.4.2虚拟机的组件虚拟机通常有一个操作系统、VMwareTools以及虚拟资源和硬件,其管理方式与物理计算机非常相似。在虚拟机上安装客户操作系统与在物理计算机上安装操作系统完全一样。管理员必须拥有操作系统供应商提供的包含安装文件的CD/DVD-ROM或ISO映像。操作系统虚拟机与所有标准x86操作系统和应用程序完全兼容。在一台物理主机的不同虚拟机里,可以根据应用需求同时运行不同的x86操作系统,彼此之间不会冲突,且对x86操作系统无需进行任何修改。VMwareToolsVMwareTools是一套实用程序,能够提高虚拟机的客户操作系统的性能,并改善对虚拟机的管理。在客户操作系统中安装VMwareTools十分必要。虽然客户操作系统可以在未安装VMwareTools的情况下运行,但是管理员将无法使用某些重要功能,并失去一些便利性。VMwareTools服务是一项在客户操作系统内执行各种功能的服务。该服务在客户操作系统启动时自动启动。该服务可执行的功能包括:将消息从ESXi主机传送到客户操作系统。向ESXi主机发送心跳信号,使其知道客户操作系统正在运行。实现客户操作系统与主机操作系统之间的时间同步。在虚拟机中运行脚本并执行命令。为使用VMwareVIXAPI创建的与客户操作系统绑定的调用提供支持,除MacOSX客户操作系统外。允许指针在Windows客户操作系统的客户机和Workstation之间自由移动。24帮助创建Windows客户操作系统中由特定备份应用程序使用的快照。在客户操作系统中安装VMwareTools后,它还会提供VMware设备驱动程序,包括SVGA显示驱动程序、用于某些客户操作系统的vmxnet网络连接驱动程序、用于某些客户操作系统的BusLogicSCSI或LSILogic驱动程序、用于在虚拟机之间进行有效内存分配的内存控制驱动程序、用于将I/O置于静默状态(使用VMwareDataRecovery或VMwarevStorageAPIforDataRecovery)以进行备份的同步驱动程序、用于实现文件夹共享的内核模块以及VMware鼠标驱动程序。虚拟硬件每个虚拟机都有虚拟硬件,这些虚拟硬件在所安装的客户操作系统及其应用中显示为物理硬件。每个客户操作系统都能识别出常规硬件设备,但它并不知道这些设备实际上是虚拟设备。虚拟机具有统一的硬件(少数选项可以由系统管理员控制)。统一硬件使得虚拟机可以跨vSphere主机进行迁移。图:虚拟硬件ESXi主机将为每个虚拟机提供一个x86基础平台,可以选择要在该平台中安装的设备。基础虚拟机完全符合x86架构的系统标准。下图是所有Windows虚拟机中均配备的标准VMware设备驱动程序。标准虚拟设备驱动程序具有可移植性,管理员无需为每台虚拟机重新配置操作系统。如果将这些文件复制到其他ESXi主机,则即使硬件截然不同,这些文件仍然可以正常运行,且无需重新配置硬件。25图:虚拟机看到的硬件3.1.3资源分配方式3.1.3.1主机、集群、资源池可以在非集群(独立式)vSphere主机和集群中配置CPU和内存资源池。主机、集群和资源池提供了灵活而动态的方法,来组织虚拟环境中聚合的计算和内存资源,并将其链接回基础物理资源。主机表示x86物理服务器的聚合计算和内存资源。例如,如果x86物理服务器具有四个双核CPU(每个以4GHz速度运行)和32GB的系统内存,主机将提供32GHz计算能力和32GB内存来运行分配给它的虚拟机。集群可作为单个实体发挥作用和进行管理。它表示共享相同网络和存储阵列的x86物理服务器组的聚合计算及内存资源。例如,如果服务器组中包含8台服务器,每台服务器有四个双核CPU(每个CPU以4GHz的速度运行)和32GB内存,集群将聚合256GHz的计算能力和256GB的内存来运行虚拟机。资源池是单个主机或集群的计算及内存资源的分区。资源池可以是分层的,也可以是嵌套的。管理员可以将任何资源池划分为较小的资源池,以进一步划分资源并将其分配给不同的组或用于各种不同的目的。借助资源池,管理员可以根据业务需要分层次地划分并分配CPU和内存资源。划分并分配CPU和内存资源的原因包括维护行政界限、执行收费政策,或者适应地域或部门划分。资源池还用于向其他用户和组委派权限。26图:资源池3.1.3.2份额、限制、预留vSphere使用份额、限制和预留来确保主机上(或集群中)一起运行的虚拟机能够获得足够的资源,如CPU、内存、网络和存储。份额份额可以保证为虚拟机提供资源(CPU、RAM、网络或存储I/O)的特定百分比。默认情况下,每个虚拟机将能够访问相同比例的资源。例如,如果vSphere主机上运行4个虚拟机,则每个虚拟机可以访问25%的可用CPU资源。如果有多余的容量可用,则虚拟机可以利用更多。份额指定虚拟机(或资源池)的相对重要性。如果某个虚拟机的资源份额是另一个虚拟机的两倍,则在这两个虚拟机争用资源时,第一个虚拟机有权消耗两倍于第二个虚拟机的资源。份额通常指定为高、正常或低,这些值将分别按4:2:1的比例指定份额值。还可以选择自定义为各虚拟机分配特定的份额值(表示比例权重)。指定份额仅对同级虚拟机或资源池(即在资源池层次结构中具有相同父级的虚拟机或资源池)有意义。同级将根据其相对份额值共享资源,该份额值受预留和限制的约束。为虚拟机分配份额时,始终会相对于其他已打开电源的虚拟机来为该虚拟机指定优先级。限制限制则可以为资源分配提供硬性上限。即使有更多CPU容量可用,也可以将虚拟机可获得的虚拟CPU频率设置为不超过1GHz。限制通常会在客户支付资源使用费的共享基础架构配置中使用。限制功能为可以分配到虚拟机的CPU、内存或存储I/O资源指定上限。27服务器分配给虚拟机的资源可大于预留,但决不可大于限制,即使系统上有未使用的资源也是如此。限制用具体单位(兆赫兹(GHz)或兆字节(MB)或每秒I/O操作数)表示。CPU、内存和存储I/O资源限制默认为无限制。如果内存无限制,则在创建虚拟机时为该虚拟机配置的内存量将成为其有效限制因素。预留预留指定保证为虚拟机分配的最少资源量。仅在有足够的未预留资源满足虚拟机的预留时,vCenterServer或ESXi才允许打开虚拟机电源。即使物理服务器负载较重,服务器也会确保该资源量。预留用具体单位(兆赫兹(GHz)或兆字节(MB))表示。例如,假定有2GHz可用,并且为VM1和VM2各指定了1GHz的预留量。现在每个虚拟机都能保证在需要时获得1GHz。但是,如果VM1只用了500MHz,则VM2可使用1.5GHz。预留默认为0。可以指定预留以保证虚拟机始终可使用最少的必要CPU或内存量。3.2计算功能特性3.2.1虚拟机计算性能3.2.1.1CPU虚拟化VMware通过CPU虚拟化技术解决了如何在一个操作系统实例中运行多个应用的难题。实现这一任务的困难之处在于每一个应用都与操作系统之间有着密切的依赖关系。一个应用通常只能运行于特定版本的操作系统和中间件之上。这就是Windows用户常常提到的“DLL地狱”。因此,大多数用户只能在一个Windows操作系统实例上运行一种应用,操作系统实例独占一台物理服务器。这种状况会导致物理服务器的CPU资源被极大地浪费。能够使多个操作系统实例同时运行在一台物理服务器之上,是VMware所提供的CPU虚拟化技术的价值所在。通过整合服务器充分利用CPU资源,可以给用户带来极大的收益。服务器整合的益处能够得以实现的前提是工作负载并不需要知晓它们正在共享CPU,虚拟化层必须具备这种能力。这是CPU虚拟化与其它虚拟化形式所不同的地方。具体实现方式是为每个虚拟机提供一个或者多个虚拟CPU(vCPU)。多个vCPU分时复用物理CPU。VMM必须为多个vCPU合理分配时间片并维护所有vCPU的状态,当一个虚拟机vCPU的时间片用完需要切换时,要保存当前vCPU的状态,将被调度的vCPU的状态载入物理CPU。VMkernel在调度vCPU的时候采用“插槽-核心-线程”的拓扑逻辑。“插槽”指处理器单个封装件,该封装件可以具有一个或多个处理器内核且每个内核具有一个或多个逻辑处理器。当vCPU需要运行时,VMkernel会将一个vCPU映射到处理器调度一个执行线程的能力,它对应于一个CPU核心或一个超线程(如果CPU支持超线程)。超线程或多核CPU提供两个或多个调度vCPU运行的硬件基础。可以将虚拟机配置为最多具有128个vCPU。主机上许可的CPU数量、客户机操作系统支持的CPU数量和虚拟机硬件版本决定着管理员可以添加的vCPU数量。与vCPU和管理vCPU相关技术和概念如下:处理器管理:28从客户操作系统vCPU发往ESXiVMkernel的指令被VMM拦截。在固定时间间隔内,VMKernel动态地在服务器和不同处理器(或多核处理器的内核)中分配VM工作负载。因此,VM指令根据每个处理器的工作负载从一个处理器(或内核)转移到另一个处理器。多内核和虚拟化多核处理器为执行虚拟机多任务的主机提供了很多优势。Intel和AMD均已开发了将两个或两个以上处理器内核组合到单个集成电路(通常称为封装件或插槽)的处理器。例如,双核处理器通过允许同时执行两个虚拟CPU,可以提供几乎是单核处理器两倍的性能。同一处理器中的内核通常配备由所有内核使用的最低级别的共享缓存,这有可能会减少访问较慢主内存的必要性。如果运行在逻辑处理器上的虚拟机正运行争用相同内存总线资源且占用大量内存的工作负载,则将物理处理器连接到主内存的共享内存总线可能会限制其逻辑处理器的性能。研究显示使用多核心可以导致可观的耗电下降,并提供良好的性能。虚拟化是最好地利用多内核提供的高性能的技术之一,因为ESXi能够像管理物理处理器一样地管理核心。对称多处理器vSphere虚拟对称多处理技术(VirtualSMP)可以使单个虚拟机同时使用多个物理处理器,并能够在处理器之间均衡负载。必须具有虚拟SMP,才能打开多处理器虚拟机电源。一些关键业务,比如数据库类应用(MicrosoftSQL、Oracle、IBMDB2、SAP)和商业、科研应用,在开发的的时候就考虑了并行执行任务的需求,具有多个物理处理器的服务器就能利用SMP并从中获益。超线程超线程是在一个物理处理器或者内核上创建两个逻辑内核实例,从而在核心中并行执行任务,提高效率。在vSphere虚拟机的处理器分配中,一个超线程可以对应一个vCPU。CPU虚拟化类型从架构上看,传统的X86平台并不是为支持多操作系统并行而设计的。因此CPU厂商如AMD和Intel都需要重新设计CPU,增加虚拟化特性,以解决上述问题。当前x86虚拟化平台的主要厂商如VMware等,也已经开始充分利用芯片厂商在处理器架构中构建的硬件辅助功能,以提高系统运行效率,降低Hypervisor带来的系统开销。在传统的x86运行环境下,操作系统使用保护环提供保护级别以完成不同任务代码的执行。这些环以等级排列,从最有特权的(Ring0)到最少特权的(Ring3)。在未虚拟化的服务器上,操作系统拥有在Ring0运行设备I/O等核心指令的权利,同时应用运行在Ring3。在虚拟化系统上,Hypervisor和虚拟机监控器(VMM)需要运行在Ring0,因此虚拟机子操作系统必须运行在Ring1。但由于多数操作系统的设备I/O等核心指令必须运行Ring0,那么VMM工具通过捕获特许指令和模拟Ring0到子虚拟机,让子操作系统以为它运行在Ring0。这样就产生了延时和开销。29因此,Intel和AMD等芯片厂商在CPU内引入了一个新的、具有超级特权和受保护的Ring-1位置来运行虚拟机监控器(VMM),因此VMM能运行在新的叫做Ring-1的环里,这允许GuestOS天生运行在Ring0里。这种CPU架构上的虚拟化支持扩展提升了性能。VMM不再让GuestOS以为自己运行在Ring0里,因为GuestOS已经能在此操作,并且不会与VMM——冲突VMM已经移动到新的Ring1级别。选择支持这些虚拟化优化扩展的CPU,这可以更好地降低系统开销、提升虚拟化效率。基于以上设计,Intel和AMD分别推出了VT-x和AMD-v这两种主要的X86处理器架构的虚拟化硬件辅助功能。CPU负载均衡CPU调度器可以让多个虚拟机复用逻辑处理器(逻辑处理器的单位是一个CPU核心或一个超线程),提供給虚拟机类此于传统对称多处理器(SMP)的执行能力,并使他们之间相互独立。例如,配有2个VCPU的虚拟机可以让虚拟处理器运行在属于相同内核的逻辑处理器上,或运行在不同物理内核的逻辑处理器上。VMkernel智能地管理处理器时间来保障工作负载在处理器内核间的迁移。每隔2-40毫秒,VMkernel检查把vCPU从一个逻辑处理器迁移到另一个来保障负载均衡。如果存在超线程,VMkernel尽量把相同虚拟机的vCPU负载分散到不同内核的线程上来实现性能的优化。图:CPU负载平衡ESXiCPU调度程序可以解释处理器拓扑(包括插槽、内核和逻辑处理器之间的关系)。调度程序使用拓扑信息优化虚拟CPU在不同插槽上的放置位置,以最大化总体的缓存利用率,并通过最小化虚拟CPU迁移来改善缓存关联性。在未过载的系统中,ESXiCPU调度程序在默认情况下将负载分配到所有插槽。这样便可通过最大化可供正在运行的虚拟CPU使用的缓存总量来改善性能。因此,单个SMP虚拟机的虚拟CPU在多个插槽之间分配(除非每个插槽本身还是NUMA节点,在这种情况下,NUMA调度程序会限制虚拟机的所有虚拟CPU都驻留在同一插槽上。)综上所述,对CPU的调度管理功能要求如下:30支持基于Intel/AMDX86指令集架构的处理器,支持最新的处理器硬件辅助虚拟化功能;支持处理器多核技术;支持虚拟多路运算,每个虚拟机可以支持多达128个虚拟CPU(vSMP)以满足高负载应用环境的要求;可以灵活分配调度物理服务器上的CPU资源,如可按主频赫兹分配给虚拟机计算时间片;对CPU的调度应能实现虚机按需使用,随用随取,不用即释放,使得计算资源能被充分利用;在虚拟机操作系统支持的前提下,应能支持虚拟机的CPU热添加技术。3.2.1.2内存虚拟化当运行一个虚拟机时,vSphere的VMKernel为虚拟机生成一段可编址的连续内存,与普通操作系统提供给上层应用使用的内存具有相同的属性特征。引入内存虚拟化之后,同样的内存地址空间,允许VMkernel同时运行多个虚拟机并保证它们之间使用内存的独立性。VMwarevSphere的三层内存映射结构如下图所示:图:内存三层映射ESXi裸机体系结构的强大功能主要体现在内存优化方面,这些功能可提高内存使用效率。ESXi主机的内存管理支持安全地过量分配内存。分配给每个虚拟机的内存总和可超过主机上安装的物理内存总和。ESXi主机采用了几种有效方法来支持安全的内存过量分配。例如,过量分配率为2:1时,通常只会对性能产生非常小的影响。31图:内存的过量分配内存通常是最有限的资源,vSphereVMkernel管理服务器的RAM,可进行多种资源节约操作。通过VMware设计的若干功能,vSphere可支持实现RAM的高效使用和更高的整合率,包括透明页共享、客户机内存回收和内存压缩。实现过量分配的内存管理机制如下:透明页共享TPS(Transparentpagesharing)TPS是VMware独有的一种内存优化方法。VMkernel可检查虚拟机存储的每个内存页面,以便识别相同的页面,并仅存储一个页面副本。图:透明页共享气球内存回收ESXi主机使用一种随VMwareTools提供的内存释放驱动程序,该程序安装在每个虚拟机中。如果内存不足,则VMkernel将选择一个虚拟机并扩充其内存,也就是说,它会通知该虚拟机中的释放驱动程序从客户操作系统要求更多的内存。客户操作系统通过生成内存满足这一需求,然后VMkernel会将释放出的页面分配给其他虚拟机。32图:气球内存回收内存压缩当内存过量分配时,内存压缩可以帮助提高虚拟机性能。默认情况下已启用该功能。因此当主机内存过量分配时,ESXi会在尝试将该页面交换到磁盘前压缩虚拟页面并将其存储在内存中。图:内存压缩33主机级SSD交换文件每个虚拟机都包含一个VMkernel交换文件。如果多个虚拟机需要完全使用分配给它们的内存,则ESXi主机将根据为每个虚拟机指定的内存资源设置,按比例将其内存区域交换到本地或网络固态驱动器(SSD)设备中。将虚拟机内存分页移到磁盘中:如非必要,系统不会使用VMkernel交换空间,因为这种方式的性能很差。图:交换文件综上所述,对内存的调度管理功能满足了如下需求:单个虚拟机能够支持扩展到最大4TB的内存;可以灵活分配调度物理服务器上的内存资源,如可按MB大小分配给虚拟机内存资源;对内存的调度应能实现虚机按需使用,随用随取,不用即释放,使得计算资源能被充分利用;具有合理的内存调度机制,能够实现内存的过量使用,支持不同虚拟机中内存相同数据部分的页面共享技术,保障内存资源的充分利用;在虚拟机操作系统支持的前提下,应能支持虚拟机的内存热添加技术;支持内存压缩技术,减少虚拟内存在虚拟机高压力内存状态下交换到磁盘上的概率,从而提升性能;3.2.2虚拟机性能虚拟机有一个对应的硬件版本的概念,该硬件版本指示虚拟机支持的虚拟硬件特性,如BIOS或EFI、虚拟插槽数、最多CPU数、最大内存配置和其他硬件特征。创建虚拟机所用的vSphere主机的版本决定了虚拟机的硬件版本。最新版本支持的最大虚拟机能力为:128个虚拟CPU、4TB内存、1000000IOPS的磁盘读取速度以及36Gbs以上的网络吞吐量。远远大于典型应用的需求,足以满足关键应用和甚至大数据的需求。这足以满足每天处理20亿次交易的大规模数据库的需求,只需一台虚拟机,即可存储NASDAQ每天20亿笔交易的全部信息343.2.3关键应用虚拟化下图可见,越来越多的关键应用已经运行在虚拟化平台之上。图:关键应用虚拟化比例虚拟化给关键应用带来了如下的好处:效益:降低应用程序成本敏捷性:提高应用程序服务质自由度:缩短应用程序生命周期图:动态扩展应用程序的资源已适应不同SLA35将关键应用部署到虚拟化平台可以使应用程序的资源按需扩展,以满足业务变化和适应不同SLA的需要。支持动态的扩展:热添加容量:CPU和内存热添加利用vMotion迁移到更强大的主机,不影响业务的连续性。在几分钟内就可以调配附加的应用程序实例。实验得出,超过95%以上的应用程序在VMwarevSphere上可达到甚至超过本机性能。VMware虚拟机扩展性能很好128个虚拟CPU,4TB内存开销很小(通常为2%至10%)虚拟化的主机更易于扩展使用所有核心(64个核心或更多)Exchange服务器容量增大一倍性能基准测试设定了标准8,900个并发TPC-C事务SPECweb2005的结果为“优”于物理创世界纪录的TPC-H性能3.2.4虚拟机迁移3.2.4.1vMotion简介vSpherevMotion能在实现零停机和服务连续可用的情况下将正在运行的虚拟机从一台物理服务器实时地迁移到另一台物理服务器上,并且能够完全保证事务的完整性。vMotion是创建动态、自动化并自我优化的数据中心所需的关键促成技术,它的主要优点是:即时迁移正在运行的虚拟机轻松管理和安排实时迁移36图:vSpherevMotion1)即时迁移正在运行的整个虚拟机VMware的客户中,80%都在生产中部署了vMotion技术,此技术利用服务器、存储和网络连接的完全虚拟化,可将正在运行的整个虚拟机从一台物理服务器立即迁移到另一台物理服务器上,同时,虚拟机会保留其网络标识和连接,从而确保实现无缝的迁移过程,管理员可以使用这种热迁移技术来完成如下操作:在零停机、用户毫无察觉的情况下执行实时迁移持续自动优化资源池中的虚拟机在无需安排停机、不中断业务运营的情况下执行硬件维护主动将虚拟机从发生故障或性能不佳的服务器中移出,从而保证虚拟机的运行效率2)轻松管理和安排实时迁移迁移向导可以使管理员轻松管理和安排虚拟机的迁移操作,它可以:执行任何虚拟机的多个并行迁移,虚拟机可以跨任何受vSphere支持的硬件和存储并运行任何操作系统几秒钟内即可确定虚拟机的最佳放置位置安排迁移在预定时间发生,且无需管理员在场3)可以实现跨边界迁移和远距离迁移凭借vSphere6.0,VMware通过提供可以跨分布式交换机和vCenterServer的边界实施的新vMotion功能,不断革新工作负载实时迁移技术,如下图所示。37图:跨分布式虚拟交换机执行vMotion图:跨vCenterServer执行vMotion38此外,现在还可以执行远距离vMotion迁移,其往返时间(RTT)最长仅为100毫秒。远距离vMotion迁移使RTT提高了10倍,有了它,位于纽约和伦敦的数据中心以及位于美国东西海岸的数据中心能够相互之间实时迁移工作负载,如下图所示。图:长距离vMotion3.2.4.2实现原理与工作机制使用VMwarevMotion将虚拟机从一台物理服务器实时迁移到另一台物理服务器的过程是通过如下三项基础技术实现的。虚拟机的整个状态由存储在数据存储(如光纤通道或iSCSI存储区域网络(SAN),网络连接存储(NAS)或者物理主机本地存储)上的一组文件封装起来。vSphere虚拟机文件系统(VMFS)允许多个vSphere主机并行访问相同的虚拟机文件。虚拟机的活动内存及精确的执行状态通过高速网络快速传输,从而允许虚拟机立即从在源vSphere主机上运行切换到在目标vSphere主机上运行。vMotion通过在位图中连续跟踪正在进行的内存事务来确保用户察觉不到传输期,一旦整个内存和系统状态已拷贝到目标vSphere主机,vMotion将中止源虚拟机的运行,将位图的内容拷贝到目标vSphere主机,并在目标vSphere主机上恢复虚拟机的运行。整个过程在以太网上需要不到两秒钟的时间。底层vSphere主机将对虚拟机使用的网络进行虚拟化。这样可以确保即使在迁移后也能保留虚拟机网络标识和网络连接。因为使用vMotion进行虚拟机迁移可以保留精确的执行状态、网络标识和活动网络连接,其结果是实现了零停机时间且不中断用户操作。即使两个主机没有任何共用的共享存储,vSphere也能使虚拟机同时更改其数据存储和主机。它不仅能够实现大型数据中心内多个集群之间的虚拟机迁移(这些集群之间可能并没有一组共用的数据存储),还能实现小型环境中虚拟机迁移,而无需访问昂贵的共享存储设备。39执行vMotion迁移时,运行中的进程在整个迁移过程中都将保持运行状态。虚拟机的完整状态都会被移到新的主机中,而数据存储仍位于原来的数据存储上。虚拟机的状态信息包括当前的内存内容以及用于定义和标识虚拟机的所有信息。内存内容包括事务数据以及内存中的操作系统和应用程序的数据。状态中存储的信息包括映射到虚拟机硬件元素的所有数据,如BIOS、设备、CPU、以太网卡的MAC地址、芯片集状态、注册表等。图:基于共享存储的vMotion迁移上图中显示的是一种基于共享存储的基本配置,用于说明在将虚拟机A(VMA)从名为esx01的主机迁移到名为esx02的主机时,vMotion是如何工作的(vSphere5.1后,没有共享存储也可进行vMotion操作)。源主机和目标主机都可以访问用于存放虚拟机文件的共享数据存储。用户可以通过“Production”(生产)网络访问虚拟机A。管理员使用迁移向导启动迁移时,vMotion将通过vMotion网络将虚拟机的内存状态从源主机复制到目标主机。当vMotion复制内存时,用户可以继续访问虚拟机,而且还可以更新内存中的页面。vMotion会在源主机的内存位图中保存一份已修改页面的列表,vMotion在将虚拟机的大部分内存从源主机复制到目标主机之后,会将虚拟机置于静默状态,也就是说,它将使虚拟机处于一种无法进行其他任何活动的状态。在此静默期间,vMotion通过传输虚拟机设备状态和包含迁移过程中更改页面列表的内存位图,完成最后切换到目标主机的过程。vMotion会保留源虚拟机,以便在迁移过程中出现故障时将虚拟机返回到源主机。vMotion在将源主机上的虚拟机置于静默状态后,会立即对目标主机上的虚拟机进行初始化。反向ARP请求会告知子网,虚拟机的MAC地址现在位于新的交换机端口中,此时,用户访问的是目标主机上的虚拟机,而非源主机上的虚拟机。当用户访问目标主机上的虚拟机时,vMotion会将内存位图中标识的剩余内存从源主机复制到目标主机,如果某个应用在此期间试图读写任何已修改的内存,相应的页面将从源主机获取。在将所有剩余内存都复制到目标主机后,目标主机将通知源主机迁移已完成。此时,vMotion将从源主机中彻底删除虚拟机。vSphere允许将vMotion和StoragevMotion组合到一个过程中。这种组合式迁移通过网络将虚拟机内存及其磁盘同时复制到目标主机。发送完所有内存和磁盘数据后,目标虚拟机将开始运行,同时源虚拟机将被关闭。这意味着,管理员可以在主机间、40集群间或数据中心间实时迁移整个虚拟机而不会造成中断,所涉及的主机间也不需要有共享存储。3.2.5向大数据扩展VMware正努力推进vSphere为基础的数据中心和虚拟化平台,使其能够支持ApcheHadoop的工作负载,帮助企业在一个通用的虚拟化基础架构上部署、运行和管理Hadoop集群以及周边的核心应用,以发掘大数据的价值,为业务决策提供真实的依据。vSphere计算平台内置的敏捷性、弹性、负载均衡、可靠性和安全性,为大数据拓展铺平了道路。敏捷性使用vSphere虚拟化Hadoop可以实现更高级别的敏捷性,有助于部署、运行和管理Hadoop集群,同时保持与物理部署不相上下的系统性能。通过一个易于使用的用户界面,企业只需单击相应按钮即可部署资源,以适应不断变化的业务需求。弹性扩展通过将数据与计算分离开来,以实现弹性扩展,同时保持数据的持久性,可以大幅扩展Hadoop集群。通过将计算和数据放置在单独的虚拟机中,管理员可以使用/停用无状态计算节点来适应快速变化的业务需求,同时保持数据的持久性和安全性。智能扩展能力使企业能够提高资源利用率和灵活性,通过对弹性Hadoop环境中的资源进行池化来适应突发性工作负载。混合工作负载功能不再需要为Hadoop集群购买专用硬件。通过对计算和存储资源进行池化,企业可以通过创建多个运行于一个物理集群上的分布式工作负载,重新分配未使用的资源,用于运行其他工作负载。这使企业能够创建真正的多租户机制,以使多种不同类型的应用同时运行在一个物理集群上。可靠性和安全性利用vSphere为Hadoop工作负载提供的在企业中广泛接受的高可用性解决方案,同时通过虚拟机级隔离,保证数据始终受到保护。使用vSphere虚拟化Hadoop集群使企业能够放心地运行利用率极高的高性能集群。3.2.6CPU和内存的热添加和磁盘的热扩展3.2.6.1功能描述热添加使管理员可以在虚拟机需要时为其增加RAM和CPU资源,同时不会中断虚拟机的使用。这样可减少停机时间并确保虚拟机中的应用始终拥有所需的资源。41即使制定了最好的规划,应用所需的资源有时还是超出预期,Sphere支持热添加vCPU和内存以及热添加/热扩展虚拟磁盘,从而实现虚拟机资源的动态添加。通过在不中断应用或终端用户的情况下为虚拟机调配添加vCPU,内存和硬盘,热添加和热扩展能力允许IT为应用添加可用资源。所有虚拟机都支持虚拟磁盘的热添加/热扩展。所有在物理服务器上本地支持热添加vCPU/内存的客户操作系统,都支持虚拟机CPU/内存的热添加。3.2.6.2工作原理当虚拟机的电源已打开,且已启用CPU热添加时,可以将虚拟CPU热添加到正在运行的虚拟机。如图所示,在启用CPU热插拔且虚拟机正在运行的情况下,可以从虚拟插槽数下拉菜单中选择要添加的插槽数。每个插槽的内核数下拉菜单不可用,保留值为2。如果选择3个虚拟插槽,则可以向1个插槽添加2个内核,这样虚拟机便会具有6个虚拟CPU。3.2.7分布式资源调度DRS3.2.7.1功能描述vSphereDistributedResourceScheduler(DRS)可以跨vSphere服务器持续地监视利用率,并可根据业务需求在虚拟机之间智能分配可用资源。DRS能够从以下三个层面帮助客户调度资源:根据业务优先级动态地调整资源平衡计算容量降低数据中心的能耗根据业务需求调整资源DRS将vSphere主机资源聚合到集群中,并通过监控利用率并持续优化虚拟机跨vSphere主机的分发,将这些资源动态自动分发到各虚拟机中。将IT资源动态分配给优先级最高的应用为业务部门提供专用的IT基础架构,同时仍可通过资源池化获得更高的硬件利用率使业务部门能够在自己的资源池内创建和管理虚拟机平衡计算容量DRS不间断地平衡资源池内的计算容量,以提供物理基础架构所不能提供的性能、可扩展性和可用性级别。提高服务级别并确保每个虚拟机能随时访问相应资源通过在不中断系统的情况下重新分发虚拟机,轻松部署新容量自动将所有虚拟机迁出物理服务器,以进行无停机的计划内服务器维护允许系统管理员监控和有效管理更多的IT基础架构,提高管理员的工作效率42DRS使用户可以跨集群中的所有主机创建资源池,并应用集群级别的资源分配策略。除资源池和资源分配策略之外,DRS还提供以下资源管理功能:初始放置当集群中的某个虚拟机启动时,DRS会将其放在一个适当的主机上,或者根据选择的自动化级别生成放置建议。负载平衡DRS可以跨集群中的vSphere主机分配虚拟机工作负载。DRS持续监控活动工作负载和可用资源,并执行或建议执行虚拟机迁移,以最大限度提高工作负载性能。集群维护模式DRS可以根据当前集群情况确定可以同时进入维护模式的最佳主机数量,从而加快VMwareUpdateManager修补过程。限制更正在主机出故障或主机进入维护或待机模式后,DRS可以根据需要在vSphere主机间重新分配虚拟机,以便符合用户自定义的关联性和反关联性规则。关联性、反关联性规则:虚拟机的关联性规则用于指定应将选定的虚拟机放置在相同主机上(关联性)还是放在不同主机上(反关联性)。关联性规则用于系统性能会对虚拟机之间的通信能力产生极大影响的多虚拟机系统。反关联性规则用于负载平衡或要求高可用性的多虚拟机系统。3.2.7.2工作原理VMwareDRS可将物理主机的集群作为单个计算资源进行管理。可以将虚拟机分配到集群,DRS会找到运行该虚拟机的相应主机。DRS放置虚拟机的方式可确保集群中的负载保持平衡,并强制执行集群范围内的资源分配策略(例如,预留、优先级和限制)。启动虚拟机时,DRS在主机上执行虚拟机的初始放置。当集群条件更改(例如,负载和可用资源)时,DRS可根据需要将虚拟机迁移(使用VMotion)到其他主机。向集群添加新的物理服务器时,借助DRS,虚拟机能够立即自动利用新资源,因为它负责分发运行的虚拟机。可将DRS配置为自动执行虚拟机放置、虚拟机迁移和主机电源操作,或为数据中心管理员提供可用于评估并对其进行手动操作的建议。43图:DRS图例3.2.8分布式电源管理DPM3.2.8.1功能描述分布式电源管理vSphereDistributedPowerManagement(DPM)可持续优化数据中心的能耗。当DRS集群中的虚拟机所需资源较少时(例如在夜间和周末),DPM会将工作负载整合到较少的服务器上,并关闭其余服务器以减少能耗。当虚拟机资源需求增加时,DPM会让关闭的主机恢复联机,以确保达到服务级别要求。在利用率较低的时段,最多可使数据中心日常的电力和散热成本降低20%自动管理数据中心的能效3.2.8.2工作原理启用DPM后,系统会将集群级和主机级的容量与集群中运行的虚拟机的需求做比较。如果正在运行的虚拟机的资源需求可由集群中的一部分主机满足,DPM会将虚拟机迁移到这部分主机上,然后关闭不需要的主机。资源需求增加时,DPM会重新启动这些已关闭的主机并将虚拟机迁移到这些主机上。DPM执行的这一合理的动态集群规模调整操作不但降低了集群的能耗,而且不会影响虚拟机性能或可用性,集群能耗的降低也节约了成本。此外,还可以将DPM设置为仅就开机/关机操作提出建议。44图:能源优化DPM图例3.2.9NVIDIAGRIDvGPUNVIDIAGRIDvGPU能够为虚拟化解决方案带来NVIDIA硬件加速图形的所有优势,它可以为桌面虚拟化提供出色的2D和3D图形。图:NVIDIAGRIDvGPU在多名用户共享一个GPU时,NVIDIAGRIDvGPU能够为虚拟桌面提供堪比本地PC的出色图形性能。GRIDvGPU是一项业内最先进的技术,可在多个虚拟桌面之间共享真正的GPU硬件加速,且丝毫不会影响图形体验。应用的功能特性和兼容性与使用台式计算机时完全相同。凭借GRIDvGPU技术,每个虚拟机的图形命令将45直接传递至GPU,无须由虚拟化管理程序译码。这使GPU硬件能够实现时间分片,以便提供顶级的共享虚拟化图形性能。3.3网络和安全功能特性vSphere向主机和虚拟机提供了四种类型的网络虚拟化服务:该平台可将单台主机内的虚拟机相互关联起来;将虚拟机连接到物理网络;还可将VMkernel服务(例如NFS、iSCSI和vSpherevMotion)加入物理网络;最后,它还向负责为vSphere主机运行管理服务的管理接口提供网络连接。vSphere平台包含两个网络连接逻辑构造块:虚拟以太网适配器和虚拟交换机。虚拟以太网适配器可以为虚拟机配置一个或多个虚拟以太网适配器,并虚拟机硬件呈现给客户操作系统。客户操作系统将虚拟适配器视为通用网卡,因而将采用标准驱动程序。此外还有若干专用的虚拟以太网适配器可用来在虚拟机环境中实现优化的性能,VMtools中为它们提供了相应的操作系统驱动程序。虚拟交换机通过虚拟交换机,同一vSphere主机上的虚拟机可以使用与物理交换机相同的协议相互通信。虚拟交换机模拟传统物理以太网络交换机,在数据链路层转发数据帧。一个vSphere主机可以有多个虚拟交换机,每个交换机分别提供1,000多个内部虚拟端口供虚拟机使用。vSphere平台支持vSphere标准交换机和vSphereDistributedSwitch;前者是主机级别的虚拟交换机配置,后者是跨多个关联主机的单一虚拟交换机。46图:标准虚拟交换机vSphere是唯一一款具有丰富虚拟网络连接网络组件的解决方案,它使数据中心内的虚拟机网络连接就像在物理环境中一样轻松、简单。此外,它还具有一系列在物理环境中由于诸多限制而根本无法实现的新功能。虚拟环境提供了与物理环境类似的网络组件,例如虚拟网络接口卡、vSphereDistributedSwitch(VDS)、分布式端口组、vSphereStandardSwitch(VSS)和端口组。与物理机类似,每个虚拟机都有自己的虚拟网卡,也称作vNIC。操作系统和应用程序通过标准设备驱动程序或经VMware优化的设备驱动程序与虚拟网卡进行通信,此时虚拟网卡就像物理网卡。对于外部环境而言,虚拟网卡具有自己的MAC地址以及一个或多个IP地址,和物理网卡完全一样,它也能对标准以太网协议做出响应。事实上,仅当外部代理检查MAC地址中6个字节的供应商标识符时,才能确定自身正在与虚拟机通信。虚拟交换机(或vSwitch)的工作方式与第二层物理交换机的工作方式类似。使用VSS,每个主机均拥有自身的虚拟交换机配置,在VDS中,单个虚拟交换机配置则跨多个主机。3.3.1vSphere标准交换机(VSS)3.3.1.1VSS概念vSphere标准交换机的运行方式与物理以太网交换机十分相似。它检测与其虚拟端口进行逻辑连接的虚拟机,并使用该信息向正确的虚拟机转发流量。可使用物理以太网适配器(也称为上行链路适配器)将虚拟网络连接至物理网络,以将vSphere标准交换机连接到物理交换机。此类型的连接类似于将物理交换机连接在一起以创建较大型的网络。即使vSphere标准交换机的运行方式与物理交换机十分相似,但它不具备物理交换机所拥有的一些高级功能。3.3.1.2VSS架构和网络特性端口组为每个端口指定了诸如宽带限制和VLAN标记策略之类的端口配置选项。网络服务通过端口组连接到标准交换机。端口组定义通过交换机连接网络的方式。通常,单个标准交换机与一个或多个端口组关联。端口组将多个端口聚合在一个公共配置下,并为连接到带标记网络的虚拟机提供稳定的定位点。每个端口组都由一个对于当前主机保持唯一的网络标签来标识。使用网络标签,可以使虚拟机配置可在主机间移植。对于数据中心中物理连接到同一网络的所有端口组(即每组都可以接收其他组的广播),会赋予同一标签。反过来,如果两个端口组无法接收对方的广播,则会赋予不同的标签。47图:vSphere标准交换机网络3.3.2vSphere分布式交换机(VDS)借助vSphereDistributedSwitch(VDS),管理员可以从一个集中界面为整个数据中心设置虚拟机访问交换,从而简化了虚拟机网络连接。得益于此,管理员可以轻松地跨多个主机和集群调配、管理和监控虚拟网络连接。VDS还提供了丰富的监控和故障排除功能,并为高级vSphere网络连接功能提供支持。3.3.2.1VDS概念vSphereDistributedSwitch在数据中心上的所有关联主机之间充当单一交换机。这使得虚拟机可在跨多个主机进行迁移时确保其网络配置保持一致。分布式端口是连接到主机的VMkernel或虚拟机的网络适配器的vSphereDistributedSwitch上的一个端口。分布式端口组是与vSphereDistributedSwitch相关联的端口组,用于指定各成员端口的端口配置选项。分布式端口组可定义通过vSphereDistributedSwitch连接到网络的方式。3.3.2.2VDS架构vSphereDistributedSwitch就像是所有关联主机之间的一个交换机。这使管理员能够设置跨所有成员主机的网络配置,并使得虚拟机可在跨多个主机进行迁移时保持其网络配置一致。48图:vSphereDistributedSwitch网络与vSphere标准交换机一样,每个vSphereDistributedSwitch也是虚拟机可以使用的网络集线器。分布式交换机可以在虚拟机之间进行内部流量转发或通过连接到物理以太网适配器(也称为上行链路适配器)链接到外部网络。还可向每个分布式交换机分配一个或多个分布式端口组。分布式端口组将多个端口分组到一个公共配置下,并为连接到带标记网络的虚拟机提供稳定的定位点。每个分布式端口组都由一个对于当前数据中心唯一的网络标签来标识。VLANID是可选的,它用于将端口组流量限制在物理网络内的一个逻辑以太网网段中。利用网络资源池,可以按网络流量的类型来管理网络流量。3.3.2.3功能摘要vSphereDistributedSwitch(VDS)提供了一个集中式界面,通过此界面,管理员可以为整个数据中心配置、监控和管理虚拟机访问交换。VDS的功能特性如下:简化虚拟机的网络配置增强的网络监控和故障排除功能支持高级vSphere网络连接功能49图:vSphereDistributedSwitch图解简化虚拟机的网络配置利用以下VDS功能特性,可以简化跨多个主机调配、管理和监控虚拟网络连接的过程:集中控制虚拟交换机端口配置、端口组命名、筛选器设置等链路聚合控制协议(LACP),用于协商并自动配置vSphere主机与访问层物理交换机之间的链路聚合网络运行状况检查功能,用于验证vSphere到物理网络的配置增强的网络监控和故障排除功能VDS提供了监控和故障排除功能:支持使用RSPAN和ERSPAN协议进行远程网络分析IPFIXNetflow版本10支持SNMPv3用于修补和更新网络配置的回滚和恢复功能支持对虚拟网络连接配置进行备份和恢复的模板基于网络的核心转储(网络转储),无需本地存储即可调试主机支持高级vSphere网络连接功能VDS为vSphere环境中的许多网络连接功能提供了构造块:为NIOC提供了核心要素50在虚拟机跨多个主机移动时保持其网络运行时状态,支持嵌入式监控和集中式防火墙服务支持第三方虚拟交换机扩展,如CiscoNexus1000V和IBM5000v虚拟交换机支持单根I/O虚拟化(SR-IOV),以实现低延迟和高I/O工作负载包含BPDU筛选器,可防止虚拟机将BPDU发送到物理交换机3.3.2.4详细技术信息VDS扩展了虚拟网络的特性和功能,同时简化了调配以及日常的配置、监控和管理过程。vSphere网络交换机可以划分为两个逻辑部分:数据板和管理板。数据板执行数据包交换、筛选、标记等任务。管理板是一个控制结构,供操作员用来配置数据板的功能。每个vSphere标准交换机(VSS)均既包含数据板又包含管理板,各交换机由管理员逐一配置和维护。VDS将网络作为一个聚合资源进行处理,从而减轻了这种管理负担。各个主机级别的虚拟交换机被抽象处理成一个在数据中心级别上横跨多个主机的大型VDS。在这种设计中,数据板依然在每个VDS的本地,但管理板为集中式的。每个vCenterServer实例最多可以支持128个VDS;每个VDS最多可以管理500个主机。其他详细信息:分布式虚拟端口组(DV端口组)-为每个成员端口指定端口配置选项的端口组分布式虚拟上行链路(dvUplink)-dvUplink为每个主机上的物理网卡(vmnic)提供一个抽象级别专用VLAN(PVLAN)-由于支持PVLAN,因此与采用此技术的现有网络环境有更广泛的兼容性NetworkvMotion-通过跟踪每个虚拟机在VDS上从一个主机移动到另一主机时的网络连接状态(例如计数器和端口统计信息),可以简化监控和故障排除双向流量调整-将流量调整策略应用到DV端口组定义,这些策略通过平均带宽、峰值带宽和突发规模加以定义第三方虚拟交换机支持-具备交换机可延展性,因而可集成第三方控制板、数据板和用户界面,包括CiscoNexus1000v和IBM5000v3.3.3网络I/O控制(NIOC)利用NIOC可以为每个虚拟机设置规则和策略,以确保关键业务应用得以优先访问网络。NIOC会持续不断地监控网络负载,发现拥塞时,它会为最重要的应用动态分配可用资源,提升和保障它们的服务级别。3.3.3.1功能摘要使用NIOC可在虚拟机级别配置规则和策略,并确保始终有I/O资源可供关键业务应用使用。NIOC会对网络进行监控。一旦发现拥塞,它就会自动向管理员的业务规则所定义的最高优先级应用程序转移资源。51得益于NIOC,管理员可以达到更高的工作效率,企业可以跨更多工作负载扩展虚拟化,企业的基础架构也会拥有更加广泛的用途。vSphere6.0的NIOCVersion3可以在虚拟机的虚拟网卡或整个分布式端口组上预留带宽,这使得其他虚拟机或者多租户环境中的租户不会影响共享同样上行链路的虚拟机或者租户的SLA。图:NIOC体系结构图解达到并提高关键业务应用的服务级别减少管理员花在亲自开展性能管理工作上的时间,从而提高工作效率。通过各资源的802.1标记在虚拟与物理基础架构服务质量间建立联系。设置、查看和监控网络资源份额和限制。优化工作负载虚拟化更多工作负载,包括I/O密集型关键业务应用。确保云环境中的每个租户都能获得为其分配的I/O资源份额。在整个集群范围内设置并强制执行网络优先级(每个虚拟机的优先级)。获得敏捷、灵活的基础架构减少单个虚拟机或应用所需的专用网络接口。实现多租户部署。523.3.3.2详细技术信息如今的很多虚拟化数据中心都在转而使用10千兆位以太网(10GbE)网络适配器,而不是配置多张1GB网卡。10GbE可以提供多个流量共用同一条物理链路所需的带宽。10GbE适配器可以简化网络连接基础架构,弥补1GB适配器存在的其他缺陷,例如带宽不足和利用率较低。尽管10GbE拥有这些优势,仍有必要确保各个流量可以获得充足的带宽。利用NIOC,多种不同的工作负载可以共存于同一网络连接管道中,这充分发挥了10GbE的优势,从而满足了这一需求。对于CPU和内存,NIOC也围绕着与这些类似的资源池来发挥作用。它赋予vSphere管理员以控制权,确保在多种类型的流量争用相同物理网络资源时能够实现可预测的网络性能。仅支持将NIOC与vSphereDistributedSwitch(VDS)一起使用。NIOC为管理员提供以下功能:隔离-确保流量隔离,这样给定流量就绝不会在所有流量中占主导地位,从而可防止数据丢失。共享-允许采用灵活的网络连接容量划分机制来帮助用户处理多个流量争用相同资源时的情况。限制-对VDS的整组dvUplink强制实施流量带宽限制。基于负载的分组-高效地使用VDS的一组dvUplink来提供网络连接容量。IEEE802.1p标记-对从vSphere主机传出的出站数据包进行标记,以便物理网络资源能够正确处理这些数据包。NIOC将流量划分为多个预定义的资源池:vMotioniSCSIFT日志记录管理网络文件系统(NFS)虚拟机流量vSphereReplication流量用户定义的流量3.3.4无代理终端安全防护3.3.4.1概览终端安全管理是一项费时费力的工作,终端分布广泛,种类繁多,难于管控。传统的终端安全防护手段需要在终端上部署代理程序,保证这些代理始终有效且能得到及时更新,是一项充满挑战的工作,很多企业为此不得不应用终端管理和网络准入控制等解决方案来保证终端的可控。虚拟化和云计算时代的到来,彻底的改变了这种局面。虚拟基础架构为企业计算环境带来了新的管控手段,使无代理安全防护成为可能。53图:无代理终端安全防护vShieldEndpoint彻底革新了大家固有的如何保护客户虚拟机免受病毒和恶意软件攻击的观念。该解决方案优化了防病毒及其他端点安全保护功能,可以更高效地工作于VMwarevSphere和VMwareView环境。vShieldEndpoint通过将病毒扫描活动从各个虚拟机卸载到安全虚拟设备来提高性能。安全虚拟设备能够持续更新防病毒特征码,为主机上的虚拟机提供无中断保护。图:将病毒扫描活动从各个虚拟机卸载到安全虚拟设备vShieldEndpoint在全球的主要案例如下图所示。54图:vShieldEndpoint全球主要案例3.3.4.2主要优势简化部署虚拟化技术能够帮助管理员快速而又简单地完成系统部署工作,通过虚拟机模板来部署新系统是一项轻松愉快的工作,采用无代理模式,管理员无需在模板机中部署和更新代理程序,可以更好地保障虚拟机的合规性,减少虚拟机的体积和管理工作量。增加的工作是在每台物理服务器上部署一个安全虚拟设备(SVA),以5:1的常规整合比为例,部署工作量减少了4/5,如果应用场景是VDI,一台服务器至少可以部署几十个虚拟桌面,部署工作量仅为代理模式的几十分之一。简化管理维护好终端,特别是维护好终端内部的安全代理是管理员的重要工作之一,代理模式下,管理员要随时监视各终端上代理的状态,及时发现无代理、代理功能不正常和代理陈旧等问题。防护不到位的终端会对整个网络的安全状况造成非常大的影响。采用无代理模式,这一部分的管理工作量就不存在了。增加的工作是对安全虚拟设备(SVA)的管理,据前述,管理工作量仅是代理模式的几分之一到几十分之一。避免病毒扫描风暴安全代理在执行病毒扫描操作时会占用较多的主机资源,在虚拟基础架构中,病毒扫描对性能的影响更为显著。虚拟机启动,周期性例行扫描或蠕虫病毒流行时,如果不能对扫描行为进行有效控制,就可能导致病毒扫描风暴,严重影响业务系统的性能,甚至导致服务中断。在无代理模式下,运行于同一物理服务器上的多台虚拟机的扫描工作统一进行调度,资源占用得到有效控制,消除了病毒扫描风暴的发生。减少资源占用运行在主机上的安全代理会占用主机的CPU,内存和磁盘资源,引擎和病毒定义的更新会占用网络资源。近几年来,恶意程序迅猛增长,防病毒产品和病毒定义文件的体积越来越大,尽管安全厂商不断引入新技术来降低安全代理对主机的影响,仍然55不能有效地解决这一问题。无代理模式下完全不存在这种问题,当终端数量较大时,节省的资源数量将非常可观。图:有客户端和无客户端终端保护的资源占用对比上图为有客户端和无客户端终端保护的资源占用对比,右图为无客户端方式,资源占用非常少。随时保持最新传统模式下,如果主机经常关机或离线,则安全产品无法得到及时更新,当主机再次开机或联线时,系统非常容易受到感染和破坏。0Day攻击越来越多,如果不能保证防病毒产品和病毒定义的实时更新,防护效果就会大打折扣。采用无代理模式,只要保证安全虚拟设备(SVA)随时在线,及时更新就可以了。更高的密度,更低的成本前面介绍过,无代理模式可以在很大程度上节省资源占用,完全消除病毒扫描风暴,因此可以提高部署密度,节省硬件采购成本。此外,针对虚拟化平台的无代理安全防护产品,通常会提供基于物理CPU的授权模式,按这种授权方式购买产品,要比按部署节点数量来购买要经济得多。部署密度越高,性价比越高。更好的安全性很多恶意程序把安全产品作为攻击目标,安全产品必须具备良好的自我保护功能,但是这种自我保护功能并不是百分百有效,安全产品一旦感染了恶意代码,不仅起不到防护作用,还会加快恶意代码的传递。无代理模式下消除了这种隐患。安全虚拟设备(SVA)采用经过整固的专用系统,安全级别较高,从而显著提升了无代理模式下的整体安全性。效率更高在无代理模式下,物理主机是安全防护的基本单位,运行于一台物理主机上的全部虚拟机之上所产生的活动都由部署于该物理主机上的安全虚拟设备(SVA)负责监控。当多台虚拟机执行相同活动时,SVA可以利用缓存技术加速扫描,提高扫描效率,特别是那些重复存在于多台虚拟机中的操作系统和应用程序文件,扫描性能会有很大提升。563.3.4.3vShieldEndpoint工作原理vShieldEndpoint直接嵌入到vSphere中,由以下这三个组件组成:经过加强的安全虚拟设备,由VMware合作伙伴提供虚拟机精简代理,用于卸载安全事件(包含在VMwareTools中)VMwareEndpointESX虚拟化管理程序模块,用于支持前两个组件在虚拟化管理程序层上的通信。例如,对于防病毒解决方案,vShieldEndpoint将监视虚拟机文件活动并通知防病毒引擎,然后再由引擎进行扫描并返回处置信息。该解决方案支持在访问时进行文件扫描,以及由安全虚拟设备中的防病毒引擎发起的按需(计划内)文件扫描。当需要进行修复时,管理员可以使用他们现有的防病毒和防恶意软件管理工具指定要执行的操作,同时由vShieldEndpoint管理受影响虚拟机中的修复操作。3.3.4.4vShieldEndpoint主要功能特性1)卸载防病毒和防恶意软件负载vShieldEndpoint使用vShieldEndpointESX模块将病毒扫描活动卸载到安全虚拟设备中,通过在该设备上执行防病毒扫描提高性能。通过瘦客户端代理和合作伙伴ESX模块,将文件、内存和进程扫描等任务从虚拟机卸载到安全虚拟设备中。vShieldEndpointEPSEC使用虚拟化管理程序层的自检功能来管理虚拟机与安全虚拟设备之间的通信。防病毒引擎和特征码文件只在安全虚拟设备内更新,但可对vSphere主机上的所有虚拟机应用策略。2)修复vShieldEndpoint实施防病毒策略,以指定应删除、隔离还是以其他方式处理恶意文件。精简代理负责管理虚拟机内的文件修复活动。3)合作伙伴集成EPSECAPI在虚拟化管理程序中提供对文件活动的自检,使VMware防病毒合作伙伴实现vShieldEndpoint集成。基本的防病毒功能可通过此API提供支持。目前,可选择的合作伙伴产品包括Symantec的EndpointProtection,TrendMicro的DeepSecurity,Kaspersky的SecurityforVirtualization,McAfee的MOVEAntivirus和BitDefender的SecurityforVirtualizedEnvironments等。4)vShieldManager,策略管理和自动化vShieldManager提供全方位的vShieldEndpoint部署和配置。使用表述性状态转移(REST)API可以实现vShieldEndpoint功能与各种解决方案的自定义自动集成。提供监控报告。57vShieldManager可用作vCenter插件。5)日志记录与审核事件日志记录采用基于行业标准的Syslog格式。6)加强虚拟数据中心的端点安全保护可以充分利用现有投资,并且可在与用来保护物理环境相同的管理界面中管理虚拟化环境的防病毒和防恶意软件策略。VMwarevShield™Endpoint可在增强VMwarevSphere和VMwareView环境的安全性的同时,将端点保护性能提高若干数量级,而且还能将防病毒和防恶意软件代理的处理工作负载卸载到由VMware合作伙伴提供的专用安全虚拟设备上。通过避免防病毒“风暴”提高整合率和性能简化VMware环境中的防病毒和防恶意软件功能部署与监控通过将防病毒和防恶意软件活动记入日志满足合规性和审核要求7)卸载防病毒和防恶意软件功能vShieldEndpoint可直接嵌入到vSphere中,并且包含经过安全强化的安全虚拟设备(由VMware合作伙伴提供)、供虚拟机用来卸载文件活动的驱动程序,以及用于在虚拟化管理程序层将以上两个组件关联起来的VMwareEndpointSecurity可加载内核模块。VMwareEndpointSecurity的可加载内核模块使用虚拟化管理程序层的自检功能来管理虚拟机与安全虚拟设备之间的通信防病毒引擎和签名文件仅在安全虚拟设备内更新,但策略可对一个vSphere主机上的所有虚拟机应用通过在强化的安全虚拟机中部署防病毒及防恶意软件客户端软件,保护防病毒安全软件免受攻击8)强现补通过预定义策略指定恶意文件的处理方式-删除、隔离或采用其他处理方式vShieldEndpoint驱动程序可管理虚拟机内的文件修复活动9)管理策略和配置使用vShieldManager可以对vShieldEndpoint策略进行全面配置使用vCenter可激活vSphere上的vShield功能使用RESTAPI可以通过自定义方式集成vShieldEndpoint功能10)使用基于角色的访问进行日志记录和审核采用基于syslog标准的日志记录可通过RESTAPI和vShieldManager访问第三方日志记录和审核工具58由管理员定义启用/禁用防病毒和防恶意软件文件活动(例如扫描)的日志记录3.4存储功能特性VMwarevSphere存储虚拟化是vSphere功能与各种API的结合,提供一个抽象层供在虚拟化部署过程中处理、管理和优化物理存储资源之用。存储虚拟化技术提供可从根本上更有效管理虚拟基础架构的存储资源的方法,使组织能够:大幅提高存储资源利用率和灵活性。无论采用何种存储拓扑,均可简化操作系统修补过程并减少驱动程序要求。增加应用的正常运行时间并简化日常操作。充分利用并完善现有的存储基础架构。3.4.1虚拟化环境的存储在非虚拟化环境中,服务器直接连接到存储;存储可以是服务器机架内部的存储,也可以是外部阵列中的存储。其最大的不足是,特定服务器需要完全拥有物理设备,即整个磁盘驱动器需与单个服务器绑定。在非虚拟化环境中共享存储资源需要用到复杂的文件系统,或者从基于数据块的存储迁移到基于文件的网络连接存储(NAS)。图:非虚拟化环境的存储在在虚拟化环境中,虚拟机在数据存储中作为一组文件存储在自己的目录下;数据存储是一个逻辑容器,能像文件系统一样,将各个存储设备的具体细节隐藏起来,并提供一个统一的模型用于存储虚拟机文件。数据存储还可以用来存储ISO映像、虚拟机模板和软盘映像。它们可以基于VirtualMachineFileSystem(VMFS)或网络文件系统(NFS),具体取决于存储类型。VMFS数据存储可以部署在基于SCSI的本地或联网存储设备上,而NFS数据存储则可以部署在NAS设备上。59图:虚拟化环境的存储借助VMFS,多个vSphere服务器可以并行访问共享虚拟机存储,基于虚拟化的分布式体系结构服务则可以在由vSphere服务器组成的整个集群范围内运行。VMFS为将虚拟化扩展到单个系统界限之外提供了技术基础。vSphere支持对基于数据块的存储使用所有常见的存储互连,包括直连存储、光纤通道、FCoE(基于以太网的光纤通道)和iSCSI。vSphere还支持将数据存储放置在通过IP网络访问的NAS存储上。图:VMwareVMFS文件系统vSphere极大地简化了从客户操作系统对存储的访问。呈现给vSphere客户操作系统的虚拟硬件包括一组通用SCSI和IDE控制器,因此客户操作系统会看到一个通过标准控制器连接的简单物理磁盘。向客户操作系统呈现虚拟化的存储视图有多项优势,包括可以更轻松地管理存储、扩大支持和访问范围以及提高效率。3.4.2vSphere存储体系结构60ESXi提供主机级别的存储器虚拟化,即采用逻辑方式从虚拟机中抽象物理存储器层。ESXi虚拟机使用虚拟磁盘来存储其操作系统、程序文件,以及与其活动相关联的其他数据。虚拟磁盘是一个较大的物理文件或一组文件,可以像处理任何其他文件那样复制、移动、归档和备份虚拟磁盘。管理员可以配置具有多个虚拟磁盘的虚拟机。要访问虚拟磁盘,虚拟机需使用虚拟SCSI控制器。这些虚拟控制器包括BusLogicParallel、LSILogicParallel、LSILogicSAS和VMwareParavirtual。虚拟机只能查看和访问以上类型的SCSI控制器。驻留在vSphere虚拟机文件系统(VMFS)数据存储或在物理存储上部署的基于NFS的数据存储上的每个虚拟磁盘。从虚拟机的角度而言,每个虚拟磁盘看上去都好像是与SCSI控制器连接的SCSI驱动器。实际的物理存储设备是通过并行SCSI、iSCSI、网络、光纤通道还是主机上的FCoE适配器来访问,这对客户机操作系统以及虚拟机上运行的应用程序而言是透明的。除虚拟磁盘外,vSphere还提供称为裸设备映射(RDM)的机制。在虚拟机内部的客户机操作系统需要对存储设备的直接访问权限时,RDM非常有用。当虚拟机与存储在数据存储上的虚拟磁盘进行通信时,它会发出SCSI命令。由于数据存储可以存在于各种类型的物理存储器上,因此根据ESXi主机用来连接存储设备的协议,这些命令会封装成其他形式。ESXi支持光纤通道(FC)、InternetSCSI(iSCSI)、以太网上的光纤通道(FCoE)和NFS协议。无论主机使用何种类型的存储设备,虚拟磁盘始终会以挂载的SCSI设备形式呈现给虚拟机。虚拟磁盘会向虚拟机操作系统隐藏物理存储器层。这样可以在虚拟机内部运行未针对特定存储设备(如SAN)而认证的操作系统。下图描述了使用不同存储器类型的五个虚拟机,以说明各个类型之间的区别。图:访问不同类型存储器的虚拟机3.4.3StorageDistributedResourcesScheduler(DRS)61分布式资源调度管理(DRS)可以基于CPU和内存资源的利用率来分配和均衡虚拟机的工作负载,存储DRS将此功能延伸到了存储,它使智能虚拟机的初始部署更智能,并能基于集群内存储设备的I/O、容量等状况实现负载平衡。存储DRS会持续监控存储空间使用量和存储I/O负载,并据此协调存储资源来满足业务增长需要,以及对运行的虚拟机进行智能部署,并在必要的时候将工作负载从一个存储资源转移到另外一个,以确保最佳的性能,避免I/O瓶颈,提高所有应用的服务级别。3.4.3.1功能概览负载平衡vSphereStorageDRS可持续平衡存储空间使用量和存储I/O负载,同时避免出现资源瓶颈,以满足应用服务级别要求。利用StorageDRS,管理员可以:将更多存储容量部署并集成到存储池。充分利用新容量。提高所有应用的服务级别。允许vSphere管理员监控和管理额外的基础架构,从而提高他们的工作效率。持续监控StorageDRS可以在预分配的整个数据存储池中监控存储空间和I/O使用情况,并据此协调存储资源来满足业务增长需要。通过StorageDRS的监控功能,管理员可以:指定如何利用规则和策略将存储资源分配给虚拟机。为业务部门分配专用的存储基础架构,同时通过存储卷池提高存储利用率。授权业务部门在其存储池内创建和管理虚拟机,同时对所有存储资源进行IT控制。无中断维护当vSphere管理员将启用了StorageDRS的数据存储集群置于维护模式时,StorageDRS便会将虚拟机磁盘文件移至其他数据存储。在所有虚拟磁盘都已移至集群内的其他数据存储前,数据存储将一直处于“正在进入维护模式”状态。StorageDRS还可提供:关于将虚拟磁盘迁移到何种位置的建议一个故障列表,其中显示无法移动的虚拟机磁盘文件及具体原因3.4.3.2详细技术信息数据存储集群数据存储集群是聚合到单个管理和消耗单元的数据存储的集合。在创建数据存储集群时,StorageDRS可以管理存储资源,管理方式与VMwarevSphereStoragevMotionDRS管理集群中计算资源的方式类似。放置建议62StorageDRS根据空间限制和I/O负载作出初始的放置建议和决定。这些建议可最大限度地降低虚拟机磁盘映像放置不当的风险,缓解I/O瓶颈以及对虚拟机性能的影响。StorageDRS根据最低延迟和可用空间选择最佳的放置方式。持续平衡当数据存储集群中的一个或多个数据存储超过用户可配置的空间利用率或I/O延迟阈值时,StorageDRS将会给出平衡建议。在自动模式下,StorageDRS会作出降低I/O延迟的StoragevMotion决定,以使所有虚拟机都以最优方式运行。在手动模式下,StorageDRS会给出平衡建议,然后由管理员批准。StorageDRS每八个小时评估一次I/O负载,然后根据评估结果给出建议。默认I/O延迟最高为15毫秒,默认的空间利用率阈值为80%。关联性规则管理员可以选择为虚拟机磁盘文件定义关联性和反关联性规则。默认情况下,虚拟机磁盘文件存储在同一数据存储中。StorageDRS提供三种类型的关联性规则供管理员应用:VMDK关联性(默认):一个虚拟机的虚拟磁盘都放在同一数据存储上。VMDK反关联性:具有多个虚拟磁盘的虚拟机的虚拟磁盘放在不同的数据存储上。虚拟机反关联性:两个指定的虚拟机(包括关联的磁盘)放在不同的数据存储上。数据存储关联数据存储关联是StorageDRS中的一种高级I/O负载平衡机制,能够发现两个不同的数据存储使用阵列上的同一组磁盘组的情况。出现这种情况时,此机制会应用关联性规则并移动虚拟机磁盘文件以缓解I/O瓶颈。3.4.4基于存储策略的管理通过根据用户定义的策略对存储进行分组,减少存储资源选择过程所包含的步骤。策略驱动的控制层是VMware软件定义的存储模型的管理层,可通过能应用于虚拟数据层中的各个异构存储层的标准化方法自动执行存储操作。 基于存储策略的管理(SPBM)是VMware的策略驱动的控制层的一种实施,可提供对以下内容的通用管理:vSphereVirtualVolumes-外部存储(SAN/NAS)VirtualSAN–x86服务器存储基于Hypervisor的数据服务–vSphereAPI支持的vSphereReplication或第三方解决方案,可实现IO筛选63图:基于存储策略的管理对软件定义的存储实现策略驱动的自动化SPBM支持采用称为“虚拟机存储”策略的逻辑模板的形式捕获应用的相关存储要求(容量、性能和可用性等)。通过定义或调整策略,SPBM能够大规模地自动执行调配过程,并对各个虚拟机的存储服务级别进行实时动态控制。策略还是一种在应用的整个生命周期内自动监控存储服务级别的合规状态并确保其合规的机制。通过策略驱动的自动化功能实现的动态控制使管理员能够灵活地控制虚拟机的存储使用量,从而最终加快新应用调配速度并简化变更管理,同时VI管理员不再需要依赖存储管理员来完成基础架构变更请求。VI管理员可以随时更改策略,而所需的基础架构更改可自动进行配置。这样就可以更快地根据业务变化做出调整。私有云部署的可延展性为了使应用租户能够在私有云环境中灵活地交付IT服务并能够以自助方式利用存储服务,SPBM借助数据中心管理工具(如脚本编制工具)、云计算自动化解决方案来提供集成点。通过SPBM实现的自动化和控制使组织能够简化存储管理,以及更快地为IT客户提供价值。应用管理员“可以利用存储即服务”,并且不再受传统存储运作模式下服务交付流程中存在的瓶颈的制约。传统存储中配置文件驱动的管理64对于运行在基于LUN的传统存储中的VMFS和NFS数据存储,SPBM能够根据预分配的存储资源和容量执行配置文件驱动的管理。使用存储策略可确保只有符合虚拟机要求的数据存储可供使用,从而简化虚拟机放置和服务级别监控及合规性管理。要更改所提供的存储配置文件以实现SPBM控制,必须首先在物理基础架构上配置一系列适当的功能。软件定义的存储策略则不同,使用此类策略时,可以根据需要以虚拟机级别的精细度实时动态实例化资源和数据服务的精确组合。3.4.5StoragevMotionvMotion可以在主机之间迁移正在运行的虚拟机而不中断服务,它针对的是虚拟机的运行时状态,迁移的是正在运行的虚拟机,而StoragevMotion可以在存储阵列内和跨存储阵列实时迁移虚拟机磁盘文件,进而避免因计划内存储维护而造成的应用程序停机。3.4.5.1功能概览vSphereStoragevMotion可以在存储阵列内和跨存储阵列实时迁移虚拟机磁盘文件。将虚拟机磁盘文件改放到其他位置的同时,可以使服务保持持续可用,并全面保证事务的完整性,该项技术的主要优点是:简化阵列迁移和存储升级动态优化存储I/O性能高效管理存储容量图:StoragevMotion简化阵列迁移和存储升级StoragevMotion将虚拟机磁盘文件从现有存储位置实时、自动地迁移到新的目标位置,从而帮助用户解决服务中断的问题。将虚拟机磁盘文件无中断地迁65移到不同种类的存储设备的做法,提供了一种基于分层存储策略中的使用率和优先级策略,来经济高效地管理虚拟机磁盘的方式,它可以:执行零停机时间的存储迁移,并全面保证事务的完整性迁移位于任何受支持的服务器硬件上、正在运行任何受支持的操作系统的虚拟机中的磁盘文件跨vSphere支持的任何光纤通道、iSCSI、FCoE和NFS存储系统,实时迁移虚拟机磁盘文件动态优化存储的I/O性能StoragevMotion可以将虚拟机磁盘文件无中断地移动到采用更佳体系结构并可提供所需性能的备用LUN,这种方法可以优化存储的I/O性能。另外,通过消除存储资源的超额分配,StoragevMotion在降低成本的同时可以应对I/O瓶颈问题,它可以:无需安排停机时间即可管理存储性能问题在存储瓶颈演变成大问题之前主动进行处理运用了StoragevMotion的StorageDRS可以实现存储性能管理的自动化更加高效地管理存储容量StoragevMotion“”可以回收未使用的或者孤立的存储容量,将其分配给其他虚拟机,因此,该项技术可有效地利用存储,当虚拟机磁盘文件数量接近LUN的总可用容量限制时,通过将虚拟机无中断地移动到容量更大的存储LUN中,即可在出现性能问题前防患于未然,而未使用的存储容量可得到回收。它能够:可根据项目需求的变化在不同种类的存储之间移动虚拟机磁盘文件可将具有最高性能需求的虚拟机迁移到新近购买的存储中可将优先级较低的虚拟机移到速度较慢或者较旧的阵列中,腾出高性能存储供更加重要的工作负载使用3.4.5.2详细技术信息StoragevMotion使用的是称作“镜像模式”的新方法。总的来说,镜像模式使用的是从源到目标数据存储的一次性数据复制,源数据存储上发生变更的数据块会镜像到目标存储中。StoragevMotion使用VMkernelDatamover执行源与目标数据存储之间的数据传输,而镜像驱动程序负责管理复制时虚拟机采用什么方法写入。66图:镜像模式StoragevMotion的总体操作顺序如下:1)快速“提醒”虚拟机将镜像驱动程序放置就位,允许数据移动程序将源VMDK的第一个区域复制到目标数据存储。VPXA进程将虚拟机的工作目录复制到目标数据存储使用复制的文件在目标数据存储上启动“影子”虚拟机。“影子”虚拟机保持空闲状态,等待虚拟机磁盘文件复制完成2)恢复源虚拟机以允许正常处理活动。3)数据移动程序继续将源VMDK复制到目标存储中。4)对于复制过程中发生的写入,镜像驱动程序会执行以下的其中一项操作:对于目标为已由数据移动程序复制的区域的写入,会将其内容镜像到目标存储对于目标为当前正在由数据移动程序复制的区域的写入,要求写入排队等候,直到数据移动程序完成该区域的复制之后,再将该写入镜像到源和目标对于目标为尚未由数据移动程序复制的区域的写入,仅写入源VMDK,因为稍后数据移动程序到达该区域时会对其进行复制5)StoragevMotion会调用虚拟机的快速挂起和恢复功能(与vMotion相似),以将正在运行的虚拟机的操作转移到闲置的影子虚拟机。6)在快速挂起和恢复操作完成之后,旧的主目录和虚拟机磁盘文件会从源数据存储中删除。在vSphere5.1和更高的版本中,每个StoragevMotion操作现在最多可执行四个并行磁盘复制。而在之前的版本中,vSphere会连续复制属于一个虚拟机的磁盘。例如,如果收到在一个StoragevMotion操作中复制六个磁盘的请求,前四个复制会同时启动。然后,在前四个复制中有一个完成之后,下一个磁盘复制即可启动。下图给出了并行磁盘复制和连续复制的区别。67图:并行磁盘复制为了降低对其他虚拟机的性能影响,并行磁盘复制仅适用于对从多个不同数据存储复制到多个不同数据存储的多个虚拟机磁盘文件进行StoragevMotion操作。也就是说,如果一个虚拟机的磁盘文件位于数据存储A、B、C和D上,仅在目标数据存储为E、F、G和H的情况下并行磁盘复制才会执行。并行磁盘复制的常见使用情形为在StorageDRS数据存储集群中配置有反关联性规则的虚拟机的迁移。对于从一个数据存储到另一个数据存储、一个数据存储到多个数据存储或者多个数据存储到一个数据存储的多个虚拟机磁盘的复制,仍将使用传统的连续复制方法。3.4.6存储I/O控制3.4.6.1功能概览跨多个主机动态分配I/O容量存储I/O控制(SIOC)用于为运行在一组能够访问共享存储池的VMwarevSphere主机上的虚拟机划分I/O优先级。此功能扩大了CPU和内存现有的常用份额和限制参数的构成范围,通过在一组vSphere主机集群中动态分配I/O容量解决了存储利用率问题。它通过减少管理员亲自开展的性能管理工作提高其工作效率。当主机在与数据存储通信过程中观察到延迟时,SIOC会触发设备延迟监控。当延迟超过设定的阈值时,该功能会介入以缓解拥塞。然后,系统会根据访问该数据存储的每个虚拟机的份额按比例为其分配I/O资源。调整存储资源以满足业务需求可以使用SIOC来配置规则和策略,指定每个虚拟机的业务优先级。检测到I/O拥塞时,SIOC会根据规则向虚拟机动态分配可用的I/O资源,从而提高关键应用的服务级别,使管理员得以虚拟化更多工作负载,包括I/O密集型应用。设置、查看和监控存储资源份额和限制。跨一组vSphere主机设置并强制实施存储优先级(每个虚拟机的优先级)。68减少单一应用所需的专用存储卷,从而提高基础架构的灵活性和敏捷性。3.4.6.2详细技术信息单主机存储分配与多主机存储分配的对比传统的CPU和内存共享单个ESXi主机上的地址资源。这意味着各个虚拟机会争用单个主机中包含的有限内存和CPU资源。vSphere基础架构中的共享存储资源则与此不同,因为vSphere必须在多主机级别处理对存储的访问,而非针对单个主机进行处理。如果已达到为数据存储指定的延迟阈值(通常为平均的I/O延迟,即30毫秒),SIOC将通过限制主机可以对该数据存储发出的I/O操作量来解决这一失衡问题。解决存储失衡问题SIOC“”的作用相当于一个数据存储范围内的磁盘调度程序。为特定数据存储启用SIOC后,它将监控该数据存储,汇总其所包含的每个VMDK文件的磁盘份额。然后,根据ESXi主机上运行的虚拟机的份额在访问该数据存储的所有主机的总份额中所占比例,SIOC将计算出每个主机的I/O插槽授权容量。如果已达到为数据存储指定的延迟阈值(通常为平均的I/O延迟,即30毫秒),SIOC将通过限制主机可以对该数据存储发出的I/O操作量来解决这一失衡问题。动态延迟阈值设置SIOC的默认延迟阈值为30毫秒。并非所有存储设备都一样,因此,此默认值设置为一个中位值。有些设备会先于其他设备达到自然争用点(例如SSD)。对于这些设备,用户应降低其阈值。不过,手动确定正确的延迟值可能很难。这意味着需要为每个设备确定延迟阈值。vSphere6.0SIOC并不使用默认延迟阈值或让用户选择延迟阈值,而是自动确定数据存储的最佳阈值。延迟阈值设置为I/O注入器(SIOC的一部分)确定的值。当I/O注入器计算出吞吐量峰值之后,它会找到90%的吞吐量值,并通过测量该点的延迟来确定阈值。vSphere管理员可以将这个设定的吞吐量值改为其他百分比值,也可以继续输入以毫秒表示的值。VmObservedLatencyVmObservedLatency是vSphere6.0中引入的一个新的SIOC衡量指标,取代了以前版本中使用的数据存储延迟衡量指标。它用来测量VMkernel从虚拟机收到I/O与从数据存储收到响应之间间隔的时间。在此之前,系统仅测量I/O离开ESXi主机之后的延迟。VmObservedLatency还会测量主机中的延迟,在vSphereClient中将可以看到该指标。3.4.7VirtualMachineFileSystem(VMFS)3.4.7.1功能概览利用共享存储提高存储灵活性69VMFS是一种针对虚拟机进行了优化的高性能集群文件系统。常规文件系统在给定时间只允许一台服务器读写同一文件,VMFS利用共享存储允许多个vSphere主机并行读写同一个存储。通过将整个虚拟机状态存储在一个中心位置,简化了虚拟机的调配和管理。创建可用于测试、备份和恢复操作的虚拟机数据时间点副本。支持基于虚拟化的独特功能,例如,将正在运行的虚拟机从一台物理服务器实时迁移到另一台服务器、自动在另一台物理服务器上重启发生故障的虚拟机以及跨不同物理服务器建立虚拟机集群。向正在运行的虚拟机添加虚拟磁盘空间,以增加可用资源或者供备份之用。利用分布式日志在服务器发生故障时更快、更可靠地恢复虚拟机。无缝管理虚拟机存储借助VFMS,可为虚拟机提供充足的存储,并可针对未来的存储需求进行规划,此过程只需管理员执行少量操作或干预。无需中断其他主机的运行即可在VMFS卷中添加或删除vSphere主机。无需依赖存储管理员即可创建新的虚拟机。可以实时扩展VMFS卷。自动发现LUN并将其映射到一个VMFS卷,从而简化存储管理。提供极高的性能和可扩展性使用VMFS以集中、共享的方式存储虚拟机可提高管理虚拟化IT环境时的控制力、灵活性和性能。70在一个中心位置存储和访问整个虚拟机状态。使用有利于虚拟磁盘I/O的大数据块容量。对于小文件和目录使用子数据块分配器。最多可将64个vSphere主机连接到单个VMFS卷。支持容量最高可达64TB的单个卷。甚至可以在虚拟机中运行数据最密集的生产应用,如数据库、ERP和CRM。VMFS在卷、设备、对象和缓冲区缓存方面的性能增强可使客户受益。3.4.7.2详细技术信息SAN要求管理员可以将VMFS数据存储部署在任何基于SCSI的本地或联网存储设备上,包括光纤通道、以太网光纤通道(FCoE)和iSCSISAN设备。多集群可扩展性VMFS是基于数据块的磁盘存储(本地存储和连接至SAN的存储)的默认存储管理接口。VMFS允许多个VMwarevSphere服务器实例并行访问共享虚拟机存储。它还使基于虚拟化的分布式基础架构服务(如VMwareDRS、vSphereHA、vMotion和StoragevMotion)得以跨vSphere服务器集群运行。简而言之,VMFS提供的基础使虚拟化技术超出了单个系统的界限。磁盘锁定VMFS使用磁盘锁定,确保不会在多个vSphere主机上同时启动单个虚拟机。启用vSphereHA后,如果一台服务器发生故障,系统将在vSphereHA的控制之下打开每个虚拟机的磁盘锁,以使虚拟机能在其他vSphere主机上重新启动。从VMFS3升级vSphere5.5及更高版本可实现从VMFS-3无中断地升级到VMFS-5,确保各个虚拟基础架构的一致性。由于采用统一的数据块大小(1MB),因此可以更轻松地完成部署并降低运营复杂性,同时保持以前只有在采用大数据块大小时才能达到的灵活性。应该注意的是,从VMFS-3升级到VMFS-5的卷将保留其原始数据块大小,因为修改数据块大小需要重新格式化卷。为了提高可扩展性并降低与小文件相关的存储开销,专门针对VMFS-5进行了一系列的增强。这些增强功能包括对子数据块大小以及对这些数据块的分配机制的优化,其效果是实现了对大型卷(在单个数据区上有64TB容量)的支持并提高了虚拟机密度。3.4.8StorageThinProvisioning3.4.8.1功能概览提高存储利用率71利用vSphereStorageThinProvisioning,可以超额分配存储容量,以提高存储利用率、延长应用程序正常运行时间并简化存储容量管理。无需预先占用全部容量,同时还能为vSphere管理员提供未来增长所需的容量。允许管理员为虚拟机分配超出实际拥有量的专用容量。消除因存在未使用的超额分配存储而产生的成本。通过减少物理存储需求节省资源和空间。图:vSphereStorageThinProvisioning图解通过延长应用程序正常运行时间获得更优异的业务连续性存储管理员无需在应用程序所有者与虚拟机所有者之间进行大量协调工作即可完成自己的工作。无需像以前那样为了维护而使应用频繁脱机,从而增加它们的正常运行时间。减少需要开展的耗时的跨团队协调工作。简化存储容量管理StorageThinProvisioning消除了推升存储容量管理成本的手动流程。可以放心地管理存储容量,无需在不同的管理员之间开展复杂的协调工作。通过设置警报和提醒,可以放心地以精简配置方式为虚拟机分配存储。3.4.8.2详细技术信息72虚拟磁盘的厚配置和精简配置当StorageThinProvisioning在虚拟磁盘级别运行时,vSphere管理员可“”“”以按厚格式或精简格式分配虚拟磁盘文件。采用精简配置时,vSphere主机上的虚拟机可以调配磁盘当前和未来活动所需的全部空间,但仅交付存储数据所需的存储空间量。它先不交付已分配但未使用的空间,而是随着虚拟磁盘上存储的数据量的增加而增加空间供应量。采用厚格式时,从一开始便交付所需的全部存储空间。采用精简配置时,可以超额分配数据存储。这样可以减少已分配但未使用的空间量,从而提升存储利用率。通过VMwarevCenterServer可以了解空间分配情况和已用空间量;它还可以发出提醒和警报来通知vSphere管理员有空间不足或超额分配百分比过高的情况等待处理。采用精简配置的虚拟机磁盘的创建速度更快,并且可以优化空间利用率。一旦精简型或稀疏型磁盘的所有存储块都已分配完毕,它们便与密集型磁盘毫无区别了。警报和报告ThinProvisioning已与VMwarevCenterServer集成。因此,管理员可以提供报告并设置阈值以主动管理增长和容量。如果阵列合规,vSphereStorageAPIforArrayIntegration会自动在超出ThinProvisioning警告阈值(75%)时发出警报。超额预订保护精简配置可能会导致超额预订。在vSphere中,管理员可使用StoragevMotion(可用来动态迁移VMDK)或VMFS卷容量增长功能(可用来动态增加数据存储的大小)来管理超额预订。3.4.9存储API存储识别软件供应商可以使用vSphereAPIforStorageAwareness(VASA)为vSphere提供有关特定磁盘阵列的信息,以便在存储与虚拟基础架构之间实现更紧密的集成。共享的信息包括有关存储虚拟化的详细信息,如运行状况、配置、容量和精简配置等。这一级别的详细信息现在可通过vCenterServer传递给用户。可以收集有关特定磁盘阵列功能特性(例如快照、重复数据消除、复制状态、RAID级别以及是精简配置还是厚配置)以及状态(运行状况、故障排除等)的信息。管理员在创建虚拟机时可以根据有关底层磁盘的容量、性能和功能的高级详细信息轻松选择最合适的存储资源。可与vSphere的其他功能(如StorageDRS和配置文件驱动的存储)集成。73图:vSphereStorageAPIs阵列集成vSphere提供一个API用以将特定存储操作的负载分流到受支持的磁盘阵列,从而拥有无可比拟的性能和效率。借助vSphereAPIforArrayIntegration(VAAI),vSphere能够更快地执行关键操作,并减少CPU、内存和存储带宽使用量。将数据块复制和数据块清零操作的负载分流到阵列。支持在采用精简配置的阵列中进行废弃空间回收和发出空间不足警告。完全支持NAS以及基于数据块的存储。多路径通过与第三方存储供应商提供的多路径软件功能集成,提高存储I/O的性能和可靠性。由于采用了模块化存储体系结构,因此存储合作伙伴可以为他们的特定功能编写插件。插件通过与存储阵列中运行的智能进行通信来确定最佳的路径选择,同时利用并行路径来提高从vSphere主机对存储阵列执行的I/O的性能和可靠性。DataProtection借助含vSphereAPIsforDataProtection(VADP)的备份软件,可以进行可扩展的备份,而不会造成应用程序和用户的中断。通过VADP,备份软件可以执行集中式的虚拟机备份,避免在每个虚拟机内运行备份任务所造成的中断和开销。74可对虚拟机执行完整、差异及增量映像备份和恢复。可以使用受支持的Windows和Linux操作系统执行文件级虚拟机备份。通过对运行受支持的MicrosoftWindows操作系统的虚拟机使用Microsoft卷影复制服务(VSS),可确保数据一致性。vSphereAPIforDataProtection随附在VMwarevSphere所有版本和工具包中。3.4.10VirtualVolumesVirtualVolumes是一个全新的集成和管理框架,通过虚拟化SAN/NAS阵列,实现更加高效的运维模式,该模式针对虚拟化环境进行了优化,并以应用而不是基础架构为中心。 VirtualVolumes可通过策略驱动的自动化简化运维,使管理员能够更灵活地控制虚拟机的存储使用量,并在需要时进行动态实时调整。通过对可按虚拟机精确度实例化的硬件资源和基于本机阵列的数据服务进行更加精细的控制,它可以简化向各个应用提供存储服务级别的过程。VirtualVolumes的优势简化存储操作 通过自动执行手动任务以及消除通常会增加复杂性的VI管理员和存储管理员之间的操作依赖性,VirtualVolumes可以简化存储操作。这种新的操作75模式基于策略驱动的自动化功能构建,因此调配更加快速,变更管理也更加简单。简化存储服务级别的交付 通过使管理员能够在虚拟机级别对可动态实例化和实时控制的存储资源及数据服务进行更加精细的控制,VirtualVolumes可以简化向应用提供存储服务级别的过程。提高资源利用率 VirtualVolumes能够根据需要按照更高的精确度更加灵活地利用存储资源,从而提高资源利用率。精确利用存储资源消除了超额配置现象。VirtualVolumes的主要技术要素逻辑级别的灵活使用方式VirtualVolumes能够虚拟化SAN和NAS设备,方法是提取物理硬件资源并将其合并到可更加灵活地使用和配置为跨越一个或多个存储阵列的一部分的逻辑容量池(虚拟数据存储)中。虚拟数据存储完全为逻辑构造,可根据需要对其进行无中断实时配置,并且也不需要使用文件系统对其进行格式化。虚拟机级别的更精确控制VirtualVolumes可以定义独立于底层物理存储表示形式的新虚拟磁盘容器(虚拟卷)。该虚拟磁盘将成为阵列级别数据管理的主要单元,能够将虚拟数据存储转换为以虚拟机为中心的容量池,并对基于本机阵列的数据服务进行以虚拟机为中心的控制。通过自动化实现高效的运维基于存储策略的管理支持采用与虚拟机相关的逻辑模板(策略)捕获存储服务级别的要求(容量、性能和可用性等)。SPBM能够通过确定符合策略要求的可用数据存储实现虚拟机自动放置,并且借助VirtualVolumes,它还能够动态实例化所需的数据服务。通过实施策略,SPBM还能够在虚拟机的整个生命周期内自动监控服务级别和合规状态。存储合作伙伴体系VirtualVolumes是受所有主要存储供应商支持的全行业推广计划,该计划将支持客户充分利用当前存储投资独有的功能,同时支持无中断过渡到新的运作模式。3.4.11vSphereFlashReadCache3.4.11.1VMwareFRC介绍vSphereFlashReadCache可虚拟化服务器端闪存,从而提供一个可大幅降低应用延迟的高性能读缓存层。缓存对虚拟机完全透明,无需任何客户机代理。vSphere76FlashReadCache支持按每个VMDK的精确度分配闪存资源,从而提供vMotion一致性读缓存以及与DRS的集成来进行初始安置。可靠和经济实惠的服务器端闪存——以PCIe卡或固态驱动器形式出现的服务器端闪存为vSphere环境提供了可靠和经济实惠的存储介质。服务器端闪存提供了一个新的低延迟存储层,可以利用该层来以性价比逐渐提高的方式使数据靠近虚拟机。3.4.11.2VMware特性与优势特性:新的基于本地SSD磁盘的缓存功能读信息连续写入缓存——最佳用例是应用于对读密集的工作流把多个SSD磁盘抽象池化成一个缓存池可以在虚拟机中配置——需要硬件版本10可以像管理CPU和内存一样管理虚拟化闪存资源使用服务器闪存的按虚拟机、基于虚拟化管理程序的读缓存与vMotion、DRS和HA兼容优势:使关键任务应用的性能提高5-10倍之多支持在虚拟环境中高效利用服务器闪存完全透明的读缓存——无需主机代理或应用更改3.4.11.3vFRC详细技术信息77图:vFRC结构Flash基础结构像使用服务一样使用vSphere服务器上的SSD资源把SSD已轻量级方式集成到vSphere存储架构中允许flash使用者以灵活的方式预留,访问,使用flash资源一种可以把第三方flash服务融入vSphere之中的机制缓存软件对VM透明的VM感知的Flash资源池化Flash基础架构将服务器端的flash作为一种新的资源池以虚拟对象为分配资源的单位只有在VM开机的时候使用可以使用vMotion以及DRSFlash资源管理在不同的flash资源使用者之间做协商强制使用admissioncontrol支持为单独VM或单独VMDK分配flash资源设定预留值,使用上限和使用优先级对于服务器端的缓存,有下图所示的几种模式,对于没有服务器端缓存的VM不分配SSD缓存,另外两种分别为:对VM透明的缓存和VM感知的缓存。78图:SSD缓存的模式对VM透明的缓存缓存软件工作在内核中:Hypervisor内核缓存模块;在虚拟磁盘的数据路径上。提供给用户不同选择:定义好的开发编程接口供用户使用;提供用户在服务器上使用flash缓存的选择。多缓存模式:只读缓存;读写缓存(未来支持)。在vMotion时如何处理缓存内容:迁移;丢弃。图:对虚拟机透明的缓存VM感知的缓存Flash作为块设备直接分配给VM,缓存算法由VM自己控制79缓存状态:在vMotion和DRS时保存,VM关机时不保存图:虚拟机感知的缓存3.5可用性功能借助vSpherevMotion,运行中的虚拟机可以从一个vSphere主机迁移到另一个vSphere主机,而且不会对终端用户造成任何影响。这样,管理员无需安排停机时间或中断业务运营即可执行服务器维护和升级。借助vSpherevMotion,管理员可以根据不断变化的业务政策动态地跨vSphere服务器重新配置虚拟机的安置,或者主动将虚拟机从发生故障或性能不佳的硬件中移出。利用vSphereStoragevMotion,管理员可以将虚拟机磁盘文件从一个数据存储移到另一数据存储,而不会中断提供给终端用户的服务。管理员可以通过简化存储阵列迁移、维护和升级以及动态优化存储的I/O性能来控制存储操作。vSphereHighAvailability(HA)可为虚拟机中运行的应用提供易于使用、经济高效的高可用性。一旦物理服务器出现故障,VMwareHighAvailability可在具有备用容量的其他服务器中自动重启受影响的虚拟机。若操作系统出现故障,vSphereHA会在同一台物理服务器上重新启动受影响的虚拟机。3.5.1VMwareHighAvailability在虚拟化环境中使用最为广泛的可用性提升功能就是vSphereHA。vSphereHA通过监控虚拟机以及运行这些虚拟机的主机,为实现高度可用的环境奠定了基础,它在整个虚拟化IT环境中实现软件定义的高可用性,而不像传统集群解决方案那样花费高成本或实现起来过于复杂。vSphere6.0可以保护64台ESXi主机和6000台虚拟机。3.5.1.1概览80VMwarevSphereHighAvailability(HA)可为虚拟机中运行的应用提供易于使用、经济高效的高可用性。一旦物理服务器出现故障,VMwareHA可在具有备用容量的其他生产服务器中自动重新启动受影响的虚拟机。若操作系统出现故障,vSphereHA会在同一台物理服务器上重新启动受影响的虚拟机。图:vSphereHighAvailabilityvSphereHA利用配置为集群的多台ESXi主机,为虚拟机中运行的应用程序提供快速中断恢复和具有成本效益的高可用性。vSphereHA通过以下方式保护应用程序可用性:通过在集群内的其他主机上重新启动虚拟机,防止服务器故障通过持续监控虚拟机并在检测到故障时对其进行重新设置,防止应用程序故障与其他集群解决方案不同,vSphereHA提供基础架构并使用该基础架构保护所有工作负载:无需在应用程序或虚拟机内安装特殊软件,所有工作负载均受vSphereHA保护。配置vSphereHA之后,不需要执行操作即可保护新虚拟机,它们会自动受到保护可以将vSphereHA与vSphereDistributedResourceScheduler(DRS)结合使用以防止出现故障,以及在集群内的主机之间提供负载平衡vSphereHA可让IT组织获得下列益处:最大限度地减少因服务器和操作系统故障造成的停机提高整个基础架构范围内的保护力度1)最大限度地减少因服务器和操作系统故障造成的停机vSphereHA可提供虚拟机中运行的大量应用所需的可用性,并且不依赖于其中运行的操作系统和应用。HA可针对虚拟化IT环境中的硬件和操作系统故障,提供统一且经济高效的故障切换保护,它可以:监控虚拟机的情况以便检测操作系统和硬件故障81在检测到服务器故障时,无需手动干预即可在资源池中的其他物理服务器上重新启动虚拟机在检测到操作系统故障时,通过自动重新启动虚拟机来保护应用程序不受操作系统故障的影响2)提高整个基础架构范围内的保护力度从vSphereClient界面中单击一次即可配置vSphereHA以提供故障切换保护,而无需对与操作系统或应用绑定在一起的解决方案进行复杂的安装和配置。由于HA配置简单并且只需要最基本的资源即可提供保护,因此用户可以:针对服务器和操作系统故障为所有应用程序提供统一保护,而不必考虑虚拟机使用的服务器硬件或操作系统是什么样子的为整个IT基础架构建立第一道坚固屏障保护没有其他故障切换备选方案的应用程序,并使原本可能不被置于保护下的软件应用程序也具有高可用性与传统的故障切换解决方案相比,vSphereHA具有多个优势:最小化设置:设置vSphereHA集群之后,集群内的所有虚拟机无需额外配置即可获得故障切换支持减少了硬件成本和设置:虚拟机可充当应用程序的移动容器,可在主机之间移动,管理员可以避免在多台计算机上进行重复配置。使用vSphereHA时,必须拥有足够的资源来对要通过vSphereHA保护的主机数进行故障切换,但是,vCenterServer系统会自动管理资源并配置集群提高了应用程序的可用性:虚拟机内运行的任何应用程序的可用性变得更高。虚拟机可以从硬件故障中恢复,提高了在引导周期内启动的所有应用程序的可用性,而且没有额外的计算需求,即使该应用程序本身不是集群应用程序也一样。通过监控和响应VMwareTools检测信号并重新启动未响应的虚拟机,可防止客户机操作系统崩溃DRS和vMotion集成:如果主机发生了故障,并且在其他主机上重新启动了虚拟机,则DRS会提出迁移建议或迁移虚拟机以平衡资源分配。如果迁移的源主机和/或目标主机发生故障,则vSphereHA会帮助其从该故障中恢复3.5.1.2HA详细技术信息HA通过监控虚拟机以及运行这些虚拟机的主机,为实现高度可用的环境奠定了基础。 HA是一种成熟的解决方案,可提供可扩展性、可靠性和易用性:1)可扩展性随着VMware产品在如今的新式数据中心内得到越来越多的使用,提供一种可扩展的解决方案来实现高可用性已成为必需。经过重新设计的vSphereHA便奠定了这一基础。vSphereHA的其中一项最大的变化就是完全摒弃了主节点和辅节点的概念。新模型在集群中的节点间引入了一种主/从关系:集群中的一个节点被选作主节点后,其余的节点皆成为从属节点。主节点负责协调与其他节点的所有可用性操作,并将这种状态告知VMwarevCenterServer。采用这种模式时,在为高度可用的环境设计体系结构时便无需再进行大量的规划工作。管理员再也不必担心是哪些主机担当他们的主82节点以及这些主机位于何处。当在刀片服务器机箱和扩展集群环境中实施vSphereHA时,这一点特别重要。图:vSphereHA集群中的主节点得益于vSphereHA对IPv6网络连接提供的支持,需要较大地址空间的IT部门终于可以充分利用他们的网络基础架构了。vSphereHA现在还包含一种增强的部署机制,利用这种机制,管理员现在只需使用以前所用时间的一小部分即可完成这些任务,例如在部署vSphereHA代理时以及在配置、取消配置和重新配置vSphereHA时就是如此。2)可靠性发生灾难事件时,管理员最不希望担心的事情就是所部署的解决方案是否将正常发挥作用。VMware通过分析客户就vSphereHA最常致电寻求支持的内容,增加了一些可确保客户继续满怀信心地使用vSphereHA的功能。有一项增强是让vSphereHA不再依赖任何外部组件。具体而言,就是vSphereHA不再对集群中每个主机进行的DNS解析有任何类型的依赖。通过消除这种依赖,降低了外部组件停机对vSphereHA的运行产生影响的可能性。还有一项增强是能够通过存储子系统在集群内的节点之间实现通信。现在,vSphereHA将通过网络和存储使用多条通信路径。这不仅可以实现更高的冗余级别,还有助于更好地确定节点及其上运行的虚拟机的运行状况。83图:vSphereHA数据存储心跳3)易用性尽管对vSphereHA进行的大多数增强,终端用户都看不到,但针对易用性提升进行的增强则可以给终端用户带来最直接、最切身的体验。通过对用户界面进行的改进,用户可以快速确定节点在集群中所发挥的作用以及它的状态。此外,报告错误情况的消息也变得更为易懂,而且也更容易据此采取行动。真的出现问题时,只需查看一个日志文件即可,从而大大减少了解决问题所用的时间。图:vSphereHA的易用性得到提升3.5.2VMwareFaultTolerancevSphereFaultTolerance(FT)通过创建与主实例保持虚拟同步的虚拟机实时影子实例,使应用(最多包含4个虚拟CPU)在服务器发生故障的情况下也能够持续可用。84通过在发生硬件故障时在两个实例之间进行即时故障切换,FT完全消除了数据丢失或中断的风险。3.5.2.1概览vSphereHA通过在主机出现故障时重新启动虚拟机来为虚拟机提供基本级别的保护,而vSphereFaultTolerance可提供更高级别的可用性,它允许用户对任何虚拟机进行保护以防止主机发生故障时丢失数据、事务或连接。FT可以完成如下功能:在受保护的虚拟机响应失败时自动触发无缝的有状态故障切换,从而实现零停机、零数据丢失的持续可用性在故障切换后自动触发新辅助虚拟机的创建工作,以确保应用受到持续保护图:vSphereFaultToleranceFaultTolerance可提供比vSphereHA更高级别的业务连续性。当调用辅助虚拟机以替换与其对应的主虚拟机时,辅助虚拟机会立即取代主虚拟机的角色,并会保存其整个状况。应用程序已在运行,并且不需要重新输入或重新加载内存中存储的数据。这不同于vSphereHA提供的故障切换,故障切换会重新启动受故障影响的虚拟机。FT的主要特点如下:不论使用何种操作系统或底层硬件,均可为应用提供保护FaultTolerance可以保护所有虚拟机(最多包含4个虚拟CPU),包括自主开发的应用,以及无法用传统的高可用性产品来保护的自定义应用。它可以:与所有类型的共享存储都兼容,包括光纤通道、iSCSI、FCoE和NAS与VMwarevSphere支持的所有操作系统兼容可与现有的vSphereDRS和HighAvailability(HA)集群协同工作,从而实现高级负载平衡和经优化的初始虚拟机放置特定于FT的版本控制机制,允许主虚拟机和辅助虚拟机在具有不同但兼容的补丁程序级别的FT兼容主机上运行易于设置,可按虚拟机启用和禁用85由于FaultTolerance利用了现有的vSphereHA集群,因此可以使用FT保护集群中任意数量的虚拟机。对于要求在某些关键时段(例如季末处理)获得持续保护的应用,可以利用FT更加有效地保证它们在这些时段可用。只需在vSphereWebClient中轻松执行点击操作,即可启用或禁用FT,使管理员能够根据需要使用其功能此外,vSphere6.0还引入了如下新特性:增强的虚拟磁盘支持:目前支持任意磁盘格式(thin,thick和EZT)支持对FT进行热配置:在开启FT的时候不再需要关闭虚拟机FT的主机兼容性大幅增强:只要可以在主机间进行虚拟机的在线迁移,那么久可以进行FT。3.5.2.2FT详细技术信息vSphereFaultTolerance通过创建和维护与主虚拟机相同,且可在发生故障切换时随时替换主虚拟机的辅助虚拟机,来确保虚拟机的连续可用性。管理员可以为大多数运行关键任务的虚拟机启用FaultTolerance,它会创建一个重复虚拟机(称为辅助虚拟机),该虚拟机会以虚拟锁步方式(VMwarevLockstep)随主虚拟机一起运行。虚拟锁步技术可捕获主虚拟机上发生的输入和事件(从处理器到虚拟I/O设备),并将这些输入和事件发送到正在另一主机上运行的辅助虚拟机。使用此信息,辅助虚拟机的执行将等同于主虚拟机的执行,该技术可以使主虚拟机和辅助虚拟机执行相同顺序的X86指令。因为辅助虚拟机与主虚拟机一起以虚拟锁步方式运行,所以它可以无中断地接管任何点处的执行,从而提供容错保护。图:FT的工作原理主虚拟机和辅助虚拟机可持续交换检测信号,此交换信号使得虚拟机对中的虚拟机能够监控彼此的状态,以确保持续提供FaultTolerance保护。如果运行主虚拟机的主机发生故障,系统将会执行透明故障切换,此时会立即启用辅助虚拟机以替换主虚拟机,并将启动新的辅助虚拟机,同时在几秒钟内重新建立FaultTolerance冗余。如果运行辅助虚拟机的主机发生故障,则该主机也会立即被替换。在任一情况下,用户都不会遭遇服务中断和数据丢失的情况。整个过程是透明且全自动的,并且即使vCenterServer不可用,该过程也同样会发生。86容错虚拟机及其辅助副本不允许在相同主机上运行,此限析确保主机故障无法导致两个虚拟机都丢失。用户也可以使用虚拟机-主机关联性规则来确定要在其上运行指定虚拟机的主机。如果使用这些规则,对于受这种规则影响的任何主虚拟机,其关联的辅助虚拟机也受这些规则影响。FaultTolerance可避免“裂脑”情况的发生,此情况可能会导致虚拟机在从故障中恢复后存在两个活动副本。共享存储器上锁定的原子文件用于协调故障切换,以便只有一端可作为主虚拟机继续运行,并由系统自动重新生成新辅助虚拟机。将FaultTolerance功能与DRS配合使用启用EnhancedvMotionCompatibility(EVC)功能时,可以将vSphereFaultTolerance与vSphereDistributedResourceScheduler(DRS)配合使用。此过程不但可使容错虚拟机受益于更好的初始放置位置,还可以将其纳入集群的负载平衡计算中。当集群启用了EVC时,DRS将为容错虚拟机提出初始放置位置建议、在重新平衡集群负载期间移动这些虚拟机,并允许管理员为主虚拟机分配DRS自动化级别(辅助虚拟机总是采用与其关联的主虚拟机相同的设置)。在初始放置或负载平衡期间,DRS放置在主机上的主虚拟机或辅助虚拟机的数目不会超过一个固定的数目。FaultTolerance用例以下几种典型情况可以受益于vSphereFaultTolerance的使用:需要始终保持可用的应用程序,尤其是那些具有长时间客户端连接的应用程序,用户希望在硬件故障期间保持这些连接不能通过任何其他方式实现集群功能的自定义应用程序可以通过自定义集群解决方案提供高可用性,但这些解决方案太复杂,很难进行配置和维护的情况3.5.3VMwareDataProtectionvSphereDataProtection是专为vSphere环境设计的备份和恢复解决方案。它由EMCAvamar提供支持,可提供存储到磁盘的无代理映像级虚拟机备份。借助高效利用WAN的加密备份数据复制功能,它还能够为关键业务Microsoft应用(Exchange、SQLServer、SharePoint)提供可识别应用的保护。vSphereDataProtection与vCenterServer和vSphereWebClient全面集成。87图:vSphereVDP3.5.3.1功能特性高效备份和恢复为虚拟机和关键业务应用提供可靠的保护,同时最大限度缩短备份时段和减少存储使用量以降低备份基础架构成本。可变长度重复数据消除:与固定长度重复数据消除技术相比,可实现非常高的重复数据消除率并将备份存储要求减少多达75%。可对由同一虚拟设备备份的所有虚拟机执行重复数据消除。可识别应用的备份:使用可确保应用一致的备份并可提供精细恢复的轻量级客户机内部代理,对MicrosoftExchange、MicrosoftSharePoint和MicrosoftSQLServer执行应用级备份。与EMCDataDomain系统集成:通过将数据备份到DataDomain系统提高可扩展性;通过使用DDBoost软件提高备份效率。自动验证备份:按计划安排自动执行的虚拟机还原操作可以测试备份的完整性。易于使用vSphereDataProtection是专门针对vSphere平台的虚拟化和管理功能而设计的。通过vSphereWebClient配置和管理备份,从而简化备份操作:基于Linux的虚拟设备:轻松安装和配置备份。向导驱动的备份策略:根据具体时间表和保留策略,将备份作业分配给单个虚拟机或更大的容器,例如集群或资源池。88自助式文件级恢复:让客户操作系统管理员能够还原各个文件和文件夹。vSphereWebClient集成:通过vSphereWebClient提供端到端备份管理。快速、可预测的恢复单步恢复:借助完整合成备份,可以轻松浏览单步虚拟机恢复的还原点。变更数据块还原:通过仅还原更改的虚拟机数据块增量,缩短恢复时间(与使用完整映像还原方法相比)。高效利用WAN的加密备份数据复制:将可变长度重复数据消除功能与压缩和加密功能相结合,确保备份已针对WAN传输进行了优化。直接进行主机紧急还原:即使在vCenterServer脱机时也能将虚拟机直接还原至vSphere主机。3.5.3.2VDP详细技术信息vSphereDataProtection可部署至VMFS、NFS和VirtualSAN数据存储。可使用vSphereWebClient执行vSphereDataProtection管理任务。可将vSphereDataProtection部署为一台拥有4个处理器(虚拟CPU)和至少4GB内存的虚拟设备(根据该设备的备份数据容量而定)。可为每个vSphereDataProtection设备提供介于0.5TB和8TB之间的多种备份数据容量配置。可根据受保护的虚拟机数量、数据量、备份数据保留期和数据变化率(所有这些因素都可能出现较大变化)确定容量要求。映像级备份vSphereDataProtection(VDP)可创建映像级(完整虚拟机)备份。VDP设备可与vCenterServer通信,以拍摄虚拟机.vmdk文件的快照。在VDP设备中进行重复数据消除。每个VDP设备最多可同时备份8台虚拟机(如果使用内部代理)或24台虚拟机(如果部署外部代理)。要创建和编辑备份作业,请使用vSphereWebClient中vSphereDataProtection“界面上的Backup”(备份)选项卡。可以选择单独的虚拟机和容器(例如数据中心、集群和资源池)进行备份。对于容器,在作业运行时容器中包含的所有虚拟机都将得到备份。之后添加到该容器的虚拟机将在下一次作业时纳入备份范围。同样,从容器中删除的虚拟机不再包括在备份作业中。可以将备份作业安排为每日、每周或每月运行一次。也可以手动运行备份作业。89图:轻松创建和编辑备份作业变更数据块跟踪(CBT)还原vSphereDataProtection在映像级备份过程中使用了变更数据块跟踪(CBT)技术。在某些情况下,CBT也用于映像级还原,以加快速度并提升效率。vSphereDataProtection自动评估两种还原方法(还原所有数据块或者计算并仅还原发生变更的数据块)的工作负载,并采用最高效的方法。在还原过程中,可能将虚拟机还原到其他位置并/或对其进行重命名。(请注意,在将虚拟机还原到备用位置时不使用CBT技术。)图:备份还原可识别应用的客户机级备份和还原vSphereDataProtection可为MicrosoftSQLServer、Exchange和SharePoint提供可识别应用的客户机级备份。将安装可备份和还原这些应用数据库的代理。对于MicrosoftExchange,也可以还原各个邮箱。备份数据复制90备份数据复制功能可提供额外级别的保护以避免数据丢失,并能够在源VDP设备丢失时执行灾难恢复。复制作业可以确定复制哪些备份数据,以及何时和在何处进行复制。对于使用VDP设备创建的备份,可将其复制到另一个VDP设备或EMCAvamar。还支持复制存储在DataDomain系统上的备份数据。为了最大限度降低网络带宽利用率,仅复制唯一的备份数据段;同时,复制流经过了加密以确保安全。与DataDomain系统集成vSphereDataProtection可配置为将DataDomain系统用作备份目标。由于DataDomain系统可通过DDBoost(VDP包括DDBoost库)提供额外扩展、全局重复数据消除和更高的备份效率,因此这一配置很有用。可在具有单独DataDomain目标的两个VDP设备之间配置备份数据复制。复制的配置以及备份元数据的维护在VDP设备中进行,而备份数据的复制直接在DataDomain设备之间进行。为了最大限度提高网络利用率,仅复制唯一的数据段。3.5.4vStorageAPIsforDataProtectionvStorageAPIsforDataProtection(VADP)对于数据备份以及数据复制方面的应用程序非常有价值。VADP可以直接与vSphere整合,用户可以绕过第三方的组件直接来访问数据。3.5.4.1概览采用用于数据保护的vSphereAPI的备份软件,可以获得可扩展的备份,而不会使应用程序和用户造成中断。利用用于数据保护的存储API,备份软件可以执行集中式虚拟机备份,避免了在每个虚拟机内运行备份任务所造成的中断和开销。VADP可以:可对虚拟机执行完整、差异及增量映像备份和恢复对使用受支持的Windows和Linux操作系统的虚拟机执行文件级备份通过对运行受支持的MicrosoftWindows操作系统的虚拟机使用Microsoft卷影复制服务(VSS)确保数据一致性3.5.4.2VADP的主要优势彻底的直接整合在备份环境中使用VADP的首要益处就是可以得到彻底的直接整合,这样就形成了一种更加容易和高效的数据备份方式。为了访问到位于虚拟层上的数据,用户不需要先进入其他任何的层次进行中转了。这些API可以让备份软件厂商的开发人员直接与虚拟层进行对接,可以执行调用、查询而直接访问到虚拟磁盘层。相对于其他虚拟机备份方式来讲,VADP剔除了额外的不必要的层次,而这些层次在一些并不方便的备份方式中依然存在。它还可以让备份软件直接与vSphere对接,而不需要其他任何辅助程序。大多数的备份软件厂商如今已经转向了vStorageAPIsforDataProtection,它将会作为备份软件访问虚拟机数据的最佳方式。可变数据块跟踪91ChangedBlockTracking(CBT,可变数据块跟踪)是VADP中的一项非常重要的特性,它可以让VMkernel来追踪变化的数据块。所以,当一个数据备份应用或者数据复制应用程序有意来查看相对上一次备份之后所变化的数据块的时候,它们就可以通过查询VADP来获取到底哪些块的内容发生了变化。由于VMkernel持续的跟踪这些变化,所以它可以快速的向这些应用程序提供用于增量备份的块的信息。因此,它可以显著的提高增量备份或者复制的效率。3.5.5vSphereReplication通过使用内置的vSphereReplication,用户可以消除第三方复制成本,并制定更灵活的灾备计划。3.5.5.1概览vSphereReplication无需采用基于存储阵列的本机复制,即可通过网络在vSphere主机之间复制处于开启状态的虚拟机,该技术具有许多独特的优势:降低带宽需求vSphereReplication是VMware的专有复制引擎,它仅会将发生变更的数据块复制到恢复站点,与手动复制完整的虚拟机系统副本相比,可确保实现更低的带宽利用率和更高的恢复点目标。在初始同步期间,利用虚拟机数据的“种子副本”通过跟踪发生变更的磁盘区域并仅复制增量数据,确保高效利用网络图:vSphereReplication消除存储局限性vSphereReplication在各个虚拟机磁盘(VMDK)级别运行,因而可以在任何存储上托管的数据存储之间进行复制,它可以:在保护站点重新改变旧存储的用途对非同类站点采用不同的存储技术(例如SAN相对于NAS、FC相对于iSCSI等)仅将辅助存储用于受保护的虚拟机,而不是整个环境构建灵活的灾难恢复配置92在配置要复制的虚拟机时,只需简单单击一下,即可将vSphereReplication配置为确保应用数据和虚拟机数据保持一致,它可以:与Microsoft的卷影复制服务(VSS)自动集成,可确保恢复副本一致支持灵活的恢复点目标,可从15分钟至24小时不等在虚拟机级别通过vCenterServer控制复制每个集群可扩展为数百个虚拟机此外,vSphere6.0还引入了如下的新特性。对传输的数据进行压缩以便进一步压缩VR对网络带宽的要求进而提高效率对VR网络流量进行隔离以控制带宽并提高性能和安全性在复制和备份期间对某些Linux虚拟机的Linux文件系统执行“悬停”操作来完成文件系统的一致性恢复进而提高恢复可靠性迁移副本不再需要完全同步进而可以更好地平衡存储使用率3.5.5.2VR详细技术信息当前,灾难恢复的覆盖范围通常只限于大型数据中心的第一层应用,也就是关键的业务应用。在许多情况下,第二或第三层等非关键应用和小型站点没有真正的灾难恢复保护,而只是使用备份进行保护。这是因为,传统灾难恢复保护不仅成本高昂而且过于复杂,因而无法广泛应用于所有应用和站点。图:灾难恢复覆盖范围通常受高额保护成本的限制不幸的是,由于日常活动仍然广泛依赖于第二或第三层应用和小型站点,因此这样的灾难恢复保护会导致大量的业务风险。在理想情况下,各企业应该准备一个经济高效且简单可靠的灾难恢复计划,以满足其所有应用和站点的需要。而VMwareSiteRecoveryManager可以提供两种复制选择来供用户使用,它们分别是:基于存储的传统复制,在许多情况下,它仍将是大型关键业务环境青睐的选择vSphereReplication(VR),它为复制虚拟机提供了另一种选择。VR是一种经济高效的简单机制,可用于在两个站点之间进行复制,在很多情况下,是第二或第三层应用和小型站点的更好选择93图:SRM可提供广泛的复制选择由于vSphereReplication的引入,客户现在拥有更多的选择,从而使复制解决方案能够更好地符合业务需求。VR和基于存储的复析在相同的集群中配合使用,以便为更复杂的环境提供最佳灵活性。vSphereReplication可以提供非常经济高效、简单而又功能强大的复制。经济高效VR可以降低存储成本和复制成本,所以更为经济高效。它可以在存储层消除这两个站点对较高端存储阵列的需求。客户可以跨站点使用其他较低端的存储,包括直连存储。例如,一种普遍的选择是将第一层存储放在生产站点,而在故障切换站点使用较低端的存储,例如较旧或较便宜的阵列。另外,vSphereReplication也与SRM捆绑在一起,因而无需花费额外成本,从而消除了基于存储的复制许可证所需的额外成本。简单从本质上而言,vSphereReplication也比基于存储的复制更为简单。用户可以从vCenter直接管理复制,从而消除对存储团队的依赖。另外,管理员可在单个虚拟机级别进行管理,从而大幅简化SRM的设置。功能强大尽管vSphereReplication简单且经济高效,但仍然是稳健且功能强大的复制解决方案。它可提供15分钟的RPO,并且使用户能够灵活地将RPO设定在15分钟到24小时之间。它可跟踪已更改的磁盘区域并且仅复制最新的增量数据以提高网络效率,还可扩展至最多500个虚拟机。94图:VR可提供经济高效且简单的复制vSphereReplication和基于存储的复制都非常有用,客户可以根据实际情况将两者结合起来使用。vSphereReplication由VMware直接提供,与基于存储的复制相比,它更为经济高效且更简单。基于存储的复制依赖于第三方存储供应商,它更昂贵、复杂,难以管理,但是功能相对强大。下图是两种复制技术在复制提供方,成本,管理以及性能方面的比较。图:vSphereReplication是基于存储的复制的补充功能vSphereReplication是将灾难恢复保护扩展至第二或第三层应用和小型站点的极佳方法。95图:将灾难恢复保护扩展至第二、三层应用和小型站点基于存储的灾难恢复相当昂贵,第一层存储阵列上的存储容量和额外的复制许可证使其成本居高不下。存储、复制和SRM的成本通常在每个虚拟机2000美元左右。尽管与物理灾难恢复相比已经便宜很多,但对于不太关键的业务环境而言,其成本仍然相当高并且可能成为成本障碍。vSphereReplication更为经济高效。通过支持使用较低端存储阵列、消除对专用复制许可证的需求和提供成本较低的SRMStandard版本许可证,VR可将每个虚拟机的成本降低3倍,即每个虚拟机大约600美元。由于每个虚拟机的成本更低,因此各企业能够将其灾难恢复保护扩展至更多应用和站点。vSphereReplication不仅经济高效,简单,它还可以简化复制管理,它在本质上比基于存储的复制更容易管理。在新的SRM部署中使用基于存储的复制来设置复制是一项复杂的任务。vSphere管理员必须与存储管理员同步才能确保将适当的LUN复制到包含正确复制计划的其他站点。96图:借助vSphereReplication简化复制管理借助vSphereReplication,一切都将简单许多。vSphere管理员可以从vCenter直接管理复制,从而消除对存储管理员的依赖。另外,管理员可以在虚拟机级别管理复制,因而再也无需进行复杂的虚拟机分组以及将虚拟机映射到LUN。VR的这一特性使得它对于简易性至关重要的情形(例如对于第二和第三层应用的保护)格外具有吸引力。3.5.6实现原理与工作机制vSphereReplication是深度集成在vSphere平台中的组件,也是当今市场上唯一一款真正的“虚拟化管理程序级”复制引擎。在主站点上,正在运行的虚拟机所用的虚拟机磁盘中如果有数据块发生了变更,这些数据块将发送到辅助站点,并在该处应用于虚拟机磁盘,以制作虚拟机的离线(保护)副本。图:复制虚拟机中发生变更的数据块图:vSphereReplication体系结构vSphereReplication是一款全新设计的产品,专门用于在vSphere集群之间进行复制并支持SRM部署。它依赖在ESXi中嵌入的vSphereReplication代理,该VSR代理可跟踪已更改的磁盘区域并将最新增量数据发送至受保护的站点。所复制的数据将会被vSphereReplication服务器捕获。每个vSphereReplication服务器实例可以管理大约100个虚拟机。它可捕获最新的磁盘更改并将这些更改应用到已复制的数据。97vSphereReplication可通过与vCenter和SRM紧密集成的vSphereReplication管理服务器进行管理。这两个站点都需要vSphereReplication管理服务器。所有vCenter操作都通过同一个管理界面完成,使用该界面可以非常轻松地为最多500个虚拟机配置复制:只需右键单击某个虚拟机,并为其副本选择目标位置即可。此过程有一步是选择“恢复点目标”,此步骤将告知vSphereReplication可以获取多久以前的虚拟机副本,然后它将时时尝试复制数据以满足恢复点目标。图:为多个虚拟机选择一个恢复点目标vSphereReplication将会对源虚拟机及其副本执行一次初始完全同步,管理员可以在目标位置放置数据的种子副本,以减少初始复制所需的时间和带宽。虚拟机的种子副本中包含一个虚拟机磁盘文件,管理员可以通过任何途径将该文件放置到目标位置。放置种子并不是一个必需的过程,无论目标位置是否有种子,vSphereReplication都会创建一个初始副本。如果用户获得了一个用于复制的种子,即可使用其中的数据来减少初始同步主磁盘及其副本所需的复制量。种子可以手动创建,也可以通过管理员选择的任何途径复制到相应位置,如采用脱机复制、FTP、“人工传输网络”,甚至使用ISO或虚拟机的克隆。在完成基准同步之后,vSphereReplication将切换为仅传输已变更的数据块。这种做法可以确保通过网络向目标发送最少量的数据,并实现更高的恢复点目标。在发送唯一性数据之后,无需再次发送。系统仅复制发生变更的数据,这些数据块将发送到目标位置的vSphereReplication设备中。从受保护的虚拟机的角度看,整个过程是完全透明的,不需要对配置或日常管理进行任何更改。这种复制方式采用的是非侵入形式,与虚拟机中的操作系统无关。3.6管理和自动化3.6.1集中式控制和主动式管理3.6.1.1vCenterServer体系结构和组件VMwarevCenterServer是一款服务器和虚拟化管理软件,提供一个用于管理VMwarevSpher环境的集中式平台。利用vCenterServer,IT管理员可以自动实施和交付虚拟基础架构。98图:vCenterServer管理拓扑vCenterServer位于vSphere的管理层下。vCenterServer对数据中心进行便捷的单点控制。它运行于Windows64位操作系统上,可提供许多基本的数据中心服务,例如:访问控制、性能监视以及配置。它可将各个计算服务器的资源整合起来,以供整个数据中心内的虚拟机共享。实现方法为:根据系统管理员设定的策略,管理分配给计算服务器的虚拟机以及分配给特定计算服务器内虚拟机的资源。vCenterServerWindows实施的一个低成本备用方案是以vCenterServer设备(vCenterServerAppliance)的形式提供,这是一个运行在基于Linux预配置设备中的vCenterServer实施。从vSphere6.0开始,vCenterServerAppliance与vCenterServerWindows在配置指标上已经没有区别了。99图:vCenterServer即使万一无法访问vCenterServer(例如,网络断开),计算服务器也能继续工作。可单独管理各个计算服务器,这些计算服务器将基于上一次设置的资源分配策略,继续运行分配给它们的虚拟机。vCenterServer连接恢复后,它就能重新管理整个数据中心。vCenterServer提供了多种可供用户选择的界面,用以管理数据中心和访问虚拟机。用户可以选择最符合自身需求的界面,如vSphereClient、vSphereWebClient、或终端服务(如WindowsTerminalService或Xterm)。100图:vCenterServer用户界面虽然vCenterServer可以在没有扩展模块和插件等附加组件的情况下正常运行,但大多数的数据中心仍然包含了这些附加组件,以便简化虚拟IT环境的管理。vCenterServer组件包括用户访问控制、核心服务、分布式服务、vCenterServer插件和vCenterServer接口:图:vCenterServer组件借助“用户访问控制”组件,系统管理员可针对不同用户创建不同级别的vCenterServer访问权限并进行管理。核心服务是虚拟数据中心的基本管理服务。101“分布式服务”是一种解决方案,它将vSphere功能扩展到单一物理服务器之外。vMotion、StoragevMotion、DRS、VMwareHA和FT均为分布式服务,它们能够为虚拟机实现高效的自动化资源管理和高可用性。vCenterServer插件通过提供更多的特性和功能扩展了vCenterServer的功能。vCenterServer接口可将vCenterServer与第三方产品和应用程序集成在一起。VMwarevCenterServer是服务器管理软件,可通过单一控制台提供对vSphere–的集中可见性、主动管理和可延展性。3.6.1.2功能概览简单的部署vCenterServerAppliance-使用基于Linux的虚拟设备快速部署vCenterServer和管理vSphere。主机配置文件-可标准化和简化vSphere主机配置的配置和管理方式。这些配置文件可捕获经过验证的已知配置(包括网络连接、存储和安全设置)的蓝本,并将其部署到多台主机上,从而简化设置。主机配置文件策略还可以监控合规性。集中控制和可见性vSphereWebClient-支持在世界上任何地点通过任意浏览器管理vSphere的重要功能。vCenter单点登录-用户只需登录一次,无需进一步的身份验证即可访问vCenterServer和vCloudDirector的所有实例。自定义角色和权限-通过为用户指派自定义角色,限制对由虚拟机、资源池和服务器组成的整个清单的访问。拥有适当特权的用户可以创建这些自定义角色,如夜班操作员或备份管理员。清单搜索-无论在何处均可通过vCenter浏览整个vCenter清单(包括虚拟机、主机、数据存储和网络)。主动优化资源管理-将处理器和内存资源分配给运行在相同物理服务器上的多个虚拟机。确定针对CPU、内存、磁盘和网络带宽的最小、最大和按比例的资源份额。在虚拟机运行的同时修改分配。支持应用动态获取更多资源,以满足高峰期性能要求。动态分配资源-使用DRS,可跨资源池不间断地监控利用率,并根据反映业务需求和不断变化的优先事务的预定义规则,在多个虚拟机之间智能分配可用资源。可实现一个具有内置负载平衡能力的自我管理、高效的IT环境。节能型资源优化-使用DPM自动监控和响应整个DRS集群的资源和能耗需求。当集群所需资源减少时,它会整合工作负载,并将主机置于待机模式,从而减少能耗。当资源需求增加时,自动将关闭的主机恢复在线状态以满足必要的服务级别要求。自动重启-使用HA,通过对虚拟机采用故障切换解决方案保持较高的可用性。102管理VMwarevRealizeOrchestrator:使用即时可用的工作流或通过方便的拖放式界面组建工作流来自动执行800多项任务。VMwarevCenterMulti-HypervisorManager:将集中管理功能扩展到Hyper-V主机,以提高异构虚拟化管理程序环境的可见性并简化对其的控制。VMwarevRealizeOperationsStandard(单独购买):获得容量优化以及对运维情况的深入洞察和可见性,以增强vSphere基础架构的性能和运行状况。可扩展和可延展的平台更高效的大规模管理: 通过单一vCenterServer实例管理多达1,000台主机和10,000个虚拟机。使用链接模式,跨10个vCenterServer实例管理多达30,000个虚拟机。使用VMwareHA和DRS集群可以支持多达64台主机和6,000个虚拟机。LinkedMode: 在整个基础架构内复制角色、权限和许可证,以便管理员可以同时登录所有vCenterServer以及查看和搜索它们的清单。系统管理产品集成: 使用Web服务API,与现有系统管理产品实现灵活且经济高效的集成。3.6.2自动化管理与调配3.6.2.1内容库内容库是vSphere6.0引入的新功能,它具有如下功能特性。使vSphere管理员能够轻松高效地管理虚拟机相关内容VMwarevSphere内容库使vSphere管理员能够轻松高效地管理虚拟机模板、vApp、ISO映像和脚本。103图:内容库从中心位置存储和管理内容跨vCenterServer边界共享内容将虚拟机模板从虚拟机资源库直接部署到主机或集群中以供使用从中心位置存储和管理内容利用内容库,管理员可以从中心位置存储和管理内容,管理员可以按逻辑将内容分组到多个库中,各个库的存储可以单独配置和管理。管理员可使用多种方法填充每个库:将文件夹中的现有模板克隆到内容库中(将现有模板轻松迁移到内容库中)将虚拟机作为模板克隆到内容库中从Web服务器导入从vCloudDirector目录同步内容从文件系统上传内容这使得内容库可以:跨基础架构对内容进行集中和标准化的管理只需单击几下,即可导入现有内容或新内容跨vCenterServer边界共享内容104创建并发布库后,即可在基础架构中的各个vCenterServer间共享内容。通过从单一来源共享内容,IT管理员可以获得在其组织中强制实施严格的虚拟机和应用配置策略所需的可见性和控制力。在订阅者vCenter中,管理员可以一次下载已发布库的所有内容或者仅在需要时进行下载“”(按需下载)。下载后,这些内容仍将与其在已发布库中的来源保持同步。另外,主机到主机的位传输可减少vCenterServer上的负载,同时获得较高的同步速度。可通过大规模操作简化运维管理,减少在存在多个vCenterServer的环境中重新创建、导入/导出内容所需的工作量跨vCenterServer实现内容一致性提供高级控制,使管理员能够控制相关功能,例如发布者库和订阅者库之间的同步时段以及为同步操作分配的网络带宽。将内容从内容库直接部署到主机或集群中以供使用可将存储的虚拟机模板从内容库快速且直接部署到主机或集群中以供使用。这意味着一个管理员可以管理多个用户的内容。用户可以订阅内容,在内容发布后访问该内容,以及将内容直接从库部署到其环境中。存储后,便可通过库(未发布、已发布或已订阅)从虚拟机模板快速部署新虚拟机。不管库类型如何,都能够确保管理员获得一致的调配体验通过与vCenter构造紧密集成实现轻松部署3.6.2.2AutoDeployvSphereAutoDeploy利用x86服务器的网络启动功能以及ESXi虚拟化管理程序占用空间小的优势,可实现在服务器上快速部署和调配vSphere主机。AutoDeploy具有如下功能特性。快速调配vSphere主机利用AutoDeploy,vSphere主机可以通过网络从中心AutoDeploy服务器启动,而ESXi软件就直接安装在该服务器的内存中。安装完成之后,将使用一个vCenter主机配置文件来配置主机。配置完毕后,该主机将连接到vCenter,用于承载虚拟机。整个过程完全自动执行,无需手动干预就可以调配新的主机。集中式ESXi映像管理使用AutoDeploy时,可以与匹配的硬件上运行的所有主机共享ESXi软件映像。由于采用集中式映像管理,无需修补和更新各个ESXi主机。只需对共享的映像配置文件执行一次更新,然后重新启动vSphere主机即可。消除配置偏差vSphere主机每次重新启动时,都会重新安装并重新配置,确保映像和配置的一致性。AutoDeploy可防止配置偏差,因此无需占用宝贵的资源来管理手动配置和修补流程所导致的偏差。105采用无磁盘vSphere主机,可从内存中运行可以将采用AutoDeploy调配的主机配置为完全从内存中运行,无需购买本地存储或将本地存储分配给每个vSphere主机。由于无需专用引导设备,因此简化了SAN配置,LUN分区和屏蔽也更为方便。以有状态方式部署主机由于采用无状态缓存或有状态部署,即使在AutoDeploy服务器发生故障时,仍然可以从本地磁盘启动主机。3.6.2.3主机配置文件主机配置文件通过使用主机配置文件策略,来消除每个主机的主机配置、手动主机配置或基于UI的主机配置,并维持数据中心内的配置一致性和正确性。这些策略捕获已知且经验证的引用主机的配置蓝图,并将其用于在多个主机或集群上配置网络、存储、安全和其他设置。然后,可以对照配置文件的配置检查主机或集群有无任何偏差。主机配置文件的主要功能特性如下。确保一致性以实现合规性由一组vSphere主机共享的配置设置存储在主机配置文件中。在创建主机配置文件之后,即可将其附加到一个或多个vSphere主机或集群。附加后,系统会将主机配置与主机配置文件进行比较,并报告存在的任何偏差。管理员可以将主机配置文件与其他主机和集群关联起来,以确保一致性。配置中的任何偏差都可以自动更正。缩短设置新主机所需的时间通过应用主机配置文件,可以配置添加到vCenterServer的新主机。利用此配置管理功能,管理员只需创建一次配置文件,即可将该配置文件用于多个vSphere主机,从而快速完成设置。此外,有了此自动化功能,就无需再设置专用脚本或手动配置的主机了。将相同的更改应用到多个主机当固件升级,或其他事件需要更改集群中多个主机上的存储、网络或安全配置时,管理员可以编辑主机配置文件,并将其应用于整个集群范围之内,从而确保配置更新的一致性。此外,管理员还可以删除必须从主机配置文件检查范围内排除的任何设置。3.6.2.4UpdateManagervSphereUpdateManager可自动管理vSphere主机和虚拟机的补丁程序,无需再进行手动跟踪和修补。使计算机始终保持最新且合规的状态它会将vSphere主机的状态与基准状态进行比较,然后通过更新和修补强制其合规。使用一个补丁程序合规性控制面板,可以了解整个虚拟基础架构范围内的补丁程序状态。可以通过分段和调度对远程站点进行修补。可以部署直接从供应商网站下载的脱机补丁程序捆绑包。降低修补风险106因修补而造成需要修复的兼容性错误的情况屡见不鲜。vSphereUpdateManager可以消除最常见的修补问题,杜绝它们的发生,确保管理员通过自动执行批处理所节省的时间不会重新浪费在执行回滚和处理一次性事务上。按用户指定的期限存储快照,以便管理员在必要时可以回滚虚拟机。可以安全地修补脱机虚拟机,无需将它们暴露在网络上,从而降低虚拟机不合规的风险。利用自动通知服务确保最新版的补丁程序得以应用。无需再因需要修补而让vSphere停机vSphereUpdateManager与vSphereDistributedResourceScheduler(DRS)协同工作,能够在修复集群时无中断地进行主机修补。此外,通过与vSphereDRS协作,它还可以将主机逐一转入维护模式,并且可在修补的同时将运行中的虚拟机迁移到其他主机上。修补期间可自动将虚拟机迁移到其他主机。修补后可以将虚拟机迁移回来。1074虚拟化环境下的运维管理解决方案如前所述,vSOM可以提供虚拟化环境下的运维可见性与性能及容量管理,这些功能是通过vRealizeOperationsManager来完成的,它从虚拟环境的每个级别的所有对象(从单个虚拟机和磁盘驱动器到整个集群和数据中)收集性能数据。它存储并分析这些数据,而且使用该分析提供关于虚拟环境中任意位置的问题或潜在问题的实时信息。vRealizeOperationsManager可以提供如下功能。将关键衡量指标组合成环境运行状况和效率以及容量风险的各项指标。计算每个衡量指标的正常行为范围,并突出显示异常。根据入站数据调整动态阈值,以便更好地定义衡量指标的正常值。以图形表示整个虚拟环境或选定部分的当前和历史状况。在虚拟环境层次结构中显示关于变动的信息。例如,将某个虚拟机移至其他ESXi主机后,管理员可查看这些变动如何影响所涉及对象的性能。用于按照环境的结构定义“组”容器来组织受监控对象。4.1主要价值vRealizeOperationsManager的主要价值如下。全面的可见性获取关于基础架构和应用运行状况、风险和效率的全面视图和深入运营洞察信息。主动管理性能停止监控并开始主动管理基础架构和应用性能。自动化的根本原因分析和建议的修复操作可帮助用户发现并消除潜在瓶颈。容量优化发现容量不足和超额配置情况,以便合理调整虚拟机大小、回收闲置资源并放心提高整合率。4.2体系架构vRealizeOperationsManager6.0之前版本的两台虚拟机Analytics虚拟机和UI虚拟机已经被一个单独的虚拟机替代,该虚拟机的结构如下图所示。108图:产品架构图每个组件的主要功能如下。用户接口:是一个Web应用程序,使用户和管理员可以通过图形界面的方式来完成相应的操作收集器:负责从企业的所有组件中收集相关数据控制器:对用户接口、收集器和分析器之间信息进行处理分析器:负责创建所有数据集之间的关联,并完成相关计算,执行容量规划、产生警告数据存储:每个节点都有其本地数据存储,数据存储层完成对其底层数据库的读写操作,其中:GlobalxDB:存储所有对象的元数据FileSystemDatabase:一个可扩展的针对监控数据形式设计的文件系统数据库,它存储收集到的衡量指标数据xDB:存储对象、关联、事件、动态阈值和警告这种全新的体系结构非常有利于系统的横向扩展从而适应更加复杂的生产环境,如下图所示。109图:横向扩展4.3基本功能vRealizeOperationsManager的基本功能。操作仪表板操作仪表板显示了虚拟基础设施的健康状态、风险和效率。图:操作仪表板110健康状况和工作负载视图快速识别异常、故障和受压的工作负载,它直接影响着基础设施的性能和健康状况。工作负载细节视图深入地分析影响虚拟机、主机、数据存储、集群的性能和健康状况。图:工作负载细节视图主动式智能警报在终端用户受影响之前,自动的溯源分析,预先通知建设问题并给出指导建议。图:智能报警引导式修复和自动触发工作流获取针对性能、容量和配置问题的清楚的说明和建议的解决方案。将工作流与智能警报相关联以在达到临界阈值时自动启动纠正操作。111图:引导式修复自动关联变更事件以检测性能影响针对运行状况恶化或性能下降的情况,可直观地追溯到基础架构和客户操作系统级别的特定配置变更。热图浏览视图通过各个领域的基础设施,来识别资源的约束和瓶颈。容量趋势研究和分析通过性能趋势、前瞻性预测、扩展预测等方法,深入的了解当前和未来的资源需求、容量管理的使用和规划。大小合适的虚拟机回收未使用的资源,在没有性能影响的前提下优化整合率和虚拟机密度。vSphere安全加固持续确保vSphere强化虚拟和物理基础架构所有方面的合规性。详细的模板可参照数百个强化条件向管理员表明环境状况,以便可以快速追溯到不合规的领域并进行修复。用户和访问控制管理基于用户角色(例如VI管理员和存储管理员)进行授权,从而针对个人控制其对于对象、功能、操作和报告的访问。112图:访问控制灵活的组策略和策略管理通过在组级别定义阈值、警报和配置设置来确定关键工作负载的优先级。要进行更高级的监控,可以为特定工作负载类型、应用或集群创建自定义策略。图:组策略容量报告自动生成和发送不同格式的容量报告。增强型DistributedResourceScheduler(DRS)集成vRealizeOperationsManager与vCenterDistributedResourceScheduler(DRS)的增强型集成功能可以更好地提出和执行工作负载布置建议。vRealizeOperationsManager可以确定跨集群布置机会,而vCenterDistributedResourceScheduler可确定集群内的最佳目的地。增强型集成使用所有DRS规则、限制和企业级功能。113图:增强型DRS集成增强型DRS集成功能会生成再平衡计划,管理员通过执行该计划完成各种资源调配。再平衡计划依据智能策略生成,该策略主要考虑平衡度和整合度两个方面,如下所示。以避免容量瓶颈为目标进行分布最大化可用容量为未来的项目需求避免容量风险以尽可能节省硬件资源为目标在保证性能的前提下,尽可能使用较少的服务器硬件资源提高服务器密度,节省硬件资源投资114图:智能平衡为了让 vRealizeOperationsManager按照预定策略平衡环境中的工作负载,管理员可以为策略设置工作负载自动化选项,如下图所示。115图:工作负载自动化选项上面三个选项的含义如下表所示。选项描述平衡工作负载设置vRealizeOperationsManager 如何平衡工作负载。拥有稳定工作负载时选择“积极平衡”。这可以尽量减少争用,但是迁移工作负载的次数较多,可能会导致中断。拥有动态工作负载时选择“保守平衡”。这会暴露潜在争用,但是迁移工作负载的次数较少。整合工作负载设置vRealizeOperationsManager 如何合并工作负载。工作负载需求稳定时选择较多整合。这会将工作负载置于尽可能少的主机中,以减少许可和电力成本。但这可能会导致响应能力降低。工作负载需求不稳定时时选择较少整合。这将使用所有可用主机,从而为需116求高峰留出更多空间。但这可能会增加许可和电力成本。高级设置设置vRealizeOperationsManager 针对工作负载首先移动哪类虚拟机。图:工作负载自动化选项释义工作负载利用率仪表板工作负载利用率仪表板让管理员能够查看集群、数据中心和自定义数据中心容器的对象工作负载利用率。该仪表板可以让管理员对数据中心中所有工作负载的整体运行情况有一个直观的理解,如下图所示。图:工作负载利用率仪表板这个仪表板包含一个更新的“容量利用率”小组件,其名称为“当前对象利用率”,它可以显示当前数据中心内各对象工作负载使用率的分布情况。该组件可确定未充分利用、使用过度以及在最佳容量级别上运行的对象,如下图所示。117图:显示在“工作负载利用率”仪表板上的“容量利用率”小组件如上图所示,小组件从左到右表示资源竞争越来越激烈。针对每个对象,衡量指标会计算出一个具体的数值,如上图所示,从左到右依次为0分、34分、66分和100分,该值表示相应对象离最佳使用情况的差距。当指向对象时,vRealizeOperationsManager会显示一个弹出摘要,该摘要显示对象名称、对象使用的容量以及在对象上限制容量资源的原因。要显示有关对象上的容量的分析详细信息以便可以对问题进行进一步的故障排除,用户需要单击详细信息。当有多个对象受影响时,相应的对象数会出现在利用率标签旁。例如下图中,集群对象图标会显示“1”以指示环境中使用过度的集群数。当指向集群对象图标时,集群摘要随即出现,其中包括集群名称、集群使用的容量百分比以及限制容量的原因。要进一步分析每个集群的容量详细信息,需要单击集群链接以显示“分析”“剩余容量”选项卡,以便可以对问题进行进一步故障排除。如下图所示。图:对象摘要管理员可以使用该仪表板确保所有对象都尽可能接近最佳使用情况,解决办法视对象类型而定。对于使用者对象,例如虚拟机,解决办法通常是适当调整对象大小以使其达到最佳使用情况。对于其他对象,例如集群,管理员可以确定是否必须添加容量或迁移现有工作负载以降低环境中的压力4.4典型应用场景4.4.1性能监控与故障修复vRealizeOperationsManager6.0及其之后的版本相对于V6.0之前的版本在性能监控与故障修复方面有了很大的改进,之前的徽章告警方式只限一个症状,例如工作负载大于90时告警或者KPI指标。此外,在之前的版本中,一个问题可能导致多个对象产生相同的告警,同时不提供解决方案的提示信息,即不给出解决问题的指导性建议。在vRealizeOperationsManager6.0及其之后的版本中,基于策略的告警将多个症状综合分析体现问题,它可以跨多个对象进行分析,同时不限于徽章显示的症状,即采用“任意指标、任意对象”的方式。除此之外,新版本还提供了故障排错参考建议,用户可以点击按钮来触发修复行为,很大程度上提高了运维人员的工作效率。一些常见的异常告警如下所示。虚拟机CPU负载异常虚拟机内存负载异常宿主机CPU负载异常虚拟机CPU需求异常虚拟机快照引起的性能问题118数据存储链接异常首先以“虚拟机CPU负载异常(VirtualMachinehasUnexpectedhighCPUworkload)”为例进行说明。1)虚拟机CPU负载异常下图显示了集群Cluster_2所存在的问题,其中红框显示虚拟机有异常的过高CPU负载,有三个对象受影响。图:性能问题检查受影响的相关对象并查看集群中告警等级最高的Web虚拟机“PVMAPP_0”。图:受影响的虚拟机查看告警详细信息界面,并逐步分析虚拟机CPU负载异常,如下图所示。119图:告警详细信息上图中各项内如如下。1.告警的详细情况2.触发告警的详细指标3.解决问题的建议:需要应用负责人配合调查4.或由管理员直接介入修复问题分析问题虚拟机的各项指标如下,可见CPU负载100%。120图:问题虚拟机各项指标为问题虚拟机增加vCPU(未开启热添加,需重启),如下所示。图:为虚拟机添加vCPU再次查看问题虚拟机的运行情况,可见CPU负载恢复正常,如下图所示。121图:CPU负载问题解决除了上述这些异常告警,vRealizeOperationsManager还可以对数据存储链接情况进行监控。2)数据存储链接异常下图展示了“数据存储链接丢失告警(DatastoreLostConnectivityAlert)”,该告警指出数据存储ds-site-a-iscsi02与存储设备的链接已经丢失,并指出了相应的修复建议。122图:数据存储连接丢失告警可见,vRealizeOperationsManager可以高效快捷的帮助运维人员定位问题所在并给出切实可行的参考建议。4.4.2容量优化除了性能监控与故障修复,vRealizeOperationsManager的另一个典型应用场景是进行容量优化,例如虚拟机CPU容量压力、虚拟机内存容量压力以及集群层面容量压力等,下面以虚拟机CPU容量压力与集群层面容量压力为例进行说明。虚拟机CPU容量压力如下图所示,主界面发现容量风险告警“VirtualmachinehaschronichighCPUworkloadleadingtoCPUstress”,该告警指明虚拟机的容量问题如下。虚拟机长期出现负载过大的情况,通常意味着虚拟机分配的资源过少,容量不够影响13个对象,提供1个建议123图:CPU容量告警该容量告警的详细信息如下所示。图:容量告警详细信息此处指出了相应的操作建议:增加虚拟机的CPU数量,管理员可以按照“性能监控与故障修复”中的相关操作来解决CPU容量不足的问题。集群层面发现容量问题如下图所示,“剩余容量”中显示该集群存在CPU和磁盘空间紧张的容量问题。124图:剩余容量详细信息查看如下图所示,该图显示CPU和磁盘都已经没有剩余容量可用了。图:容量详细信息下图可以协助运维人员定位关联对象的容量状况,并采取相关的操作来解决容量问题。125图:定位关联对象可见,vRealizeOperationsManager可以高效便捷的帮助运维人员发现容量问题并进行相应的容量优化。4.4.3vSphere安全加固vRealizeOperationsManager可以持续确保vSphere强化虚拟和物理基础架构所有方面的合规性。详细的模板可参照数百个强化条件向管理员表明环境状况,以便可以快速追溯到不合规的领域并进行修复。下图显示了在当前运行环境中存在的两个合规性告警:物理主机告警:ESXiHostisViolatingvSphere5.5HardingGuide虚拟机告警:VirtualMachineisViolatingvSphere5.5HardingGuide图:合规性告警物理主机告警触发此“物理主机合规性告警”的四个对象如下图所示。126图:物理主机合规性告警的相关对象主机esx-02a触发的合规性告警详细情况如下图所示。图:合规性告警详细情况点击该物理主机,还可以看到该物理机上的所有合规情况(通过的与未通过的),同时还可以显示与之相关联的对象情况,如下图所示。图:主机esx-02a的合规127图:与主机esx-02a合规相关联的对象虚拟机告警上述的虚拟机告警VirtualMachineisViolatingvSphere5.5HardingGuide与物理主机告警类似,虚拟机PVMAPP02的所有合规以及相关的对象如下图所示。图:虚拟机PVMAPP02的合规128图:与虚拟机PVMAPP02合规相关联的对象vSphere合规性概览仪表板vRealizeOperationsManager还提供了vSphere合规概览仪表板:vSphereComplianceSummary,该仪表板可以对虚拟化环境中存在的合规性情况进行汇总,以便管理员可以对运行环境存在的合规性问题了然于胸,如下图所示。该仪表板分如下四个区域左上角是“合规冲突记分板(ComplianceViolationScoreboard)”,对环境中的合规性按照严重性进行分级,并指出相关的对象数目。右上角是“合规性趋势视图(ComplianceTrendViews)”,该视图指明了合规性的整体走势。下面两个区域分别是主机和虚拟机合规性热图,该热图可以指明环境中物理主机和虚拟机的合规性情况,点击其中的每一个子区域,可以查看相关的详细情况。可见,vSphere安全加固可以强化虚拟和物理基础架构所有方面的合规性,该功能可以帮助管理员快速追溯到不合规的领域并进行修复。4.4.4通过增强型DRS集成在集群之间实现各种资源再平衡129增强型DRS集成可以在集群之间实现各种资源的平衡可以在集群内(主机之间)和集群之间实现各种资源的充分平衡。如果环境中的工作负载变得不平衡,增强型DRS集成可在各对象之间移动工作负载,以重新平衡整体的工作负载实现再平衡。再平衡操作的容器可以是数据中心或自定义数据中心,所移动的对象为该操作所提供的建议列表中的虚拟机。下面内容将首先介绍执行资源再平衡操作的工作流程,然后展示如下两个典型应用场景。资源利用率不平衡集群间的再平衡操作不同资源类型(CPU、内存)过度使用的再平衡操作工作负载利用率仪表板上执行再平衡操作工作流程如下图所示,一个数据中心包含两个集群,Production1和Production2,其工作负载利用率分别为83%和20%。右侧的Production1工作负载压力较重,主要来自于CPU,而另一端的Production2则属于资源未充分使用的情况。图:两集群资源利用率不平衡针对上述情况,管理员只需要简单的选择“再平衡容器”,接下来该容器会生成一个在这两个集群之间进行资源调配的再平衡计划,如下图所示。130图:再平衡容器生成再平衡计划该计划如下:将Production1中的两台虚拟机迁移到Production2中以便达到CPU资源的再平衡将Production2中的一台虚拟机迁移到Production1中以降低可能的内存使用不平衡情况该计划如下图所示。图:再平衡计划管理员接下来审查该计划,如果觉得该计划可行,则只需要点击下面的“开始执行”按钮启动再平衡操作。该操作执行期间,管理员可以跟踪操作的执行进度。再平衡操作执行结束后,管理员可以通过通过“工作负载利用率仪表板”检查再平衡执行效果,如下图所示。该结果显示整个数据中心的资源使用情况在集群和主机层面均达到了非常理想的状况。131图:再平衡计划执行结果下图对比了执行再平衡操作前后数据中心内各个对象的资源使用情况。图:再平衡计划执行前后对比两种较常见使用场景1)资源利用率不平衡集群间的再平衡操作该场景中,数据中心的一些集群存在资源紧张的情况,而同时还有一个集群的资源利用率比较低,未充分使用。这种情况下,再平衡操作会将资源紧张集群中的一些虚拟机迁移到资源未充分利用的集群中去,进而达到数据中心、集群和主机多个层面的资源再平衡。132图:资源利用率不平衡集群间的再平衡操作2)不同资源类型(CPU、内存)过度使用的再平衡操作该场景中,数据中心的所有集群都存在资源竞争,不过一些集群是内存资源竞争,而另外一些集群是CPU资源竞争。在这种情形下,好像管理员无能为力,但实际上,再平衡操作可以在不同集群之间迁移不同资源竞争类型的虚拟机,进而达到再度平衡。图:不同资源类型过度使用情况再平衡操作执行完毕后,整个数据中心的资源使用情况如下图所示。可见,在数据中心、集群和物理主机层面,各种资源均达到了非常理想的平衡状态。图:资源达到再次平衡1335VMware解决方案规划设计虚拟化技术的引入大大减少了需要维护和管理的设备,如服务器、交换机、机架、网线、UPS、空调等。原先设备可以根据制度进行折旧报废、或者利旧更新,使得IT管理人员有了更多的选择。虚拟化可以提高资源利用率,降低硬件采购成本,更加节能和节省空间,让整个数据中心更加灵活。下图是实施了VMware虚拟化方案之后的IT整体架构。图:数据中心整体架构图服务器虚拟化后,我们搭建了虚拟化集群,并统一进行管理。原有的服务器设备仍然可以正常运行,并且与虚拟化服务器融合在一起。随着虚拟化的不断应用,可以不断动态地增加虚拟化集群的规模,搭建更健康的IT体系架构。客户端方面,延续了原先的访问模式,对于虚拟服务器的数据交互等操作,等同于原先传统物理服务器的的访问模式,不会对业务系统造成任何不利影响。本章节接下来的部分,将从计算,存储,网络,可用性,管理与监控五个方面对XXX客户的数据中心进行全面高效的规划设计。5.1计算资源规划虚拟机上运行着为各个用户和整个业务线提供支持的应用与服务,其中有很多都是关键业务应用,因此,用户必须正确设计、调配和管理虚拟机,以确保这些应用与服务能够高效运行。VMwareESXi主机是数据中心的基本计算构造块,这些主机资源聚合起来可构建高可用动态资源池环境,作为数据中心各应用的整体计算资源。本小节将根据XXX客户的生产环境,对计算资源进行整体规划,包括物理服务器,虚拟机等资源。134指导原则与最佳实践除非确实需要多个虚拟CPU(vCPU),否则默认配置一个,使用尽可能少的虚拟CPU。操作系统必须支持对称多处理(SMP)功能。应用必须是多线程的,才能受益于多个虚拟CPU。虚拟CPU的数量不得超过主机上物理CPU核心(或超线程)的数量。不要规划使用主机的所有CPU或内存资源,在设计中保留一些可用资源。要实现虚拟机内存性能最优化,关键是在物理RAM中保留虚拟机的活动内存,应避免过量分配活动内存。始终将透明页共享保持启用状态,始终加载VMwareTools并启用内存释放。资源池CPU和内存份额设置不能用于配置虚拟机优先级。资源池可用于为虚拟机分配专用CPU和内存资源。在工作负载极易变化的环境中配置vSphereDPM,以降低能耗和散热成本。部署一个系统磁盘和一个单独的应用数据磁盘。如果系统磁盘和数据磁盘需要相同的I/O特征(RAID级别、存储带宽和延迟),应将它们一起放置在一个数据存储中。应用要求应作为向虚拟机分配资源的主要指标。使用默认设置部署虚拟机,明确采用其他配置的情况除外。像保护物理机一样保护虚拟机的安全。确保为虚拟基础架构中的每个虚拟机启用了防病毒、反间谍软件、入侵检测和防火墙。确保随时更新所有的安全保护措施。应用合适的最新补丁,要将虚拟机软件和应用保持在最新状态,应使用补丁程序管理工具,或者安装和配置UpdateManager。为避免管理连接问题,应向每个ESXi主机分配静态IP地址和主机名。为便于管理,应为DNS配置每个ESXi主机的主机名和IP地址。确保数据中心有足够的电源和散热容量以避免服务中断。无论选择了哪个硬件平台,都应设计一致的平台配置,特别是在VMware集群中。一致性包括CPU类型、内存容量和内存插槽分配、网卡和主机总线适配器类型,以及PCI插槽分配。使用一个或多个启用了vSphereHA和DRS的集群,以增加可用性和可扩展性。使用横向扩展还是纵向扩展集群由集群用途、基础架构规模、vSphere限制以及资金和运营成本等因素确定。计算资源规划基于上述指导原则与最佳实践,结合XXX客户数据中心的实际情况,我们对计算资源进行如下的规划设计。我们使用容量规划工具对XXX客户数据中心里的1000款不同的应用进行了采样评测,以获取这些应用对CPU和内存的需求情况,具体的分析结果如下所示。项目数值每个系统的平均CPU需求量2平均CPU主频(MHz)2800MHz135项目数值每个系统的平均正常化CPU主频(MHz)5663MHz每个系统的平均CPU使用率6.5%(368.01MHz)每个系统的平均CPU峰值使用率9%(509.67MHz)1000台虚拟机的峰值CPU总需求量509,670MHz表:CPU资源需求项目数值每个系统的平均内存需求量1024MB平均内存使用率62%(634.88MB)平均内存峰值使用率70%(716.80MB)无内存共享时1000台虚拟机的内存峰值需求量716,800MB虚拟化后的内存共享预期收益率50%内存共享后1000台虚拟机的内存峰值总需求量358,400MB表:内存资源需求我们建议如下的ESXi主机CPU与内存配置。项目数值每台主机的CPU数4每颗CPU的核心数4每个CPU核心的主频(MHz)2,400每颗CPU的总主频(MHz)9,600每台主机的总CPU频率(MHz)38,400最大CPU使用率建议80%每台主机的可用CPU30,720MHz表:ESXi主机CPU配置建议136项目数值每台主机的内存容量32,768MB(32GB)最大内存使用率建议80%每台主机的可用内存26,214MB表:ESXi主机内存配置建议对于上述配置的一些说明如下。每台服务器的运算能力按照峰值而非平均值进行估算,确保可以支持虚拟机应用同时运行的最高值。CPU和内存的估算需要预留20%的空间用于突发的计算能力过量。内存共享按照50%的比例进行估算,这个数值是基于整合的应用全部以WindowsServer2003服务器操作系统进行核算的。接下来,我们将根据上面这些应用需求与ESXi主机配置,对计算资源进行估算。下面这个公式用来估算可以满足数据中心中这些虚拟机在CPU峰值时正常运行所需的ESXi主机个数。所有虚拟机的CPU峰值频率需求量=需要的ESXi主机个数每台ESXi主机的可用CPU根据上述公式,XXX客户为了使这1000款应用可以在CPU峰值时正常运行所需的ESXi主机个数是:509,670MHz(CPU频率总体需求量)=16.59个ESXi主机30,720MHz(每台主机的可用CPU频率)下面这个公式用来估算可以满足数据中心中这些虚拟机在内存峰值时正常运行所需的ESXi主机个数。所有虚拟机的内存峰值总需求量=需要的ESXi主机个数每台ESXi主机的可用内存根据上述公式,XXX客户为了使这1000款应用可以在内存峰值时正常运行所需的ESXi主机个数是:358,400MB(内存总体需求量)=13.67个ESXi主机26,214MB(每台主机的可用内存)从CPU的角来说,需要17台ESXi主机,而从内存的角度来看,则需要14台物理主机。很显然,我们应该为该数据中心配置17台ESXi主机并组建集群。为了使用vSphere的高可用功能,我们还需要添加一台ESXi主机到该集群,因此,总的物理主机数目为18台。137上述对计算资源的规划可以满足虚拟机环境资源突发时的资源溢出要求。5.2存储资源规划正确的存储设计对组织实现其业务目标有着积极的影响,可以为性能良好的虚拟数据中心奠定一定的基础。它可以保护数据免受恶意或者意外破坏的影响,同时防止未经授权的用户访问数据。存储设计必须经过合理优化,以满足应用、服务、管理员和用户的多样性需求。存储资源规划的目标是战略性地协调业务应用与存储基础架构,以降低成本、改善性能、提高可用性、提供安全性,以及增强功能,同时将应用数据分配到相应的存储层。本小节将根据XXX客户的生产环境,对存储资源进行整体规划,包括共享存储逻辑规划,存储空间规划,存储I/O控制规划,存储分层规划等。指导原则与最佳实践在规划存储资源时,我们会遵循如下的指导原则与最佳实践。构建模块化存储解决方案,该方案可以随时间推移不断扩展,以满足组织的需求,用户无需替换现有的存储基础架构。在模块化存储解决方案中,应同时考虑容量和性能。每个存储层具有不同的性能、容量和可用性特征,只要不是每个应用都需要昂贵、高性能、高度可用的存储,设计不同的存储层将十分经济高效。配置存储多路径功能,配置主机、交换机和存储阵列级别的冗余以便提高可用性、可扩展性和性能。允许集群中的所有主机访问相同的数据存储。启用VMwarevSphereStorageAPIs-ArrayIntegration(VAAI)与存储I/O控制。配置存储DRS以根据使用和延迟进行平衡。根据SLA、工作负载和成本在vSphere中创建多个存储配置文件,并将存储配置文件与相应的提供商虚拟数据中心对应起来。对于光纤通道、NFS和iSCSI存储,可对存储进行相应设计,以降低延迟并提高可用性。对于每秒要处理大量事务的工作负载来说,将工作负载分配到不同位置尤其重要(如数据采集或事务日志记录系统)。通过减少存储路径中的跃点数量来降低延迟。NFS存储的最大容量取决于阵列供应商。单个NFS数据存储的容量取决于将访问数据存储的每个虚拟机所需的空间,乘以在延迟可接受的情况下可以访问数据存储的虚拟机数量。考虑将存储DRS配置为使其成员数据存储的使用量保持在80%(默认设置)的均衡水平。单个VMFS数据存储的容量取决于将访问数据存储的每个虚拟机所需的空间,乘以在延迟可接受的情况下可以访问数据存储的虚拟机数量。考虑配置存储DRS,使数据存储使用量保持在80%的均衡水平。保留10%到20%的额外容量,用于容纳快照、交换文件和日志文件为促进对iSCSI资源的稳定访问,应该为iSCSI启动器和目标配置静态IP地址。对于基于IP的存储,应使用单独的专用网络或VLAN以隔离存储流量,避免与其他流量类型争用资源,从而可以降低延迟并提高性能。138根据可用性要求选择一个RAID级别,对大多数虚拟机工作负载而言,如果阵列具有足够的电池供电缓存,RAID级别对性能不会产生影响。对于大多数应用,除非存在对RDM的特定需求,否则请使用VMDK磁盘。共享存储逻辑规划考虑采用本地存储将无法形成整个虚拟化集群资源池,因此无法有效地使用vSphere虚拟化环境的高可用,灵活配置等功能。本方案将建议购置或利用现有的存储交换网络SAN网络,并新增磁盘阵列作为共享SAN存储,同时做好相应的设备(SANHBA卡、交换机等)布线、空间、场地布局等相应的规划。在设计存储架构时应该充分考虑到冗余和性能,因此存储架构的选择根据国家和各省级数据中心整体应用对存储的IOPS和吞吐量的需求进行规划,涉及到端到端的主机适配器选择、控制器和端口数量选择以及磁盘数量和RAID方式选择等。每台vSphere服务器到存储的连接示意图如下所示。ESXiHostvmhba0vmhba1FibreSwitchAFibreSwitchBSANStorageProcessorASANStorageProcessorB1TBLUNVMFS1VMFS2VMFS3VMFS...VMFS...VMFS...VMFS...VMFS251TBLUN1TBLUN1TBLUN1TBLUN1TBLUN1TBLUN1TBLUNvmhba2vmhba3图:每台服务器的存储连接示意图针对上图的一些说明如下。确保每个ESXi主机内虚拟机并发IO队列长度与HBA适配卡设置保持一致。底层LUN的需求根据实际虚拟机应用对存储IOPS的实际需求进行规划。139根据应用的需要设置LUN的RAID结构,如对于随机读写的数据库如Oracle、SQL数据库,建议在LUN级别采用RAID10结构,对于数据库日志通常为连续写或恢复时连续读,建议在LUN级别采用RAID5结构。对于IO密集型的应用尽量采用单独的VMFS存储,避免在存储端与其他应用产生IO争用。多个虚拟机共用一个数据存储或者多个主机共享一个数据存储时,可以启用存储队列QoS确保核心应用的延时在可控范围以及对数据存储读写的优先级。通常情况下1~2TB的LUN大小具有较好的性能和可管理性。磁盘阵列的选择应该满足整个虚拟化环境最大IOPS的吞吐量需求,并配置足够的存储处理器、缓存和端口数。对于双活ALUA磁盘阵列(非双活磁盘阵列),为了防止链路抖动,对于每个LUN在同一时间配置只有一个ESXi服务器通过一个存储处理器进行访问,这就需要在多路径策略选择时设置为MRU(最近使用策略),该策略可以保证只有在某个路径故障时才启用另一个存储处理器连接LUN。存储空间规划规划LUN容量时,建议每个LUN运行10到20个VM(数据事务类应用可以适当减少),并且每个LUN的使用量不超过容量的80%。若VM需要直接访问存储卷,如NTFS或EXT3,应在存储中另外创建一LUN,以RDM方式映射到VM,VM以裸磁盘方式使用。LUN容量规划的公式如下所示。LUN容量=(Zx(X+Y)*1.25)其中:Z=每LUN上驻留10个虚拟机Y=虚拟磁盘文件容量X=内存大小根据XXX客户的实际生产环境的情况,即:1GB内存,单一VMDK文件需要80GB,LUN容量计算如下:LUN容量=(10x(1+80)*1.25)≈1000GB根据最佳实践,部署的每一个VMFS文件系统下最好分配一个LUN磁盘,这样可以避免虚拟机文件VMDK跨LUN造成的性能不一致等问题。因此在构建VMFS文件系统的空间时应该充分考虑在其上运行的虚拟机数量和可增长空间,在规划时将LUN的空间预留充足。虽然将来仍然可以利用vmkfstools等工具在线扩充VMFS,但是仍然无法避免上述虚拟机磁盘跨LUN使用的问题。我们建议XXX客户采用如下的存储配置。项目说明存储类型FibreChannelSAN140项目说明存储处理器个数2(冗余)交换机个数每个主机上每个交换机的端口数2(冗余)1LUN大小1TBLUN总数根据总量确定每个LUN上的VMFS数据存储数1VMFS版本5表:存储配置建议存储分层规划每个存储层具有不同的性能、容量和可用性特征,只要不是每个应用都需要昂贵、高性能、高度可用的存储,设计不同的存储层将十分经济高效。一个典型的存储分层实例如下图所示。图:存储分层实例在规划存储分层时,我们主要考量应用和服务的如下存储特征。每秒I/O操作数(IOPS)要求每秒兆字节数(MBps)要求容量要求可用性要求延迟要求并依据下列信息将应用及服务移至设计有匹配特征的存储层。考虑任何现有的服务级别协议(SLA)141数据在信息生命周期中可能会在存储层之间移动基于上述原则,我们为XXX客户所做的存储分层规划如下所示。层接口应用速度RAID磁盘数注释1光纤通道-电子邮件-Web服务器-客户资源管理15KRPM10810VMs/VMFS数据存储2光纤通道-薪酬管理-人力资源15KRPM5415VMs/VMFS数据存储3光纤通道-测试-开发10KRPM5415VMs/VMFS数据存储表:存储分层实现数据存储集群规划数据存储以及与数据存储集群关联的主机必须符合特定要求,才能成功使用数据存储集群功能。创建数据存储集群时,应遵循下列准则。数据存储集群必须包含类似的或可互换的数据存储。一个数据存储集群中可以混用不同大小和I/O能力的数据存储,还可以混用来自不同阵列和供应商的数据存储。但是,下列类型的数据存储不能共存于一个数据存储集群中。在同一个数据存储集群中,不能组合使用NFS和VMFS数据存储。在同一个启用了存储DRS的数据存储集群中,不能结合使用复制的数据存储和非复制的数据存储。连接到数据存储集群中的数据存储的所有主机必须是ESXi5.0及更高版本。如果数据存储集群中的数据存储连接到ESX/ESXi4.x及更早版本的主机,则存储DRS不会运行。数据存储集群中不能包含跨多个数据中心共享的数据存储。最佳做法是,启用了硬件加速的数据存储不能与未启用硬件加速的数据存储放在同一个数据存储集群中。数据存储集群中的数据存储必须属于同类,才能保证实现硬件加速支持的行为。基于上述原则,我们建议XXX客户采用如下数据存储集群规划。集群名存储DRS自动化是否启动I/OMetric空间使用率I/O延迟DataClusters-W/O启用全自动化是85%15ms142DataClusters-W启用未自动化是85%15ms表:数据存储集群设计5.3网络资源规划正确的网络设计对组织实现其业务目标有着积极的影响,它可确保经过授权的用户能够及时访问业务数据,同时防止未经授权的用户访问数据。网络设计必须经过合理优化,以满足应用、服务、存储、管理员和用户的各种需求。网络资源规划的目标是设计一种能降低成本、改善性能、提高可用性、提供安全性,以及增强功能的虚拟网络基础架构,该架构能够更顺畅地在应用、存储、用户和管理员之间传递数据。本小节将根据XXX客户的生产环境,对网络资源进行整体规划,包括虚拟交换机,网卡绑定等。在规划网络设计时,我们主要从以下几个方面进行考量并进行相关的设计。连接要求带宽要求延迟要求可用性要求成本要求指导原则与最佳实践在规划网络资源时,我们会遵循如下的指导原则与最佳实践。构建模块化网络解决方案,该方案可随时间的推移不断扩展以满足组织的需求,使得用户无需替换现有的网络基础架构,进而降低成本。为了减少争用和增强安全性,应该按照流量类型(vSphere管理网络(HA心跳互联网络)、vMotion在线迁移网络、虚拟机对外提供服务的网络、FT、IP存储)对网络流量进行逻辑分离。VLAN可减少所需的网络端口和电缆数量,但需要得到物理网络基础架构的支持。首选分布式交换机,并应尽可能少配置虚拟交换机。对于每一个虚拟交换机vSwitch应该配置至少两个上行链路物理网络端口。可以在不影响虚拟机或在交换机后端运行的网络服务的前提下,向标准或分布式交换机添加或从中移除网络适配器。如果移除所有正在运行的硬件,虚拟机仍可互相通信。如果保留一个网络适配器原封不动,则所有的虚拟机仍然可以与物理网络相连。连接到同一vSphere标准交换机或分布式交换机的每个物理网络适配器还应该连接到同一物理网络。将所有VMkernel网络适配器配置为相同MTU。实施网络组件和路径冗余,以支持可用性和负载分配。使用具有活动/备用端口配置的网卡绑定,以减少所需端口的数量,同时保持冗余。143对于多网口的冗余配置应该遵循配置在不同PCI插槽间的物理网卡口之间。对于物理交换网络也应该相应的进行冗余设置,避免单点故障。建议采用千兆以太网交换网络,避免网络瓶颈。对吞吐量和并发网络带宽有较高使用要求的情况,可以考虑采用10GbE,不过采用万兆网络在适配器和交换机上的投入成本也会相应增加。简单的方法是通过在虚拟机网络vSwitch或vPortGroup上通过对多块1GbE端口捆绑负载均衡实现。将直通设备与Linux内核2.6.20或更低版本配合使用时,避免使用MSI和MSI-X模式,因为这会明显影响性能。为了保护大部分敏感的虚拟机,要在虚拟机中部署防火墙,以便在带有上行链路(连接物理网络)的虚拟网络和无上行链路的纯虚拟网络之间路由。虚拟交换机规划为每台vSphere服务器规划的虚拟交换机配置如下。标准虚拟交换机/分布式虚拟交换机功能物理网卡端口数VDS0管理网络2VDS1vSpherevMotion2VDS2虚拟机网络2表:每台服务器的虚拟交换机建议上述配置的相关说明如下。所选用的网卡必须在vSphere服务器的网络I/O设备兼容列表里,请从http://www.vmware.com/resources/compatibility/search.php上查找最新的网络I/O设备来确认选用网卡设备是否满足要求。对于虚拟交换机的双端口冗余,如果网卡自带软件支持可以在ESX操作系统级别实现NICTeaming,本方案建议通过在vSwitch交换机层面配置双网卡的负载均衡或主备切换策略,负载均衡策略可以基于虚拟机源地址或目标地址IP哈希值,也可以设置为基于MAC地址哈希值。对于虚拟机应用的网络,为了确保虚拟机在执行了vMotion迁移到另一物理主机时保持其原有的VLAN状态,建议根据实际需要在虚拟交换机端口启用802.1q的VLAN标记(VST)方式。采用此方式可以确保迁移主机可以保留原有的网络配置如网关等,并且建议在网络设置中启用通知物理交换机功能,该功能可以确保迁移主机通过反向ARP通知物理交换机虚拟机端口的更改,确保新的用户会话可以被正确建立。对于虚拟机存储,采用IPSAN网络,通过虚拟机vmkernel包含的PSA多路径模块进行存储路径汇聚及故障策略选择。vSphere主机网络连接配置示意图如下所示。144图:主机网络连接示意图网卡绑定服务器整合会将各种故障影响混在一起,从而增加对冗余的需要。而通过使用来自多个网卡和主板接口的端口配置网卡绑定可进一步减少单点故障的数量。除此之外,网卡绑定还可以增加网络路径的可用带宽网卡绑定要求满足以下条件:将两个或更多网卡分配到同一虚拟交换机同一端口组中的所有网卡都位于相同的第二层广播域中网卡绑定的示意图如下所示。145图:网卡绑定示意图5.4可用性规划本次规划充分考虑了虚拟化环境的可用性设计,例如:在网络层面和存储层面分别利用了VMwarevSphere内置的网络冗余和存储多路径控制确保高可用。在服务器高可用性上,vSphere内置了HA,DRS和vMotion等功能可以应对本地站点多种虚拟机应用计划内和计划外意外停机的问题。本小节将根据XXX客户的生产环境,对可用性进行整体规划。可用性相关技术的说明与配置指导原则如下。组件可用性故障影响维护正在运行的工作负载vSphere主机在高可用性集群中配置所有vSphere主机,最少应实现n+1冗余。这样可保护客户的虚拟机、托管平台门户/管理应用。如果某台主机出现故障,vSphereHA可在13秒内检测到故障,并开始在集群内的其他主机上启动该主机的虚拟机。vSphereHA接入控制会确保集群内有足够的资源用于重新启动虚拟机。VMware建议采用一种名为“集群资源百分比”的接入控制策略,因为此策略不仅十分灵活,而且能够实现资源可用性。此外,VMware还建议对vCenter进行配置,使之能够主动将虚拟机从运行状况不稳定的146组件可用性故障影响主机中迁移出来。在vCenter中,可以定义用于监控主机系统运行状况的规则。虚拟机资源使用情况vSphereDRS和vSphereStorageDRS可在主机之间迁移虚拟机,以便平衡集群资源和降低出现“邻位干扰”虚拟机的风险,防止虚拟机在主机内独占CPU、内存和存储资源,从而避免侵害相同主机上的其他虚拟机。当检测到I/O冲突时,vSphereStorageI/OControl会自动调节主机和虚拟机,确保在数据存储中的虚拟机之间公平分配磁盘份额。这可确保邻位干扰虚拟机不会独占存储I/O资源。StorageI/OControl会利用份额分配机制来确保每个虚拟机获得应得的资源。无影响。通过vSphereDRS或vSphereStorageDRS,无需停机即可在主机之间迁移虚拟机。无影响。StorageI/OControl会根据虚拟机和vSphere主机相应的份额授权容量或配置的最大IOPS数量来调节虚拟机和vSphere主机。vSphere主机网络连接为端口组最少配置两个物理路径,防止因单个链路故障而影响到平台或虚拟机连接。这包括管理和vMotion网络。可使用基于负载的绑定机制来避免超额使用网络链路的情况。无影响。即使发生故障切换,也不会导致服务中断。需要配置故障切换和故障恢复以及相应的物理设置(如PortFast)。vSphere主机存储连接对于每个LUN或NFS共享,将vSphere主机配置为至少具有两个物理路径,以防止因单个存储路径故障而影响到服务。基于存储供应商的设计指导准则来甄选路径选择插件。无影响。即使发生故障切换,也不会导致服务中断。表:可用性技术相关说明VMwareHA提供了简单易用、高效、高可用的虚拟机应用运行环境。在物理机发生故障时,可以被集群中的其他物理节点侦测到并且自动在备用物理机或其他有空闲资源的物理机启动故障节点在线的虚拟机。此外,如果虚拟机操作系统故障也可以被VMwareHA侦测到并尝试重启该虚拟机,最大限度保持虚拟机应用的可用性。利用VMwareDRS动态资源调配可以收集各物理主机和虚拟机资源(CPU、内存等)使用情况,并且提供虚拟机最佳放置策略,可以自动或手动进行虚拟机的在线迁移功能满足最佳负载平衡需求。利用DRS建立资源池,可以最大限度的保证XXXX信147息中心虚拟化环境的核心应用,例如针对办公系统的SQL数据库设置高优先级别,确保其在资源池中CPU、内存等资源的配比保持最优。同时,可以构建DRSHA集群在确保负载平衡的同时满足高可用的要求。对于需要对虚拟机所在物理机运行环境进行升级维护时,可以采用VMwareVMotion技术在线将该物理机运行的虚拟机通过网络迁移到其他物理主机,并且确保迁移过程中对虚拟机应用没有影响。迁移后所有与客户端的会话连接不会中断,目前千兆网络vSphere可以同时并发迁移4个虚拟主机。除了上述这些HA机制,vRealizeOperationsManager也支持高可用性(HighAvailability,HA)。HA为vRealizeOperationsManager主节点创建副本,并且保护分析集群以防止节点丢失。借助HA,存储在主节点上的数据始终完全在副本节点上备份。要启用HA,除主节点外还必须至少部署一个数据节点。HA并非灾难恢复机制。HA可保护分析集群,但仅针对一个节点丢失的情况,因为仅支持一个节点丢失,所以不能在所有vSphere集群内扩展节点以尝试隔离节点或构建故障区域。启用HA后,如果主节点因任何原因而发生故障,则副本可以接管主节点提供的所有功能。如果主节点发生故障,则会自动将故障切换到副本,并且仅需要两到三分钟的vRealizeOperationsManager停机时间便可恢复操作并重新开始收集数据。主节点问题导致故障切换时,副本节点成为主节点,并且集群在降级模式下运行。要退出降级模式,请执行以下步骤之一。通过解决主节点问题返回到HA模式,这让vRealizeOperationsManager可以将该节点配置为新的副本节点。将某个数据节点转化为新的副本节点,然后移除旧的故障主节点,从而返回到HA模式。已移除的主节点无法修复,并且无法重新添加到vRealizeOperationsManager。禁用HA,然后移除旧的故障主节点,从而更改为非HA操作。已移除的主节点无法修复,并且无法重新添加到vRealizeOperationsManager。启用HA后,集群在一个数据节点丢失后仍可以处于活动状态,而不会丢失任何数据。但是,无论节点类型如何,HA一次只能防止一个节点丢失的情况,因此不支持数据节点和主/副本节点或者两个或更多数据节点同时丢失的情况。相反,vRealizeOperationsManagerHA提供额外的应用程序级别数据保护,以确保应用程序级别可用性。启用HA后,vRealizeOperationsManager容量和处理能力将降低一半,因为HA创建整个集群内数据的冗余副本以及主节点的副本备份。规划vRealizeOperationsManager集群节点的数量和大小时请考虑用户对HA的可能使用情况。启用HA后,在分隔的主机上部署分析集群节点,以实现冗余和隔离。一种选择是使用可将节点保持在vSphere集群内特定主机上的反关联规则。如果无法保持节点分离,则不应启用HA。主机故障会导致不止一个节点丢失,这种情况不受支持,因此vRealizeOperationsManager将完全不可用。反之亦然。如果没有HA,用户可以将节点保持在同一主机上,这样做并无差别。在没有HA的情况下,即使一个节点丢失也会使vRealizeOperationsManager完全不可用。综上,我们建议XXX客户在数据中心的虚拟化基础架构中综合采用VMwarevMotion,DRS,StorageDRS,HA以及vRealizeOperationsManagerHA等提高可148用性的技术,确保所有运行虚拟机均得到同样的高可用运行环境保护,提高整体的应用SLA。5.5管理与监控规划为了支持XXX客户实现业务目标,VMwarevSphere虚拟基础架构每天都必须持续高效运行。而保持这种高效性首先要从正确设计管理和监视组件开始。本小节将根据XXX客户的生产环境,对管理与监控组件进行整体规划,包括vCenterServer及其数据库,警报和ESXi主机安装与配置等。指导原则与最佳实践在进行管理与监控规划时,我们会遵循如下的指导原则与最佳实践。首选使用虚拟机部署vCenterServer和数据库系统。根据虚拟基础架构的大小部署一个或多个vCenterServer系统。配置静态IP地址和主机名称,以避免与vCenterServer实例的连接中断。如果可以允许停机一两分钟,请使用vSphereHA保护vCenterServer系统。如果为vSphereHA集群启用了DRS,请禁用vCenterServer虚拟机迁移。对于除包括少量主机的小型基础架构外的所有基础架构而言,请勿将vCenterServer数据库系统和vCenterServer置于相同的系统中:使用数据库供应商提供的可用性方法(如果可能),如果数据库供应商未提供特定的方法,请使用vSphereHA保护数据库服务器。如果组织担心在使用管理界面连接vCenterServer系统或ESXi主机时会有中间人攻击,请使用证书。如果配置了vCenter链接模式(仅限基于Windows的vCenterServer系统)或vSphereFaultTolerance(FT),必须启用vCenterServer证书检查。使用自动化方法安装和配置ESXi主机。为基础架构服务创建独立的管理集群。限制具有vCenterServer访问权限的用户数量。对具有vCenterServer访问权限的用户采用最低特权原则。将vCenterServer系统和托管管理接口的所有服务器(VMwarevSphereClient、vSpherePowerCLI等)添加到目录服务。然后在目录服务中创建用户和组使用文件夹为需要相似访问权限的对象分配角色,通过简化权限分配来简化管理和增强安全性在独立于vCenterServer系统的系统中安装vCenterServer可选模块。最好在虚拟机上安装可选模块。如果设计包括多个vCenterServer系统,应该配置vCenter链接模式。vCenter链接模式要求所有vCenterServer系统都是同一个域中的ActiveDirectory成员,或至少是受信任域的成员。必须在虚拟机、ESX/ESXi主机和管理系统中保持时间同步。快照不是备份解决方案,但却是很有用的撤消操作解决方案。对于生产环境,建议每个虚拟机对应一个快照和清除策略:149尽可能自动执行性能监视,并在超过性能阈值时创建用于通知的警报。但避免采用过于严格的vCenterServer警报设置。在包含70–100台主机或者更多主机的大型基础架构中,考虑至少创建一个启用了vSphereHA和DRS且包含三台主机的管理集群。如果已存在管理集群,请优先使用现有管理工具与流程执行操作系统和应用的更新操作。否则,请使用UpdateManager。vCenterServer规划建议vCenterServer以Windows和虚拟设备方式部署对硬件的最低需求如下。表:Windows安装的最低硬件需求表:虚拟设备方式部署的最低硬件需求本次规划将采用虚拟设备方式的vCenterServer,根据XXX客户的生产环境情况,即:18台物理主机,1000个开启的虚拟机,我们对vCenterServer使用如下的逻辑设计。项目说明vCenterServer版本6.0物理/虚拟系统虚拟CPU个数CPU类型CPU速度4VMwarevCPUVirtualCPU内存16GB网卡/端口数1/1磁盘个数与大小2x40GB(C:)与160GB(D:)操作系统WindowsServer200864-bit150表:vCenterServer逻辑设计vCenterServer的物理设计如下所示。项目说明厂商与模型VMwarevirtualmachinevirtualhardware8CPU类型VMwarevCPU网卡厂商与模型每个网卡的端口数x速度网络VMXNET31xGigabitEthernetManagementnetwork本地磁盘RAID级别N/A表:vCenterServer物理设计为了更好的管理与监控对数据中心的运行情况,我们向客户推荐VMwarevSpherewithOperationsManagement套件,该套件除了可以高效的完成服务器虚拟化,让整个数据中心更加的灵活,敏捷,高效外,它还可以深度监控整个IT基础架构的容量与性能,可以实现更高的容量利用率、整合率和硬件节约,同时还可缩短问题诊断和解决的时间,避免业务受到影响。vRealizeOperations标准版配置建议vRealizeOperations标准版包含了vRealizeOperationsManager,它可以以独立的方式安装在物理主机上,也可以以虚拟设备(VirtualAppliance)的方式进行部署。我们推荐XXX客户采用第二种方式,也就是虚拟设备的部署方式。这是因为,采用这种方式可以节省物理硬件,同时还可以充分利用vSphere的高可用机制对虚拟设备进行保护。1)vRealizeOperationsManager安装vRealizeOperationsManager虚拟设备安装过程包括针对每个集群节点分别部署一次 vRealizeOperationsManagerOVF,访问产品以根据集群节点的角色对其进行设置,以及登录以配置安装。主要安装部署流程如下图所示。151图:vRealizeOperationsManager安装2)vRealizeOperationsManager集群节点所有 vRealizeOperationsManager集群都由主节点、高可用性的可选副本节点、可选数据节点和可选远程收集器节点组成。安装 vRealizeOperationsManager时,使用vRealizeOperationsManagervApp部署、Linux安装程序或Windows安装程序创建无角色节点。创建节点并获得其名称和IP地址之后,请根据其角色使用管理界面对其进行配置。可以一次创建所有无角色的节点或根据需要进行创建。常见的按需创建方法可能是添加节点以扩展 vRealizeOperationsManager,以便监控逐渐增长的环境。以下节点类型构成 vRealizeOperationsManager分析集群:152主节点:集群中最初需要的节点,所有其他节点都将由主节点管理。在单节点安装中,主节点还必须执行数据收集和分析,因为它是唯一的节点,同时也是安装vRealizeOperationsManager适配器的唯一位置。数据节点:在更大的部署中,其他数据节点可安装适配器来执行收集和分析。大型部署通常仅在数据节点上安装适配器,不在主节点或副本节点上安装。副本节点:要启用高可用性(HA),集群要求管理员将数据节点转换为主节点的副本。以下节点类型是 vRealizeOperationsManager集群的成员,但不是分析集群的一部分:远程收集器节点:分布式部署可能需要一个远程收集器节点,该节点可以在防火墙之间导航、与远程数据源连接、减少数据中心之间的带宽或降低vRealizeOperationsManager分析集群上的负载。远程收集器仅收集清单的对象,而不存储数据或执行分析。此外,可以将远程收集器节点安装在与其他集群节点不同的操作系统中。3)vRealizeOperationsManager集群节点要求常规要求vRealizeOperationsManager版本。所有节点都必须运行相同的vRealizeOperationsManager版本。例如,不要将版本6.1数据节点添加到vRealizeOperationsManager6.2节点的集群内。分析集群部署类型。在分析集群中,所有节点必须属于同种部署:vApp、Linux或Windows。请勿将同一分析集群中的vApp、Linux和Windows节点混用。远程收集器部署类型。远程收集器节点不需要与分析集群节点属于相同部署类型。添加不同部署类型的远程收集器时,支持以下组合:vApp分析集群和Windows远程收集器Linux分析集群和Windows远程收集器分析集群节点大小设置。在分析集群中,所有节点的CPU、内存和磁盘大小必须相同,主节点、副本和数据节点的大小设置必须一致。远程收集器节点大小设置。远程收集器节点的大小可能各不相同,或者与一致的分析集群节点大小不同。地理上邻近。用户可以在不同的vSphere集群中放置分析集群节点,但这些节点必须位于相同的地理位置。不支持不同的地理位置。虚拟机维护。任何节点都是虚拟机时,用户仅可以通过直接更新vRealizeOperationsManager软件来更新虚拟机软件。例如,不支持在vRealizeOperationsManager之外访问vSphere以更新VMwareTools。冗余和隔离。如果要启用HA,请在分离的主机上放置分析集群节点。网络要求创建构成vRealizeOperationsManager的集群节点时,网络环境内的关联设置对于节点间通信和正确运行至关重要。主节点和副本节点必须通过静态IP地址或具有静态IP地址的完全限定域名(FullyQualifiedDomainName,FQDN)进行寻址。数据和远程收集器153节点可使用动态主机控制协议(DynamicHostControlProtocol,DHCP)。用户必须能够成功地对所有节点(包括远程收集器)进行反向DNS,以查找其FQDN(当前为节点主机名)。默认情况下,由OVF部署的节点将其主机名设置为检索到的FQDN。所有节点(包括远程收集器)必须可通过IP地址和FQDN进行双向路由。分析集群节点不得以网络地址转换(NetworkAddressTranslation,NAT)、负载平衡器、防火墙或代理分隔,因为这会阻碍IP地址或FQDN之间的双向通信。分析集群节点不得具有相同的主机名。将分析集群节点置于相同数据中心内,并将这些节点连接到相同的局域网(LocalAreaNetwork,LAN)。将分析集群节点置于相同的第2层网络和IP子网上。不支持扩展的第2层或路由的第3层网络。不要让第2层网络跨站点,因为这可能造成网络分区或网络性能问题。分析集群节点之间的单向滞后时间必须为5ms或更低。分析集群节点之间的网络带宽必须为1gbps或更高。不要在广域网(WideAreaNetwork,WAN)上分配分析集群节点。要从WAN、远程或分离数据中心或者其他地理位置收集数据,请使用远程收集器。远程收集器在通过路由的网络运行时受支持,但在通过NAT运行时不受支持。4)vRealizeOperationsManager集群节点最佳实践创建构成 vRealizeOperationsManager的集群节点时,还有一些最佳做法可用来在 vRealizeOperationsManager中提高性能和可靠性。在相同的vSphere集群中部署vRealizeOperationsManager分析集群节点。如果用户在高度整合的vSphere集群中部署分析集群节点,可能需要预留资源以获得最佳性能。通过检查CPU就绪时间和同步停止来确定虚拟CPU与物理CPU的比率是否影响性能。在相同类型存储层上部署分析集群节点。要继续满足分析集群节点的大小和性能要求,请应用存储DRS反关联规则,以确保节点位于分离的数据存储中。要防止节点意外迁移,请将存储DRS设置为手动。要确保分析集群节点的性能平衡,请使用具有相同处理器频率的ESX主机。混合频率和物理内核计数可能会影响分析集群性能。为避免性能降低,vRealizeOperationsManager分析集群节点在大规模运行时需要有保证的资源。vRealizeOperationsManager知识库包含大小设置电子表格,这些电子表格基于预期监控的对象和衡量指标数、HA的使用等来计算资源。进行大小设置时,资源分配过多比资源分配不足要好。154因为节点可能会更改角色,所以请避免主节点、数据、副本等这类计算机名称。更改角色的示例可能包括将数据节点设为副本以实现HA,或让副本接管主节点角色。1556方案优势总结使用vSpherewithOperationsManagement对数据中心的基础架构进行虚拟化可以带来如下的优势。降低设备成本与节能vSOM通过虚拟化提高设备的利用率,整合常规应用部署,减少设备数量规模。目前情况下,一个应用对应一台服务器,服务器数量很快就随业务的增长而增加,而且服务器一直处于开机状态,但80%的业务系统高峰时段仅为每天24小时的20%,80%的时间服务器资源都在闲置状态,能源被白白的浪费。通过虚拟化,对服务器资源进行分区,将多个应用的资源负载合并到一台服务器上,使服务器资源的利用率提高到70%以上,充分挖掘服务器的潜能。这样在常规部署中的服务器数量就可按照N:1(N一般可达5-15)的比率大大减少。在减少服务器数量的同时,也在大幅减少能源消耗。提高资源管理效率vSOM使跨系统的物理资源统一调配、集中运维成为可能,常规模式下对每台物理服务器的一对一管理,变成对所有虚拟服务器的管理,每个虚拟服务器的虚拟硬件设备都是标准化的,对管理员来说,只需通过一个管理界面就可以完成对数据中心内所有服务器的安装配置、性能监控等管理任务。由于标准化,使得整个维护过程变得更专业化,流程化。同时,vSOM还可以深度监控整个IT基础架构的容量与性能,可以实现更高的容量利用率、整合率和硬件节约,同时还可缩短问题诊断和解决的时间,避免业务受到影响。灵活扩展vSOM提供的资源是弹性可扩展的,可以动态部署、动态分配、动态回收,以高效的方式满足业务发展的资源需求。充分利用现有设备和专业软件vSOM充分利用了现有成熟的服务器虚拟化技术来提高服务器和存储的资源利用率,从而达到利旧,降低企业投资规模,获得更好的投资回报率等目标。利用虚拟化技术,可以将某些对操作系统版本有严格要求的专业软件,在新的高性能服务器上运行,而不需要进行软件更新或二次开发,延长其生命周期,也相应的提高了投资回报率。提供弹性的计算能力传统计算平台的的计算能力是固定且受限的,并且可扩展性低。而在vSphere环境中,当某台虚拟服务器能力不足时,计算节点可以动态添加到计算资源池中参与相关的计算任务,来弥补计算资源的不足;当计算结束后时,计算节点可以参与到其他计算任务当中或者从计算资源池中移除。通过以上几种方式来达到完全的弹性计算能力。维护方式简便vSOM可以极大地简化用户的运维管理,实现业务系统快速部署、灵活变更。通常情况下,IT人员经常需要到现场去解决各种技术问题,而通过虚拟化技术,几乎所有IT问题都可以远程解决。智能化运维156vSOM提供的智能化运维方案主要包括如下几个方面。预测分析功能使用自学式算法和智能警报来自动分析监控数据,并识别和避免性能和容量问题。自动化和引导式修复可以通过与智能警报的关联来自动执行常见操作,从而缩短平均事件时间(MTTI)和平均解决时间(MTTR)。例如,在可用容量低于临界阈值时可使用这些工作流自动删除旧的虚拟机快照。统一的控制台能够以易于识别的彩色徽标显示关键绩效指标,并提供全面的视图,让管理员了解哪些因素可能导致当前和将来的潜在性能和容量管理问题。自动容量优化可回收超额配置的容量,提高资源利用率,并且完全消除脚本和电子表格。灵活的容量建模场景可促进容量优化并帮助按照SLA要求规划资源。vSphere安全加固能够根据vSphere强化指南进行强化检查。业务系统快速部署vSOM充分利用了成熟的虚拟化技术来构建底层的基础架构平台,而虚拟化技术可以很方便地实现应用服务器的快速部署,从而也就加快了应用、业务系统的上线进度。采用虚拟化技术后,在由采用模板或服务器复制方式快速建立一台新的虚拟化服务器,耗时不超过15分钟。与传统方式相比,所需部署时间最短可以缩小到1/1440,同时,采用应用调配等技术,更可构建PaaS级别上来进行应用的发布和部署,极大的提高了用户信息中心应对各类突发新的应用需求的能力,并且节约了工作时间,提高了工作效率。根据咨询公司IDC分析,在传统的IT模式中,45%是能耗成本、20%是人力资源成本,而创新投资仅占了35%。而vSphere通过虚拟化、标准化和自动化的技术可以帮助企业降低成本,把更多的资源用到创新上去,同时,它还可以显著降低企业的执行成本。1577配置清单及说明7.1硬件配置需求vSpherewithOperationsManagement虚拟化与管理解决方案的硬件配置需求如下表所示。序号名称配置参数1服务器共18台虚拟化服务器四路4核至强CPU,32GB内存,RAID5disk,4块千兆网卡,2存储阵列12TB光纤存储阵列可用容量为12TB(SAS磁盘,RAID57+1),至少2块热备盘。服务器需扩容配件1内存DELLFBDECCDDR2每台虚拟服务器已有16G内存,每台需扩至16G2网卡DELLBroadcom5709双口千兆网卡每台虚拟服务器已有2块千兆网卡,每台需再扩2块双口网卡表:硬件配置需求7.2虚拟化软件配置需求vSpherewithOperationsManagement解决方案的虚拟化与管理软件配置需求如下表所示。软件名称单位新增数量基本配置或处理能力要求备注服务器虚拟化与监控软件套12VMwarevSpherewithOperationsManagement企业增强版服务器虚拟化与监控软件虚拟化管理软件套1VMwarevCenter标准版管理软件服务年1详见服务说明培训个2VCP培训表:软件配置需求注:以上软硬件配置适合于1000个应用系统,根据实际环境的不同,软硬件配置可能略有调整。1588专业服务8.1VMware专业服务介绍VMware服务部门包括全球支持服务部(GlobalSupportService简称GSS)、专业服务部(ProfessionalServiceOrganization简称PSO)和培训部(Education),分别提供基于客户支持热线的售后产品技术支持、全生命周期的咨询和现场实施/支持服务、VMware产品的标准培训课程。专业服务范围:评估:定量分析TCO/ROI,准确估算服务器数量、容量规划、性能、应用需求等,对实施策略和实施路线图提出建议;规划和设计:对客户的虚拟化平台做出专业规划和设计,按照VMware最佳做法做出包括数据中心规划,网络设计、存储设计、容灾与备份设计、高可用性和业务连续性设计、虚拟机设置、虚拟化流程设计等;项目实施:安装、配置和测试虚拟化基础设施,创建虚拟机到虚拟化基础设施,调试虚拟化后的各个业务系统运转正常,保证项目的成功;系统迁移:把存量应用系统迁移到VMware云平台,制定迁移规划,实施系统迁移及迁移后的测试。虚拟化的持续运营改进服务:帮助客户改进原有IT运营流程并定制标准操作流程、建立虚拟化基础设施的容量管理流程和平台、建立虚拟化基础设施的IT财务管理流程和平台。现场培训服务:不同于认证培训,定制现场培训可以根据用户需要结合实际环境对安装配置、日常监控管理、性能调优、故障处理等多种专题进行展开。针对不同职责岗位的用户维护团队,培训可分为初级、中级、高级三个阶段。8.2专业咨询服务内容将IT可能性转变为实际业务价值。让我们的顾问帮助客户满足严苛而不断变化的业务需求。8.2.1VMwareAccelerate咨询服务VMware专家将衡量并评估企业的运营以定义切实可行的IT转型策略。用户将获得基准测试、财务建模和可执行性的路线图,以帮助用户实现切实的业务价值。Accelerate评估服务在转型过程中了解需要衡量哪些内容非常关键。我们的基准测试服务范围包括涵盖一组核心属性的高级别同行基准测试;对技术、体系结构和流程的核心领域的当前和将来状态的评估;以及对自定义KPI控制面板和同行分析的全面定义。Accelerate诊断服务要成功实施虚拟“化和IT即服务”(ITaaS)计划,必须深入了解维持和维护新环境所需的改变。财务影响和投资回报非常重要,但还需要考虑组织结构、人员配备、运营和流程等方面的变更,其管理的优劣可能决定用户的成败。159Accelerate战略服务在对贵公司进行评估并确定云转型的影响之后,VMware顾问可与用户共同制定全面的战略和路线图。我们的专家将与用户的相关人员、IT团队以及业务线合作,基于关键业务需求制定以共识驱动的实用行动计划,这些行动计划将会带来可量化的业务成果。8.2.2技术咨询服务无论企业是需要创建、发展还是要优化软件定义的数据中心和终端用户计算环境,都可以得益于专家指导的设计和部署,同时企业团队也可以获得实际操作知识传授。软件定义的数据中心(SDDC)将可能性转变为现实。总之,我们将通过优化VMware的SDDC产品和技术来创建、扩展或增强ITaaS。我们将使用完整vCloudSuite来设计和构建可延展的框架以确保效益、灵活性、控制力和选择性,与此同时,企业的团队将通过实际动手体验提升自助能力。终端用户计算(EUC)我们的专家可帮助企业在整个IT基础架构中对桌面虚拟化进行探索、扩展或标准化。我们将利用行业最佳实践和我们深厚的专业技能来加快部署速度;为企业环境中的虚拟机建立可重复的高效调配流程;并提升桌面安全性和业务连续——性同时加强对桌面基础架构的控制。虚拟化无论企业处于虚拟化之旅的哪一个阶段,都可以获得有专家指导的支持。当企业开发和设计全面的虚拟化路线图、为第1层应用构建环境、减少数据中心环境的物理占用空间、确保业务连续性和改进虚拟化基础架构的管理时,我们的顾问将会帮助企业提高工作效率。技术实施在企业希望降低风险并快速交付成果时,我们随时可以提供帮助。借助创新的洞察力和独有的技术知识,我们的顾问可以全程帮助企业构建VMware产品,从设计一直到在生产环境中进行实施。在此过程中,我们将为企业的团队提供实际动手体验以帮助培养技能和树立信心。8.2.3技术客户经理(TAM)服务我们的常驻专家综合运用对企业需求的深入了解、从数千次成功实施中获得的洞察信息和对VMware专业技能的访问权限,可推动企业的业务加速取得突破性进展并帮助企业提供无与伦比的业务价值。专门的企业技术客户经理我们专门的企业TAM负责与企业的团队开展独家合作,而且在加快业务突破、降低成本方面拥有丰富的经验,可确保企业团队的自助能力以及企业的VMware投资回报最大化。如果企业已准备好推动IT组织和IT服务交付模式的转型并希望转型无与伦比,那么这种长期关系可确保企业取得成功。160企业技术客户经理企业技术客户经理作为企业的战略IT转型团队的延伸,可以经常评估和报告企业的规范性路线图的自定义衡量指标、行业基准测试和进度。企业TAM充当所有VMware问题的支持者,可帮助优化企业的VMware投资,使企业的团队得以增长知识,提高自助能力。技术客户经理技术客户经理是企业团队可以依赖的专家,他们提供独有的产品知识和经验证的技能,可帮助简化部署并改善企业的VMware平台的运营。企业的TAM的规范性实时指导有助于避免常见陷阱和管理复杂性,识别可充分利用VMware投资的机会并支持用户团队培养技能。8.3专业服务实施流程虚拟化项目的实施拥有必要的专业知识,并且久经考验的方法论,才能实现虚拟化的目标。VMware专业服务团队(PSO)遵循虚拟化基础架构和云平台建构方法论将指导成功运用虚拟化技术所需的各项步骤。虚拟化项目实施将包括:虚拟化评估、规划设计、部署实施和运维四个阶段。明确虚拟化的目标的方式;确定虚拟化的影响和范围虚拟化的架构设计和规划;定义实施方案,验证标准,测试计划部署实施虚拟化架构解决方案保证持续的维护与运营成功;为下一步的虚拟化迭代做评估虚拟化评估报告虚拟化能力分析整合比计算总体拥有成本(TCO)和投资回报率(ROI)的计算架构设计(网络,存储,资源池等)高可用设计业务连续性设计备份和恢复计划安全安装和实施规范测试计划上线规范操作程序虚拟化架构的安装与配置虚拟化迁移高可用测试备份与恢复测试虚拟化迁移虚拟化客户技术经理(TAM)现场与远程技术支持技术问题接口8.3.1评估确定针对虚拟基础架构的业务、组织、财务和技术需求,以及相应的交付选项。此阶段的交付成果是一份评估报告,其中会列出各种选项,并可能包括基于确定的需求和提供的建议。161实施评估运维规划设计此阶段中,需要采集现有PC服务器的硬件配置以及性能数据以进行详细的定量分析。该阶段将要提交一个虚拟化评估报告,包括虚拟化策略和TCO/ROI分析,整合比计算。同时,该文档将包括一个实施计划去帮助实现虚拟化策略和财务成果,并且详述已确定的速效方法帮助客户实现虚拟化。8.3.2规划与设计为实施选定的虚拟基础架构解决方案制定详细的体系结构设计和计划。确定项目中的角色和职责、关键日期和里程碑,以及约束和应急计划。此阶段的交付成果包括:体系结构设计、构建与配置指南、验证构建是否成功的测试规划,以及对关键内部流程的认定(可能需要根据虚拟化基础架构和实施规划进行调整)。根据规划和蓝图安装并配置虚拟基础架构。根据需要举办知识传授研讨会,并按照规划阶段确定的标准对构建成果进行测试。交付成果包括:按规划构建且能正常运行的虚拟基础架构、指出规划与实际实施之间差异的异常报告、配置说明,以及负责人基于规划阶段确定的成功标准对所构建的基础架构的验收意见。规划和设计阶段将完成如下的设计,并且定义相关的流程:架构设计(网络,存储,资源池等)高可用设计业务连续性设计备份和恢复计划安全安装和实施规范测试计划上线规范等8.3.3实施根据规划和蓝图安装并配置虚拟基础架构。根据需要举办知识传授研讨会,并按照规划阶段确定的标准对构建成果进行测试。交付成果包括:按规划构建且能正常运行的虚拟基础架构、指出规划与实际实施之间差异的异常报告、配置说明,以及负责人基于规划阶段确定的成功标准对所构建的基础架构的验收意见。实施阶段主要完成的工作如下:虚拟化架构的安装与配置虚拟化迁移高可用测试备份与恢复测试虚拟化迁移8.3.4运维通过实施后的支持工作,不断优化和更新虚拟基础架构及操作流程。在运维阶段,将聘请虚拟化的客户技术经理(TAM)作为可信任的虚拟化专家,去解决数据中心的独特的需求和策略目标。同时,也把让TAM提供现场与远程技术支持和技术问题接口。162通过把客户技术经理(TAM)作为数据中心员工扩展的一部分,保持对于本数据中心的环境持续一致的了解,让TAM配合去审核项目计划,帮助识别风险,并且可以在项目部署的生命周期内提供最佳实践的指导。TAM能提供访问丰富的虚拟化知识库,协调与虚拟化产品团队和专家的交流,帮助迅速的解决问题。通过使用VTA确保虚拟化成功的部署和最大程度的实现虚拟架构的ROI。1639支持服务概述作为VMware服务系列的组成部分,全球支持服务与VMware专业咨询服务、VMware培训服务及VMware认证服务相结合,从而在加快投资回报速度的同时降低了风险。VMware聘用了最大规模的虚拟化专业技术团队,他们专门为多变、异构且极为复杂的关键任务型虚拟化和云计算环境提供支持。经客户验证的VMware虚拟化和云计算基础架构解决方案与世界一流的全球支持服务相结合,为客户和合作伙伴带来了循序渐进的云计算实施途径。在保留现有应用程序和基础架构投资的基础上,可以更快地从云计算方法实现价值,客户可通过提高利用率、实现自动化、灵活性和可控性,同时保留自由选择的能力,从而实现效率提升。9.1VMware支持的角色和职责有三种类型的支持专家参与VMware支持部门的工作。了解需要与哪个小组进行交流,将会加快问题的解决。许可支持团队请求帮助解决VMware帐户、产品许可或支持合同问题时,请与他们联系。他们的职责包括但不限于:修改支持合同允许的管理员回答有关许可升级和降级的问题澄清许可遵从问题解决产品许可问题客户支持代表(CSR)这是用户以电话方式提交支持请求时接触到的联系人。他们的职责包括但不限于:准确详尽地将用户的技术支持请求记录到我们的跟踪系统向用户提供用于标识用户的支持请求的跟踪号根据用户的支持协议和问题的严重程度确定适当的初始响应时间协助用户准确地维护SA个人资料技术支持工程师(TSE)用户的支持请求将被指派给技术支持工程师(TSE)。TSE是为用户提供技术支持和指导的主要联系人。他们的职责包括但不限于:对支持请求作出响应(通过电子邮件和/或电话方式)重新搭建用户的技术环境以重现问题并排除故障研究、确认并解决各种问题与其他VMware部门协同解决用户的问题9.2全球技术支持服务为了满足各种组织(大型组织和小型组织、全球组织和地区组织)的需求,VMware提供以下支持选项。基本支持-非关键支持(12x5)高级支持-为严重性为1的问题提供全天候的生产支持关键业务支持(BCS)-由专门团队提供的个性化支持关键任务支持(MCS)-优先享受高级工程师的支持和主动式客户管理服务(24x7)IaaS高级支持-针对基础架构即服务提供的高级支持(对于IaaS严重性为1的问题提供全天候支持)SaaS基本支持-针对软件即服务产品提供的非关键支持(12x5)(对于SaaS严重性为1的问题提供全天候支持)164SaaS高级支持-针对软件即服务产品提供的高级支持(对于SaaS严重性为1的问题提供全天候支持)vFabric开发人员支持-为vFabric应用程序开发提供支持(12x5)针对vSphere的SDK支持计划-简化的vSphere应用程序开发(12x5)开发人员支持-面向应用程序开发阶段的支持(12x5)开放源代码支持-由开放源代码技术专家以及由VMware的代码贡献者提供的帮助美国联邦技术支持-由位于美国境内且拥有美国国籍的经验丰富的工程师提供支持按事件支持-单事件支持或针对1个、3个或5个事件的支持包(12x5)免费支持-基于Web的Fusion和Workstation支持Zimbra高级技术支持-仅通过电子邮件提供的针对Zimbra产品的支持,每年最多10个支持事件Zimbra金牌技术支持-针对Zimbra产品的工作时间电话支持,对于严重性为1的问题提供全天候支持,并且每年不限支持事件数量评估支持-仅提供基于Web的自助服务测试版-仅提供反馈机制不再提供的支持服务-白银支持、订购服务、桌面标准支持9.3自助服务支持企业可以充分利用网上提供的VMware自助工具。在支持资源页面上,用户可以找到技术文档和知识库解决方案的链接,可以在社区论坛中与其他管理员讨论问题,还可以参考我们的白皮书、技术说明和兼容性指南。可用的自助资源包括:9.3.1社会支持知识库-可以找到诸多支持问题的解答。博客-从技术支持获取内部消息,包括提示信息和最佳实践。内部支持人员KBTV知识库文摘Twitter-在Twitter上关注我们,获取实时知识库更新或向我们寻求帮助。@vmwarecares@vmwarekb移动电话应用程序-使用免费的iPhone或Android应用程序搜索知识库、阅读SupportInsider博客、获取我们的TwitterFeed以及观看KBTV视频。165在用户的移动设备上打开此链接(http://wbxapp.com/vmwarekb)可安装VMware移动应用程序VMware工具栏-在浏览器中安装我们的工具栏,用户就可以快速访问主要的支持资源。网站上列出了支持的浏览器类型。YouTube-观看我们的频道,获取逐步技术说明和培训。VMware社区-与其他VMware客户和技术专家联系,与他们讨论产品、策略、规划安全性等。9.3.2其他资源产品支持中心-寻找文档、故障排除指南、网络广播和其他有帮助的产品支持资源。知识库-在VMware的知识库中可以找到诸多支持问题的解答。文档-可以找到各版本VMware产品的发行说明、手册、指南和技术资源。技术白皮书-可访问当前已发布的所有VMware产品的白皮书、技术说明、兼容性指南以及其他技术信息。兼容性指南-查看用户的配置是否受支持,确定任何已知的系统、I/O、SAN或备份兼容性问题,还可以了解哪些操作系统受支持。产品许可-获取有关产品许可的帮助或访问我们的许可证管理门户。安全中心-及时了解所有VMware产品的安全相关事宜。订阅关于安全警报的主动式通知、报告安全问题并下载与安全相关的内容。支持工具-使用可帮助管理支持请求和产品许可活动的工具。开发人员资源-希望在其程序中采用虚拟基础架构服务的开发人员可以在这里找到所需信息。用户组(VMUG)-与VMware用户一起参与论坛讨论,分享最佳实践和专业知识。提醒-可以进行注册,以便在补丁程序和维护版本可用时收到提醒。16610培训服务通过VMware原厂培训服务和认证计划,我们帮助客户培养设计、运行和利用VMware解决方案所需的技能。Illuminas曾在全球范围内对IT管理者进行过一项调查,其中74%的受访者表示对持有VMware证书的员工感到满意。因此,获得VCP认证不仅是个人能力的体现,更是在企业内获得专业水平认可的途径。VCP认证人员在企业的云计算之旅成败与转型中扮演重要角色。VMware原厂培训服务提供多种培训方式:ILT-讲师指导的课室培训,由VMware原厂认证讲师授课;12-14人小班专注培训质量;北京、上海、广州每周滚动开课,二线城市杭州、深圳、武汉、西安、大连、青岛、厦门等每月开课。OnsiteTraining-客户现场培训,由VMware原厂认证讲师授课,可根据客户的时间和地点组织培训,培训时间灵活、节省差旅费用、培训内容可实现定制化。OnDemandClassroom-点播式培训,客户可根据自己的时间随时随地通过网络进行学习,热门课程均提供中文版本。VMwareLabConnect-课后动手实验室,可满足客户在课后业余时间进行实验操作以巩固知识和技能的需求。VMware不断推出新的产品,并对现有产品进行更新。因此,获得认证的专业人员拥有所需的最新技能也很重要。为此,VMware在2014年推7月推出了再认证政策。所有VCP认证的有效期都将为2年。如果您获得VCP认证的时间早于2013年3月,则可以在2015年3月之前进行再认证。10.1认证体系与学习路径DataCenterVirtualization--数据中心虚拟化,从中级到高级课程的培训包含vSphere的安装、配置、管理;SRM快速入门;操作系统、虚拟架构的管理;分析预测和设计;优化和扩展、故障排除等高阶课程。EndUserComputing--Desktop桌面虚拟化,从中级到高级课程的培训包含桌面虚拟化的快速入门,安装配置管理和设计最佳时间实践等高阶课程。Cloud--云计算,从中级到高级课程的培训包含云计算的安装配置管理,混合云的设计最佳时间实践等。NetworkVirtualization--网络虚拟化,包括网络虚拟化的安装配置管理以及专家快速入门等高阶课程。167图:数据中心虚拟化与用户终端计算学习路径图:云架构与网络虚拟化学习路径10.2培训课程168课程名称描述天数软件定义的数据中心VMwarevSphere:Install,Configure,Manage[V6.0]安装配置管理本课程包含丰富的动手实验,培训内容涵盖VMwarevSphere®的安装、配置与管理,包括VMwareESXi和VMwarevCenterServer。本课程基于VMwareESXi6.0和VMwarevCenterServer6.0,此课程满足VMware认证专家(VCP6-DCV)考试要求。5天VMwarevSphere:OptimizeandScale[V6.0]优化与扩展本高级课程针对经验丰富的VMwarevSphere®技术人员,讲授配置和部署高可用性和扩展性的虚拟架构的高级技能。本课程基于VMwareESXi6.0和VMwarevCenterServer6.0。5天VMwarevSphere:TroubleshootingWorkshop[V5.5]故障排除研修班本高级课程动手练习占75%,针对经验丰富的VMwarevSphere®技术人员,帮您深入掌握vSphere5.5的重要功能,具备vSphere环境故障排除的实际能力。此课程同时也满足VCP5-DCV认证考试的要求。5天VMwarevSphere:DesignandDeployFastTrack[V6.0]设计与部署本课程基于VMwareESXi和VMwarevCenterServer6.0。本课程讨论可供备选的设计方案的利与弊,并提供有助于合理制定设计决策的相关信息,让您能够利用自己的设计才能完成最佳设计实践。5天VMwarevSphere:What\'sNew[V5.5toV6]新功能特性本课程基于VMwarevSphere®6.0,让您全面掌握vSphere6.0的新功能特性。2天VMwarevSphere:Bootcamp[V6.0]训练营本课程基于VMwarevSphere®安装配置管理和优化与扩展两门热门课程的组合,通过五天高强度的培训,使您最快地掌握VMwarevSphere的核心功能和操作技巧。5天VMwarevCenterSiteRecoveryManager:Install,Configure,Manage[V5.8]本实训课程为期两天,可帮助经验丰富的VMwarevSphere®管理员掌握安装、配置和管理VMwarevCenterSiteRecoveryManager5.x的知识。本课程还为vSphere管理员提供协助执行灾难规划和使用SRM测试灾难恢复计划所需的知识。2天VMwarevRealizeOperationsManager:Install,Configure,Manage[V6.0]安装配置管理本课程面向有经验的VMwarevSphere®管理员,讲解如何使用VMwarevRealizeOperations作为分析和预测工具。本课程以VMwareESXi6.0、VMwarevCenterServer6.0和VMwarevRealizeOperationsManager6.0为基础。5天169VMwareVirtualSAN:DeployandManage[V6.0]部署和管理本课程重点讲解部署和管理VMwareVirtualSAN软件定义存储解决方案,探讨VirtualSAN作为重要的VMware软件定义数据中心(SDDC)的组件。学员可以通过丰富的动手实验获得实践经验,课程基于VMwareESXi6.0和VMwarevCenterServer6.0。3天桌面云VMwareMirage:Install,Configure,Manage[V5.0]安装配置管理本实训课程可帮助您提高VMwareMirage产品的使用技能。3天Horizon(withView):Install,Configure,Manage[V6.0]安装配置管理本实训课程可帮助您提高VMwareHorizonView产品套件(VMware®ViewManager,VMware®ViewComposer和VMware®ThinApp®)的使用技能。本课程基于HorizonView6.0和ThinApp讲授。4天云计算VMwarevRealizeAutomationCenter:Install,Configure,Manage[V6.2]安装配置管理本实训课程内容涵盖安装,配置和管理VMwarevRealizeAutomationCenter,使其作为自助的虚拟云平台,实现在物理设备上创建和管理需求的云基础架构管理。5天网络虚拟化VMwareNSX:Install,Configure,Manage[V6.1]安装配置管理本实训课程全面讲解安装,配置和管理VMwareNSX,涵盖了作为SDDC平台一部分的NSX,实施案例以及NSX的特定功能和OSI模型中2层到7层的功能操作。课程和丰富的动手实验将支持学生理解VMwareNSX的特点、功能和持续的管理与控制。5天VMwareNSXInternetworkingExpertsFastTrack[V6.1]互联专家集训营本实训课程全面讲解安装,配置和管理VMwareNSX,是一门综合的快节奏的课程。通过丰富的动手实验将使得学生深刻理解VMwareNSX的特点、功能和持续的管理与控制。同时介绍相关厂商技术产品,让您更深入了解NSX的可互动性。5天VMwareNSX:DesignandDeploy[V6.1]设计与部署本实训课程全面讲解如何设计和部署VMwareNSX,让您掌握软件定义网络的设计过程中的方法和技巧。4天表:VMware全球培训热门推荐课程了解更详尽的培训信息,请访问:http://www.vmware.com/education或发送邮件至GC-education@vmware.com170报名垂询:VMware大中国培训部联系人:周丽娟GraceZhou(中国区销售代表)联系电话:+8610-59934314,+8613601380360联系人:許燕秋BettyHsu(香港台湾销售代表)联系电话:+886-2-87582938,+8860937249753VMware,Inc.3401HillviewAvenuePaloAltoCA94304USATel877-486-9273Fax650-427-500威睿信息技术(中国)有限公司中国北京海淀区科学院南路2号融科资讯中心C座南楼3层邮编:100190电话:+86-10-5993-420017111缩略语解释缩略语解释vSOMvSpherewithOperationsManagementvSphere与运维管理套件PaaSPlatformasaService平台即服务IaaSInfrastructureasaService基础设施即服务SDDCSoftwareDefinedDataCenter软件定义的数据中心SLAServiceLevelAgreement服务级别协议TCOTotalcostofownership总所有成本ROIReturnOnInvestment投资回报率DRSDistributedResourceScheduler分布式资源调度DPMDistributedPowerManagement分布式电源管理TPSTransparentpagesharing透明页共享FTFaultTolerance容错HAHighAvailability高可靠性172
一夕落阳
该用户很懒,什么也没介绍
文档单价:6.00 会员免费
开通会员可免费下载任意文档