CN104794098B - 一种数据中心物理主机及存储设计方法及系统 - Google Patents
一种数据中心物理主机及存储设计方法及系统 Download PDFInfo
- Publication number
- CN104794098B CN104794098B CN201510206212.XA CN201510206212A CN104794098B CN 104794098 B CN104794098 B CN 104794098B CN 201510206212 A CN201510206212 A CN 201510206212A CN 104794098 B CN104794098 B CN 104794098B
- Authority
- CN
- China
- Prior art keywords
- client
- data center
- physical host
- host
- frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供一种数据中心物理主机及存储设计方法及其系统,该方法主要基于业务规模要求,获得客户端主机规模测算值、占用率、客户端存储空间需求、客户端存储占用率,以及数据中心物理主机配置数据、运行效率、存储空间、存储占用率,并基于数据中心中使用虚拟化技术时,计算数据中心建设需要的物理主机数量和物理主机存储设备数量。给出了一种合理的数据中心物理设备的优化用量计算方法及计算系统,提高了数据中心设计的可靠性。
Description
技术领域
本发明涉及一种数据中心主机及其存储的设计方法及系统,具体而言,涉及一种面向用户的、采用虚拟化、集成化的数据中心的主机需求及存储需求的设计方法及其设计系统。
背景技术
数据中心自建主机和存储,已经走向集成化、虚拟化,面向用户是按需分配的。而在数据中心的建设初期,必须在满足用户的数据处理及数据中心功能需求的基础上,考虑多种制约数据中心建设的边界因素,从而在此基础上实现科学、合理、节约硬件成本的数据中心主机及存储的基础搭建。
传统数据中心往往采用购置物理主机方式出租给客户。每个客户租用单台或多台设备使用,数据中心业主设备购置费高,客户租用费用也高,同时设备利用率极低。
数据中心主机向高密度、集成化方向发展。目前在网主流的主机采用高密度的刀片服务器组成。同时业界也正在研究整机柜的解决方案,集成度更高,成本更低。
虚拟化是一种资源管理技术,是将计算机的各种实体资源,如服务器、网络及存储等,予以抽象、转换后呈现出来,打破实体结构间的不可切割的障碍,使用户可以比以前以更好的方式来使用这些资源。这些资源经过虚拟化后不受现有资源的架设方式,地域或物理组态所限制。一般所指的虚拟化资源包括计算资源、存储和网络资源,经过虚拟化后多个客户可以共享一台或多台物理设备,从而提高资源利用率。
采用虚拟化技术,将所有的主机和存储设备虚拟化为一个资源池,每个客户只需要按需向业主申请资源即可,每个用户在使用虚拟设备时,感觉不到虚拟层,每个用户还是感觉独享了这台设备。
同样,与数据中心主机的发展相协调,存储同样向着高密度、虚拟化、集成化方案发展。目前主流的做法有三类,第一类采用高密度的光纤存储,提高读写速度,但成本高;第二类是采用NAS存储,提高读写速度,降低成本,第三类是采用分布式存储,降低成本,提高访问速度,容量大。同时业界也正在研究软件定义存储解决方案,即SDS。
在例如公开号为CN103491178A的现有技术中,其在建立数据中心的数学模型应用中,仅仅考虑了选址对数据中心的约束,并采用单一的启发式搜索算法,来计算获得可使用的数据中心选址,仅将一种环境约束作为数据中心建设的考虑依据,并不能良好地处理面对用户的基本需求这一主要的约束因素,并且也未涉及对整个数据中心的硬件建设进行优化计算。
这些现有的技术,并没有很好地提出一种基于最今本的用户需求约束,科学合理的数据中心建设的参考计算方式,更多的是仅将虚拟化技术简单地应用到已经固化的数据中心硬件设施上,而没有基于虚拟化技术,并在此基础上,考虑数据中心硬件设施建设的要求和特点,科学合理地对硬件设施的配置给予优化的组合,节约硬件建设成本。
发明内容
为解决上述技术问题,本发明提出了一种数据中心主机及存储设计的方法及其设计系统,很好地结合了虚拟化方式与数据中心硬件设备配置设计,以最主要的用户需求为约束条件,考虑现有技术中广泛应用的虚拟化技术的复用效果,总结出统一、优化的数据中心硬件要求优化范围,从而在数据中心硬件设备建设初期,获得更优的硬件设备需求量,节约硬件建设成本。
数据中心建设的边界因素非常多,数据中心规模越大,对数据中心的选址、区域划分、土建、承重、装饰、供电、制冷、强电、弱电、综合布线、照明、防雷接地、消防、监控与门禁等不同的维度均有不同的建设要求。在诸多边界条件中,数据中心建设规模最重要的三个制约条件是:业务需求、机房空间、供电。当受到机房空间和供电限制时,通过单机架占用空间及单机架功耗可以计算得到能安装的机架数量,从而确定数据中心的规模,这在现有的常规技术中有多种算法,例如对能耗点的测算方法等。但是这些约束条件中,用户的业务需求,即对数据中心的基本功能上的业务要求,则是真正制约数据中心硬件设备用量的约束条件。
为解决上述技术问题,本发明提出了以下的具体技术方案,这些技术方案均是在数据中心采用虚拟化技术前提下进行的,具体为:
一种数据中心物理主机及存储设计方法,其特征在于:基于业务规模要求,获得客户端主机规模测算值、客户端存储空间需求、客户端存储占用率;所述客户端主机规模测算值由客户端主机数量、客户端主机配置数据及客户端设备占用率计算;
获取数据中心物理主机配置数据、运行效率、存储空间、存储占用率;
根据客户端主机规模测算值,以及数据中心物理主机配置数据、运行效率,计算物理主机数量;
根据所述客户端存储空间需求、客户端存储占用率、数据中心存储设备存储空间和数据中心存储设备存储占用率,计算物理主机存储设备数量。
更为优选地,所述根据客户端主机规模测算值,以及数据中心物理主机配置数据、运行效率,计算物理主机数量,进一步包括:
将所述客户端主机规模测算值,转换为运算设备核数和/或频率数;
根据数据中心物理主机配置数据、运行效率,计算数据中心物理主机计算能力;
根据所述运算设备核数和/或频率数、数据中心物理主机计算能力,计算物理主机数量。更为优选地,在获得物理主机数量后,考虑虚拟化利用率,进一步计算实际需要配置的设备数量;该实际需要配置的设备数量=物理主机数量/(1+虚拟化利用率)。
更为优选地,在用户设计需求为基本的设计需求时,所述客户端主机配置数据包括:客户端主机的CPU数、核数、频率;所述数据中心物理主机配置数据包括:物理主机的CPU数、核数、频率。当然,当用户在设计数据中心时,如果需要考虑采用的物理设备的其他性能以及客户需求性能的特殊要求时,可以额外加入其他的主机配置要求,例如额外的显示芯片组性能、其他的数据传输性能等,或者包括本领域技术人员掌握的其他的物理机的性能指标或性能要求,此处并不以此为限。
更为优选地,将所述客户端主机规模测算值,转换为运算设备核数和/或频率数具体的方法,包括:
运算设备核数=客户端主机需求数×CPU颗数×单颗CPU核数×客户端设备占用率;或运算设备频率数=客户端主机需求数×CPU颗数×单颗CPU核数×单核CPU频率×客户端设备占用率,当同一客户的主机频率不一致时,则分别计算所述运算设备频率数,再累加求和。而对于在进行机房设计时,具体采用核数的计算还是采用频率的计算,则可以根据面对的客户的具体情况而定,例如,当用户的设备所使用的CPU频率、以及机房主机所使用的CPU频率均相同,或者可以视作等同时,则可以简单地通过计算CPU的核数,来作为参考计算的依据值即可;而当这些CPU的频率不相同时,则不能简单地将多种类型的CPU进行等同,因此,此时采用求取运算设备频率数的方式,则成为更为优选的方式,这样即可以实现对于不同型号、频率的CPU的情况进行运算需求量的折合计算,方便了机房设计中所要实用的规模参考值;除此之外,例如,当客户对主机的运算设备处理器要求与数据中心设备并不一致时,如部分客户要求用处理速度更快的CPU,部分用户仅要求用处理速度一般的CPU,则此时可以按照所有的设备的频率数来转换计算,这样可以获得更加可靠的数据结果;而当用户要求与数据中心设备相同时,则可以将频率数计算省略。本领域技术人员应当知晓,上述所给出的运算设备核数以及运算设备频率数的求取方式,仅是一种优选的方式,而本领域技术人员在本发明公开的教导下,也可以结合公知的数学算法,采用其他的具体运算方式,来折合求取这一运算设备核数以及运算设备频率数,从而作为机房设计时的运算量规模的参考值依据,而这些方式均落入本申请保护范围之内。
更为优选地,计算物理主机数量具体为:
其中,N为客户端数,Mi为每个客户端的主机需求数,Ci为客户端设备的CPU颗数,Hi为客户端设备核数,Pi为客户端设备频率,Li为客户端设备占用率,M0为数据中心物理主机台数,C0为数据中心物理主机CPU颗数,H0为数据中心物理主机核数,P0为数据中心物理主机频率,L0为数据中心物理主机运行效率;
计算物理主机存储设备数量具体为:
其中,Si为客户端存储空间需求,Gi客户端存储占用率,S0为数据中心存储设备存储空间,G0数据中心存储设备存储占用率。
更为优选地,所述L0取值范围为50%~70%,一般取值为70%;所述G0取值范围为60%~80%,一般取值为70%。
此外,本发明还提供了一种数据中心物理主机及存储设计系统,该系统包含:
客户端需求获取模块,用于基于业务规模要求,获得客户端主机规模测算值、客户端存储空间需求、客户端存储占用率;所述客户端主机规模测算值由客户端主机数量、客户端主机配置数据及客户端设备占用率计算;
数据中心物理主机数据获取模块,用于获取数据中心物理主机配置数据、运行效率、存储空间、存储占用率的模块;
物理主机数量计算模块,用于根据客户端主机规模测算值,以及数据中心物理主机配置数据、运行效率,计算物理主机数量;
物理主机存储设备数量计算模块,用于根据所述客户端存储空间需求、客户端存储占用率、数据中心存储设备存储空间和数据中心存储设备存储占用率,计算物理主机存储设备数量。
更为优选地,所述物理主机数量计算模块进一步包括:
换算模块,用于将所述客户端主机规模测算值,换算为运算设备核数和/或频率数;
数据中心物理主机计算能力换算模块,用于依据数据中心物理主机配置数据、运行效率,计算数据中心物理主机计算能力;
主机数量计算模块,用于将所述运算设备核数和/或频率数,除以所述数据中心物理主机计算能力,以获得数据中心物理主机数量。更为优选地,还可以包括实际配置设备数量计算模块,用于在获得物理主机数量后,考虑虚拟化利用率,进一步计算实际需要配置的设备数量;该实际需要配置的设备数量=物理主机数量/(1+虚拟化利用率)。
更为优选地,所述客户端主机配置数据包括:客户端主机的CPU数、核数、频率;所述数据中心物理主机配置数据包括:物理主机的CPU数、核数、频率。当然,当用户在设计数据中心时,如果需要考虑采用的物理设备的其他性能以及客户需求性能的特殊要求时,可以额外加入其他的主机配置要求,例如额外的显示芯片组性能、其他的数据传输性能等,或者包括本领域技术人员掌握的其他的物理机的性能指标或性能要求,此处并不以此为限。
更为优选地,所述换算模块进一步包括:
运算设备核数=客户端主机需求数×CPU颗数×单颗CPU核数×客户端设备占用率率;或运算设备频率数=客户端主机需求数×CPU颗数×单颗CPU核数×单核CPU频率×客户端设备占用率,当同一客户的主机频率不一致时,则分别计算所述运算设备频率数,再累加求和。而对于在进行机房设计时,具体采用核数的计算还是采用频率的计算,则可以根据面对的客户的具体情况而定,例如,当用户的设备所使用的CPU频率、以及机房主机所使用的CPU频率均相同,或者可以视作等同时,则可以简单地通过计算CPU的核数,来作为参考计算的依据值即可;而当这些CPU的频率不相同时,则不能简单地将多种类型的CPU进行等同,因此,此时采用求取运算设备频率数的方式,则成为更为优选的方式,这样即可以实现对于不同型号、频率的CPU的情况进行运算需求量的折合计算,方便了机房设计中所要实用的规模参考值;除此之外,例如,当客户对主机的运算设备处理器要求与数据中心设备并不一致时,如部分客户要求用处理速度更快的CPU,部分用户仅要求用处理速度一般的CPU,则此时可以按照所有的设备的频率数来转换计算,这样可以获得更加可靠的数据结果;而当用户要求与数据中心设备相同时,则可以讲频率数计算省略。本领域技术人员应当知晓,上述所给出的运算设备核数以及运算设备频率数的求取方式,仅是一种优选的方式,而本领域技术人员在本发明公开的教导下,也可以结合公知的数学算法,采用其他的具体运算方式,来折合求取这一运算设备核数以及运算设备频率数,从而作为机房设计时的运算量规模的参考值依据,而这些方式均落入本申请保护范围之内。
更为优选地,所述计算物理主机数量具体可以采用以下的优化算法:
其中,N为客户端数,Mi为每个客户端的主机需求数,Ci为客户端设备的CPU颗数,Hi为客户端设备核数,Pi为客户端设备频率,Li为客户端设备占用率,M0为数据中心物理主机台数,C0为数据中心物理主机CPU颗数,H0为数据中心物理主机核数,P0为数据中心物理主机频率,L0为数据中心物理主机运行效率;
计算物理主机存储设备数量具体可以采用以下的优化算法:
其中,Si为客户端存储空间需求,Gi客户端存储占用率,S0为数据中心存储设备存储空间,G0数据中心存储设备存储占用率。此处,本领域技术人员应当知晓,上述算法仅作为本发明所提出的最优化的算法,而本领域技术人员在本发明公开的教导下,也可以结合公知的数学算法,采用其他的具体运算方式,例如采用空间聚合需求的计算方式、采用神经网络结合聚类的方式等等,来折合求取物理主机数量和物理主机存储设备数量,从而作为机房设计时的依据,而这些方式均落入本申请保护范围之内。
更为优选地,所述L0取值范围为50%~70%,一般取值为70%;所述G0取值范围为60%~80%,一般取值为70%。
本发明的上述技术方案的有益效果如下:
1、传统的购置物理主机的方式,每个客户对主机的使用率一般不超过15%,并且每个客户的主机使用时间段不同,设备利用率极低,而本发明的技术方案充分考虑了常规的虚拟化技术,使得设计出的数据中心物理主机设备及其存储设备可以在有效的范围内,最少化地使用物理资源,节约了设计成本;
2、本发明的技术方案,充分地体现了资源复用的效果,结合考虑虚拟化技术,保证了硬件设备资源使用率相比普通的设计方式可提升2-8倍;
3、本发明的技术方案,给出了一种简单易用的数据中心物理主机及存储硬件需求的合理计算方案。
附图说明
图1为本发明的数据中心物理主机数量计算方法;
图2为本发明的数据中心存储设备数量计算方法。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。需要声明的是,下述的具体实施方式仅是示意性说明,除非有特别说明,本申请的不同实施方式以及各个实施方式中的不同优化手段、即便没有在同一实施方式中阐述,也应该被理解成能够被应用于在这里描述的任何其它方面、实施方式或者例子,除非与之不相容或在本文中被明确地排除在外,否则本申请所有没有穷尽的实施方式之间的组合或子组合都是在本发明的记载及保护范围内。以下将结合说明书及附图详细阐述本发明主旨及其优选实施方式。
本发明针对现有技术中,没有很好地提出一种基于最基本的用户需求约束,科学合理的数据中心建设的参考计算方式的问题,提供了一种数据中心主机及存储设计的方法及其设计系统。
本发明的实施方式具体为:
如图1、图2所示,本发明提供了一种数据中心物理主机及存储设计方法,其特征在于:基于业务规模要求,获得客户端主机规模测算值、客户端存储空间需求、客户端存储占用率;所述客户端主机规模测算值由客户端主机数量、客户端主机配置数据及客户端设备占用率计算;
获取数据中心物理主机配置数据、运行效率、存储空间、存储占用率;
根据客户端主机规模测算值,以及数据中心物理主机配置数据、运行效率,计算物理主机数量;
根据所述客户端存储空间需求、客户端存储占用率、数据中心存储设备存储空间和数据中心存储设备存储占用率,计算物理主机存储设备数量。
在一具体实施方式中,所述根据客户端主机规模测算值,以及数据中心物理主机配置数据、运行效率,计算物理主机数量,进一步包括:
将所述客户端主机规模测算值,转换为运算设备核数和/或频率数;
根据数据中心物理主机配置数据、运行效率,计算数据中心物理主机计算能力;
根据所述运算设备核数和/或频率数、数据中心物理主机计算能力,计算物理主机数量。在一实施方式中,在获得物理主机数量后,考虑虚拟化利用率,进一步计算实际需要配置的设备数量;该实际需要配置的设备数量=物理主机数量/(1+虚拟化利用率)。此时,即计算出了具体的物理主机的数量要求,设计者可以依据该数量要求,进一步结合CPU配置和一定比例关系的内存配置,得到物理主机的详细配置,从而实现对数据中心的设备的具体设置。
而上述的计算运算设备核数还是计算运算设备频率数,则可以根据用户的具体需求而定,也可以在用户需求较为复杂时,例如不同的设备要求、CPU型号、频率等情况下,则可以采用其中一种,或者两种方式结合使用,从而最终计算得出准确的用户需求规模值。
在一实施方式中,在用户设计需求为基本的设计需求时,所述客户端主机配置数据包括:客户端主机的CPU数、核数、频率;所述数据中心物理主机配置数据包括:物理主机的CPU数、核数、频率。当然,当用户在设计数据中心时,如果需要考虑采用的物理设备的其他性能以及客户需求性能的特殊要求时,可以额外加入其他的主机配置要求,例如额外的显示芯片组性能、其他的数据传输性能等,或者包括本领域技术人员掌握的其他的物理机的性能指标或性能要求,此处并不以此为限。
在一实施方式中,将所述客户端主机规模测算值,转换为运算设备核数和/或频率数具体的方法,包括:
运算设备核数(核)=客户端主机需求数(台)×CPU颗数(颗)×单颗CPU核数(核)×客户端设备占用率;或运算设备频率数(Hz)=客户端主机需求数(台)×CPU颗数(颗)×单颗CPU核数(核)×单核CPU频率(Hz)×客户端设备占用率,当同一客户的主机频率不一致时,则分别计算所述运算设备频率数,再累加求和。而对于在进行机房设计时,具体采用核数的计算还是采用频率的计算,则可以根据面对的客户的具体情况而定,例如,当用户的设备所使用的CPU频率、以及机房主机所使用的CPU频率均相同,或者可以视作等同时,则可以简单地通过计算CPU的核数,来作为参考计算的依据值即可;而当这些CPU的频率不相同时,则不能简单地将多种类型的CPU进行等同,因此,此时采用求取运算设备频率数的方式,则成为更为优选的方式,这样即可以实现对于不同型号、频率的CPU的情况进行运算需求量的折合计算,方便了机房设计中所要实用的规模参考值;除此之外,例如,当客户对主机的运算设备处理器要求与数据中心设备并不一致时,如部分客户要求用处理速度更快的CPU,部分用户仅要求用处理速度一般的CPU,则此时可以按照所有的设备的频率数来转换计算,这样可以获得更加可靠的数据结果;而当用户要求与数据中心设备相同时,则可以讲频率数计算省略。本领域技术人员应当知晓,上述所给出的运算设备核数以及运算设备频率数的求取方式,仅是一种优选的方式,而本领域技术人员在本发明公开的教导下,也可以结合公知的数学算法,采用其他的具体运算方式,来折合求取这一运算设备核数以及运算设备频率数,从而作为机房设计时的运算量规模的参考值依据,例如,可以采用针对现有数据的采集而进行最优求解的算法,或者采用基于神经网络的聚类算法等等,而这些方式均落入本申请保护范围之内。
在一更为优选的实施方式中,计算物理主机数量具体为:
其中,N为客户端数,Mi为每个客户端的主机需求数,Ci为客户端设备的CPU颗数,Hi为客户端设备核数,Pi为客户端设备频率,Li为客户端设备占用率,M0为数据中心物理主机台数,C0为数据中心物理主机CPU颗数,H0为数据中心物理主机核数,P0为数据中心物理主机频率,L0为数据中心物理主机运行效率;
计算物理主机存储设备数量具体为:
其中,Si为客户端存储空间需求,Gi客户端存储占用率,S0为数据中心存储设备存储空间,G0数据中心存储设备存储占用率。此处,本领域技术人员应当知晓,上述算法仅作为本发明所提出的最优化的算法,而本领域技术人员在本发明公开的教导下,也可以结合公知的数学算法,采用其他的具体运算方式,例如采用空间聚合需求的计算方式、采用神经网络结合聚类的方式等等,来折合求取物理主机数量和物理主机存储设备数量,从而作为机房设计时的依据,而这些方式均落入本申请保护范围之内。
在一实施方式中,所述L0取值范围为50%~70%,一般取值为70%;所述G0取值范围为60%~80%,一般取值为70%。
此外,本发明还提供了一种数据中心物理主机及存储设计系统,该系统包含:
客户端需求获取模块,用于基于业务规模要求,获得客户端主机规模测算值、客户端存储空间需求、客户端存储占用率;所述客户端主机规模测算值由客户端主机数量、客户端主机配置数据及客户端设备占用率计算;
数据中心物理主机数据获取模块,用于获取数据中心物理主机配置数据、运行效率、存储空间、存储占用率的模块;
物理主机数量计算模块,用于根据客户端主机规模测算值,以及数据中心物理主机配置数据、运行效率,计算物理主机数量;
物理主机存储设备数量计算模块,用于根据所述客户端存储空间需求、客户端存储占用率、数据中心存储设备存储空间和数据中心存储设备存储占用率,计算物理主机存储设备数量。
在一实施方式中,所述物理主机数量计算模块进一步包括:
换算模块,用于将所述客户端主机规模测算值,换算为运算设备核数和/或频率数;
数据中心物理主机计算能力换算模块,用于依据数据中心物理主机配置数据、运行效率,计算数据中心物理主机计算能力;
主机数量计算模块,用于将所述运算设备核数和/或频率数,除以所述数据中心物理主机计算能力,以获得数据中心物理主机数量。在一具体实施方式中,还可以包括实际配置设备数量计算模块,用于在获得物理主机数量后,考虑虚拟化利用率,进一步计算实际需要配置的设备数量;该实际需要配置的设备数量=物理主机数量/(1+虚拟化利用率)。此时,即计算出了具体的物理主机的数量要求,设计者可以依据该数量要求,进一步结合CPU配置和一定比例关系的内存配置,得到物理主机的详细配置,从而实现对数据中心的设备的具体设置。
而上述的计算运算设备核数还是计算运算设备频率数,则可以根据用户的具体需求而定,也可以在用户需求较为复杂时,例如不同的设备要求、CPU型号、频率等情况下,则可以采用其中一种,或者两种方式结合使用,从而最终计算得出准确的用户需求规模值。
在一实施方式中,所述客户端主机配置数据包括:客户端主机的CPU数、核数、频率;所述数据中心物理主机配置数据包括:物理主机的CPU数、核数、频率。当然,当用户在设计数据中心时,如果需要考虑采用的物理设备的其他性能以及客户需求性能的特殊要求时,可以额外加入其他的主机配置要求,例如额外的显示芯片组性能、其他的数据传输性能等,或者包括本领域技术人员掌握的其他的物理机的性能指标或性能要求,此处并不以此为限。
在一优选的实施方式中,所述换算模块进一步包括:
运算设备核数(核)=客户端主机需求数(台)×CPU颗数(颗)×单颗CPU核数(核)×客户端设备占用率;或运算设备频率数(Hz)=客户端主机需求数(台)×CPU颗数(颗)×单颗CPU核数(核)×单核CPU频率(Hz)×客户端设备占用率,当同一客户的主机频率不一致时,则分别计算所述运算设备频率数,再累加求和。而对于在进行机房设计时,具体采用核数的计算还是采用频率的计算,则可以根据面对的客户的具体情况而定,例如,当用户的设备所使用的CPU频率、以及机房主机所使用的CPU频率均相同,或者可以视作等同时,则可以简单地通过计算CPU的核数,来作为参考计算的依据值即可;而当这些CPU的频率不相同时,则不能简单地将多种类型的CPU进行等同,因此,此时采用求取运算设备频率数的方式,则成为更为优选的方式,这样即可以实现对于不同型号、频率的CPU的情况进行运算需求量的折合计算,方便了机房设计中所要实用的规模参考值;除此之外,例如,当客户对主机的运算设备处理器要求与数据中心设备并不一致时,如部分客户要求用处理速度更快的CPU,部分用户仅要求用处理速度一般的CPU,则此时可以按照所有的设备的频率数来转换计算,这样可以获得更加可靠的数据结果;而当用户要求与数据中心设备相同时,则可以讲频率数计算省略。本领域技术人员应当知晓,上述所给出的运算设备核数以及运算设备频率数的求取方式,仅是一种优选的方式,而本领域技术人员在本发明公开的教导下,也可以结合公知的数学算法,采用其他的具体运算方式,来折合求取这一运算设备核数以及运算设备频率数,从而作为机房设计时的运算量规模的参考值依据,例如,可以采用针对现有数据的采集而进行最优求解的算法,或者采用基于神经网络的聚类算法等等,而这些方式均落入本申请保护范围之内。
在一实施方式中,所述计算物理主机数量具体可以采用以下的优化算法:
其中,N为客户端数,Mi为每个客户端的主机需求数,Ci为客户端设备的CPU颗数,Hi为客户端设备核数,Pi为客户端设备频率,Li为客户端设备占用率,M0为数据中心物理主机台数,C0为数据中心物理主机CPU颗数,H0为数据中心物理主机核数,P0为数据中心物理主机频率,L0为数据中心物理主机运行效率;
计算物理主机存储设备数量具体可以采用以下的优化算法:
其中,Si为客户端存储空间需求,Gi客户端存储占用率,S0为数据中心存储设备存储空间,G0数据中心存储设备存储占用率。此处,本领域技术人员应当知晓,上述算法仅作为本发明所提出的最优化的算法,而本领域技术人员在本发明公开的教导下,也可以结合公知的数学算法,采用其他的具体运算方式,例如采用空间聚合需求的计算方式、采用神经网络结合聚类的方式等等,来折合求取物理主机数量和物理主机存储设备数量,从而作为机房设计时的依据,而这些方式均落入本申请保护范围之内。
在一实施方式中,所述L0取值范围为50%~70%,一般取值为70%;所述G0取值范围为60%~80%,一般取值为70%。
为更好地解释本申请中的技术方案,现将本申请的设计方法以一具体的设计实例进行示例说明,应当了解,该示例仅作为对本申请的一个具体的实施方式的例举,并不作为本申请保护范围的限定。
主机的测算,根据客户主机租用市场规模测算,换算为核数或频率HZ数(当计算频率不一致时),从而得到CPU的核数。根据业务需要,考虑内存与CPU核数的比列,得到主机的基本配置。由于主机的技术演进更新较快,一般以年度为单位考虑主机需求配置,在虚拟环境下可实现平滑扩容。
存储空间的配置,根据对用户市场的估算,计算得到存储空间的配置,存储空间的突发性较大,尤其是当下数据暴涨的时代,存储空间建议预留一定的富裕量。
举例:客户甲需求为:1000台DELL R710(2*4核E56202.4GHzCPU/16GB内存/2*300GB硬盘)档次的设备,预计设备平均利用率30%;
客户乙需求为:800台DELL 2950(2*Xeon 3.0GHz CPU/4GB内存/2*146GB硬盘)档次的设备,预计设备平均利用率20%;
数据中心配置的主机设备为:单台配置为4颗8核2.0GHz CPU的PC服务器;
则计算物理机需求为:(1000*2*4*2.4*30%+800*2*2*3*20%)/(4*8*2*60%)=200台物理机。
虚拟化后利用率按照60%考虑,数据中心需要配置4CPU8核2.0GHz的设备125台,考虑运算能力的要求,内存可按照112G配置。
由上述的具体实施例及具体的设计案例不难看出,本发明的上述技术方案的有益效果如下:
1、传统的购置物理主机的方式,每个客户对主机的使用率一般不超过30%,并且每个客户的主机使用时间段不同,设备利用率极低,而本发明的技术方案充分考虑了常规的虚拟化技术,使得设计出的数据中心物理主机设备及其存储设备可以在有效的范围内,最少化地使用物理资源,节约了设计成本;
2、本发明的技术方案,充分地体现了资源复用的效果,结合考虑虚拟化技术,保证了硬件设备资源使用率相比普通的设计方式可提升2-8倍;
3、本发明的技术方案,给出了一种简单易用的数据中心物理主机及存储硬件需求的合理计算方案。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (8)
1.一种数据中心物理主机及存储设计方法,其特征在于:基于业务规模要求,获得客户端主机规模测算值、客户端存储空间需求、客户端存储占用率;所述客户端主机规模测算值由客户端主机数量、客户端主机配置数据及客户端设备占用率计算;
获取数据中心物理主机配置数据、运行效率、存储空间、存储占用率;
根据客户端主机规模测算值,以及数据中心物理主机配置数据、运行效率,计算物理主机数量;该步骤至少包括:将所述客户端主机规模测算值,转换为运算设备核数和/或频率数:
运算设备核数=客户端主机需求数×CPU颗数×单颗CPU核数×客户端设备占用率;或
运算设备频率数=客户端主机需求数×CPU颗数×单颗CPU核数×单核CPU频率×客户端设备占用率,当同一客户的主机频率不一致时,则分别计算所述运算设备频率数,再累加求和;
根据所述客户端存储空间需求、客户端存储占用率、数据中心存储设备存储空间和数据中心存储设备存储占用率,计算物理主机存储设备数量。
2.根据权利要求1所述的方法,其特征在于:所述根据客户端主机规模测算值,以及数据中心物理主机配置数据、运行效率,计算物理主机数量,进一步还包括:
根据数据中心物理主机配置数据、运行效率,计算数据中心物理主机计算能力;
根据所述运算设备核数和/或频率数、数据中心物理主机计算能力,计算物理主机数量。
3.根据权利要求1或2所述的方法,其特征在于:所述客户端主机配置数据包括:客户端主机的CPU数、核数、频率;
所述数据中心物理主机配置数据包括:物理主机的CPU数、核数、频率。
4.根据权利要求1所述的方法,其特征在于:
计算物理主机数量具体为:
其中,N为客户端数,Mi为每个客户端主机需求数,Ci为客户端设备的CPU颗数,Hi为客户端设备核数,Pi为客户端设备频率,Li为客户端设备占用率,M0为数据中心物理主机台数,C0为数据中心物理主机CPU颗数,H0为数据中心物理主机核数,P0为数据中心物理主机频率,L0为数据中心物理主机运行效率;
计算物理主机存储设备数量具体为:
其中,Si为客户端存储空间需求,Gi为客户端存储占用率,S0为数据中心单台存储设备存储容量,G0为数据中心存储设备存储效率。
5.根据权利要求4所述的方法,其特征在于:
所述L0取值范围为50%~70%,所述G0取值范围为60%~80%。
6.一种数据中心物理主机及存储设计系统,其特征在于,系统包含:
客户端需求获取模块,用于基于业务规模要求,获得客户端主机规模测算值、客户端存储空间需求、客户端存储占用率;所述客户端主机规模测算值由客户端主机数量、客户端主机配置数据及客户端设备占用率计算;
数据中心物理主机数据获取模块,用于获取数据中心物理主机配置数据、运行效率、存储空间、存储占用率的模块;
物理主机数量计算模块,用于根据客户端主机规模测算值,以及数据中心物理主机配置数据、运行效率,计算物理主机数量;该模块至少包括换算模块,用于将所述客户端主机规模测算值,换算为运算设备核数和/或频率数;
所述换算模块的换算方式包括:运算设备核数=客户端主机需求数×CPU颗数×单颗CPU核数×客户端设备占用率;或运算设备频率数=客户端主机需求数×CPU颗数×单颗CPU核数×单核CPU频率×客户端设备占用率,当同一客户的主机频率不一致时,则分别计算所述运算设备频率数,再累加求和;
物理主机存储设备数量计算模块,用于根据所述客户端存储空间需求、客户端存储占用率、数据中心存储设备存储空间和数据中心存储设备存储占用率,计算物理主机存储设备数量。
7.根据权利要求6所述的系统,其特征在于:所述物理主机数量计算模块进一步包括:
数据中心物理主机计算能力换算模块,用于依据数据中心物理主机配置数据、运行效率,计算数据中心物理主机计算能力;
主机数量计算模块,用于将所述运算设备核数和/或频率数,除以所述数据中心物理主机计算能力,以获得数据中心物理主机数量。
8.根据权利要求6或7所述的系统,其特征在于:所述客户端主机配置数据包括:客户端主机的CPU数、核数、频率;
所述数据中心物理主机配置数据包括:物理主机的CPU数、核数、频率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510206212.XA CN104794098B (zh) | 2015-04-28 | 2015-04-28 | 一种数据中心物理主机及存储设计方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510206212.XA CN104794098B (zh) | 2015-04-28 | 2015-04-28 | 一种数据中心物理主机及存储设计方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104794098A CN104794098A (zh) | 2015-07-22 |
CN104794098B true CN104794098B (zh) | 2017-05-10 |
Family
ID=53558899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510206212.XA Active CN104794098B (zh) | 2015-04-28 | 2015-04-28 | 一种数据中心物理主机及存储设计方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104794098B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106651077A (zh) * | 2015-11-04 | 2017-05-10 | 中兴通讯股份有限公司 | 设备存放位置的查找方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7421575B2 (en) * | 2004-07-16 | 2008-09-02 | Hewlett-Packard Development Company, L.P. | Configuring a physical platform in a reconfigurable data center |
US7831682B2 (en) * | 2008-08-08 | 2010-11-09 | Amazon Technologies, Inc. | Providing a reliable backing store for block data storage |
CN102232282A (zh) * | 2010-10-29 | 2011-11-02 | 华为技术有限公司 | 一种实现数据中心资源负载均衡的方法及装置 |
CN102567112A (zh) * | 2010-12-09 | 2012-07-11 | 上海杉达学院 | 集群系统中业务与计算设备的匹配装置 |
CN103095853A (zh) * | 2013-02-27 | 2013-05-08 | 北京航空航天大学 | 云数据中心计算能力管理系统 |
-
2015
- 2015-04-28 CN CN201510206212.XA patent/CN104794098B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7421575B2 (en) * | 2004-07-16 | 2008-09-02 | Hewlett-Packard Development Company, L.P. | Configuring a physical platform in a reconfigurable data center |
US7831682B2 (en) * | 2008-08-08 | 2010-11-09 | Amazon Technologies, Inc. | Providing a reliable backing store for block data storage |
CN102232282A (zh) * | 2010-10-29 | 2011-11-02 | 华为技术有限公司 | 一种实现数据中心资源负载均衡的方法及装置 |
CN102567112A (zh) * | 2010-12-09 | 2012-07-11 | 上海杉达学院 | 集群系统中业务与计算设备的匹配装置 |
CN103095853A (zh) * | 2013-02-27 | 2013-05-08 | 北京航空航天大学 | 云数据中心计算能力管理系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104794098A (zh) | 2015-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106020715B (zh) | 存储池容量管理 | |
CN104272386B (zh) | 通过分层存储系统内的数据迁移减少功耗 | |
CN103399796B (zh) | 利用存储负载信息来平衡集群虚拟机 | |
US9575539B2 (en) | Virtual machine power consumption measurement and management | |
US7870360B2 (en) | Storage area network (SAN) forecasting in a heterogeneous environment | |
CN104424013B (zh) | 在计算环境中部署虚拟机的方法和设备 | |
CN103677998B (zh) | 虚拟化计算环境中的资源分配方法和系统 | |
CN108090652A (zh) | 构建基于大数据技术的电力交易指标体系的方法 | |
CN110163474A (zh) | 一种任务分配的方法及设备 | |
CN104679591A (zh) | 用于在云环境中进行资源分配的方法和装置 | |
CN109034505A (zh) | 计量用表需求量在线预测方法及终端设备 | |
CN103473115B (zh) | 虚拟机放置方法和装置 | |
TW200424928A (en) | Information processing system, information processing device, distributed information processing method and computer readable recording medium | |
US20150355692A1 (en) | Power management across heterogeneous processing units | |
Varrette et al. | Management of an academic HPC & research computing facility: the ULHPC experience 2.0 | |
CN102012891B (zh) | 计算机集群管理方法、装置和系统 | |
CN107343041A (zh) | 一种基于云计算的精准扶贫管理系统与方法 | |
CN103631537B (zh) | 一种虚拟磁盘的管理方法及装置 | |
CN103607466A (zh) | 一种基于云计算的广域多级分布式并行电网分析方法 | |
US20110313727A1 (en) | Data center physical infrastructure threshold analysis | |
US20120296852A1 (en) | Determining workload cost | |
US7305674B2 (en) | Method and apparatus to manage multi-computer supply | |
CN104794098B (zh) | 一种数据中心物理主机及存储设计方法及系统 | |
CN106844175B (zh) | 一种基于机器学习的云平台容量规划方法 | |
CN107992951A (zh) | 云管理平台的容量告警方法、系统、存储器及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |