CN108199894A - 一种数据中心功率管理及服务器部署方法 - Google Patents

一种数据中心功率管理及服务器部署方法 Download PDF

Info

Publication number
CN108199894A
CN108199894A CN201810037874.2A CN201810037874A CN108199894A CN 108199894 A CN108199894 A CN 108199894A CN 201810037874 A CN201810037874 A CN 201810037874A CN 108199894 A CN108199894 A CN 108199894A
Authority
CN
China
Prior art keywords
server
tail end
request
end delay
delay
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810037874.2A
Other languages
English (en)
Other versions
CN108199894B (zh
Inventor
吴松
陈洋
王新猴
金海�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201810037874.2A priority Critical patent/CN108199894B/zh
Publication of CN108199894A publication Critical patent/CN108199894A/zh
Priority to US16/135,404 priority patent/US20190220073A1/en
Application granted granted Critical
Publication of CN108199894B publication Critical patent/CN108199894B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3058Monitoring arrangements for monitoring environmental properties or parameters of the computing system or of the computing system component, e.g. monitoring of power, currents, temperature, humidity, position, vibrations
    • G06F11/3062Monitoring arrangements for monitoring environmental properties or parameters of the computing system or of the computing system component, e.g. monitoring of power, currents, temperature, humidity, position, vibrations where the monitored property is the power consumption
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3414Workload generation, e.g. scripts, playback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3433Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment for load management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3452Performance evaluation by statistical analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0823Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS
    • H04L41/5019Ensuring fulfilment of SLA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0805Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability
    • H04L43/0817Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability by checking functioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/34Network arrangements or protocols for supporting network services or applications involving the movement of software or configuration parameters 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/61Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources taking into account QoS or priority requirements
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/14Mounting supporting structure in casing or on frame or rack
    • H05K7/1485Servers; Data center rooms, e.g. 19-inch computer racks
    • H05K7/1488Cabinets therefor, e.g. chassis or racks or mechanical interfaces between blades and support structures
    • H05K7/1492Cabinets therefor, e.g. chassis or racks or mechanical interfaces between blades and support structures having electrical distribution arrangements, e.g. power supply or data communications
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/14Mounting supporting structure in casing or on frame or rack
    • H05K7/1485Servers; Data center rooms, e.g. 19-inch computer racks
    • H05K7/1498Resource management, Optimisation arrangements, e.g. configuration, identification, tracking, physical location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3419Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment by assessing time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3495Performance evaluation by tracing or monitoring for systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/81Threshold
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Environmental & Geological Engineering (AREA)
  • Power Sources (AREA)

Abstract

本发明涉及一种基于数据中心功率管理的服务器部署方法,其特征在于,所述方法包括:基于至少一个服务器的CPU使用率数据构建与应用请求对应的尾端延迟表和/或尾端延迟曲线;基于所述应用请求的尾端延迟要求确定所述服务器的最优功率配额并部署所述服务器。本发明通过对尾端延迟表或曲线进行分析,可以在数据中心额定功率的限制下,以保证延时敏感型应用性能为前提,最大化提高数据中心服务器部署密度。

Description

一种数据中心功率管理及服务器部署方法
技术领域
本发明涉及数据中心管理技术领域,尤其涉及一种数据中心功率管理及服务器部署方法和系统。
背景技术
目前数据中心中存在严重的功率过渡供给现象。具体表现为,以服务器的额定功率或观测到的峰值功率为服务器预留功率,同时还要保证数据中心中所有服务器的功率预留之和不超过数据中心总功率。然而,服务器实际运行功率在大部分时间里达不到其额定功率,这种预留方式带来功率配给的极大浪费,制约了数据中心服务器部署密度。
Power capping技术是一种服务器峰值功耗管理技术,将服务器的峰值功率限制在某个定值之下,它的提出是为了解决上述数据中心资源利用率低下的问题。显然,在数据中心额定功率制约下,降低单台服务器的功率配给,可以允许更多的服务器部署在数据中心中,从而增大数据中心计算能力,降低分摊开销。然而,对于延时敏感型应用往往有着严格的服务质量要求(SLA要求),满足应用的服务质量要求,是数据中心采用power capping技术提高资源利用率的前提条件。因此,衡量power capping对应用性能造成的影响显得尤为重要。然而,已有的一些衡量power capping对应用性能产生影响的方法并不能较好地反映出延时敏感型应用的实际损失,因为延时敏感型应用更关心的是请求的尾端延迟(taillatency),而现存方法大多是针对于批处理应用(更关心最终完成时间)而设置,导致现存方法不能准确衡量power capping对延时敏感型应用的影响。
为了提高数据中心的服务器部署密度,从而提高整体资源利用率及计算输出能力,需要一种合理的服务器部署方案。由于数据中心运行业务的多样性,该服务器部署方案需要满足三个特性:1)保证数据中心绝对的安全性,也即在负载高峰到来时,决不允许数据中心超过其额定功率,以防止整体断电,所有服务器宕机的灾难性后果;2)保证应用的服务质量要求,也即用户体验;3)最大化的提高数据中心资源利用率。而现存方案中很难同时满足三个特性。
发明内容
针对现有技术之不足,本发明提供一种基于数据中心功率管理的服务器部署方法,其特征在于,所述方法至少包括:基于至少一个服务器的CPU使用率数据构建与应用请求对应的尾端延迟表和/或尾端延迟曲线;基于所述应用请求的尾端延迟要求确定所述服务器的最优功率配额并部署所述服务器。本发明通过服务器设置精确的功率预算,既满足应用的延迟请求的要求,又能最大程度的增加数据中心服务器部署密度,降低分摊成本。
根据一个优选实施方式,所述方法还包括:采集至少一个服务器的CPU使用率数据,基于所述CPU使用率数据以微积分计算的方式构建所述应用请求在设定CPU阈值下的尾端延迟表和/或尾端延迟曲线。由于采用了应用总体任务量不变的原理,采用微积分的方法得出应用请求在固定CPU阈值下的尾端延迟表及曲线。因此本发明可以根据用户的延迟请求要求得到最优的服务器功率配给额度。
根据一个优选实施方式,所述构建与应用请求对应的尾端延迟表及曲线的步骤包括:基于设定的CPU阈值初始化所述应用请求的请求排队队列、延迟请求表和/或整体负载量w0,将采集的第i时刻的所述CPU使用率数据Ui及时间设置在请求排队队列中,并且更新整体负载量w=w0+Ui,基于所述整体负载量w与所述CPU阈值的比较结果调整请求排队队列中应用请求的数量,并且记录所述请求排队队列的延迟请求数据,在所述CPU使用率数据全部迭代完毕的情况下,基于所述请求排队队列的延迟请求数据的大小顺序构建所述尾端延迟表和/或尾端延迟曲线。通过反复迭代历史CPU采样数据进行性能损失计算,随着对CPU数据的采样频率的提高,数据分析的准确性也能得到相应的提升。
根据一个优选实施方式,所述方法还包括:在所述整体负载量w大于所述CPU阈值的情况下,删除所述请求排队队列中超出所述CPU阈值的应用请求;在所述整体负载量w不大于所述CPU阈值的情况下,删除所述请求排队队列中全部的应用请求。
本发明通过构建尾端延迟表或尾端延迟曲线,将尾端延迟常作为一个性能指标,应用在对延时比较敏感的应用上,比平均延迟更能反映一个应用的性能。本发明能够解决延迟敏感型应用的性能损失衡量难的问题,利用微积分的方法,可以捕捉到每个请求的延迟情况,很细粒度。
根据一个优选实施方式,所述方法还包括:基于设定的所述尾端延迟要求从所述尾端延迟表和/或尾端延迟曲线匹配对应的最低CPU阈值以作为所述最优功率配额。
根据一个优选实施方式,所述方法还包括:基于所述最优功率配额和/或负载相似性部署所述服务器。
根据一个优选实施方式,所述服务器的部署方法包括:选取与待部署服务器负载相似的至少一个运行服务器并设置所述待部署服务器的所述最优功率配额与所述运行服务器相同,比较待部署服务器与服务器机架上的至少一个运行服务器的最优配额功率之和与所述服务器机架的额定功率的大小,在所述配额功率之和小于额定功率的情况下,基于首次适应算法将所述待部署服务器设置在所述机架上。
本发明基于尾端延迟表和/或尾端延迟曲线来确定符合用户要求的最优功率配额,使用尾端延迟指标反映服务器的性能,这和用户对应用的延迟请求要求一致。该指标给出了大量请求统计意义下的尾端延迟,具有很好的衡量性能的效果。
根据一个优选实施方式,所述方法还包括:针对机房内所有服务器机架,基于首次适应算法以有序的方式计算所述待部署服务器与至少一个服务器机架上的所有运行服务器的最优配额功率之和。本发明通过有序的计算方式,使得服务器能够部署在恰当的服务器机架上,而不是随机部署,最大限度地保证了机房内服务器的合理部署,通过采用首次适应算法,将服务器部署在数据中心合适的机架上。
本发明提供一种基于数据中心功率管理的服务器部署系统,其特征在于,所述系统包括构建单元和部署单元,所述构建单元基于至少一个服务器的CPU使用率数据构建与应用请求对应的尾端延迟表和/或尾端延迟曲线;所述部署单元基于所述应用请求的尾端延迟要求确定所述服务器的最优功率配额并部署所述服务器。
根据一个优选实施方式,所述构建单元包括采集模块和延迟统计模块,所述采集模块用于采集至少一个服务器的CPU使用率数据,所述延迟统计模块基于所述CPU使用率数据以微积分计算的方式构建所述应用请求在设定CPU阈值下的尾端延迟表和/或尾端延迟曲线。
根据一个优选实施方式,所述延迟统计模块至少包括初始化模块、调整模块和数据处理模块,所述初始化模块基于设定的CPU阈值初始化所述应用请求的请求排队队列、延迟请求表和/或整体负载量w0,并且将采集的第i时刻的所述CPU使用率数据Ui及时间设置在请求排队队列中,并且更新整体负载量w=w0+Ui,所述调整模块基于所述整体负载量w与所述CPU阈值的比较结果调整请求排队队列中应用请求的数量,并且记录所述请求排队队列的延迟请求数据,所述数据处理模块在所述CPU使用率数据全部迭代完毕的情况下,基于所述请求排队队列的延迟请求数据的大小顺序构建所述尾端延迟表和/或尾端延迟曲线。
根据一个优选实施方式,所述数据处理模块在所述整体负载量w大于所述CPU阈值的情况下,删除所述请求排队队列中超出所述CPU阈值的应用请求;在所述整体负载量w不大于所述CPU阈值的情况下,删除所述请求排队队列中全部的应用请求。
根据一个优选实施方式,所述部署单元包括决策模块,所述决策模块基于设定的所述尾端延迟要求从所述尾端延迟表和/或尾端延迟曲线匹配对应的最低CPU阈值以作为所述最优功率配额。
根据一个优选实施方式,所述部署单元还包括空间部署模块,所述空间部署模块基于所述最优功率配额和/或负载相似性部署所述服务器。
根据一个优选实施方式,所述空间部署模块至少包括选择模块和评估模块,所述选择模块选取与待部署服务器负载相似的至少一个运行服务器并设置所述待部署服务器的所述最优功率配额与所述运行服务器相同,所述评估模块比较待部署服务器与服务器机架上的至少一个运行服务器的最优配额功率之和与所述服务器机架的额定功率的大小,在所述配额功率之和小于额定功率的情况下,基于首次适应算法将所述待部署服务器设置在所述机架上。
根据一个优选实施方式,所述评估模块针对机房内所有服务器机架,基于首次适应算法以有序的方式计算所述待部署服务器与至少一个服务器机架上的所有运行服务器的最优配额功率之和。
本发明的服务器部署系统,能够最大化的提高数据中心服务器部署密度及计算输出能力,通过采用首次适应算法,将服务器部署在数据中心合适的机架上。其中,本发明通过反复迭代历史CPU采样数据进行性能损失计算,随着对CPU数据的采样频率的提高,数据分析的准确性也能得到相应的提升。
本发明还提供一种数据中心功率管理装置,其特征在于,所述数据中心功率管理装置至少包括采集模块、延迟统计模块、决策模块和空间部署模块,所述采集模块采集至少一个服务器的CPU使用率数据,所述延迟统计模块基于所述CPU使用率数据以微积分计算的方式构建所述应用请求在设定CPU阈值下的尾端延迟表和/或尾端延迟曲线,所述决策模块基于设定的所述尾端延迟要求从所述尾端延迟表和/或尾端延迟曲线匹配对应的最低CPU阈值以作为所述最优功率配额,所述空间部署模块基于所述最优功率配额和/或负载相似性部署所述服务器。
本发明的数据中心功率管理装置,基于应用的延迟请求的时间要求来确定机架上能够设置的服务器的最优功率配额,并且基于机架上的服务器功率之和来对机架上的服务器进行管理,调整服务器的位置,从而将服务器部署在数据中心合适的机架上。
根据一个优选实施方式,所述延迟统计模块构建尾端延迟表和/或尾端延迟曲线的方式包括:基于设定的CPU阈值初始化所述应用请求的请求排队队列、延迟请求表和/或整体负载量w0,将采集的第i时刻的所述CPU使用率数据Ui及时间设置在请求排队队列中,并且更新整体负载量w=w0+Ui,基于所述整体负载量w与所述CPU阈值的比较结果调整请求排队队列中应用请求的数量,并且记录所述请求排队队列的延迟请求数据,在所述CPU使用率数据全部迭代完毕的情况下,基于所述请求排队队列的延迟请求数据的大小顺序构建所述尾端延迟表和/或尾端延迟曲线,其中,在所述整体负载量w大于所述CPU阈值的情况下,删除所述请求排队队列中超出所述CPU阈值的应用请求;在所述整体负载量w不大于所述CPU阈值的情况下,删除所述请求排队队列中全部的应用请求。
根据一个优选实施方式,所述空间部署模块部署服务器的方式包括:选取与待部署服务器负载相似的至少一个运行服务器并设置所述待部署服务器的所述最优功率配额与所述运行服务器相同,比较待部署服务器与服务器机架上的至少一个运行服务器的最优配额功率之和与所述服务器机架的额定功率的大小,在所述配额功率之和小于额定功率的情况下,基于首次适应算法将所述待部署服务器设置在所述机架上。
根据一个优选实施方式,所述空间部署模块针对数据中心的至少一个服务器机架,以有序的方式比较待部署服务器与服务器机架上的至少一个运行服务器的最优配额功率之和与所述服务器机架的额定功率的大小,基于首次适应算法确定待部署服务器的空间位置。
本发明的数据中心功率管理装置,能够用尾端延迟指标反映服务器的性能,这和用户对应用的延迟请求的要求一致。该指标给出了大量请求统计意义下的尾端延迟,具有很好的衡量性能的效果。并且,本发明通过反复迭代历史CPU采样数据进行性能损失计算,随着对CPU数据的采样频率的提高,数据分析的准确性也能得到相应的提升。
附图说明
图1是本发明基于数据中心功率管理及服务器部署方法的流程图;
图2是本发明其中一种构建尾端延迟表和/或尾端延迟曲线的流程示意图;
图3是本发明另一种构建尾端延迟表和/或尾端延迟曲线的示意图;
图4是本发明其中一种尾端延迟表示意图;
图5是本发明其中一种尾端延迟曲线示意图;
图6是本发明的服务器最优功率配额的示意图;
图7是本发明的其中一种服务器部署过程的示意图;
图8是本发明的另一种服务器部署的流程示意图;
图9是本发明的服务器部署系统的逻辑结构示意图;和
图10是数据中心功率管理装置的逻辑结构示意图。
附图标记列表
10:构建单元 20:部署单元
11:采集模块 12:延迟统计模块
121:初始化模块 122:调整模块
123:数据处理模块 21:决策模块
22:空间部署模块 221:选择模块
222:评估模块
具体实施方式
下面结合附图进行详细说明。
为了便于理解,在可能的情况下,使用相同附图标记来表示各附图中共同的相似元件。
如在整篇本申请中所使用的那样,词语“可以”系容许含义(即,意味着有可能的)而不是强制性含义(即,意味着必须的)。类似地,词语“包括”意味着包括但不限于。
短语“至少一个”、“一个或多个”以及“和/或”系开放式表达,它们涵盖操作中的关联与分离两者。例如,表述“A、B和C中的至少一个”、“A、B或C中的至少一个”、“A、B和C中的一个或更多个”、“A、B或C”和“A、B和/或C”中的每个分别指单独A、单独B、单独C、A和B一起、A和C一起、B和C一起或A、B和C一起。
术语“一种”或“一个”实体指的是该实体中的一个或多个。这样,术语“一”、“一个或多个”以及“至少一个”在本文中可以交换地使用。还应该注意,术语“包括”、“包含”和“具有”可以交换地使用。
如本文中所使用的那样,术语“自动的”及其变型是指当执行过程或操作时在没有实质性人工输入的情况下完成的任何过程或操作。然而,如果在执行该过程或操作之前接收到该输入,则该过程或操作可以是自动的,即使该过程或操作的执行使用了实质性或非实质性的人工输入。如果这样的输入影响该过程或操作的执行方式,则该人工输入被认为是实质性的。准予执行该过程或操作的人工输入不被视为“实质性的”。
本发明中的尾端延迟是指请求处理延迟中的尾部值,是大量请求处理延迟在统计意义上的概念。具体来说,每个请求都会有一个处理延迟,大部分请求都会被很快的处理,但是一大批请求中总有少数一部分处理的很慢,延迟很大,从而构成处理延迟的长尾。尾部这部分处理的太慢,这部分请求就会呈现为生活中常见的卡顿,点了没反应,死机等状况,用户是不能接受的。所以用户会非常关心长尾这部分到底占了多大的比例。例如,有的请求10毫秒处理完成,有的请求需要20毫秒处理完成,有的请求由于排队需要1秒才处理完成。对于需要1秒才处理完成的请求,用户就很难接受。最后对这批请求的延迟情况做出统计,例如95%的请求都能够在50毫秒内处理完成,则95%的请求延迟为50ms,95%可以看做是用户关心的尾部比例,即SLA(Service-Level Agreement,与用户签订的服务等级协议)的概念。用户会要求95%的请求延时不能超过50毫秒,允许有5%的请求处理较慢的情况。当然,用户可能关心的不是95%,而是99%等等。根据统计结果,本发明绘制出一个尾端延迟表。尾端延迟表里面记录了所有可能的百分比,以及在该百分比处的延迟值。比如,95%的请求延时为50ms,99%的请求延迟为100ms,各个可能的百分比以及其延迟值都以二元组的形式记录在表格中以供查询。
尾端延迟常作为一个性能指标,应用在对延时比较敏感的应用上,它比平均延迟更能反映一个应用的性能。因为对延迟敏感型应用来说,每个请求的延迟都很重要,都应该被关心,而平均延迟很可能会掩盖掉很多细节,假设有两个请求,一个在10毫秒内处理完,一个在1秒内处理完,则平均延迟为5.5毫秒,这极大的放大了处理较快的那个请求的延迟,而缩小了处理较慢的那个请求的延迟,不能反映出请求被处理的具体细节情况。
本发明提供一种基于数据中心功率管理的服务器部署方法,所述方法至少包括:
S1:基于至少一个服务器的CPU使用率数据构建与应用请求对应的尾端延迟表和/或尾端延迟曲线;
S2:基于所述应用请求的尾端延迟要求确定所述服务器的最优功率配额并部署所述服务器。本发明通过服务器设置精确的功率预算,既满足应用的延迟请求的要求,又能最大程度的增加数据中心服务器部署密度,降低分摊成本。
优选的,构建与应用请求对应的尾端延迟表和/或尾端延迟曲线的步骤包括:
S11:采集至少一个服务器的CPU使用率数据,
S12:基于所述CPU使用率数据以微积分计算的方式构建所述应用请求在设定CPU阈值下的尾端延迟表和/或尾端延迟曲线。由于采用了应用总体任务量不变的原理,采用微积分的方法得出应用请求在固定CPU阈值下的尾端延迟表及曲线。因此本发明可以根据用户的服务等级协议的要求得到最优的服务器功率配给额度。
优选的,所述构建与应用请求对应的尾端延迟表及曲线的步骤如图3所示。构建与应用请求对应的尾端延迟表及曲线的步骤包括:
S121:基于设定的CPU阈值初始化所述应用请求的请求排队队列、延迟请求表和/或整体负载量w0。w0=0。
S122:判断CPU阈值是否全部迭代完成。
S123:在所述CPU使用率数据未迭代完毕的情况下,将采集的第i时刻的所述CPU使用率数据Ui及时间设置在请求排队队列中,并且更新整体负载量w=w0+Ui。优选的,采集数据的两个时间之间设置有时间间隔。优选的,时间间隔为5分钟。本发明的时间间隔的单位不限于分钟,还包括秒、毫秒、微秒、纳米秒等单位。如图3所述,不同工作任务量Ui×Δt的应用请求在时间点ti排队,形成应用请求的请求排队队列。
S124:基于所述整体负载量w与所述CPU阈值的比较结果调整请求排队队列中应用请求的数量,并且记录所述请求排队队列的延迟请求数据。其中,本发明的延迟请求数据的计算过程体现了CPU任务总量不变的原理。具体表述为,不论是否设置CPU阈值,CPU要处理的应用请求的总任务量是不变的。因此,本发明采用了积分面积不变的原理计算出某个微分请求的具体延迟。
优选的,S1241:在整体负载量w大于所述CPU阈值的情况下,删除所述请求排队队列中超出所述CPU阈值的应用请求。并且将其延迟记录在延迟请求表(RequestsLatency)中,其延迟为目前的时刻减去进入的时刻。如图3所示,在时刻tj,超出最大工作任务量(thrld×Δt)的应用请求被删除。延迟时间为tj-ti。延迟时间记录在延迟请求表中。
S1242:在整体负载量w不大于CPU阈值的情况下,删除所述请求排队队列中全部的应用请求。并且将其延迟记录在延迟请求表(RequestsLatency)中,其延迟为目前的时刻减去进入的时刻。
S125:在所述CPU使用率数据全部迭代完毕的情况下,基于所述请求排队队列的延迟请求数据的大小顺序构建所述尾端延迟表和/或尾端延迟曲线。优选的,判断采集的数据是否全部迭代完毕,若是,将延迟请求(RequestsLatency)根据延迟大小排序,得到所有延迟请求的尾端延迟(tail latency)表或尾端延迟曲线。之后进入S126的结束状态。如图3所示,对形成的若干延迟请求表按照延迟大小进行排序,形成尾端延迟表或尾端延迟曲线。尾端延迟(tail latency)表如图4所示,尾端延迟曲线如图5所示。优选的,图5中的尾端延迟曲线是采用Web服务器在较低的CPU使用率下构建形成的。
若否,则重新采集的i时刻CPU使用率数据。通过反复迭代历史CPU采样数据进行性能损失计算,随着对CPU数据的采样频率的提高,数据分析的准确性也能得到相应的提升。
本发明通过构建尾端延迟表或尾端延迟曲线,将尾端延迟常作为一个性能指标,应用在对延时比较敏感的应用上,比平均延迟更能反映一个应用的性能。本发明能够解决延迟敏感型应用的性能损失衡量难的问题,利用微积分的方法,可以捕捉到每个请求的延迟情况,很细粒度。
优选的,如图8所示,本发明的方法还包括:
S21:基于设定的所述尾端延迟要求从所述尾端延迟表和/或尾端延迟曲线匹配对应的最低CPU阈值以作为最优功率配额。图6示出了其中几个服务器的最优功率配额。
S22:基于所述最优功率配额和/或负载相似性部署所述服务器。
优选的,服务器的部署方法包括:
S221:选取与待部署服务器负载相似的至少一个运行服务器并设置所述待部署服务器的所述最优功率配额与所述运行服务器相同,
S222:判断是否迭代完成所有的服务器机架。若是,则进入S225的结束状态。
S223:在未迭代完成所有的服务器机架的情况下,比较待部署服务器与服务器机架上的至少一个运行服务器的最优配额功率之和与所述服务器机架的额定功率的大小,
S224:在所述配额功率之和小于额定功率的情况下,基于首次适应算法将所述待部署服务器设置在所述机架上。本发明基于尾端延迟表和/或尾端延迟曲线来确定符合用户要求的最优功率配额,使用尾端延迟指标反映服务器的性能,这和用户对应用的延迟请求要求一致。该指标给出了大量请求统计意义下的尾端延迟,具有很好的衡量性能的效果。
优选的,针对机房内所有服务器机架,基于首次适应算法以有序的方式计算所述待部署服务器与至少一个服务器机架上的所有运行服务器的最优配额功率之和。本发明通过有序的计算方式,使得服务器能够部署在恰当的服务器机架上,而不是随机部署,最大限度地保证了机房内服务器的合理部署,通过采用首次适应算法,将服务器部署在数据中心合适的机架上。
图7示出了本发明其中一种服务器部署过程。例如,CPU使用率范围可以为0~100%。本发明以在一个额定功率为1000W的机架上部署3台额定功率为400W的服务器为例对服务器部署方案进行说明。
(1)当CPU使用率均为0时,所有服务器处于待机状态,其自身有一个待机功率。待机功率是服务器本身固有属性,服务器出厂时待机功率是确定的。假设待机功率为250W,则此时由于三台服务器的总功率为250*3=750W,小于服务器机架的额定功率,此时3台服务器都可以部署在机架上。
(2)当CPU使用率均为100%时,则服务器处于满负载状态,其功率达到额定功率400W,则此时由于三台服务器的总功率为400*3=1200W,大于服务器机架的额定功率,只能将2台服务器部署在机架上。
(3)各个服务器的CPU使用率在0~100%之间。首先初始化功率预算量根据三台服务器的历史运行负载情况,即根据尾端延迟表或尾端延迟曲线计算出这三台服务器作为最优功率配额的CPU使用率阈值为45%,60%,80%(仅作示例用)。根据功率和CPU使用率的线性映射关系,得到对应的功率配额大致为317.5W,340W和370W。此时三台服务器的总功率大于1000W,第三台服务器无法部署在机架上。本发明对服务器的部署的基本原则就在于:通过本发明的方法求得每台服务器最佳的CPU使用率阈值,在判断一台服务器能不能部署到该机架上时,只有满足了总的功率之和小于等于机架的额定功率,才允许部署到机架上,以保证机架的绝对安全,不会因为超过额定功率而断电,以致所有服务器全部断电宕机。
实施例2
本实施例是对实施例1的进一步改进,重复的内容不再赘述。
本发明提供一种基于数据中心功率管理的服务器部署系统,如图9所示。基于数据中心功率管理的服务器部署系统包括构建单元10和部署单元20。所述构建单元10基于至少一个服务器的CPU使用率数据构建与应用请求对应的尾端延迟表和/或尾端延迟曲。所述部署单元20基于所述应用请求的尾端延迟要求确定所述服务器的最优功率配额并部署所述服务器。优选的,构建单元10包括用于采集CPU使用率和构建尾端延迟表/曲线的专用集成芯片、CPU、微处理器、服务器和云服务器中的一种或几种。部署单元20包括用于进行最优功率配额计算的专用集成芯片、CPU、微处理器、服务器和云服务器中的一种或几种。
优选的,所述构建单元10包括采集模块11和延迟统计模块12。所述采集模块11用于采集至少一个服务器的CPU使用率数据。所述延迟统计模块12基于所述CPU使用率数据以微积分计算的方式构建所述应用请求在设定CPU阈值下的尾端延迟表和/或尾端延迟曲线。优选的,采集模块10包括用于采集数据、传输数据或对数据进行选择的专用集成芯片、CPU、微处理器、服务器和云服务器中的一种或几种。延迟统计模块12包括用于延迟数据的计算并形成尾端延迟表和/或尾端延迟曲线的专用集成芯片、CPU、微处理器、服务器和云服务器中的一种或几种。
优选的,普通的服务器设置有自监控的运行数据存储器来对运行数据进行存储。本发明的采集模块11对运行数据存储器的存储数据进行筛选,得到CPU使用率数据。优选的,采集模块11可以对服务器的实时CPU使用率数据进行实时采集,也可以对已存储的CPU使用率数据进行延时采集。
优选的,所述延迟统计模块12至少包括初始化模块121、调整模块122和数据处理模块123。所述初始化模块121基于设定的CPU阈值初始化所述应用请求的请求排队队列、延迟请求表和/或整体负载量w0,并且在所有服务器的CPU阈值未迭代完成的情况下,将采集的第i时刻的所述CPU使用率数据Ui及时间设置在请求排队队列中,并且更新整体负载量w=w0+Ui。所述调整模块122基于所述整体负载量w与所述CPU阈值的比较结果调整请求排队队列中应用请求的数量,并且记录所述请求排队队列的延迟请求数据。所述数据处理模块123在所述CPU使用率数据全部迭代完毕的情况下,基于所述请求排队队列的延迟请求数据的大小顺序构建所述尾端延迟表和/或尾端延迟曲线。
优选的,初始化模块121包括用于将数据初始化的专用集成芯片、CPU、微处理器、服务器和云服务器中的一种或几种。调整模块122包括用于基于整体负载量w与所述CPU阈值的比较结果调整请求排队队列中应用请求的数量的专用集成芯片、CPU、微处理器、服务器和云服务器中的一种或几种。数据处理模块123包括用于数据处理的专用集成芯片、CPU、微处理器、服务器和云服务器中的一种或几种。
优选的,所述调整模块122在所述整体负载量w大于所述CPU阈值的情况下,删除所述请求排队队列中超出所述CPU阈值的应用请求;在所述整体负载量w不大于所述CPU阈值的情况下,删除所述请求排队队列中全部的应用请求。
优选的,所述部署单元20包括决策模块21。所述决策模块21基于设定的所述尾端延迟要求从所述尾端延迟表和/或尾端延迟曲线匹配对应的最低CPU阈值以作为所述最优功率配额。决策模块21包括用于设置和选择最优功率配额的专用集成芯片、CPU、微处理器、服务器和云服务器中的一种或几种。
所述部署单元20还包括空间部署模块22。所述空间部署模块22基于最优功率配额和/或负载相似性部署所述服务器。空间部署模块22包括用于计算和分配服务器的空间位置的专用集成芯片、CPU、微处理器、服务器和云服务器中的一种或几种。
优选的,所述空间部署模块22至少包括选择模块221和评估模块222。所述选择模块221选取与待部署服务器负载相似的至少一个运行服务器并设置所述待部署服务器的所述最优功率配额与所述运行服务器相同。所述评估模块222比较待部署服务器与服务器机架上的至少一个运行服务器的最优配额功率之和与所述服务器机架的额定功率的大小。在所述配额功率之和小于额定功率的情况下,评估模块222基于首次适应算法将所述待部署服务器设置在所述机架上。
优选的,所述评估模块222针对机房内所有服务器机架,基于首次适应算法以有序的方式计算所述待部署服务器与至少一个服务器机架上的所有运行服务器的最优配额功率之和。
优选的,选择模块221包括基于负载相似性或最优配额功率来选择服务器的专用集成芯片、CPU、微处理器、服务器和云服务器中的一种或几种。评估模块222包括用于计算待部署服务器的设置位置的专用集成芯片、CPU、微处理器、服务器和云服务器中的一种或几种。
本发明的服务器部署系统,能够最大化的提高数据中心服务器部署密度及计算输出能力,通过采用首次适应算法,将服务器部署在数据中心合适的机架上。其中,本发明通过反复迭代历史CPU采样数据进行性能损失计算,随着对CPU数据的采样频率的提高,数据分析的准确性也能得到相应的提升。
实施例3
本实施例是对实施例1或2及其结合的进一步改进,重复的内容不再赘述。
本发明还提供一种数据中心功率管理装置,如图10所示。数据中心功率管理装置至少包括采集模块11、延迟统计模块12、决策模块21和空间部署模块22。所述采集模块采集至少一个服务器的CPU使用率数据。所述延迟统计模块12基于所述CPU使用率数据以微积分计算的方式构建所述应用请求在设定CPU阈值下的尾端延迟表和/或尾端延迟曲线。所述决策模块21基于设定的所述尾端延迟要求从所述尾端延迟表和/或尾端延迟曲线匹配对应的最低CPU阈值以作为所述最优功率配额。所述空间部署模块22基于所述最优功率配额和/或负载相似性部署所述服务器。
本发明的数据中心功率管理装置,基于应用的延迟请求的时间要求来确定机架上能够设置的服务器的最优功率配额,并且基于机架上的服务器功率之和来对机架上的服务器进行管理,调整服务器的位置,从而将服务器部署在数据中心合适的机架上。
优选的,所述延迟统计模块12构建尾端延迟表和/或尾端延迟曲线的方式包括:基于设定的CPU阈值初始化所述应用请求的请求排队队列、延迟请求表和/或整体负载量w0,将采集的第i时刻的所述CPU使用率数据Ui及时间设置在请求排队队列中,并且更新整体负载量w=w0+Ui。基于所述整体负载量w与所述CPU阈值的比较结果调整请求排队队列中应用请求的数量,并且记录所述请求排队队列的延迟请求数据。在所述CPU使用率数据全部迭代完毕的情况下,基于所述请求排队队列的延迟请求数据的大小顺序构建所述尾端延迟表和/或尾端延迟曲线。其中,在所述整体负载量w大于所述CPU阈值的情况下,删除所述请求排队队列中超出所述CPU阈值的应用请求。在所述整体负载量w不大于所述CPU阈值的情况下,删除所述请求排队队列中全部的应用请求。
优选的,所述空间部署模块22部署服务器的方式包括:选取与待部署服务器负载相似的至少一个运行服务器并设置所述待部署服务器的所述最优功率配额与所述运行服务器相同;比较待部署服务器与服务器机架上的至少一个运行服务器的最优配额功率之和与所述服务器机架的额定功率的大小;在所述配额功率之和小于额定功率的情况下,基于首次适应算法将所述待部署服务器设置在所述机架上。
优选的,所述空间部署模块22针对数据中心的至少一个服务器机架,以有序的方式比较待部署服务器与服务器机架上的至少一个运行服务器的最优配额功率之和与所述服务器机架的额定功率的大小,基于首次适应算法确定待部署服务器的空间位置。
本发明的数据中心功率管理装置,能够用尾端延迟指标反映服务器的性能,这和用户对应用的延迟请求的要求一致。该指标给出了大量请求统计意义下的尾端延迟,具有很好的衡量性能的效果。并且,本发明通过反复迭代历史CPU采样数据进行性能损失计算,随着对CPU数据的采样频率的提高,数据分析的准确性也能得到相应的提升。
本发明的数据中心功率管理装置,能够解决延迟敏感型应用的性能损失衡量难的问题。本发明利用微积分的方法,可以捕捉到每个请求的延迟情况,很细粒度,进而根据用户的服务等级协议,可以给用户提供合理的功率阈值参考意见,帮助用户在数据中心部署服务器。因此,本发明既能保证应用的性能,又能较大程度的提高资源的利用率。
优选的,本发明的数据中心功率管理装置为用于数据中心功率管理的专用集成芯片、CPU、微处理器、服务器、云服务器和云平台中的一种或几种。优选的,数据中心功率管理装置还包括存储模块。存储模块包括用于数据存储的存储器、服务器、云服务器中的一种或多种。存储模块与采集模块11、延迟统计模块12、决策模块21和空间部署模块22分别以有线或无线的方式连接,从而传输和存储各个模块的数据。优选的,采集模块11、延迟统计模块12、决策模块21和空间部署模块22与存储模块通过总线进行数据传输。
优选的,采集模块11基于运行服务器中的自监控的多种运行数据,选择CPU使用率数据并进行提取和筛选。延迟统计模块12将采集模块11发送的CPU使用率数据进行计算和处理,形成尾端延迟曲线或尾端延迟表。
本实施例中的采集模块11、延迟统计模块12、决策模块21和空间部署模块22与实施例2中的采集模块、延迟统计模块、决策模块和空间部署模块的硬件结构相同。
虽然已经详细描述了本发明,但是在本发明的精神和范围内的修改对于本领域技术人员将是显而易见的。这样的修改也被认为是本公开的一部分。鉴于前面的讨论、本领域的相关知识以及上面结合背景讨论的参考或信息(均通过引用并入本文),进一步的描述被认为是不必要的。此外,应该理解,本发明的各个方面和各个实施例的各部分均可以整体或部分地组合或互换。而且,本领域的普通技术人员将会理解,前面的描述仅仅是作为示例,并不意图限制本发明。
已经出于示例和描述的目的给出了本公开的前述讨论。这并不意图将本公开限制于本文公开的形式。在前述的具体实施方式中,例如,为了简化本公开的目的,本公开的各种特征在一个或多个实施例、配置或方面中被组合在一起。实施例、配置或方面的特征可以以除上面讨论的那些之外的替代实施例、配置或方面组合。本公开的该方法不应被解释为反映本公开需要比每个权利要求中明确记载的更多特征的意图。相反,如以下权利要求所反映的,创造性方面在于少于单个前述公开的实施例、配置或方面的所有特征。因此,以下权利要求由此被并入本具体实施方式中,其中每个权利要求其自身作为本公开的单独实施例。
而且,虽然本公开的描述已经包括对一个或多个实施例、配置或方面以及某些变型和修改的描述,但是其他变型、组合和修改也在本公开的范围内,例如在本领域技术人员的技能和知识范围内,在理解了本公开之后。旨在获得在允许的程度上包括替代实施例、配置或方面的权利,所述权利包括那些要求保护的替代的、可互换的和/或等效的结构、功能、范围或步骤的权利,无论这种替代的、可互换的和/或等效的结构、功能、范围或步骤是否在本文中公开,并且无意公开奉献任何可专利的主题。

Claims (10)

1.一种基于数据中心功率管理的服务器部署方法,其特征在于,所述方法包括:
基于至少一个服务器的CPU使用率数据构建与应用请求对应的尾端延迟表和/或尾端延迟曲线;
基于所述应用请求的尾端延迟要求确定所述服务器的最优功率配额并部署所述服务器。
2.如权利要求1所述的服务器部署方法,其特征在于,所述方法还包括:
采集至少一个服务器的CPU使用率数据,
基于所述CPU使用率数据以微积分计算的方式构建所述应用请求在设定CPU阈值下的尾端延迟表和/或尾端延迟曲线。
3.如权利要求1或2所述的服务器部署方法,其特征在于,所述构建与应用请求对应的尾端延迟表及曲线的步骤包括:
基于设定的CPU阈值初始化所述应用请求的请求排队队列、延迟请求表和/或整体负载量w0
将采集的第i时刻的所述CPU使用率数据Ui及时间设置在请求排队队列中,并且更新整体负载量w=w0+Ui
基于所述整体负载量w与所述CPU阈值的比较结果调整请求排队队列中应用请求的数量,并且记录所述请求排队队列的延迟请求数据,
在所述CPU使用率数据全部迭代完毕的情况下,基于所述请求排队队列的延迟请求数据的大小顺序构建所述尾端延迟表和/或尾端延迟曲线。
4.如权利要求3所述的服务器部署方法,其特征在于,所述方法还包括:
在所述整体负载量w大于所述CPU阈值的情况下,删除所述请求排队队列中超出所述CPU阈值的应用请求;
在所述整体负载量w不大于所述CPU阈值的情况下,删除所述请求排队队列中全部的应用请求。
5.如权利要求3或4所述的服务器部署方法,其特征在于,所述方法还包括:
基于设定的所述尾端延迟要求从所述尾端延迟表和/或尾端延迟曲线匹配对应的最低CPU阈值以作为所述最优功率配额。
6.如权利要求1至5之一所述的服务器部署方法,其特征在于,所述方法还包括:
基于所述最优功率配额和/或负载相似性部署所述服务器。
7.如权利要求1至6之一所述的服务器部署方法,其特征在于,所述服务器的部署方法包括:
选取与待部署服务器负载相似的至少一个运行服务器并设置所述待部署服务器的所述最优功率配额与所述运行服务器相同,
比较待部署服务器与服务器机架上的至少一个运行服务器的最优配额功率之和与所述服务器机架的额定功率的大小,
在所述配额功率之和小于额定功率的情况下,基于首次适应算法将所述待部署服务器设置在所述机架上。
8.如权利要求7所述的服务器部署方法,其特征在于,所述方法还包括:
针对机房内所有服务器机架,基于首次适应算法以有序的方式计算所述待部署服务器与至少一个服务器机架上的所有运行服务器的最优配额功率之和。
9.一种基于数据中心功率管理的服务器部署系统,其特征在于,所述系统包括构建单元和部署单元,
所述构建单元基于至少一个服务器的CPU使用率数据构建与应用请求对应的尾端延迟表和/或尾端延迟曲线;
所述部署单元基于所述应用请求的尾端延迟要求确定所述服务器的最优功率配额并部署所述服务器。
10.如权利要求9所述的服务器部署系统,其特征在于,所述构建单元包括采集模块和延迟统计模块,
所述采集模块用于采集至少一个服务器的CPU使用率数据,
所述延迟统计模块基于所述CPU使用率数据以微积分计算的方式构建所述应用请求在设定CPU阈值下的尾端延迟表和/或尾端延迟曲线。
CN201810037874.2A 2018-01-15 2018-01-15 一种数据中心功率管理及服务器部署方法 Active CN108199894B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810037874.2A CN108199894B (zh) 2018-01-15 2018-01-15 一种数据中心功率管理及服务器部署方法
US16/135,404 US20190220073A1 (en) 2018-01-15 2018-09-19 Server deployment method based on datacenter power management

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810037874.2A CN108199894B (zh) 2018-01-15 2018-01-15 一种数据中心功率管理及服务器部署方法

Publications (2)

Publication Number Publication Date
CN108199894A true CN108199894A (zh) 2018-06-22
CN108199894B CN108199894B (zh) 2020-02-14

Family

ID=62589692

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810037874.2A Active CN108199894B (zh) 2018-01-15 2018-01-15 一种数据中心功率管理及服务器部署方法

Country Status (2)

Country Link
US (1) US20190220073A1 (zh)
CN (1) CN108199894B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111210262A (zh) * 2019-12-25 2020-05-29 浙江大学 基于激励机制的自发式边缘应用部署及定价方法
CN112463044A (zh) * 2020-11-23 2021-03-09 中国科学院计算技术研究所 一种保证分布式存储系统服务器端读尾延迟的方法及系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11412142B2 (en) * 2019-03-07 2022-08-09 Invensense, Inc. Translation correction for optical image stabilization
CN112306686A (zh) * 2020-10-30 2021-02-02 深圳前海微众银行股份有限公司 机柜资源管理方法、装置、设备及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140229608A1 (en) * 2013-02-14 2014-08-14 Alcatel-Lucent Canada Inc. Parsimonious monitoring of service latency characteristics
CN106302227A (zh) * 2016-08-05 2017-01-04 广州市香港科大霍英东研究院 混合网络流调度方法和交换机
CN106528189A (zh) * 2015-09-10 2017-03-22 阿里巴巴集团控股有限公司 一种启动备份任务的方法、装置及电子设备
CN107145388A (zh) * 2017-05-25 2017-09-08 深信服科技股份有限公司 一种多任务环境下任务调度方法及系统
US9762497B2 (en) * 2013-11-26 2017-09-12 Avago Technologies General Ip (Singapore) Pte. Ltd. System, method and apparatus for network congestion management and network resource isolation

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10089309B2 (en) * 2016-02-05 2018-10-02 Spotify Ab System and method for load balancing based on expected latency for use in media content or other environments
US10628233B2 (en) * 2016-12-30 2020-04-21 Samsung Electronics Co., Ltd. Rack-level scheduling for reducing the long tail latency using high performance SSDS

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140229608A1 (en) * 2013-02-14 2014-08-14 Alcatel-Lucent Canada Inc. Parsimonious monitoring of service latency characteristics
US9762497B2 (en) * 2013-11-26 2017-09-12 Avago Technologies General Ip (Singapore) Pte. Ltd. System, method and apparatus for network congestion management and network resource isolation
CN106528189A (zh) * 2015-09-10 2017-03-22 阿里巴巴集团控股有限公司 一种启动备份任务的方法、装置及电子设备
CN106302227A (zh) * 2016-08-05 2017-01-04 广州市香港科大霍英东研究院 混合网络流调度方法和交换机
CN107145388A (zh) * 2017-05-25 2017-09-08 深信服科技股份有限公司 一种多任务环境下任务调度方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111210262A (zh) * 2019-12-25 2020-05-29 浙江大学 基于激励机制的自发式边缘应用部署及定价方法
CN111210262B (zh) * 2019-12-25 2023-10-03 浙江大学 基于激励机制的自发式边缘应用部署及定价方法
CN112463044A (zh) * 2020-11-23 2021-03-09 中国科学院计算技术研究所 一种保证分布式存储系统服务器端读尾延迟的方法及系统
CN112463044B (zh) * 2020-11-23 2022-07-12 中国科学院计算技术研究所 一种保证分布式存储系统服务器端读尾延迟的方法及系统

Also Published As

Publication number Publication date
US20190220073A1 (en) 2019-07-18
CN108199894B (zh) 2020-02-14

Similar Documents

Publication Publication Date Title
CN108199894A (zh) 一种数据中心功率管理及服务器部署方法
CN105281981B (zh) 网络服务的数据流量监控方法和装置
CN103229125B (zh) 机箱内的刀片服务器之间的动态功率平衡
US7451226B1 (en) Method for grouping content requests by behaviors that relate to an information system's ability to deliver specific service quality objectives
CN102724103B (zh) 代理服务器、分层次网络系统及分布式工作负载管理方法
CN106201722A (zh) 服务器的负载调整方法及系统
CN106537287A (zh) 估计在分布式计算机系统的多个节点上运行的作业的功率性能的方法和装置
CN108011840A (zh) 交易请求的控制方法、服务器和系统
CN107844376A (zh) 计算系统的资源调配方法、计算系统、介质和服务器
Niu et al. Workload adaptation in autonomic DBMSs
US20090178050A1 (en) Control of Access to Services and/or Resources of a Data Processing System
US20020188529A1 (en) System and method for calculation of controlling parameters for a computer based inventory management
CN104811466A (zh) 云媒体资源分配的方法及装置
WO2021000694A1 (zh) 一种部署业务的方法以及调度装置
CN109586971B (zh) 一种基于线性关系的负载资源需求量评估方法
CN110413393A (zh) 集群资源管理方法、装置、计算机集群及可读存储介质
CN109376006A (zh) 一种云计算环境下基于用户需求时变特性的资源整合方法
CN107665395A (zh) 数据处理方法、装置、计算机设备和存储介质
Zeng et al. Multi-tenant fair share in nosql data stores
Dubey et al. Performance modeling of distributed multi-tier enterprise systems
Hanneken et al. Investigation of Node-Level Performance Variation on the CLAIX2016 and CLAIX2018 Cluster of the RWTH Aachen University
JP4081552B2 (ja) 断片的自己相似過程を用いる通信トラヒックの評価方法及び評価装置
Shirzaei et al. Resource scheudling in non-stationary service systems
CN114443283B (zh) 一种应用实例的伸缩方法和装置
Strijbosch et al. Simple expressions for safety factors in inventory control

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant