CN101361045A - 用于对资源的自由池建模的方法 - Google Patents

用于对资源的自由池建模的方法 Download PDF

Info

Publication number
CN101361045A
CN101361045A CNA200780001766XA CN200780001766A CN101361045A CN 101361045 A CN101361045 A CN 101361045A CN A200780001766X A CNA200780001766X A CN A200780001766XA CN 200780001766 A CN200780001766 A CN 200780001766A CN 101361045 A CN101361045 A CN 101361045A
Authority
CN
China
Prior art keywords
processing engine
value
utilization
resource utilization
resource
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA200780001766XA
Other languages
English (en)
Other versions
CN101361045B (zh
Inventor
C·A·佐洛托
T·N·诺斯维
R·C·约翰逊
R·小伯伊斯
W·施密特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of CN101361045A publication Critical patent/CN101361045A/zh
Application granted granted Critical
Publication of CN101361045B publication Critical patent/CN101361045B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Multi Processors (AREA)
  • Hardware Redundancy (AREA)
  • Complex Calculations (AREA)

Abstract

本发明包括一种用于管理按需数据中心内提供给客户的计算资源的计算机实现的过程。所述过程包括:提供共享计算环境;为每个客户提供所述共享计算环境中的计算资源的一个或更多逻辑分区;为每个逻辑分区分配至少一个处理引擎;将选定客户的资源利用率建模为β分布;通过所述β分布迭代地选择随机资源利用率值,以及,对于每个逻辑分区,计算处理引擎差额;对于每次迭代,计算集体处理引擎差额直到该集体处理引擎差额汇聚于最优处理引擎差额;以及,根据所述最优处理引擎差额来调整处理引擎数,以便达到最优自由池大小。

Description

用于对资源的自由池建模的方法
技术领域
本发明一般涉及使用数据处理建模电子系统,并且特别涉及建模计算机的性能。
背景技术
许多年来,网络技术已使能了遍布全世界的计算资源的共享以及对其的远程访问。一台计算机可以容易地与大厅里或另一个国家里的计算机交换数据。当然,商业世界驾驭全球网络的力量并未花费很长时间,并且网络技术已推动了聚焦于跨这些网络递送服务的整个新产业的成长。
该新产业必须能够在最大化现有资源的同时随着客户的需求增长而预期并满足客户的处理需求。一种最大化资源的方法是允许客户共享计算和联网资源。在该方法的一种实现中,服务提供商在主处理单元(通常称为“主机”计算机)上创建计算资源的“逻辑”分区。所述共享、按需环境中的处理能力的离散单元在这里被称为“引擎”。典型地,服务提供商与几个客户订合同以向每个客户提供特定级别的服务,并且创建或指派资源的逻辑分区(LPAR)给每个客户来完成职责。虽然如此,所述合同的一个或更多在高峰使用的情况下可以允许一定余地的增长。
在被一个客户高度使用的情况下,则所述服务提供商必须能够在不会有害地影响任何其它客户资源利用的情况下为该客户提供额外的资源。为提供这些额外的资源,所述服务提供商可以在直到该客户的使用返回正常之前在各个逻辑分区之间重新分配计算资源。虽然如此,允许客户共享资源要求所述服务提供商小心地均衡和监视被共享的资源,以便该提供商可以满足所有服务职责。
当新客户预订所述按需服务时,能力规划者还必须确保所述服务提供商拥有足够用于每个客户的资源能力。可用于满足按需客户需求的超额资源能力被称为“自由池”。能力规划者还频繁设置LPAR利用率的目标水平。LPAR利用率被表述为:使用中的引擎与可使用引擎的数量的比率,其通常被表述为总能力的百分比。存在LPAR利用率目标的两个目的:提供为满足客户需求的未预期增长所必要的资源,以及面对意料之外地低的客户需求时避免浪费资源。
现有的按需自由池能力规划方法涉及使用数学或统计模型来预测到来客户的资源使用。能力经由添加引擎来增加,以便满足每个新客户的预期需求。当前的能力规划方法直接关联于每个新客户的预期需求而添加能力。因为能力规划项目是基于部分的或估计的数据,所以所述项目是在历史上不准确的。进一步地,现有能力规划方法不考虑多于一个客户在任意给定时刻对能力的影响。例如,当前规划技术不考虑多个客户同时使用多于其预期的能力。
由此,本领域中存在对这样的改进方法和系统的需求,所述方法和系统用于估计对满足服务职责所必要的资源的自由池的大小。
发明内容
本发明提供一种如权利要求1中所要求保护的方法、计算机程序和装置。
下面详细描述的优选实施例包括一种用于管理按需数据中心内提供给客户的计算资源的计算机实现的过程以及附属产品和装置,所述计算机实现的过程包括:提供在其中计算资源在客户之间被共享的共享计算环境;为每个客户提供所述共享计算环境中的计算资源的一个或更多逻辑分区;为每个逻辑分区分配至少一个处理引擎;将选定客户的资源利用率建模为贝塔(β)分布,其中,所述β分布的众数标记所述选定客户的预期资源利用率;通过所述β分布迭代地选择随机资源利用率值,以及,对于每个逻辑分区计算处理引擎差额,其中,所述处理引擎差额是分配给每个逻辑分区的处理引擎数与对于为每个逻辑分区提供所述随机资源利用率必要的处理引擎数之间的差;对于每次迭代,计算集体处理引擎差额直到该集体处理引擎差额汇聚于最优处理引擎差额;以及根据所述最优处理引擎差额来调整处理引擎的数量以便达到最优自由池大小。
优选地,迭代的次数至少为2000次。
附图说明
被确信为新颖特征的本发明的特征在所附权利要求中阐明。然而,通过参考下面当结合附图阅读时对示例性实施例的详细描述,本发明其自己及其优选的使用模式、进一步的目的和优点将被最好地理解,在附图中:
图1表示示例性的按需操作环境。
图2描述计算机上的存储器中的程序和文件。
图3是示例性β分布的图。
图4是配置部件的流程图。
图5是计算部件的流程图。
具体实施方式
本发明的原理适用于多种计算机硬件和软件配置。术语“计算机硬件”或“硬件”当用在这里时是指:能够接受数据、对数据实施逻辑操作、存储数据或显示数据并且包括但不限于处理器和存储器的任意机器或装置;术语“计算机软件”或“软件”是指:可运转为导致计算机硬件实施操作的任意指令集。当“计算机”这一术语用在这里时包括但不限于硬件和软件的任意有用组合,以及“计算机程序”或“程序”包括但不限于可运转为导致计算机硬件接受数据、对数据实施逻辑操作、存储数据或显示数据的任意软件。计算机程序可以是并且通常是由包括但不限于子程序、模块、函数、方法和过程的多个较小编程单元组成的。由此,本发明的功能可以被分布在多个计算机和计算机程序中。虽然如此,本发明被最好地描述为:配置一个或更多通用计算机并使其能够实现本发明的新颖方面的单一计算机程序。为了说明的目的,本发明的计算机程序将被称为“按需自由池建模器”或“ODFPM”。
另外,所述ODFPM在下面参考示例性按需操作环境被描述。在按需数据中心内,硬件和软件被共享,其以灵活、自动化的方式同时服务于多个客户。其是标准化的从而几乎不需要定制,并且其是可缩放的从而以现购现付(pay-as-you-go)模型按需提供能力。图1提供本发明的按需操作环境100的体系结构的概览。在基础设施服务层105,所述环境的部件可以是例如服务器106、存储装置107和数据108的系统对象,或者针对特定纵向产业或更一般地当其横向跨产业应用时定义的例如记帐109和计量110的业务对象。在应用服务层115,部件是组成复杂但灵活得多的应用的动态集成的应用模块。
ODFPM 200及其部件——配置部件400和计算部件500典型被存储在存储器中,其中,所述存储器在图2中被示意地表示为存储器220。术语“存储器”当用在这里时包括但不限于计算机可以在其中存储数据或软件任意长时间的例如电子电路、磁盘或光盘的任意易失性或永久介质。单一存储器可以包含多个介质并跨多个介质分布。由此,图2仅作为描述性手段被包括,并且不是必然地反映存储器220的任何特定物理实施例。虽然如此,如图2中所示,存储器220可以包括附加的数据和程序。对ODFPM200特别重要的是,存储器220可以包括ODFPM 200与之交互的配置数据文件240和计算数据文件250。
ODFPM 200使用贝塔(β)分布模拟来预测为达到利用率目标所需的自由池的大小。该模拟使用概率以便在指定范围的可能结果中运行数千个“假定推测(what-if)”场景。事件的概率可以被表述为贝尔曲线或β分布。所述模拟的结果可以被画成图以及被统计地分析,以便确定最可能的结果和计算为达到想要的结果的变量的最佳配置。β分布模拟仅需要对客户资源使用的估计来预测给定利用率目标所需的能力。ODFPM 200用β分布来估计客户资源利用率。β分布像贝尔曲线一样是封闭积分。每个客户将使用其各自的LPAR的0%与100%之间的某处。多数时候,客户将仅使用可用能力的一部分,例如70%。β分布提供描述客户的所有可能使用水平的可预测和可重复的随机利用率集合。所述β分布的“众数”或顶点标记客户的预期利用率。所述β分布的曲线示出存在客户在预期水平处或其附近使用资源的高概率,以及示出在极限处使用的低概率。例如,图3示出了三个β分布。在图3中,β分布301在.5或50%处具有众数,β分布302在.7或70%处具有众数,以及β分布303在.9或90%处具有众数。该β分布模拟将使用可能资源利用率的β分布来运行数千场景,并且确定对达到目标利用率所必要的改变。所述模拟的结果将示出,为满足目标利用率水平需要多少能力。
图4示出了配置部件400的实施例。配置部件400当被能力规划者启动时开始(410)。配置部件400打开配置数据文件240(412)并且提示所述能力规划者输入模拟输入(414)。所述模拟输入包括:LPAR的数量、分配给每个LPAR的引擎的数量、所有LPAR的集体目标利用率以及每个LPAR的预期客户利用率目标。分区的数量和用于每个分区的引擎的数量描述资源的初始配置。客户利用率目标是对由每个客户提供的LPAR利用率的估计,其通常相对于期望性能准则来均衡引擎成本。所述模拟输入被保存到配置数据文件240(416),并且配置部件400停止(418)。
图5示出了计算部件500的实施例。计算部件500当被能力规划者启动时开始(510),并且打开配置数据文件240和计算数据文件250(512)。因为不存在对每个LPAR上的实际利用率可用的任何已知值,计算部件500生成β分布来估计LPAR利用率的可能水平的范围(514)。所述β分布的“众数”被设在所述预期LPAR利用率处。计算部件500通过所述β分布选择随机利用率,计算对支持所述随机生成的利用率必要的引擎的数量,并且将所述计算存储在计算数据文件250中(516)。在本发明的一实施例中,能力是全部引擎的函数,并且结果被向上舍入到下一个整数。虽然如此,可替换实施例支持分数引擎,由此减轻对向上舍入到整数的需求。虽然如此,甚至当使用分数引擎时,舍入到下一个最高的十分之一可以是期望的。用于计算新的所需引擎的数量的方程为:(新引擎数)=上限(随机利用率/目标利用率*引擎数)。例如,如果能力规划者指定52%的目标利用率和分区中的3个引擎,以及通过β分布随机生成的利用率为80%,则所述方程将产生以下结果:(新引擎数)=上限(.80/.52*3)=上限(4.6)=5个引擎。处理引擎差额是新的处理引擎数与分配给指定LPAR的处理引擎数之间的差(即,新引擎数-引擎数)。在本示例中,所述处理引擎差额等于两个额外的引擎,因为为了达到针对客户的预期利用率的目标利用率需要两个额外的引擎。计算部件500基于新引擎数来计算分区的新利用率,并且将所述计算存储在计算数据文件250中(518)。用于使用新引擎数来计算分区的利用率的方程为:新利用率=随机利用率*引擎数/新引擎数。计算部件500针对每个LPAR重复步骤516-518(520)。在利用率针对每个LPAR被计算出之后,计算部件500计算集体处理引擎差额,并且将所述计算存储在计算数据文件250中(522)。所述集体处理引擎差额表示所有LPAR所需的新处理引擎数与所述按需数据中心内分配给所有LPAR的初始的处理引擎数之间的差(即,求和(新引擎数)-求和(引擎数))。计算部件500还计算平均的新集体LPAR利用率,并且将所述计算存储在计算数据文件250中(524)。计算部件500然后将所述平均利用率与目标利用率比较;直到所述平均利用率与目标利用率汇聚(converge)(步骤516)之前,步骤514-524重复。计算部件500在平均利用率与目标利用率汇聚之前可以实施超过2,000次迭代。阈值可以被设置,从而当平均利用率足够靠近目标利用率时迭代停止。由于通过在步骤516中向上舍入到下一个完整引擎导致的约束,平均新利用率可能不会精确地是目标利用率。在所有迭代被完成之后,计算部件500显示最终计算出的自由池和最终目标利用率(528)。所述最终计算出的自由池是为支持新客户和维持目标利用率所需的新引擎数。所述最终目标利用率是被所述新自由池支持的平均利用率。在显示所述输出之后,计算部件500停止(530)。
本发明的优选形式已在附图中被示出并在上面被描述,但该优选形式中的变型对于本领域的技术人员将是显而易见的。前面的描述仅用于说明目的,并且本发明不应当被解释为限于所示出和描述的特定形式。本发明的范围应当仅由下面权利要求的语言限制。
1.一种用于管理数据中心内提供给用户的计算资源的计算机实现的方法,在所述数据中心内:所述计算资源在所述用户之间被共享;所述计算资源的一个或更多逻辑分区被分配给每个用户,以及至少一个处理引擎被分配给每个逻辑分区;所述方法包括以下步骤:
将选定用户的资源利用率建模为β分布,其中,所述β分布的众数关联于所述选定用户的预期资源利用率;
通过所述β分布迭代地选择随机资源利用率值;
对于每个逻辑分区,计算第一处理引擎差额,其中,所述第一处理引擎差额包括分配给每个逻辑分区的处理引擎数与所述第一处理引擎数之间的差;
对于每次迭代,计算集体处理引擎差额直到所述集体处理引擎差额与第二处理引擎差额汇聚;以及
使用所述随机资源利用率值确定自由池大小。
2.根据权利要求1所述的方法,进一步包括:使用所述随机资源利用率值确定用于支持所述随机资源利用率的第一处理引擎数。
3.根据权利要求2所述的方法,进一步包括:使用所述第一处理引擎数确定第一利用率值。
4.根据权利要求1所述的方法,进一步包括:
对于每个逻辑分区,计算多个利用率值;以及
使用所述多个利用率值计算平均利用率值。
5.根据权利要求4所述的方法,进一步包括:将所述平均利用率值与目标利用率值比较,以便确定所述平均利用率值与所述目标利用率值是否汇聚。
6.根据权利要求1所述的方法,进一步包括:使用所述第二处理引擎差额来调整分配给每个逻辑分区的处理引擎数,以便达到第一自由池大小。
7.根据权利要求1所述的方法,其中,所述选定用户的预期资源利用率包括预期峰值资源利用率。
8.根据权利要求1所述的方法,其中,所述选定用户的预期资源利用率包括预期平均资源利用率。
9.一种用于管理数据中心内提供给用户的计算资源的计算机程序,在所述数据中心内:所述计算资源在所述用户之间被共享;所述计算资源的一个或更多逻辑分区被分配给每个用户,以及至少一个处理引擎被分配给每个逻辑分区;所述计算机程序产品包括具有计算机可读程序的计算机可用介质,其中,所述计算机程序包括当所述程序被运行在计算机上时适于实施以下步骤的程序代码装置:
将选定用户的资源利用率建模为β分布,其中,所述β分布的众数关联于所述选定用户的预期资源利用率;
通过所述β分布迭代地选择随机资源利用率值;
对于每个逻辑分区,计算第一处理引擎差额,其中,所述第一处理引擎差额包括分配给每个逻辑分区的处理引擎数与所述第一处理引擎数之间的差;
对于每次迭代,计算集体处理引擎差额直到该集体处理引擎差额与第二处理引擎差额汇聚;以及
使用所述随机资源利用率值确定自由池大小。
10.根据权利要求9所述的计算机程序,其中,当所述程序被运行在计算机上时,所述程序代码装置适于实施以下步骤:
使用所述随机资源利用率值确定用于支持所述随机资源利用率的第一处理引擎数。
11.根据权利要求10所述的计算机程序,其中,当所述程序被运行在计算机上时,所述程序代码装置适于实施以下步骤:
使用所述第一处理引擎数确定第一利用率值。
12.根据权利要求11所述的计算机程序,其中,当所述程序被运行在计算机上时,所述程序代码装置适于实施以下步骤:
对于每个逻辑分区计算多个利用率值,以及使用所述多个利用率值计算平均利用率值。
13.根据权利要求12所述的计算机程序,其中,当所述程序被运行在计算机上时,所述程序代码装置适于实施以下步骤:
将所述平均利用率值与目标利用率值比较,以便确定所述平均利用率值与所述目标利用率值是否汇聚。
14.根据权利要求9所述的计算机程序,其中,当所述程序被运行在计算机上时,所述程序代码装置适于实施以下步骤:
使用所述第二处理引擎差额来调整分配给每个逻辑分区的处理引擎数,以便达到第一自由池大小。
15.根据权利要求9所述的计算机程序,其中,所述选定用户的预期资源利用率包括预期峰值资源利用率。
16.根据权利要求9所述的计算机程序,其中,所述选定用户的预期资源利用率包括预期平均资源利用率。
17.一种用于管理数据中心内提供给用户的计算资源的装置,在所述数据中心内:
所述计算资源在所述用户之间被共享;
所述计算资源的一个或更多逻辑分区被分配给每个用户,以及至少一个处理引擎被分配给每个逻辑分区;所述装置包括:
用于将选定用户的资源利用率建模为β分布的装置,其中,所述β分布的众数关联于所述选定用户的预期资源利用率;
用于通过所述β分布迭代地选择随机资源利用率值的装置;
对于每个逻辑分区,用于计算第一处理引擎差额的装置,其中,所述第一处理引擎差额包括分配给每个逻辑引擎的处理引擎数与所述第一处理引擎数之间的差;
对于每次迭代,用于计算集体处理引擎差额直到该集体处理引擎差额与第二处理引擎差额汇聚的装置;以及
用于使用所述随机资源利用率值确定自由池大小的装置。
18.根据权利要求17所述的装置,进一步包括:用于使用所述随机资源利用率值确定用于支持所述所及资源利用率的第一处理引擎数的装置。
19.根据权利要求18所述的装置,进一步包括:用于使用所述第一处理引擎数确定第一利用率值的装置。
20.根据权利要求19所述的装置,进一步包括:
用于对于每个逻辑分区计算多个利用率值的装置;以及
用于使用所述多个利用率值计算平均利用率值的装置。
21.根据权利要求20所述的装置,进一步包括:用于将所述平均利用率值与目标利用率值比较以便确定所述平均利用率值与所述目标利用率值是否汇聚的装置。
22.根据权利要求17所述的装置,进一步包括:用于使用所述第二处理引擎差额来调整分配给每个逻辑分区的处理引擎数以便达到第一自由池大小的装置。
23.根据权利要求17所述的装置,其中,所述选定用户的预期资源利用率包括预期峰值资源利用率。
24.根据权利要求17所述的装置,其中,所述选定用户的预期资源利用率包括预期平均资源利用率。

Claims (30)

1.一种用于管理数据中心内提供给用户的计算资源的计算机实现的方法,在所述数据中心内:所述计算资源在所述用户之间被共享;所述计算资源的一个或更多逻辑分区被分配给每个用户,以及至少一个处理引擎被分配给每个逻辑分区;所述方法包括以下步骤:
将选定用户的资源利用率建模为β分布,其中,所述β分布的众数关联于该选定用户的预期资源利用率;
通过所述β分布选择随机资源利用率值;以及
使用所述随机资源利用率值确定自由池大小。
2.根据权利要求1所述的方法,进一步包括:使用所述随机资源利用率值确定用于支持所述随机资源利用率的第一处理引擎数。
3.根据权利要求2所述的方法,进一步包括:使用所述第一处理引擎数确定第一利用率值。
4.根据权利要求1所述的方法,进一步包括:
对于每个逻辑分区计算多个利用率值;以及
使用所述多个利用率值计算平均利用率值。
5.根据权利要求4所述的方法,进一步包括:将所述平均利用率值与目标利用率值比较,以便确定所述平均利用率值与所述目标利用率值是否汇聚。
6.根据权利要求2所述的方法,进一步包括:对于每个逻辑分区计算第一处理引擎差额,其中,所述第一处理引擎差额包括分配给每个逻辑分区的处理引擎数与所述第一处理引擎数之间的差。
7.根据权利要求6所述的方法,进一步包括:
通过所述β分布迭代地选择随机资源利用率值;以及
对于每次迭代,计算集体处理引擎差额直到该集体处理引擎差额与第二处理引擎差额汇聚。
8.根据权利要求7所述的方法,进一步包括:使用所述第二处理引擎差额来调整分配给每个逻辑分区的处理引擎数,以便达到第一自由池大小。
9.根据权利要求1所述的方法,其中,所述选定用户的预期资源利用率包括预期峰值资源利用率。
10.根据权利要求1所述的方法,其中,所述选定用户的预期资源利用率包括预期平均资源利用率。
11.一种用于管理数据中心内提供给用户的计算资源的计算机程序,在所述数据中心内:所述计算资源在所述用户之间被共享;所述计算资源的一个或更多逻辑分区被分配给每个用户,以及至少一个处理引擎被分配给每个逻辑分区;所述计算机程序产品包括具有计算机可读程序的计算机可用介质,其中,所述计算机程序包括当所述程序被运行在计算机上时适于实施以下步骤的程序代码装置:
将选定用户的资源利用率建模为β分布,其中,所述β分布的众数关联于所述选定用户的预期资源利用率;
通过所述β分布选择随机资源利用率值;以及
使用所述随机资源利用率值确定自由池大小。
12.根据权利要求11所述的计算机程序,其中,当所述程序被运行在计算机上时,所述程序代码装置适于实施以下步骤:
使用所述随机资源利用率值确定用于支持所述随机资源利用率的第一处理引擎数。
13.根据权利要求12所述的计算机程序,其中,当所述程序被运行在计算机上时,所述程序代码装置适于实施以下步骤:
使用所述第一处理引擎数确定第一利用率值。
14.根据权利要求13所述的计算机程序,其中,当所述程序被运行在计算机上时,所述程序代码装置适于实施以下步骤:
对于每个逻辑分区计算多个利用率值,以及使用所述多个利用率值计算平均利用率值。
15.根据权利要求14所述的计算机程序,其中,当所述程序被运行在计算机上时,所述程序代码装置适于实施以下步骤:
将所述平均利用率值与目标利用率值比较,以便确定所述平均利用率值与所述目标利用率值是否汇聚。
16.根据权利要求12所述的计算机程序,其中,当所述程序被运行在计算机上时,所述程序代码装置适于实施以下步骤:
对于每个逻辑分区,计算第一处理引擎差额,其中,所述第一处理引擎差额包括分配给每个逻辑分区的处理引擎数与所述第一处理引擎数之间的差。
17.根据权利要求16所述的计算机程序,其中,当所述程序被运行在计算机上时,所述程序代码装置适于实施以下步骤:
通过所述β分布迭代地选择随机资源利用率值;以及
对于每次迭代,计算集体处理引擎差额直到所述集体处理引擎差额与第二处理引擎差额汇聚。
18.根据权利要求17所述的计算机程序,其中,当所述程序被运行在计算机上时,所述程序代码装置适于实施以下步骤:
使用所述第二处理引擎差额来调整分配给每个逻辑分区的处理引擎数,以便达到第一自由池大小。
19.根据权利要求11所述的计算机程序,其中,所述选定用户的预期资源利用率包括预期峰值资源利用率。
20.根据权利要求11所述的计算机程序,其中,所述选定用户的预期资源利用率包括预期平均资源利用率。
21.一种用于管理数据中心内提供给用户的计算资源的装置,在所述数据中心内:
所述计算资源在所述用户之间被共享;
所述计算资源的一个或更多逻辑分区被分配给每个用户;以及
至少一个处理引擎被分配给每个逻辑分区;所述装置包括:
用于将选定用户的资源利用率建模为β分布的装置,其中,所述β分布的众数关联于所述选定用户的预期资源利用率;
用于通过所述β分布选择随机资源利用率值的装置;以及
用于使用所述随机资源利用率值确定自由池大小的装置。
22.根据权利要求21所述的装置,进一步包括:用于使用所述随机资源利用率值确定用于支持所述随机资源利用率的第一处理引擎数的装置。
23.根据权利要求22所述的装置,进一步包括:用于使用所述第一处理引擎数确定第一利用率值的装置。
24.根据权利要求23所述的装置,进一步包括:
用于对于每个逻辑分区计算多个利用率值的装置;以及
用于使用所述多个利用率值计算平均利用率值的装置。
25.根据权利要求24所述的装置,进一步包括:用于将所述平均利用率值与目标利用率值比较以便确定所述平均利用率值与所述目标利用率值是否汇聚的装置。
26.根据权利要求22所述的装置,进一步包括:对于每个逻辑分区,用于计算第一处理引擎差额的装置,其中,所述第一处理引擎差额包括分配给每个逻辑分区的处理引擎数与所述第一处理引擎数之间的差。
27.根据权利要求26所述的装置,进一步包括:
用于通过所述β分布迭代地选择随机资源利用率值的装置;以及
对于每次迭代,用于计算集体处理引擎差额直到所述集体处理引擎差额与第二处理引擎差额汇聚的装置。
28.根据权利要求27所述的装置,进一步包括:用于使用所述第二处理引擎差额来调整分配给每个逻辑分区的处理引擎数以便达到第一自由池大小的装置。
29.根据权利要求21所述的装置,其中,所述选定用户的预期资源利用率包括预期峰值资源利用率。
30.根据权利要求21所述的装置,其中,所述选定用户的预期资源利用率包括预期平均资源利用率。
CN200780001766XA 2006-01-23 2007-01-08 用于管理数据中心内提供给用户的计算资源的方法和系统 Expired - Fee Related CN101361045B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/337,742 US7685283B2 (en) 2006-01-23 2006-01-23 Method for modeling on-demand free pool of resources
US11/337,742 2006-01-23
PCT/EP2007/050156 WO2007082814A2 (en) 2006-01-23 2007-01-08 Method for modeling a free pool of resources

Publications (2)

Publication Number Publication Date
CN101361045A true CN101361045A (zh) 2009-02-04
CN101361045B CN101361045B (zh) 2012-05-16

Family

ID=38286881

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200780001766XA Expired - Fee Related CN101361045B (zh) 2006-01-23 2007-01-08 用于管理数据中心内提供给用户的计算资源的方法和系统

Country Status (7)

Country Link
US (1) US7685283B2 (zh)
EP (1) EP1979813B1 (zh)
JP (1) JP5065296B2 (zh)
CN (1) CN101361045B (zh)
AT (1) ATE554446T1 (zh)
CA (1) CA2636827C (zh)
WO (1) WO2007082814A2 (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8650574B2 (en) * 2006-07-05 2014-02-11 International Business Machines Corporation Method and system for dynamically creating and modifying resource topologies and executing systems management flows
US8650568B2 (en) * 2006-07-05 2014-02-11 International Business Machines Corporation Method and system for transforming orders for executing them in standard workflow engines
US8055773B2 (en) * 2006-11-06 2011-11-08 International Business Machines Corporation Method and system for executing system management flows
US9270781B2 (en) 2007-02-15 2016-02-23 Citrix Systems, Inc. Associating virtual machines on a server computer with particular users on an exclusive basis
US9043391B2 (en) 2007-02-15 2015-05-26 Citrix Systems, Inc. Capturing and restoring session state of a machine without using memory images
US9047135B2 (en) * 2010-01-22 2015-06-02 International Business Machines Corporation Qualitative assignment of resources to a logical partition in a multipartitioned computer system
JPWO2011104999A1 (ja) * 2010-02-23 2013-06-17 日本電気株式会社 サービス提供システム、そのコンピュータプログラムおよびデータ処理方法
US8745633B2 (en) * 2010-05-11 2014-06-03 Lsi Corporation System and method for managing resources in a partitioned computing system based on resource usage volatility
DE102012217202B4 (de) * 2011-10-12 2020-06-18 International Business Machines Corporation Verfahren und System zum Optimieren des Platzierens virtueller Maschinen in Cloud-Computing-Umgebungen
JP5940922B2 (ja) * 2012-07-12 2016-06-29 トヨタ自動車株式会社 自然エネルギー量予測装置
CN103002053B (zh) * 2012-12-25 2016-06-08 深圳先进技术研究院 云计算的利润最大化调度方法和系统
US9710039B2 (en) 2014-07-17 2017-07-18 International Business Machines Corporation Calculating expected maximum CPU power available for use
JP6924083B2 (ja) 2017-06-22 2021-08-25 株式会社日立製作所 情報処理システムおよびリソース割り当て方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0300456A3 (en) * 1987-07-24 1990-08-08 Bruce H. Faaland Improved scheduling method and system
JPH04315247A (ja) * 1991-04-15 1992-11-06 Hitachi Ltd 計算機システムの運用方法
US5668995A (en) * 1994-04-22 1997-09-16 Ncr Corporation Method and apparatus for capacity planning for multiprocessor computer systems in client/server environments
US6128540A (en) * 1998-02-20 2000-10-03 Hagen Method Pty. Ltd. Method and computer system for controlling an industrial process using financial analysis
US6862623B1 (en) * 2000-04-14 2005-03-01 Microsoft Corporation Capacity planning for server resources
US6898564B1 (en) * 2000-05-23 2005-05-24 Microsoft Corporation Load simulation tool for server resource capacity planning
US7437446B2 (en) * 2002-09-30 2008-10-14 Electronic Data Systems Corporation Reporting of abnormal computer resource utilization data
US7299468B2 (en) * 2003-04-29 2007-11-20 International Business Machines Corporation Management of virtual machines to utilize shared resources
JP2005099973A (ja) * 2003-09-24 2005-04-14 Hitachi Ltd 運用管理システム
US8782024B2 (en) * 2004-02-12 2014-07-15 International Business Machines Corporation Managing the sharing of logical resources among separate partitions of a logically partitioned computer system
JP4197303B2 (ja) * 2004-02-17 2008-12-17 株式会社日立製作所 計算機リソース管理方法及び実施装置並びに処理プログラム
US20050259683A1 (en) * 2004-04-15 2005-11-24 International Business Machines Corporation Control service capacity

Also Published As

Publication number Publication date
WO2007082814B1 (en) 2007-10-18
WO2007082814A2 (en) 2007-07-26
ATE554446T1 (de) 2012-05-15
CN101361045B (zh) 2012-05-16
US7685283B2 (en) 2010-03-23
CA2636827C (en) 2014-03-25
EP1979813B1 (en) 2012-04-18
JP2009524135A (ja) 2009-06-25
CA2636827A1 (en) 2007-07-26
EP1979813A2 (en) 2008-10-15
WO2007082814A3 (en) 2007-08-30
US20070174458A1 (en) 2007-07-26
JP5065296B2 (ja) 2012-10-31

Similar Documents

Publication Publication Date Title
CN101361045B (zh) 用于管理数据中心内提供给用户的计算资源的方法和系统
Li et al. Pricing and repurchasing for big data processing in multi-clouds
Fehling et al. A framework for optimized distribution of tenants in cloud applications
US9716746B2 (en) System and method using software defined continuity (SDC) and application defined continuity (ADC) for achieving business continuity and application continuity on massively scalable entities like entire datacenters, entire clouds etc. in a computing system environment
CN107743611A (zh) 动态云计算平台资源的最优分配
CN104050042B (zh) Etl作业的资源分配方法及装置
CN103946831A (zh) 用于模板的成本感知的选择以供应共享资源的系统、方法和程序产品
CN107450855B (zh) 一种用于分布式存储的模型可变的数据分布方法及系统
Du et al. Scientific workflows in IoT environments: a data placement strategy based on heterogeneous edge-cloud computing
Lucas‐Simarro et al. Cost optimization of virtual infrastructures in dynamic multi‐cloud scenarios
CN102132577A (zh) 基于模型的资源分配
Deng et al. A data and task co-scheduling algorithm for scientific cloud workflows
CN110839069B (zh) 一种节点数据部署方法、部署节点、系统及介质
CN104754008A (zh) 网络存储节点、网络存储系统以及用于网络存储节点的装置和方法
CN111381957B (zh) 面向分布式平台的服务实例精细化调度方法及系统
Jagadish Kumar et al. Hybrid gradient descent golden eagle optimization (HGDGEO) algorithm-based efficient heterogeneous resource scheduling for big data processing on clouds
Bouhouch et al. Dynamic data replication and placement strategy in geographically distributed data centers
CN104683480A (zh) 一种基于应用的分布式计算方法
CN109492847B (zh) 基于区块链的多资源平台以及多资源分配方法
Kang et al. An efficient scheme to ensure data availability for a cloud service provider
Avelar Cost benefit analysis of edge micro data center deployments
Wang et al. A sequential game perspective and optimization of the smart grid with distributed data centers
CN112416593A (zh) 资源管理方法及装置、电子设备、计算机可读介质
Jaradat Replica selection algorithm in data grids: the best-fit approach
CN117149099B (zh) 一种计算存储分体式服务器系统及控制方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120516

Termination date: 20190108