JP2009140079A - リソースの運用管理方法、運用管理プログラム、および、運用管理装置 - Google Patents

リソースの運用管理方法、運用管理プログラム、および、運用管理装置 Download PDF

Info

Publication number
JP2009140079A
JP2009140079A JP2007313738A JP2007313738A JP2009140079A JP 2009140079 A JP2009140079 A JP 2009140079A JP 2007313738 A JP2007313738 A JP 2007313738A JP 2007313738 A JP2007313738 A JP 2007313738A JP 2009140079 A JP2009140079 A JP 2009140079A
Authority
JP
Japan
Prior art keywords
resource
service
amount
resource allocation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007313738A
Other languages
English (en)
Inventor
Taiki Najima
太樹 名島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007313738A priority Critical patent/JP2009140079A/ja
Publication of JP2009140079A publication Critical patent/JP2009140079A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】呼び出されるサービスの実行時に使用するリソースを割り当てるときに、リソースの利用効率を高めつつ、サービスの実行時間を短縮すること。
【解決手段】リソース割当部22は、通知されたサービス呼出通知の項目内容を、その項目内容を含む所定のリソース量見積もり式で評価することにより、通知されたサービス呼出通知のリソース要求量を求め、リソース割当量計算部23は、リソース割当部22が計算したリソース要求量をサービス実行装置4ごとに集計することで、各サービス実行装置4に割り当てるリソース要求量を求め、仮想計算機実行装置3に求めたリソース要求量分のリソース割当を要求し、リソース解放部24は、リソース割当部22が計算したリソース要求量分のリソース割当を解除する旨を、仮想計算機実行装置3に要求する。
【選択図】図5

Description

本発明は、リソースの運用管理方法、運用管理プログラム、および、運用管理装置に関するものである。
SOA(Service Oriented Architecture)に基づき、複数のサービスを連携させてBP(Business Process)として実行する技術が、知られている。BPとは、開始イベント、終了イベント、サービス呼び出しアクティビティ、並行処理や分岐処理を行うためのゲートウェイ、などの各要素をフローで接続して構成される。BPはサービス呼び出しアクティビティを介して各サービスを呼び出す。呼び出されたサービスは、割り当てられたCPUなどの計算機資源(以下、単にリソースとする)を利用して、サービスの処理を実行する。
特許文献1は、BPを対象にプロビジョニングを行い、サービスの実行前(事前)にサービスへリソースを割り当てる方法を開示している。この方法により、あらかじめ予想した高負荷に耐えうるだけの十分な計算機リソースを用意しておくため、予想の範囲内であれば実行時にリソース配分を意識せずともサービスの品質が確保される。
一方、複数のサーバマシンをクラスタ構成にして負荷分散を行い、サービスの品質を確保する技術が普及している。例えば、特許文献2では、限られたリソースを有効利用するため、サービスの実行後(事後)に負荷の高くなったサーバクラスタに対して動的にサーバを追加して、サービス品質を確保するグリッド技術が開示されている。
特開2007−148469号公報 特開2005−32242号公報
高品質なBP実行システムを構築するためには、サービスの実行時に使用するリソースの利用効率を高めることと、サービスの実行に要する実行時間を短くすることが、求められる。リソースの利用効率を向上することにより、サービスの提供者は、多くのBPを処理できる(換言すると、スループットが向上する)ため、収益率が高まるというメリットを得る。サービスの利用者は、自分のサービスの実行時間が少なくて済むので、利便性が向上するというメリットを得る。よって、この両方の性能(利用効率、実行時間)をバランス良く向上させることが、求められる。
しかし、前記した各従来の技術は、両方の性能のうち、片方を向上させるとその副作用としてもう片方の性能が低下してしまったため、バランスが悪かった。
事前割当方式(特許文献1など)では、プロビジョニングによる初期リソースの分配は、一時的な負荷の上昇に耐えるためにそれぞれのサービスに最大のリソースを割り当てねばならず、リソース効率が悪かった。
事後割当方式(特許文献2など)では、実行時間が長くなってしまう。具体的には、実行時に負荷の高いサービスへリソースを分配するのでサービスが稼動する装置を所定の時間観測した場合の負荷の上昇または下降を契機としてリソースを分配するため、サーバマシンの負荷の上昇または下降とリソースの分配の間には少なくとも観測時間分の遅れが生じてしまう。そのため、リソースの追加が間に合わず、スループット(単位時間当たりに処理可能なBPの分量)が十分にあがらなかったり、リソースの削減が間に合わずリソースが必要なほかのサービスにリソースが割り当てられなかったりし、一時的にだが全体の効率を下げてしまうことがある。
また、事後割当方式では、サービスが稼動するサーバ実行装置の負荷のみで計算機リソース追加・削減の判断を行なうため、適切なリソース配分となっていない場合がある。たとえば、2つのサービスA、Bを仮定し、どちらのサービスも高負荷になっているとする。従来技術では表面上の負荷の割合が同じならば双方に同じだけのリソースを割り振る。しかし、サービスAは100件処理をしており、Bは50件しか処理をしておらず、どちらも1件あたりの負荷が同じだとすると、サービスAには、サービスBの2倍のリソースを割り振るべきである。
そこで、本発明は、前記した問題を解決し、呼び出されるサービスの実行時に使用するリソースを割り当てるときに、リソースの利用効率を高めつつ、サービスの実行時間を短縮することを主な目的とする。
前記課題を解決するため、本発明は、サービス実行装置が実行するサービスを呼び出すためのアクティビティを含むBPを実行するとともに、サービスを呼び出すためのサービス呼出通知、および、そのサービス呼出通知への応答であるサービス応答通知をイベントとして監視するBP実行装置と、
前記サービス実行装置をリソースの動的割当が可能な仮想計算機として構築する仮想計算機実行装置と、
各前記サービス実行装置へのリソース割当量を管理する運用管理装置と、を用いるBP実行システムにおけるリソースの運用管理方法であって、
前記運用管理装置が、BP実行状態受信部、リソース割当部、リソース割当量計算部、および、リソース解放部を有し、
前記BP実行状態受信部が、前記BP実行装置からイベントを受信したときに、前記サービス呼出通知のイベントを前記リソース割当部へ、前記サービス応答通知のイベントを前記リソース解放部へそれぞれ通知し、
前記リソース割当部が、通知された前記サービス呼出通知の項目内容を、その項目内容を含む所定のリソース量見積もり式で評価することにより、通知された前記サービス呼出通知のサービスを実行するために要するリソース要求量を求め、
前記リソース割当量計算部が、前記リソース割当部が計算したリソース要求量を前記サービス実行装置ごとに集計することで、各前記サービス実行装置に割り当てるリソース要求量を求め、前記仮想計算機実行装置に求めたリソース要求量分のリソース割当を要求し、
前記リソース解放部が、通知された前記サービス応答通知に対応する前記サービス呼出通知をもとに前記リソース割当部が計算したリソース要求量分のリソース割当を解除する旨を、前記仮想計算機実行装置に要求することを特徴とする。
その他の手段は、後記する。
本発明によれば、呼び出されるサービスの実行時に使用するリソースを割り当てるときに、リソースの利用効率を高めつつ、サービスの実行時間を短縮することができる。
以下、本発明の好適な実施の形態について、図面を参照しつつ説明する。
図1は、BP実行システムを示す構成図である。BP実行システムは、BP実行装置1、運用管理装置2、仮想計算機実行装置3(1つ以上のサービス実行装置4を構成する)、および、ユーザ端末5がネットワーク9で相互に接続されて構成される。
BP実行装置1は、ユーザ端末5からのユーザ依頼の通知を受け、BPを実行する。実行されたBPは、各サービス実行装置4が提供するサービスを呼び出す。
運用管理装置2は、BP実行装置1からのサービス呼び出しに関するイベント通知を受け、各サービス実行装置4に割り当てるリソース割当量を計算し、その結果を基にリソース割当およびリソース解除を指示する。
仮想計算機実行装置3は、各サービス実行装置4を構成するとともに、各サービス実行装置4に割り当てるリソースを提供する。
サービス実行装置4は、BP実行装置1が実行するBPから呼び出されたサービスを実行する。
ユーザ端末5は、ユーザからの入力を元に作成されたユーザ依頼の通知を、BP実行装置1に送信する。
ネットワーク9はLAN(Local Area Network)などのローカルネットワークであっても、WAN(Wide Area Network)やインターネットなどのグローバルネットワークであってもよい。
図2は、BP実行装置1を示す構成図である。
BP実行装置1は、通信制御装置101a、CPU102a、主記憶装置104a、二次記憶装置105a、システムバス106a、入力装置107a、および、出力装置108aを備える。
通信制御装置101aは、CPU102aの指示に従いネットワーク9上のメッセージを送受信する。
CPU102aは、二次記憶装置105aに対して情報の読み出しおよび格納を指示するとともに、主記憶装置104aに格納された各処理部を実行する。
主記憶装置104aは、各処理部(BP実行部11、BP定義読出部12、BP実行状態監視部13)に加え、それらを動作させるためのオペレーティングシステム103aを格納する。主記憶装置104aは、各処理部の処理に関するデータ(受信した情報や計算した結果値など)を格納する。なお、主記憶装置104aに格納される各処理部は、プログラムとして実装する代わりに、ASIC(Application Specific Integrated Circuit)などのハードウェアとして実装してもよい。
二次記憶装置105aは、BP定義格納部16と、サービス管理テーブル17と、を格納する。
システムバス106aは、BP実行装置1の各構成要素を接続し、互いに通信可能とする。
入力装置107aは、ユーザからのデータの入力を受け付けるためのキーボードやマウスなどで構成される。
出力装置108aは、ユーザへのデータを提示するためのディスプレイなどで構成される。
図3は、運用管理装置2を示す構成図である。
運用管理装置2は、通信制御装置101b、CPU102b、主記憶装置104b、二次記憶装置105b、システムバス106b、入力装置107b、および、出力装置108bを備える。
通信制御装置101bは、CPU102bの指示に従いネットワーク9上のメッセージを送受信する。
CPU102bは、二次記憶装置105bに対して情報の読み出しおよび格納を指示するとともに、主記憶装置104bに格納された各処理部を実行する。
主記憶装置104bは、各処理部(BP実行状態受信部21、リソース割当部22、リソース割当量計算部23、リソース解放部24)に加え、それらを動作させるためのオペレーティングシステム103bを格納する。主記憶装置104bは、各処理部の処理に関するデータ(受信した情報や計算した結果値など)を格納する。なお、主記憶装置104bに格納される各処理部は、プログラムとして実装する代わりに、ASICなどのハードウェアとして実装してもよい。
二次記憶装置105bは、BP実行状態管理テーブル26、サービス実行状態管理テーブル27、サービススペックテーブル28、BPフロー格納部29を格納する。
システムバス106bは、運用管理装置2の各構成要素を接続し、互いに通信可能とする。
入力装置107bは、ユーザからのデータの入力を受け付けるためのキーボードやマウスなどで構成される。
出力装置108bは、ユーザへのデータを提示するためのディスプレイなどで構成される。
図4は、仮想計算機実行装置3を示す構成図である。
仮想計算機実行装置3は、通信制御装置101c、CPU102c、主記憶装置104c、二次記憶装置105c、システムバス106c、入力装置107c、および、出力装置108cを備える。
通信制御装置101cは、CPU102cの指示に従いネットワーク9上のメッセージを送受信する。
CPU102cは、二次記憶装置105cに対して情報の読み出しおよび格納を指示するとともに、主記憶装置104cに格納された各処理部を実行する。
主記憶装置104cは、各処理部(サービス実行装置4を構成する仮想計算機管理部31、リソース分配部32)に加え、それらを動作させるためのオペレーティングシステム103cを格納する。主記憶装置104cは、各処理部の処理に関するデータ(受信した情報や計算した結果値など)を格納する。なお、主記憶装置104cに格納される各処理部は、プログラムとして実装する代わりに、ASICなどのハードウェアとして実装してもよい。
二次記憶装置105cは、リソース管理テーブル36を格納する。
システムバス106cは、仮想計算機実行装置3の各構成要素を接続し、互いに通信可能とする。
入力装置107cは、ユーザからのデータの入力を受け付けるためのキーボードやマウスなどで構成される。
出力装置108cは、ユーザへのデータを提示するためのディスプレイなどで構成される。
サービス実行装置4は、サービスを実行するAP(Application Server)の機能を有する仮想計算機である。仮想計算機は、仮想計算機実行装置3の各ハードウェア資源をリソースとして動的に追加または削除して処理能力を変更させることができる。よって、各仮想計算機は、仮想計算機実行装置3の各ハードウェア資源を、あたかも自装置に搭載されたものとして、実行する処理に提供する。
サービス実行装置4は、サービスの処理内容ごとに存在する。サービス実行装置4は、サービス呼出通知に応じてサービスを実行し、その結果をサービス応答通知に含めて返答する。なお、サービス呼出通知およびサービス応答通知は、ネットワーク9を介してHTTP(Hyper Text Transfer Protocol)や、SOAP(Simple Object Access Protocol)などの形式のメッセージのやり取りにより実現される。
図5は、図1のBP実行システムについて、機能に着目した構成図である。
BP実行部11は、ユーザ端末5からのユーザ依頼通知を受け付けると、BP定義読出部12を介して、BP定義格納部16からBP定義情報を読み出し、インスタンス化する。BP実行部11は、各インスタンスに対して、他のインスタンスと区別するためのインスタンスIDを割り当てる。
以下、ユーザ依頼通知の一例をXML(eXtensible Markup Language)形式で示す。このユーザ依頼通知は、「U1234」で識別されるユーザが、「I0501」の商品1つと、「I0502」の商品2つとを、「My Express」のカードで買うことを示している。
<order userid="U1234">
<defrayment type="card">
<card number="1234-5678-9012-3456" company="My Express" />
<expiration month="10" year="07" />
</defrayment >
<items>
<item1 id="I0501" quantity="1"/>
<item2 id="I0102" quantity="2"/>
</items>
</order>
図6は、BP定義格納部16に格納されているBP定義の一例を示す説明図である。BP「決済出荷」300は、商品の決済および出荷を行うため、サービス群310の各サービスを呼び出す。サービス群310は、サービス「代金計算」311、サービス「カード決済」312、サービス「代引配送」313、および、サービス「通常配送」314を有する。
サービス「代金計算」311は、商品の種類、数および決済方法によって代金を求め、その結果を返すサービスである。このサービスは商品の種類が多くなるほど、処理に必要なリソース量が増える。
以下、サービス「代金計算」311へのサービス呼出通知の一例を示す。このサービス呼出通知は、「I0501」の商品1つと、「I0502」の商品2つとを、カードで買うときの代金計算を行う旨を示している。
<getPrice>
<settlement type="card" />
<items>
<item1 id="I0501" quantity="1"/>
<item2 id="I0102" quantity="2"/>
</items>
</getPrice>
以下、サービス「代金計算」311からのサービス呼出応答の一例を示す。このサービス呼出応答は、代金が「25000」円であることを示している。
<price value="25000" />
サービス「カード決済」312は、カード情報と代金を元に、カード決済を行なうサービスである。このサービスは、カードの種類によって処理に必要なリソース量が異なる。
以下、サービス「カード決済」312へのサービス呼出通知の一例を示す。このサービス呼出通知は、「U1234」で識別されるユーザが、代金「25000」円分のカード決済を、「My Express」のカードで実施することを示している。
<pay userid="U1234">
<defrayment type="card">
<card number="1234-5678-9012-3456"
company="My Express" />
<expiration month="10" year="07" />
<price value="25000" />
</defrayment >
</pay>
以下、サービス「カード決済」312からのサービス呼出応答の一例を示す。このサービス呼出応答は、カード決済が成功(OK)した旨を示している。
<result value="OK" />
サービス「代引配送」313は、代引指定で商品の配送を指示するサービスである。このサービスは商品の種類が多くなるほど、処理に必要なリソース量が増える。サービス「通常配送」314は、商品の配送を指示するサービスである。このサービスは商品の種類が多くなるほど、処理に必要なリソース量が増える。
BP「決済出荷」300は、要素301〜要素308と、各要素の順序を規定する矢印(シーケンスフロー)により構成される。つまり、BP「決済出荷」300は、要素301から要素308に向けて、矢印の方向へ順に処理する。なお、各要素は、BPMN(Business Process Modeling Notation)の記述法に従っている。
要素301は、ユーザ端末5からのユーザ依頼通知を受け付けることを契機とする、BP「決済出荷」300の開始イベントである。
要素302は、サービス「代金計算」311のサービス呼び出しアクティビティである。要素302では、要素301で受け付けたユーザ依頼通知を元に生成されたサービス呼出通知を、サービス「代金計算」311へ送信し、そのサービスの実行結果としてサービス応答通知を得る。
要素303は、要素304または要素306のいずれか一方へ分岐するXORゲートウェイ(排他的判断)である。要素303では、要素301のユーザ依頼通知中の決済の種類を元に、カード決済ならば要素304へ分岐し、代引決済ならば要素306へ分岐する。なお、前記した一例では、「My Express」のカードで買うので、要素304へ分岐する。
要素304は、サービス「カード決済」312のサービス呼び出しアクティビティである。ここでは、要素301でのカード決済に関する情報と、要素302での代金計算の結果とをもとに、サービス呼出通知を作成する。
要素305は、サービス「通常配送」314のサービス呼び出しアクティビティである。ここでは、要素301での通常配送に関する情報(配送先住所を特定するためのユーザIDなど)をもとに、サービス呼出通知を作成する。
要素306は、サービス「代引配送」313のサービス呼び出しアクティビティである。ここでは、要素301での代引決済に関する情報と、要素302での代金計算の結果とをもとに、サービス呼出通知を作成する。
要素307は、要素303に対応するXORゲートウェイ(排他併合)である。
要素308は、要素301に対応する終了イベントである。
Figure 2009140079
表1のBPフロー格納部29(図5参照)は、図6のBP「決済出荷」300の概要(フローに関する部分)を抽出したものである。BPフロー格納部29は、「BP名」と、「要素ID」と、「次要素ID」と、「要素種類」と、「サービス名」とを対応づけて管理する。
「BP名」は、BP定義格納部16に格納されているBP定義を特定する名称である。
「要素ID」は、BP定義の各構成要素を特定する。
「次要素ID」は、「要素ID」の要素から、矢印を辿ることにより、次に実行する要素を特定する。
「要素種類」は、「要素ID」の要素の種類(分類)を示す。
「サービス名」は、「要素種類」がサービス呼び出しアクティビティであるときに、呼び出し先のサービスを特定する。
図5に戻り、BP実行部11は、読み出したBP定義情報中のフローの定義に従ってBPのインスタンスを実行する。ここで、BP実行部11は、BP定義中のサービス呼び出しアクティビティを実行するときに、サービス管理テーブル17を参照して、呼び出し先のサービスを実行するためのサービス実行装置4を特定する。
Figure 2009140079
表2のサービス管理テーブル17は、BPが呼び出す「サービス名」と、サービスが稼動している「サービス実行装置4のID」との対応関係を管理するものであり、管理者が設定する。
BP実行状態監視部13は、BP実行部11が実行するBPのインスタンスの実行状態を監視する。そして、BP実行状態監視部13は、サービス実行前にBP実行部11により作成されるサービス呼出通知、および、サービス実行後にサービス実行装置4により作成されるサービス応答通知を、それぞれ検知してその内容をBP実行状態受信部21にイベントとして送信する。
BP実行状態受信部21は、BP実行状態監視部13から通知されたイベントについて、そのイベントの内容が、サービス呼出通知であるときにはリソース割当部22へ、サービス応答通知であるときにはリソース解放部24へ、それぞれ転送する。リソース割当部22およびリソース解放部24は、それぞれ通知されたイベントに従い、BP実行状態管理テーブル26を更新する。
Figure 2009140079
表3のBP実行状態管理テーブル26は、イベントの特定情報(インスタンスID、BP名、要素ID、サービス名)と、そのイベントの「要素ID」のサービス呼び出しアクティビティからのサービス呼出通知によって呼び出されるサービスの実行に要する「リソース要求量」と、を対応づけて管理する。リソース割当部22は、BP実行状態管理テーブル26に対してレコードを追加し、リソース解放部24は、BP実行状態管理テーブル26からレコードを削除する。
なお、リソース割当部22は、BP実行状態管理テーブル26に追加するレコードの「リソース要求量」を計算するときに、サービススペックテーブル28と、前記したBPフロー格納部29とを参照する。
Figure 2009140079
表4のサービススペックテーブル28は、「サービス名」ごとに、過去の統計情報である「平均リソース使用量/件」と、サービス呼出通知の内容に応じて計算するための「リソース見積もり式/件」と、を対応づけて管理する。
「サービス名」は、BPフロー格納部29に格納されているBP定義より管理者が設定する。
「平均リソース使用量/件」は、実機による動作テストを実施した結果を、管理者が設定する。
「リソース見積もり式/件」は、サービス呼出通知によりサービスの必要とするリソースが変化する場合に、サービス呼出通知に対応するリソースを見積もる式であり、管理者が定義し入力する。
リソース割当量計算部23は、リソース割当部22により更新されたBP実行状態管理テーブル26のレコードをもとに、リソース割当部22からの指示により、サービス実行状態管理テーブル27を更新する。
Figure 2009140079
表5のサービス実行状態管理テーブル27は、サービス名と、初期リソース割当量と、リソース要求量と、リソース過不足と、リソース割当量と、を対応づけて管理する。
「サービス名」は、BP定義格納部16に格納されているBP定義から、管理者が設定する。
「初期リソース割当量」は、実機による動作テストを実施し管理者が設定する。
「リソース要求量」、「リソース過不足」、「リソース割当量」は、それぞれリソース割当量計算部23が計算して設定する。「リソース過不足」の値が正の場合、既に割り当てられている「初期リソース割当量」が、サービスの実行に要する「リソース要求量」に対して余っている。一方、「リソース過不足」の値が負の場合、既に割り当てられている「初期リソース割当量」が、サービスの実行に要する「リソース要求量」に対して不足している。
サービス実行装置4は、呼び出されるサービスの実行に要するリソースを、仮想計算機管理部31(図4参照)から割り当てられる。リソース分配部32は、サービス実行状態管理テーブル27の「リソース割当量」をもとに設定されたリソース管理テーブル36の「リソース割当量」を参照して、各サービス実行装置4にリソースを割り当てるよう、仮想計算機管理部31に指示する。これにより、各サービス実行装置4は、サービスの実行に要するリソースの確保を適切な量だけ受けることができ、そのリソースを活用して効率的にサービスを実行することができる。
Figure 2009140079
表6のリソース管理テーブル36は、サービス実行装置4のIDごとに、割り当てる「リソース割当量」を示す。ここでの「リソース割当量」は、一例として合計が100%となるCPU使用率が示されている。サービス実行装置4のIDは、管理者が設定する。「リソース割当量」は、リソース割当量計算部23からサービス実行状態管理テーブル27が更新されたときに、その更新された値が通知される。
図7(a)は、リソース割当部22が、サービス呼出通知のリソースを見積もる処理を示すフローチャートである。
まず、BP実行状態監視部13が送信したイベント通知(サービス呼出通知)を、ネットワーク9を介して受信する(S101)。サービス呼出通知は、「インスタンスID」、「BP名」、「要素ID」を含む。
次に、S101で受信したサービス呼出通知の「BP名」と「要素ID」とに対応するレコードをBPフロー格納部29から抽出し、そのレコードから「サービス名」を取り出す(S102)。そして、S102で取得した「サービス名」を持つレコードをサービススペックテーブル28から抽出する(S103)。
ここで、S103で抽出したレコードの「リソース見積もり式/件」が存在するか否かを判定する(S104)。存在するときには(S104,Yes)、S103で抽出したレコードの「リソース見積もり式/件」に対して、サービス呼出通知の内容を判定し、得られた結果を「リソース要求量」とする(S106)。存在しないときには(S104,No)、S103で抽出したレコードの「平均リソース使用量/件」の値を「リソース要求量」とする(S105)。
S101で受信したサービス呼出通知に関するレコードを、BP実行状態管理テーブル26に追加する(S107)。具体的には、S101で受信したサービス呼出通知(「インスタンスID」、「BP名」、「要素ID」)と、S102で取得した「サービス名」と、S105またはS106で計算した「リソース要求量」と、を対応づけるレコードを追加する。
そして、S107で追加したレコードについて、サービスへのリソース割当指示をするため、リソース割当量計算部23を呼び出す(S108)。
図7(b)は、リソース解放部24が、図7(a)で割り当てたリソースについて、サービス呼出応答により不要となったので、リソースの割当を解除する処理を示すフローチャートである。
まず、BP実行状態監視部13が送信したイベント通知(サービス呼出応答)を、ネットワーク9を介して受信する。サービス呼出応答は、「インスタンスID」、「BP名」、「要素ID」を含む(S201)。
次に、S201で受信したサービス呼出応答の「インスタンスID」と、「BP名」とに対応するレコードをBP実行状態管理テーブル26から抽出し、そのレコードを削除する(S202)。そして、サービスへのリソース割当解除指示をするため、リソース割当量計算部23を呼び出す(S203)。
図8〜図10は、リソース割当量計算部23が、サービスに割り当てるリソースを計算するフローチャートである。図8のフローチャートは、S108またはS203から呼び出されたときに実行される。図9,図10のフローチャートは、図8の各処理から呼ばれるサブルーチンである。
まず、リソース割当量計算部23の呼び出し時に渡される「サービス名」を取得する(S301)。S301で取得した「サービス名」のレコードをBP実行状態管理テーブル26から取り出し、取り出したレコードの「リソース要求量」の値の総和を計算し(S302)、その結果をサービス実行状態管理テーブル27のS301で取得した「サービス名」のレコードの「リソース要求量」に書き込む。
次に、サービス実行状態管理テーブル27のすべてのレコードについて、サービス実行状態管理テーブル27の「リソース過不足」を、「リソース過不足」=「初期リソース割当量」−「リソース要求量」により計算する(S303)。そして、サービス実行状態管理テーブル27のすべてのレコードについて、「リソース過不足」が負の値のものの総和を取り、その総和の絶対値をリソース不足分を示す変数「X」とする(S304)。
ここで、3種類の「リソース割当量」の計算法から1つの計算法を選択するための分岐を行う。
まず、未割当のリソースでリソース要求量をまかなえるとき(S305,Yes)、未割当のリソースでリソース要求量をまかなうように、サービス実行状態管理テーブル27の各レコードの「リソース割当量」を計算する(S306)。なお、S305は、判定式「X≦リソース未割当量」を満たすときに、Yesとなる。ここで、リソース未割当量とは、100%から「初期リソース割当量」の総和を引いたもので、リソース不足に備えて予め余らせておく未割当のリソースである。一方、未割当のリソースでリソース要求量をまかなえないとき(S305,No)、S307に進む。
次に、リソースの移動をしてリソース要求量をまかなえるとき(S307,Yes)、既に所定のサービス実行装置4に割り当てられたリソースを、別のサービス実行装置4に移動することで、リソース要求量をまかなうように、サービス実行状態管理テーブル27の各レコードの「リソース割当量」を計算する(S308)。なお、S307は、サービス実行状態管理テーブル27の「リソース要求量」の総和が全体のリソース量(100%)を下回るときに、Yesとなる。
一方、S307でNoなら、要求されたリソース全部はまかなえないものの、各サービス実行装置4へのリソース要求量の比率に応じ、サービス実行状態管理テーブル27の各レコードの「リソース割当量」を計算する(S309)。
以上、「リソース割当量」がいずれかの計算法で計算された後、サービス実行状態管理テーブル27のすべてのレコードについて、S301の「サービス名」から対応するサービス管理テーブル17の「サービス実行装置4のID」を取得し、取得した「サービス実行装置4のID」に対応するリソース管理テーブル36の「リソース割当量」について、更新されたサービス実行状態管理テーブル27の「リソース割当量」の値を書き込む(S310)。
そして、書き込まれたリソース管理テーブル36の「リソース割当量」に基づいて、リソース分配部32に対して、仮想計算機管理部31にリソース割当を行うように指示する(S311)。
図9は、S306の詳細を示すフローチャートである。
サービス実行状態管理テーブル27の各レコードについて順に選択し、選択したレコードの「リソース割当量」を設定するループを実行する(S3061〜S3065)。
選択したレコードの「リソース過不足」が負の場合(S3062,Yes)、レコードの「リソース要求量」をそのままレコードの「リソース割当量」に設定する。これにより、リソース要求量に対して初期リソース割当量が不足しているサービスに対して、リソース要求量分のリソースを確保する(S3063)。
選択したレコードの「リソース過不足」が負でない場合(S3062,No)、レコードの「初期リソース割当量」をそのままレコードの「リソース割当量」に設定する。これにより、初期リソース割当量分のリソースを確保する(S3064)。
図10(a)は、S308の詳細を示すフローチャートである。
まず、変数「Y」を計算する。変数「Y」は、サービスに割り当てられているが使用されないリソース量の総和を示す(S3081)。変数「Y」は、サービス実行状態管理テーブル27のすべてのレコードについて、「リソース過不足」の値が正のものの総和として計算される。
次に、変数「Z」を計算する。変数「Z」は、リソースが余っているサービスからリソースが足りないサービスへ、どの割合でリソースを移動するかを表す値である(S3082)。変数「Z」は、Xの絶対値(|X|)をもとに、計算式「Z=1−((|X|−リソース未割当量)/Y)」により、計算される。
ここで、サービス実行状態管理テーブル27の各レコードについて順に選択し、選択したレコードの「リソース割当量」を設定するループを実行する(S3083〜S3087)。
選択したレコードの「リソース過不足」が負の場合(S3084,Yes)、選択したレコードの「リソース要求量」をそのままレコードの「リソース割当量」に設定する。これにより、リソース要求量に対して初期リソース割当量が不足しているサービスに対して、リソース要求量分のリソースを確保する(S3085)。
選択したレコードの「リソース過不足」が負でない場合(S3084,No)、選択したレコードの「リソース要求量」+「リソース過不足」*Zを、レコードの「リソース割当量」に設定する。これにより、レコードに対応するサービスに割り当たっているが使用されないリソースの一部または全部を、リソースが不足しているサービスに移動する(S3086)。
図10(b)は、S309の詳細を示すフローチャートである。
まず、変数「Z」を計算する。変数「Z」は、要求するリソース量の何割をサービスに割り当てるかを表す(S3091)。具体的には、サービス実行状態管理テーブル27のすべてのレコードについて、「リソース要求量」の総和を計算し、計算式「Z=100%/「リソース要求量」の総和」により、変数「Z」を計算する。
そして、サービス実行状態管理テーブル27の各レコードについて順に選択し、選択したレコードの「リソース割当量」を設定するループを実行する(S3092〜S3094)。このループにおいて、選択したレコードの「リソース要求量」*Zを、「リソース割当量」に設定する(S3093)これにより、これにより要求された性能は出ないものの、どこか一カ所がボトルネックなり、処理が進まないといった事態が避けられる。
以下、フローチャートを用いて説明した各処理について、図6のBP定義を元にした実例を用いて詳細に説明する。
まず、サービス呼出通知内容のばらつきなどによりサービス実行装置4への負荷が増大したときに、未使用のリソースを割り当てることで、効率的にサービスを実行する例を説明する。
BP実行装置1は、ユーザ端末5からユーザ依頼を受け、BP定義をインスタンス化して実行する。このときのインスタンスIDは「#113」が割り振られ(表3参照)、処理が進行中だとする。
BP実行状態監視部13は、サービス「カード決済」312に対するサービス呼出通知のアクティビティ(要素304)を実行する前に、そのサービス呼出通知の内容がBP実行部11によって作成されたとき、そのサービス呼出通知をイベントとしてBP実行状態受信部21に通知する。このときサービス呼出通知には、呼び出すサービス「カード決済」312の特定情報に加え、インスタンスID「#113」、BP名「決済出荷BP」、要素ID「#5」が含まれる。
リソース割当部22は、イベントを受け(S101)、リソースの見積もりを実施する。サービススペックテーブル28のサービス名「カード決済」を含むレコードの「リソース見積もり式/件」は、「カードの種類について、「MY CB」なら1%、「MY Express」なら10%」である。そして、受信したイベント(サービス呼出通知)には、カードの種類が「MY Express」である旨が記述されているので、リソース要求量を1件あたり「10%」と計算する(S106)。
このリソース要求量「10%」は、表3のBP実行状態管理テーブル26のサービス呼出通知の内容であるインスタンスID「#113」、BP名「決済出荷BP」、要素ID「#5」、サービス名「カード決済」で特定されるレコードの「リソース要求量」列に書き込まれる(S107)。そして、リソースを要求するために、S101でのサービス名「カード決済」を通知して、リソース割当量計算部23にリソース割当を指示する(S108)。
表3のBP実行状態管理テーブル26、および、表5のサービス実行状態管理テーブル27は、S108から実行されるS301からS304まで完了した時点の例を示している。サービス実行状態管理テーブル27の「リソース過不足」(S303)を集計した変数「X」は−35%となり(S304)、リソース未割当量は「初期リソース割当量」の総和が70%であるため、30%となる。よって、S305でNoとなり、S307でYesとなるので、S308の計算法により、「リソース割当量」が計算される。
S308の計算法では、変数「Y」は15%となり(S3081)、変数「Z」は0.67となる(S3082)。そして、S3083からS3087までのループを実行することで、表5に示すサービス実行状態管理テーブル27の「リソース割当量」がそれぞれ計算される。この計算された「リソース割当量」に基づいて、サービスへリソースが割り当てられる(S310,S311)。
以上説明したように、サービス「カード決済」312の呼び出しが追加されたことにより、サービス「カード決済」312はリソース不足になるところであった。しかし、サービススペックテーブル28の「リソース見積もり式/件」を元にした高精度の「リソース要求量」の計算(S106)の結果により、未割当のリソースを融通することで、リソース不足を回避することができる。
また、サービス呼び出しアクティビティ実行前に、サービスへのリソース割当を実施するため、サービス呼出通知時には必要なリソース量が確保された状態で実行が開始でき、リソース割当のタイムラグによる一時的な処理効率の低下を回避できる。
一方、単純な方法である「平均リソース使用量/件」に処理件数を乗じる場合(S105)では、おおざっぱに計算された「リソース要求量」の精度が低いので、リソース不足が生じてしまう。例えば、表4のサービススペックテーブル28のサービス名「カード決済」に対応する「平均リソース使用量/件」の3%を参照した場合でも、本来要求するべきリソースが30%なのに対して、23%しか要求しないことになる。フローチャートの各ステップを実行すると、初期リソース割当量である25%が、サービス「カード決済」312に割り当てられる。よって、30%−25%=5%分のリソースが不足することになる。
次に、サービス実行装置4への負荷が増大したことで、システム全体のリソース不足が発生したときに、サービスの実行に必要なリソースを適切な比率で振り分けることにより、ボトルネックの発生(スループットの低下など)を抑制する例を説明する。まず、BP実行装置1が、ユーザ端末5からユーザ依頼の通知を受け、BP定義をインスタンス化して実行する。このときのインスタンスIDは「#113」が割り振られる。
Figure 2009140079
表7のサービス実行状態管理テーブル27は、サービス「カード決済」312のサービス呼出通知アクティビティ(要素304)の実行前で、S304まで完了した時点のデータ内容を示す。変数「X」は−40%(S304)、「リソース要求量」の総和は110%となるので、(S305,No)および(S307,No)により、S309の計算法が選択される。そして、S309の計算法では、変数「Z」は0.91となり(S3091)、ループ(S3092〜S3094)を実行すると、表7のサービス実行状態管理テーブル27の「リソース割当量」が得られる。
以上説明したように、サービス「カード決済」312の呼び出しが追加されたことにより、サービス「カード決済」312がリソース不足になったが、システム全体でリソースを融通することにより、一部のサービスの実行速度が極端に遅くなり、スループットが低下するなどといった事態を防ぐことができた。
一方、リソースの事前割当を行なって、同様のリソース不足になった場合は、ボトルネックが発生してしまう。つまり、事前割当がなされているサービス「代引配送」313による買い物の場合は正常に動作するが、事前割当がなされていないサービス「カード決済」312による買い物の場合はリソース不足によりBPの実行処理が2倍以上遅くなり、さらに未使用のリソースを活用できない。
さらに、現在のサービス実行装置4の負荷に応じてリソースを割り当てる方法でも、ボトルネックが発生してしまう。つまり、システム全体でリソース不足になった場合に、本来必要なリソース量に応じたリソースを振り分けることができず、サービス「カード決済」312で処理が滞留してしまう。
図11は、本実施形態のリソース割当方式の顕著な効果を示す説明図である。図11(a)は、各リソース割当方式について、時間軸におけるリソース割当量の変化を示すグラフである。
方式(1)は、本実施形態におけるサービス呼出通知の内容をもとにサービススペックテーブル28を用いた見積もり方式である。サービス呼出通知からサービス応答通知までのサービスの実行中に、必要分だけのリソースが割り当てられる。
方式(2)は、比較例として、サービスの実行に伴う負荷増大による、リソースの事後(実行後)割当方式である。負荷増大を検知するたびに、リソースが適宜追加されるので、グラフは階段状になる。
方式(3)は、比較例として、サービスの実行前(事前)割当として、割当可能なリソースのうち、最大分をあらかじめ割り当てる方式である。リソース割当量は、サービスの実行にかかわらず不変である。
方式(4)は、比較例として、サービスの実行前(事前)割当として、割当可能なリソースのうち、過去に使用された平均分をあらかじめ割り当てる方式である。リソース割当量は、サービスの実行にかかわらず不変である。
図11(b)は、図11(a)の各リソース割当方式について、2つの評価軸を元にした効果を比較する表である。以下に示すように、本実施形態の方式(1)は、他の方式に比べ、2つの評価軸ともに高評価であるという顕著な効果を有する。
まず、評価軸「リソース利用効率」は、サービスの実行中ではないとき(サービスの実行外)に、余分なリソースを割り当てないほど、良いと評価される。方式(1)(2)は、サービスの実行外にはリソースを割り当てないので、良い旨の評価である。一方、方式(4)は、サービスの実行外に少量のリソースが割り当てられているのでやや悪く、方式(3)は、サービスの実行外に多量(最大分)のリソースが割り当てられているので悪い。
次に、評価軸「サービス処理時間」は、サービスの実行中に、その実行に要するリソースが多く割り当てられているほど、短いと評価される。方式(1)(3)は、サービスの実行中に充分なリソースが割り当てられるので、短い旨の評価である。一方、方式(2)は、サービスの実行中にリソースが徐々に割り当てられるのでやや長く、方式(4)は、サービスの実行中にリソースが少量(平均量)しか割り当てられないので長い。
以上説明した本実施形態では、サービスに必要なリソース量を事前に見積もり、それを元にリソースを逐次配分する機構を用意する。サービスに必要なリソース量はサービス呼出通知ごとに刻々と変化するため、BPを適切なタイミングで監視する。
さらに、サービスを呼び出す際のサービス呼出通知により必要なリソース量が変化することがあるため、サービス呼出通知から必要なリソース量を計算する。サービスに必要なリソース量がもともと割り当てていたリソース量を上回った場合、対象のサービスにリソースを追加する。
これにより、サービスの実行に必要なリソースを事前に求め、その結果に基づいてサービスへリソースを割り振るため、リソース割当のタイムラグを防ぐとともに、リソース不足が発生した場合に、適切なリソースの追加を実行することができる。
本発明の一実施形態に関するBP実行システムを示す構成図である。 本発明の一実施形態に関するBP実行システムのBP実行装置を示す構成図である。 本発明の一実施形態に関するBP実行システムの運用管理装置を示す構成図である。 本発明の一実施形態に関するBP実行システムの仮想計算機実行装置を示す構成図である。 本発明の一実施形態に関するBP実行システムの機能を示す構成図である。 本発明の一実施形態に関するBP定義の一例を示す説明図である。 本発明の一実施形態に関するリソースの割当処理および解除処理を示すフローチャートである。 本発明の一実施形態に関するサービスに割り当てるリソースの計算処理を示すフローチャートである。 本発明の一実施形態に関するサービスに割り当てるリソースの計算処理を示すフローチャートである。 本発明の一実施形態に関するサービスに割り当てるリソースの計算処理を示すフローチャートである。 本発明の一実施形態に関するリソース割当方式の顕著な効果を示す説明図である。
符号の説明
1 BP実行装置
2 運用管理装置
3 仮想計算機実行装置
4 サービス実行装置
5 ユーザ端末
9 ネットワーク
11 BP実行部
12 BP定義読出部
13 BP実行状態監視部
16 BP定義格納部
17 サービス管理テーブル
21 BP実行状態受信部
22 リソース割当部
23 リソース割当量計算部
24 リソース解放部
26 BP実行状態管理テーブル
27 サービス実行状態管理テーブル
28 サービススペックテーブル
29 BPフロー格納部
31 仮想計算機管理部
32 リソース分配部
36 リソース管理テーブル

Claims (9)

  1. サービス実行装置が実行するサービスを呼び出すためのアクティビティを含むBP(Business Process)を実行するとともに、サービスを呼び出すためのサービス呼出通知、および、そのサービス呼出通知への応答であるサービス応答通知をイベントとして監視するBP実行装置と、
    前記サービス実行装置をリソースの動的割当が可能な仮想計算機として構築する仮想計算機実行装置と、
    各前記サービス実行装置へのリソース割当量を管理する運用管理装置と、を用いるBP実行システムにおけるリソースの運用管理方法であって、
    前記運用管理装置は、BP実行状態受信部、リソース割当部、リソース割当量計算部、および、リソース解放部を有し、
    前記BP実行状態受信部は、前記BP実行装置からイベントを受信したときに、前記サービス呼出通知のイベントを前記リソース割当部へ、前記サービス応答通知のイベントを前記リソース解放部へそれぞれ通知し、
    前記リソース割当部は、通知された前記サービス呼出通知の項目内容を、その項目内容を含む所定のリソース量見積もり式で評価することにより、通知された前記サービス呼出通知のサービスを実行するために要するリソース要求量を求め、
    前記リソース割当量計算部は、前記リソース割当部が計算したリソース要求量を前記サービス実行装置ごとに集計することで、各前記サービス実行装置に割り当てるリソース要求量を求め、前記仮想計算機実行装置に求めたリソース要求量分のリソース割当を要求し、
    前記リソース解放部は、通知された前記サービス応答通知に対応する前記サービス呼出通知をもとに前記リソース割当部が計算したリソース要求量分のリソース割当を解除する旨を、前記仮想計算機実行装置に要求することを特徴とする
    リソースの運用管理方法。
  2. 前記リソース割当部は、項目内容の種別毎にリソース量を特定する前記リソース量見積もり式をもとに、前記リソース要求量を求めることを特徴とする
    請求項1に記載のリソースの運用管理方法。
  3. 前記リソース割当部は、項目内容の数値と所定数との積によりリソース量を特定する前記リソース量見積もり式をもとに、前記リソース要求量を求めることを特徴とする
    請求項1に記載のリソースの運用管理方法。
  4. 前記リソース割当部は、サービスの呼び出し件数と所定数との積によりリソース量を特定する前記リソース量見積もり式をもとに、前記リソース要求量を求めることを特徴とする
    請求項1に記載のリソースの運用管理方法。
  5. 前記リソース割当量計算部は、どの前記サービス実行装置からも使用されていない前記仮想計算機実行装置の未使用リソースから、前記リソース要求量分のリソース割当を要求することを特徴とする
    請求項1ないし請求項4のいずれか1項に記載のリソースの運用管理方法。
  6. 前記リソース割当量計算部は、既に前記サービス実行装置に割り当てられたが、そのサービス実行装置へのリソース要求量を超過した余剰割当リソースから、前記リソース要求量分のリソース割当を要求することを特徴とする
    請求項1ないし請求項4のいずれか1項に記載のリソースの運用管理方法。
  7. 前記リソース割当量計算部は、所定の前記サービス実行装置に割り当てるリソース要求量を求めた後、その求めたリソース要求量が各前記サービス実行装置に割り当てるリソース要求量の総量における比率を計算し、求めたリソース要求量と計算した比率との積に相当するリソース要求量分のリソース割当を要求することを特徴とする
    請求項1ないし請求項4のいずれか1項に記載のリソースの運用管理方法。
  8. 請求項1ないし請求項7のいずれか1項に記載のリソースの運用管理方法を、前記運用管理装置に実行させるためのリソースの運用管理プログラム。
  9. サービス実行装置が実行するサービスを呼び出すためのアクティビティを含むBP(Business Process)を実行するとともに、サービスを呼び出すためのサービス呼出通知、および、そのサービス呼出通知への応答であるサービス応答通知をイベントとして監視するBP実行装置と、
    前記サービス実行装置をリソースの動的割当が可能な仮想計算機として構築する仮想計算機実行装置と、
    各前記サービス実行装置へのリソース割当量を管理する運用管理装置と、を用いるBP実行システムにおけるリソースの前記運用管理装置であって、
    前記運用管理装置は、BP実行状態受信部、リソース割当部、リソース割当量計算部、および、リソース解放部を有し、
    前記BP実行状態受信部は、前記BP実行装置からイベントを受信したときに、前記サービス呼出通知のイベントを前記リソース割当部へ、前記サービス応答通知のイベントを前記リソース解放部へそれぞれ通知し、
    前記リソース割当部は、通知された前記サービス呼出通知の項目内容を、その項目内容を含む所定のリソース量見積もり式で評価することにより、通知された前記サービス呼出通知のサービスを実行するために要するリソース要求量を求め、
    前記リソース割当量計算部は、前記リソース割当部が計算したリソース要求量を前記サービス実行装置ごとに集計することで、各前記サービス実行装置に割り当てるリソース要求量を求め、前記仮想計算機実行装置に求めたリソース要求量分のリソース割当を要求し、
    前記リソース解放部は、通知された前記サービス応答通知に対応する前記サービス呼出通知をもとに前記リソース割当部が計算したリソース要求量分のリソース割当を解除する旨を、前記仮想計算機実行装置に要求することを特徴とする
    リソースの運用管理装置。
JP2007313738A 2007-12-04 2007-12-04 リソースの運用管理方法、運用管理プログラム、および、運用管理装置 Pending JP2009140079A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007313738A JP2009140079A (ja) 2007-12-04 2007-12-04 リソースの運用管理方法、運用管理プログラム、および、運用管理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007313738A JP2009140079A (ja) 2007-12-04 2007-12-04 リソースの運用管理方法、運用管理プログラム、および、運用管理装置

Publications (1)

Publication Number Publication Date
JP2009140079A true JP2009140079A (ja) 2009-06-25

Family

ID=40870647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007313738A Pending JP2009140079A (ja) 2007-12-04 2007-12-04 リソースの運用管理方法、運用管理プログラム、および、運用管理装置

Country Status (1)

Country Link
JP (1) JP2009140079A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011198332A (ja) * 2010-03-24 2011-10-06 Fujitsu Ltd 仮想マシン管理プログラム及び仮想マシン管理装置
JP2013539891A (ja) * 2010-10-13 2013-10-28 ゼットティーイー (ユーエスエー) インコーポレイテッド マルチメディア・マルチパーティ・ピアリング(m2p2)のためのシステムおよび方法
JP2019101949A (ja) * 2017-12-07 2019-06-24 富士通株式会社 情報処理装置、情報処理システムおよびプログラム
JP2020173778A (ja) * 2019-04-11 2020-10-22 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド リソースの割り当て方法、装置、電子設備、コンピュータ可読媒体およびコンピュータプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011198332A (ja) * 2010-03-24 2011-10-06 Fujitsu Ltd 仮想マシン管理プログラム及び仮想マシン管理装置
JP2013539891A (ja) * 2010-10-13 2013-10-28 ゼットティーイー (ユーエスエー) インコーポレイテッド マルチメディア・マルチパーティ・ピアリング(m2p2)のためのシステムおよび方法
JP2019101949A (ja) * 2017-12-07 2019-06-24 富士通株式会社 情報処理装置、情報処理システムおよびプログラム
JP2020173778A (ja) * 2019-04-11 2020-10-22 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド リソースの割り当て方法、装置、電子設備、コンピュータ可読媒体およびコンピュータプログラム
US11146502B2 (en) 2019-04-11 2021-10-12 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for allocating resource
JP7127010B2 (ja) 2019-04-11 2022-08-29 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド リソースの割り当て方法、装置、電子設備、コンピュータ可読媒体およびコンピュータプログラム

Similar Documents

Publication Publication Date Title
US20170163507A1 (en) Resource manager
Jin et al. Towards optimized fine-grained pricing of IaaS cloud platform
US8701117B2 (en) Resource consumption template processing model
US8583799B2 (en) Dynamic cost model based resource scheduling in distributed compute farms
US9264376B2 (en) Reallocating resource capacity among resource pools in a cloud computing environment
US7953729B2 (en) Resource optimizations in computing utilities
JP2007148469A (ja) ビジネスプロセス定義を用いた事前リソース割り当て方法
US20130219068A1 (en) Predicting datacenter performance to improve provisioning
JP2004240671A (ja) 分散計算機の処理方法及びシステム
JP2007183883A (ja) 資源計画作成プログラム、該プログラムを記録した記録媒体、資源計画作成装置、および資源計画作成方法
US8423644B2 (en) Method and computer program product for resource planning
US10666570B2 (en) Computing infrastructure resource-workload management methods and apparatuses
Gutierrez-Garcia et al. Agent-based cloud bag-of-tasks execution
Aisopos et al. Resource management in software as a service using the knapsack problem model
Yao et al. Cutting your cloud computing cost for deadline-constrained batch jobs
Singh et al. Cloud resource management optimization: taxonomy and research challenges
JP2002024194A (ja) ジョブ分散処理方法および分散処理システム
JP4834622B2 (ja) ビジネスプロセス運用管理システム、方法、プロセス運用管理装置およびそのプログラム
JP2009140079A (ja) リソースの運用管理方法、運用管理プログラム、および、運用管理装置
Sadashiv et al. Broker-based resource management in dynamic multi-cloud environment
JP6183942B1 (ja) ポイント管理システムおよび制約判定装置
Chunlin et al. Resource scheduling with conflicting objectives in grid environments: Model and evaluation
Maciel Jr et al. Business-driven short-term management of a hybrid IT infrastructure
US20120054751A1 (en) Disposition determination technique
CN113312359B (zh) 一种分布式作业进度计算方法、装置和存储介质