JP2009134640A - リソース割当方法、リソース割当プログラム、および、運用管理装置 - Google Patents

リソース割当方法、リソース割当プログラム、および、運用管理装置 Download PDF

Info

Publication number
JP2009134640A
JP2009134640A JP2007311460A JP2007311460A JP2009134640A JP 2009134640 A JP2009134640 A JP 2009134640A JP 2007311460 A JP2007311460 A JP 2007311460A JP 2007311460 A JP2007311460 A JP 2007311460A JP 2009134640 A JP2009134640 A JP 2009134640A
Authority
JP
Japan
Prior art keywords
service
service execution
execution device
resource
called
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007311460A
Other languages
English (en)
Other versions
JP4523965B2 (ja
Inventor
Masahiko Tsuda
政彦 津田
康弘 ▲高▼橋
Yasuhiro Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007311460A priority Critical patent/JP4523965B2/ja
Priority to US12/043,544 priority patent/US20090144741A1/en
Publication of JP2009134640A publication Critical patent/JP2009134640A/ja
Application granted granted Critical
Publication of JP4523965B2 publication Critical patent/JP4523965B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5017Task decomposition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/503Resource availability

Abstract

【課題】BP処理システムの信頼性を向上させるように、BPから呼び出されるサービスを物理計算機のリソースに割り当てること。
【解決手段】運用管理装置1は、サービスごとの必要リソース量情報をBPごとに集計してBPごとの必要リソース量情報を求め、BPごとの必要リソース量情報と、サービス実行装置3ごとに利用可能なリソース量情報とを照合して、BPごとの必要リソース量情報が収まるリソース量を提供可能なサービス実行装置3を検索し、サービス実行装置3が検索されたときには、その検索されたサービス実行装置3にサービスを割り当て、サービス実行装置3が検索されなかったときには、サービスを複数台のサービス実行装置3に割り当てる。
【選択図】図1

Description

本発明は、リソース割当方法、リソース割当プログラム、および、運用管理装置に関する。
物理計算機のリソースを論理的に分割して、複数の計算機を使用するのと同等の効果を得られる仮想計算機技術が使われている。仮想計算機技術により、従来別々の物理計算機で実行していた業務を少数の物理計算機上の仮想計算機で実行することで、物理計算機数を集約することができる。特許文献1には、仮想計算機の負荷に応じて物理計算機のリソースを割り当てる技術が開示されている。
特開2002−202959号公報
なお、別々の物理計算機が実行する各サービスを、BP(Business Process)が定義するアクティビティから呼び出すというBP処理システムが提案されている。BPは、BPML(Business Process Modeling Language)などにより記述される。BP処理システムにおいてもBPから呼び出されるサービスを、仮想計算機で実行することにより、物理計算機数を集約することが求められる。
このようなBP処理システムに対して、従来のBPが考慮されていないリソース割り当て方法を使用した場合、BP処理システム全体の信頼性が低下してしまうというBP処理システム特有の課題がある。具体的には、あるBPから呼び出されるサービスが複数の物理計算機に跨ってリソースを割り当てられている場合、それら複数の計算機のうちの1台で障害が発生すると、BP全体の処理が継続できなくなってしまう。
例えばBP処理システムにおいて、物理計算機a1,a2があり、物理計算機a1上の仮想計算機で実行されるサービスs1と、物理計算機a2上の仮想計算機で実行されるサービスs2があるとする。サービスs1とs2の両方を呼び出す所定BPがあった場合、物理計算機a1、a2のいずれかで障害が発生すると、所定BPは処理が継続不可能になる。このように、信頼性が低下してしまう要因は、同一のBPから呼び出すサービスに対してリソースを割り当てる物理計算機の数が多いことである。
そこで、本発明は、前記した問題を解決し、BP処理システムの信頼性を向上させるように、BPから呼び出されるサービスを物理計算機のリソースに割り当てることを、主な目的とする。
前記課題を解決するために、本発明は、BP(Business Process)のアクティビティを実行するBP実行装置と、前記アクティビティから呼び出されるサービスを実行するサービス実行装置と、実行される前記サービスが利用する物理計算機資源である前記サービス実行装置のリソースを管理する運用管理装置と、を含めて構成されるBP処理システムによるリソース割当方法であって、
前記運用管理装置が、
BPのアクティビティとそのアクティビティが呼び出すサービスとの対応情報、呼び出されるサービスごとの必要リソース量情報、および、前記サービス実行装置ごとに利用可能なリソース量情報を記憶部から読み取り、
前記サービスごとの必要リソース量情報をBPごとに集計してBPごとの必要リソース量情報を求め、前記BPごとの必要リソース量情報と、前記サービス実行装置ごとに利用可能なリソース量情報とを照合して、前記BPごとの必要リソース量情報が収まるリソース量を提供可能な前記サービス実行装置を検索し、
前記サービス実行装置が検索されたときには、その検索された前記サービス実行装置から1台の前記サービス実行装置のリソースに対して、同じBPに属するアクティビティから呼び出されるサービスを割り当て、
前記サービス実行装置が検索されなかったときには、BPのアクティビティから呼び出されるサービスを必要リソース量が大きい順に選択し、前記サービス実行装置を提供可能なリソース量が大きい順に選択し、選択した前記サービス実行装置に対して、選択したサービスを割り当てる処理を繰りかえすことで、前記サービスを複数台の前記サービス実行装置に割り当てることを特徴とする。
その他の手段は、後記する。
本発明によれば、同じBPが呼び出すサービスを実行する物理計算機の台数が最小化されることで、BP処理システムの信頼性を向上させるように、BPから呼び出されるサービスを物理計算機のリソースに割り当てることができる。
図1(a)は、BP処理システムの構成図を示す。BP処理システムは、1台以上のBP実行装置2と、1台以上の運用管理装置1と、2台以上のサービス実行装置3と、がネットワーク8で接続されて構成される。運用管理装置1は、BP実行装置2に対してBPの実行を指示し、サービス実行装置3に対してサービスおよびそのサービスが使用するリソースの割当を指示する。リソースとは、サービス実行装置3の計算機資源であり、例えば、CPUやメモリなどの性能により定義される。BP実行装置2が実行するBPは、サービス実行装置3が実行するサービスを呼び出す。
さらに、運用管理装置1と、サービス実行装置3とは、運用管理装置1からサービス実行装置3の電源を制御するために、管理用ネットワーク9で接続される。なお、ネットワーク8と、管理用ネットワーク9とは、流れるデータの種別が異なるため、これらの各ネットワークに接続する各装置では、各ネットワークに接続するためのインタフェースを、ネットワークごとに別々に用意することが、望ましい。
図1(b)は、運用管理装置1の計算機資源を示す構成図である。物理計算機である運用管理装置1は、CPU41、ネットワークインタフェース42、主記憶装置43、および、二次記憶装置44を有する。ネットワークインタフェース42は、ネットワーク8に接続されている。主記憶装置43は、OS45が起動されており、OS45は後記する運用管理装置1の各処理部をCPU41に実行させるように制御する。なお、BP処理システムの他装置も、運用管理装置1と同様に、図1(b)に示す各計算機資源を備える物理計算機として構成される。
図2は、BP処理システムの機能を示す構成図である。運用管理装置1は、割当計画部11と、BP指示部12と、サービス指示部13と、電源制御指示部14と、を有する。
割当計画部11は、割当用マスタテーブル15aをもとに、割当用コピーテーブル15bを編集することで、サービスへのリソースの割り当て処理を計画する。
BP指示部12は、BP定義テーブル16a,16bの内容をもとにした実行用BP記憶部22の内容の更新を、ネットワーク8経由でBP管理部21に指示する。
サービス指示部13は、BP割当テーブル17a,17bおよびサービス割当テーブル18a,18bの内容をもとにした仮想計算機32上のサービスおよびリソースの割り当てを、ネットワーク8経由で仮想計算機制御部31に指示する。
電源制御指示部14は、管理用ネットワーク9を介して、電源制御部35に対してサービス実行装置3の電源オンオフを指示する。
運用管理装置1は、割当用マスタテーブル15aと、割当用コピーテーブル15bとを記憶する。割当用マスタテーブル15aは、BP定義テーブル16aと、BP割当テーブル17aと、サービス割当テーブル18aと、を有する。割当用コピーテーブル15bは、BP定義テーブル16bと、BP割当テーブル17bと、サービス割当テーブル18bと、を有する。割当用コピーテーブル15bは、割当用マスタテーブル15aから作成されたコピーであり、このコピーに対して編集が行われる。編集結果が正常に反映されたときには、割当用コピーテーブル15bの内容が割当用マスタテーブル15aへ反映される。
Figure 2009134640
表1に示すBP定義テーブル16a,16bは、BPIDと、アクティビティIDと、サービスIDと、必要リソース量と、割当先物理計算機IDと、を対応づけて記憶する。
BPIDは、BPを特定する。
アクティビティIDは、BPIDのBPを構成するアクティビティを特定する。
サービスIDは、アクティビティIDのアクティビティから呼び出されるサービスを特定する。
必要リソース量は、サービスIDのサービスを実行するために必要なサービス実行装置3のリソース量である。
割当先物理計算機IDは、サービスIDのサービスを割り当てたサービス実行装置3(物理計算機)を特定する。
Figure 2009134640
表2に示すBP割当テーブル17a,17bは、各BPから呼び出されるサービスの実行に必要なリソースの総和を管理する。
BPIDは、BPを特定するレコードの主キーである。
リソース量合計は、BPIDで示すBPから呼び出すサービスの実行に必要なリソースの合計である。この合計は、BP定義テーブル16a,16bのBPIDが同じレコードの必要リソース量の合計により求める。例えば、BPID=「1」の場合、「必要リソース量(アクティビティID)」と表記すると、「10(A1)」+「20(B1)」+「10(C1)」+「10(D1)」+「10(E1)」=60が、リソース量合計となる。
割当済フラグは、BPIDで示すBPに対してリソースが割り当てられているか(真を示すtrue)、否か(偽を示すfalse)を示す。
分散割当フラグは、BPIDで示すBPに割り当てられたリソースが複数台の物理計算機に分散されて割り当てられているか(true:分散割当とする)、1台の物理計算機に集中して割り当てられているか(false:集中割当とする)を示す。
Figure 2009134640
表3に示すサービス割当テーブル18a,18bは、物理計算機IDと、リソース量と、空きリソース量と、サービスリストと、を対応づけて記憶する。
物理計算機IDは、サービス実行装置3を特定する。
リソース量は、物理計算機IDの物理計算機における割当可能なリソースの総量を示す。
空きリソース量は、物理計算機IDの物理計算機におけるリソース量のうち、既に割り当てられたリソース量分だけ除いた残りのリソース量を示す。例えば、所定の物理計算機に「100」のリソース量があり、そのうち、「40」のリソース量が既に割り当てられたとすると、空きリソース量は「60」である。
サービスリストは、物理計算機IDの物理計算機に対して既に割り当てられたサービスの一覧である。表記「A(A1)」は、サービス「A」がアクティビティ「A1」によって呼び出される旨を示す。例えば、物理計算機「A」には、アクティビティ「A1,A2,B1」という3つのアクティビティによって呼び出されるサービスが示されている。そのサービスが使用するリソース量は、リソース量「100」−空きリソース量「60」=「40」である。
BP実行装置2は、BP管理部21と、実行用BP記憶部22と、BP実行部23と、を有する。
BP管理部21は、BP指示部12からの指示を受け、実行用BP記憶部22の内容を更新する。実行用BP記憶部22は、BPの処理の流れを定義するための部品であるアクティビティの組合せを記憶する。各アクティビティでは、サービスの呼び出しや条件分岐などを行う。
BP実行部23は、実行用BP記憶部22のBP情報に従ってサービスの呼び出しを行う。
サービス実行装置3は、仮想計算機制御部31と、仮想計算機32と、電源制御部35と、を有する。仮想計算機32は、サービス実行部33と、負荷監視部34と、を有する。
仮想計算機制御部31は、サービス指示部13からの指示命令を受け、仮想計算機32に対して、以下に示す指示内容を指示する。
・実行するサービス実行部33を割り当てる。
・リソースを割り当てる。割り当てるリソースの量は、サービス実行装置3の持つリソースを超えない範囲で、自由に設定することができる。
・仮想計算機32のリソース使用量を取得する。
仮想計算機32は、BP実行部23が実行するBPのアクティビティが呼び出す各サービスの実行に必要な必要リソース量を、サービス実行装置3が提供するリソースから割り当てる。そして、サービス実行部33を起動する。なお、仮想計算機32がサービス実行装置3から提供されるリソースは、時間経過に対して不変(固定)でもよいし、可変でもよい。
サービス実行部33は、仮想計算機32が割り当てるリソースを利用して、1つ以上のサービスを実行する。
負荷監視部34は、サービス実行部33で実行中のサービスが、そのサービスに割り当てられているリソースへ与えている負荷について、仮想計算機制御部31に定期的にアクセスすることにより、監視する。
電源制御部35は、電源制御指示部14からの電源オンオフの指示を受け、自装置であるサービス実行装置3の電源制御を行う。
図3は、2種類のサービスの割当方法を示す説明図である。BP実行部23は、BP「A」およびBP「B」を実行する。BP「A」は、アクティビティ「A1」→「A2」の順に実行する。BP「B」は、アクティビティ「B1」→「B2」→「B3」の順に実行する。なお、BPの一例として、条件分岐などがなく、各アクティビティが一定の順序で実行される構成で示したが、途中で処理を分岐したり、並列実行したりする構成でもよい。アクティビティ「A1」は、サービス実行装置3のサービス実行部33が実行するサービス「SA」を呼び出す。
まず、集中割当は、所定のBPに属する全アクティビティが呼び出すサービスが、同じ1つのサービス実行装置3に集中して割り当てられる旨を示す。例えば、BP「A」のアクティビティ「A1、A2」は、同じサービス実行装置3に割り当てられているサービス「SA、SB」を呼び出しているので、集中割当である。
一方、分散割当は、所定のBPに属する全アクティビティが呼び出すサービスが、複数のサービス実行装置3に分散して割り当てられる旨を示す。例えば、BP「B」のアクティビティ「B1、B2、B3」は、所定のサービス実行装置3に割り当てられているサービス「SA」と、別のサービス実行装置3に割り当てられているサービス「SB、SC」と、を呼び出すので、分散割当である。
BP処理システムの信頼性を高めるために、可能な限り少ないサービス実行装置3に依存すべきである。なぜなら、依存するサービス実行装置3が増えるほど、それらのサービス実行装置3のうち、1台でも故障すると、BPが実行できなくなってしまうからである。よって、分散割当よりは集中割当のほうが望ましいし、分散割当になったとしても、依存するサービス実行装置3の台数は、少ない方が望ましい。
図4は、割当計画部11が実行するリソース割り当て処理を示すフローチャートである。
まず、割当用コピーテーブル15bが作成済みでないときには(S101,No)、割当用マスタテーブル15aから割当用コピーテーブル15bへコピーする(S102)。具体的には、BP定義テーブル16aからBP定義テーブル16bへ、BP割当テーブル17aからBP割当テーブル17bへ、サービス割当テーブル18aからサービス割当テーブル18bへ、それぞれコピーする。なお、割当用コピーテーブル15bが作成済みであるとき(S101,Yes)とは、図4のフローチャートが他処理(後記する図6または図7)から呼び出される前に、前処理として既に作成されている旨を指す。
次に、BP割当テーブル17bを参照し、リソースを割り当てられていないBPから、BPのリソース量合計が大きい順に、割当対象BPとして選択するループ(S111〜S116)を実行する。このループを実行することで、割当対象BPの割当済フラグは、「false」から「true」へ更新される。リソース量合計が大きい順にBPを割り当てることで、リソースの空きが複数の物理計算機に断片化されることを抑制できる。
サービス割当テーブル18bを参照し、割当対象BPのリソース量合計を上回る空きリソース量を有する物理計算機を検索する(S112)。まず、S112の結果、集中割当ができる物理計算機が検索されなかったら(S113,No)、割当対象BPを複数台の物理計算機に分散割当する(S114)。具体的には、後記する図5の処理をサブルーチンとして呼び出す。
一方、S112の結果、1台以上の物理計算機が検索されたら(S113,Yes)、その物理計算機に対して割当対象BPを集中割当し(S115)、割当対象BPのループを終了する(S116)。
集中割当(S115)について、具体的には、検索された物理計算機から割当対象の物理計算機を所定のポリシ(詳細は後記)に従って特定し、特定した割当対象の物理計算機に割当対象BPを割り当てる。つまり、BP定義テーブル16bの割当対象BPを示すレコード内の割当先物理計算機ID列に、特定した割当対象の物理計算機のIDを書き込む。そして、サービス割当テーブル18bの特定した割当対象の物理計算機を示すレコード内のサービスリスト列に、割当対象BPのアクティビティおよびそのアクティビティから呼び出すサービスの一覧を書き込む。BP割当テーブル17bの割当対象BPに対応する分散割当フラグに「false」を設定する。
さらに、S114,S115で更新した割当用コピーテーブル15bの内容に従って、サービスにリソースを割り当てる(S121)。なお、この処理は、割当用コピーテーブル15bの内容をユーザに確認させ、ユーザからの許諾を得てから実行してもよい。サービスにリソースを割り当てる処理を実現するため、サービス指示部13は、仮想計算機制御部31を介して仮想計算機32に対し、仮想計算機32の使用するリソースを割り当てさせるとともに、サービス実行部33を起動し、割り当てた各サービスを割り当てたリソースを用いて実行させる。なお、既にサービス実行部33がサービスを実行していて、更新した割当用コピーテーブル15bにはその実行しているサービスが存在しないときには、そのサービスと、そのサービスが使用するリソースの割り当て解除を行う。
割当結果をもとに、割当用コピーテーブル15bから割当用マスタテーブル15aへ最新の割当状態を反映する(S122)。例えば、割当用コピーテーブル15bの内容が全て正常に割り当てられたときには、割当用マスタテーブル15aの内容は、割当用コピーテーブル15bのコピーとなる。一方、割当用コピーテーブル15bの内容の一部に、リソース不足などにより割当エラー(後記する図5のS209)が発生したときには、割当用マスタテーブル15aの内容は、その割当エラーにより割り当てられなかった割当用コピーテーブル15bの内容の書き込みは省略される。そして、割当用コピーテーブル15bは、不用になるので削除される。
未使用の物理計算機の電源をオフにする(S123)。具体的には、サービス割当テーブル18aのサービスリストを参照し、リソースの割り当てが行なわれていない物理計算機の電源をオフにして、省電力化を実行する。そのため、電源制御指示部14は、管理用ネットワーク9を経由して、リソースの割り当てが行われていない物理計算機の電源制御部35に対して、その物理計算機の電源オフを指示する。以上、図4の処理を一通り説明した。
なお、集中割当(S115)における物理計算機の選択ポリシは、例えば、以下の(1)または(2)のいずれかの方式により実現される。
(1)安定性を重視する方式:検索された物理計算機のうち、最大の空きリソースを有する物理計算機を特定する。これにより、各物理計算機の空きリソースが均等化されるので、リソースの使用量が多少増減しても、その変化を空きリソースが吸収するため、BP処理システムの安定性が向上する。つまり、リソースの使用量が一時的に割り当てたリソース量を超過しても、リソースの再割当が発生しにくくなるので、リソースの再割り当て回数を低減することができる。
(2)省電力を重視する方式:検索された物理計算機のうち、最小の空きリソースを有する物理計算機を特定する。これにより、特定の物理計算機に集中して割当が行われることにより、その他の物理計算機が使用されにくくなる。よって、その使用されない物理計算機の電源をオフにすることで、省電力を推進できる。
以下、各ポリシにおけるサービス割当テーブル18bの具体例を説明する。なお、説明を簡潔にするため、表中のサービスリスト列は、本来記憶されているサービスリストの代わりに、それらのサービスリストに属する各サービスの必要リソースの合計を記述する。まず、「16」のように数字が示されるときには、BPが呼び出すサービスが1台の物理計算機のリソース(この場合はリソース量が16であるリソース)に集中割当されている。一方、「20/24」のように分数で示される場合、BPが呼び出すサービス(必要リソース量合計が24のサービス)が複数台の物理計算機のリソース(リソース量が20であるリソースと、その他のリソース)に分散割当されている。
Figure 2009134640
表4は、(1)の方式でBPが呼び出すサービスが、それぞれ1台の物理計算機に割り当てられた例を示す。リソースがそれぞれ20の物理計算機A,B,C,D,Eに対して、必要リソースの合計がそれぞれ16,14,12,10,8,6,4のBPを割り当てる事例である。
Figure 2009134640
表5は、表4と同じ条件において、(2)の方式でBPが呼び出すサービスが、それぞれ1台の物理計算機に割り当てられた例を示す。表4と比較すると、リソースの割り当ては物理計算機A,B,Cに集中しており、逆に物理計算機Eはリソースを使用していない状態になっている。その結果、物理計算機Eの電源をオフにできる。
Figure 2009134640
表6は、(1)の方式で一部のBPが、複数台の物理計算機に割り当てられた例を示す。リソースがそれぞれ20の物理計算機A,B,C,D,E,Fに対して、必要リソースの合計がそれぞれ24,20,16,12,8のBPを割り当てる事例である。必要リソースが24のBPについては、1台の物理計算機だけではリソースが不足するため、割当可能な最少台数である2台の物理計算機A,Bに分散してリソースを割り当てる。その他のBPについては1台の物理計算機からリソースを割り当てる。
Figure 2009134640
表7は、表6と同じ条件において、(2)の方式で一部のBPが、複数台の物理計算機に割り当てられた例を示す。表6と比較すると、リソースの割り当ては特定の計算機に集中し、逆に物理計算機E,Fはリソースを使用していないので、電源オフにできる。さらに、各BPが使用する物理計算機は、1〜2台に収まっている。
図5は、割当計画部11が実行する、指定された割当対象BPを、なるべく少ない複数の物理計算機に分散割当する処理を示すフローチャートである。
まず、BP割当テーブル17bの割当対象BPに対応する分散割当フラグに「true」を設定する。(S201)。この設定により、割当対象BPが分散割当されていることがわかる。
次に、サービス割当テーブル18bに登録されている物理計算機から、空きリソースが大きい順に割当対象計算機として選択するループを実行する(S202〜S208)。
そして、BP定義テーブル16bを参照し、割当対象BPが呼び出すサービスのうちの未割当サービスから、必要リソース量が大きい順に、割当対象サービスとして選択するループを実行する(S203〜S206)。
割当対象サービスを割当対象計算機に割当可能なら(S204,Yes)、割当対象サービスを割当対象計算機に割り当てる(S205)。具体的には、BP定義テーブル16bにおいて、割当対象計算機の物理計算機IDを、割当対象サービスの割当先物理計算機列に設定する。サービス割当テーブル18bにおいて、割当対象サービスをサービスリスト列に追加し、空きリソース量から割当対象サービスの必要リソースを減算する。一方、割当対象サービスを割当対象計算機に割当不可能なら(S204,No)、割当対象サービスのループを抜け(breakする)、S207に進む。
ここで、割当対象BPの割当が完了したか否かを判定する(S207)。割当対象BPの割当が完了したとは、S205の割当処理により、割当対象BPが呼び出すサービスの全てが割り当てられたことを示す。
割当対象BPの割当が完了したなら(S207,Yes)、これ以上割当対象計算機のループを実行する必要がないので、そのループを抜けて図5のサブルーチンから呼出元へと戻る。
一方、割当対象BPの割当が完了していないなら(S207,No)、現在着目している割当対象計算機から別の物理計算機に割当対象を変更するため、ループを終了する(S208)。
そして、割当対象計算機のループ(S202〜S208)が完了してしまったときには、全ての物理計算機を順に調べたが、割当対象BPの割当が完了しなかったこととなるため、リソース不足でサービスが実行できない旨のエラーをユーザおよび呼出元に通知する(S209)。
Figure 2009134640
以下、図5のフローチャートを実行することで割当が済んだBPに対して、所定のイベント発生を契機に、リソースの再割当を行う手順を説明する。表8は、所定のイベントの一例として、3つのイベントを例示する表である。イベント(1)(2)はサービスの負荷変動に起因するイベントを示し、イベント(3)はBPの構成変更に起因するイベントを示す。リソースの再割当は、イベント対象のBP(以下、再割当対象BPとする)にのみ行われ、それ以外のBPは特に影響しない。
なお、イベント監視の契機は、常時(定期的)としてもよいし、運用管理装置1からの問い合わせメッセージの受信時としてもよいし、管理者からの指示(監視開始指示から監視終了指示までの期間)としてもよい。また、イベント監視結果の通知は、閾値の範囲内であるなどの正常値のときには省略してもよいし、正常値のときにも通知することとしてもよい。
図6(a)は、割当計画部11が実行するイベント(1)の再割当処理を示すフローチャートである。このフローチャートを実行することで、リソース不足が発生した再割当対象BPは、再割当されたリソースを利用して、BPを継続して実行することができる。
まず、S102と同様に、割当用マスタテーブル15aから割当用コピーテーブル15bへコピーする(S301)。そして、再割当対象BPから呼び出されたサービスについて、割当用コピーテーブル15bから割り当てに関する情報を削除して、再割当対象BPの割当解除(S302)を行う。具体的には、再割当対象BPについて、BP定義テーブル16bの割当先物理計算機列を空白とし、サービス割当テーブル18bのサービスリスト列から再割当対象BPが呼び出すサービスを削除し、割当済フラグを「true」から「false」に戻す。これにより、再割当対象BPから呼び出すサービスは、リソースが未割当の状態に戻る。
そして、再割当対象BPの分散割当(S303)を行うため、再割当対象BPを割当対象BPとして、図5のサブルーチンを呼び出す。その後、S121と同様に、更新した割当用コピーテーブル15bの内容に従って、サービスにリソースを割り当てる(S311)。S122と同様に、割当結果をもとに、割当用コピーテーブル15bから割当用マスタテーブル15aへ最新の割当状態を反映する(S312)。
図6(b)は、割当計画部11が実行するイベント(2)の再割当処理を示すフローチャートである。このフローチャートを実行することで、分散割当されていた再割当対象BPは、集中割当されることにより、信頼性が向上する。
図6(b)の各処理は、図6(a)の各処理と同等である。S301はS321に、S302はS322に、S303はS323に、S311はS331に、S312はS332に、それぞれ対応する。
S303とS323との違いは、再割当を分散割当するか(S303)、集中割当するか(S323)である。つまり、S323では、図5のサブルーチンを呼び出す代わりに、図4の処理を呼び出す。なお、S321で割当用コピーテーブル15bを作成した後に呼び出された図4では、割当用コピーテーブル15bの作成処理は、省略される(S101,Yes)。さらに、図4の集中割当(S115)におけるポリシは、再割当の回数を減らす(1)安定性重視が望ましいが、(2)省電力重視でもよい。
図7は、割当計画部11が実行するイベント(3)の再割当処理を示すフローチャートである。このフローチャートは、BP定義テーブル16bの再割当対象BPのアクティビティに対して、行が追加または削除されたときに、実行される。
まず、S102と同様に、割当用マスタテーブル15aから割当用コピーテーブル15bへコピーする(S401)。
次に、再割当対象BPが呼び出すサービスについて、集中割当するか、分散割当するかを特定する。具体的には、BP割当テーブル17bの分散割当フラグより構成変更前の再割当対象BPが集中割当されており(S411,Yes)、かつ、構成変更前に割り当てられている同じ物理計算機に対して構成変更後の再割当対象BPも追加的に集中割当が可能なら(S412,Yes)、再割当対象BPを集中割当する。一方、S411またはS412のうちの少なくとも一方の条件を満たさないなら、再割当対象BPを分散割当する。
再割当対象BPを集中割当する場合(S411,S412ともにYes)、再割当対象BPについて、変更前から変更後へのアクティビティおよびそのアクティビティが呼び出すサービスの変更分(追加分、削除分)を、BP定義テーブル16bから抽出する(S413)。そして、BP定義テーブル16bで特定したサービスに合わせて、サービス割当テーブル18bのサービスリスト列を整合させる(S414)。ここで、再割当対象BPが呼び出すサービスの割当先物理計算機に対して、サービスの削除分を割当用コピーテーブル15bから削除し、サービスの追加分を割当用コピーテーブル15bに追加する。
再割当対象BPを分散割当する場合(S411,S412のいずれかがNo)、S302と同様に再割当対象BPの割当解除(S421)し、S303と同様に再割当対象BPを分散割当する(S422)。
そして、S121と同様に、更新した割当用コピーテーブル15bの内容に従って、サービスにリソースを割り当てる(S431)。S122と同様に、割当結果をもとに、割当用コピーテーブル15bから割当用マスタテーブル15aへ最新の割当状態を反映する(S432)。
図8は、図3に示す変更前のBPの割当構成からのBP構成の変更後を示す説明図である。BP構成の変更により、BP「A」が呼び出すアクティビティ「A1,A2」に対して、新たにアクティビティ「A3,A4」が追加されている。図8(a)は、再割当対象BPを集中割当する例を、図8(b)は、再割当対象BPを分散割当する例を、それぞれ示す。
まず、図8(a)では、集中割当が可能(S412,Yes)なので、既に割当が済んでいるアクティビティ「A1,A2」と、新たに割当を行うアクティビティ「A3,A4」とが、同じ物理計算機上のリソースを利用する。よって、アクティビティ「A1,A2」から呼び出されるサービスSA,SBは、割当を解除する必要がなく、継続的に利用可能である。
一方、図8(b)では、集中割当が不可能(S412,No)なので、既に割当が済んでいるアクティビティ「A1,A2」と、新たに割当を行うアクティビティ「A3,A4」とが、別々の物理計算機上のリソースを利用する。アクティビティ「A1,A2」から呼び出されるサービスSA,SBは、割当がいったん解除される。
図9は、サービスをリソースに割り当てた結果をユーザに提示するGUI(Graphical User Interface)画面を示す画面図である。この画面図は、割当編集欄901と、割当ポリシ選択欄902と、操作選択欄903と、をユーザに表示させると共に、ユーザからの入力を受け付ける。
割当編集欄901は、サービス実行装置3を示すコンピュータアイコン「P1,P2,P3」と、アクティビティアイコン「A1,A2,B1,B2,B3,C1」と、を表示し、これらのアイコンをクリックにより選択可能にする。なお、コンピュータアイコン「P3」は、アクティビティが割り当てられていないので、省電力のために電源がオフになっている。
コンピュータアイコン下部には、そのコンピュータが有するリソース量に比例した大きさのリソース矩形が設定され、このリソース矩形内に配置されたアクティビティアイコンが、そのコンピュータに割り当てられたサービスを呼び出すアクティビティである。一方、「未割当」矩形内のアクティビティアイコン「C1」は、まだサービス実行装置3に割り当てられていない旨を示す。未割当のアクティビティアイコンは、リソース矩形内にドラッグ&ドロップすることで、そのリソース矩形に対応するサービス実行装置3に割り当てられる。
アクティビティアイコンは、属するBPごとに異なる形状であり、その大きさは呼び出すサービスの必要リソース量に比例する。例えば、コンピュータアイコン「P1」には、アクティビティアイコン「A1,A2,B1」が割り当てられているので、リソース矩形の空きスペースは少ない。ユーザは、これらのアイコンを見ることにより、「A1,A2」を含むBPは「P1」のサービス実行装置3に集中割当され、「B1,B2,B3」を含むBPは「P1,P2」のサービス実行装置3に分散割当されていることを、直感的に知ることができる。
割当ポリシ選択欄902は、「安定性重視」または「省電力重視」を択一的に選択させる。この選択結果は、集中割当(S115)における物理計算機の選択ポリシに反映される。
操作選択欄903は、割当編集欄901を編集するための指示を行うボタン群が配置されている。まず、割当編集欄901に表示されるアクティビティは、あらかじめ編集されたBPのアクティビティが読み込まれた(インポートされた)ものである。なお、BP編集ツール(図示省略、テキストエディタや、専用のGUIエディタなど)は、BPに含まれる各アクティビティの実行順などを、ユーザに編集させる。
「BPの読み込み」ボタンをクリックすると、読み込み対象のBPを選択するダイアログが表示され、そのダイアログを介してユーザから選択されたBPが、読み込み対象のBPとなる。そして、読み込み対象のBP(編集済み)を読み込むことにより、読み込んだBPのアクティビティアイコンを、割当編集欄901に表示する。なお、新規に読み込んだBPのアクティビティや、編集して読み込んだBPの前回読み込み時との差分のアクティビティについては、そのアクティビティアイコンが「未割当」領域に出現する。
「BPの削除」ボタンをクリックすると、「BPの読み込み」ボタンで読み込まれたBPのリストが表示され、そのリストからユーザが選択したBPが、削除対象のBPとなる。そして、削除対象のBPを削除することにより、削除対象のBPのアクティビティアイコンが、割当編集欄901から削除される。なお、削除対象のBPを選択する別の方法として、割当編集欄901から選択したアクティビティアイコンのアクティビティが属するBPを、削除対象のBPとしてもよい。
割当編集欄901からコンピュータアイコンを選択してから「計算機の電源オン」ボタンをクリックすると、その計算機の電源がオンになる。
割当編集欄901からコンピュータアイコンを選択してから「計算機の電源オフ」ボタンをクリックすると、その計算機の電源がオフになる。
以上説明した本実施形態によれば、同一のBPから呼び出すサービスは、可能な限り同一の物理計算機からリソースを割り当てることで、物理計算機の障害によるBP処理への影響を最小に抑え、BP処理システムの信頼性を向上させることができる。よって、物理計算機のうちの1台でも障害が発生した場合にBPの中のアクティビティが実行できなくなって、BP処理がそこで止まってしまうという障害を、抑制することができる。
本発明の一実施形態に関するBP処理システムを示す構成図である。 本発明の一実施形態に関するBP処理システムの機能を示す構成図である。 本発明の一実施形態に関する2種類のサービスの割当方法を示す説明図である。 本発明の一実施形態に関するリソース割り当て処理を示すフローチャートである。 本発明の一実施形態に関する分散割当する処理を示すフローチャートである。 本発明の一実施形態に関するイベント(1)(2)の再割当処理を示すフローチャートである。 本発明の一実施形態に関するイベント(3)の再割当処理を示すフローチャートである。 本発明の一実施形態に関する変更前のBPの割当構成からのBP構成の変更後を示す説明図である。 本発明の一実施形態に関するサービスをリソースに割り当てた結果を示す画面図である。
符号の説明
1 運用管理装置
2 BP実行装置
3 サービス実行装置
11 割当計画部
12 BP指示部
13 サービス指示部
14 電源制御指示部
15a 割当用マスタテーブル
15b 割当用コピーテーブル
16 BP定義テーブル
17 BP割当テーブル
18 サービス割当テーブル
21 BP管理部
22 実行用BP記憶部
23 BP実行部
31 仮想計算機制御部
32 仮想計算機
33 サービス実行部
34 負荷監視部
35 電源制御部

Claims (9)

  1. BP(Business Process)のアクティビティを実行するBP実行装置と、前記アクティビティから呼び出されるサービスを実行するサービス実行装置と、実行される前記サービスが利用する物理計算機資源である前記サービス実行装置のリソースを管理する運用管理装置と、を含めて構成されるBP処理システムによるリソース割当方法であって、
    前記運用管理装置が、
    BPのアクティビティとそのアクティビティが呼び出すサービスとの対応情報、呼び出されるサービスごとの必要リソース量情報、および、前記サービス実行装置ごとに利用可能なリソース量情報を記憶部から読み取り、
    前記サービスごとの必要リソース量情報をBPごとに集計してBPごとの必要リソース量情報を求め、前記BPごとの必要リソース量情報と、前記サービス実行装置ごとに利用可能なリソース量情報とを照合して、前記BPごとの必要リソース量情報が収まるリソース量を提供可能な前記サービス実行装置を検索し、
    前記サービス実行装置が検索されたときには、その検索された前記サービス実行装置から1台の前記サービス実行装置のリソースに対して、同じBPに属するアクティビティから呼び出されるサービスを割り当て、
    前記サービス実行装置が検索されなかったときには、BPのアクティビティから呼び出されるサービスを必要リソース量が大きい順に選択し、前記サービス実行装置を提供可能なリソース量が大きい順に選択し、選択した前記サービス実行装置に対して、選択したサービスを割り当てる処理を繰りかえすことで、前記サービスを複数台の前記サービス実行装置に割り当てることを特徴とする
    リソース割当方法。
  2. 前記サービスを1台の前記サービス実行装置に割り当てる工程は、検索された前記サービス実行装置のうち、提供可能なリソース量が最も大きいサービス実行装置に対して、サービスを割り当てることを特徴とする
    請求項1に記載のリソース割当方法。
  3. 前記サービスを1台の前記サービス実行装置に割り当てる工程は、検索された前記サービス実行装置のうち、提供可能なリソース量が最も小さいサービス実行装置に対して、サービスを割り当てることを特徴とする
    請求項1に記載のリソース割当方法。
  4. 前記運用管理装置は、さらに、前記サービスを割り当てる工程の結果、サービスが割り当てられなかった前記サービス実行装置の電源をオフにするよう制御することを特徴とする
    請求項1ないし請求項3のいずれか1項に記載のリソース割当方法。
  5. 前記運用管理装置は、さらに、前記サービスを割り当てる工程の後、1台の前記サービス実行装置に割り当てされたサービスへの負荷が上昇する事象を検知すると、負荷が上昇したサービスを呼び出すBPから呼び出されるサービスについて、割り当てをいったん解除した後、複数台の前記サービス実行装置に対して割り当てることを特徴とする
    請求項1ないし請求項4のいずれか1項に記載のリソース割当方法。
  6. 前記運用管理装置は、さらに、前記サービスを割り当てる工程の後、複数台の前記サービス実行装置に割り当てされたサービスへの負荷が下降する事象を検知すると、負荷が下降したサービスを呼び出すBPから呼び出されるサービスについて、割り当てをいったん解除した後、1台の前記サービス実行装置に対して割り当てることを特徴とする
    請求項1ないし請求項4のいずれか1項に記載のリソース割当方法。
  7. 前記運用管理装置は、さらに、前記サービスを割り当てる工程の後、割り当てたサービスを呼び出すBPへの構成変更を検知すると、構成変更されたBPが呼び出すサービスが割り当てられている前記サービス実行装置に対して、構成変更により追加されたアクティビティが呼び出すサービスを割当可能か否かを判定し、
    割当可能なら、その前記サービス実行装置に対して追加されたアクティビティが呼び出すサービスを追加し、
    割当不可能なら、構成変更されたBPが呼び出すサービスの割り当てをいったん解除した後、複数台の前記サービス実行装置に対して割り当てることを特徴とする
    請求項1ないし請求項4のいずれか1項に記載のリソース割当方法。
  8. 請求項1ないし請求項7のいずれか1項に記載のリソース割当方法を、コンピュータに実行させるためのリソース割当プログラム。
  9. BP(Business Process)のアクティビティを実行するBP実行装置と、前記アクティビティから呼び出されるサービスを実行するサービス実行装置と、実行される前記サービスが利用する物理計算機資源である前記サービス実行装置のリソースを管理する運用管理装置と、を含めて構成されるBP処理システムに用いられる前記運用管理装置であって、
    BPのアクティビティとそのアクティビティが呼び出すサービスとの対応情報、呼び出されるサービスごとの必要リソース量情報、および、前記サービス実行装置ごとに利用可能なリソース量情報を記憶する記憶部と、
    前記サービスごとの必要リソース量情報をBPごとに集計してBPごとの必要リソース量情報を求め、前記BPごとの必要リソース量情報と、前記サービス実行装置ごとに利用可能なリソース量情報とを照合して、前記BPごとの必要リソース量情報が収まるリソース量を提供可能な前記サービス実行装置を検索し、
    前記サービス実行装置が検索されたときには、その検索された前記サービス実行装置から1台の前記サービス実行装置のリソースに対して、同じBPに属するアクティビティから呼び出されるサービスを割り当て、
    前記サービス実行装置が検索されなかったときには、BPに属するアクティビティから呼び出されるサービスを必要リソース量が大きい順に選択し、前記サービス実行装置を提供可能なリソース量が大きい順に選択し、選択した前記サービス実行装置に対して、選択したサービスを割り当てる処理を繰りかえすことで、前記サービスを複数台の前記サービス実行装置に割り当てる割当計画部と、を有することを特徴とする
    運用管理装置。
JP2007311460A 2007-11-30 2007-11-30 リソース割当方法、リソース割当プログラム、および、運用管理装置 Expired - Fee Related JP4523965B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007311460A JP4523965B2 (ja) 2007-11-30 2007-11-30 リソース割当方法、リソース割当プログラム、および、運用管理装置
US12/043,544 US20090144741A1 (en) 2007-11-30 2008-03-06 Resource allocating method, resource allocation program, and operation managing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007311460A JP4523965B2 (ja) 2007-11-30 2007-11-30 リソース割当方法、リソース割当プログラム、および、運用管理装置

Publications (2)

Publication Number Publication Date
JP2009134640A true JP2009134640A (ja) 2009-06-18
JP4523965B2 JP4523965B2 (ja) 2010-08-11

Family

ID=40677119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007311460A Expired - Fee Related JP4523965B2 (ja) 2007-11-30 2007-11-30 リソース割当方法、リソース割当プログラム、および、運用管理装置

Country Status (2)

Country Link
US (1) US20090144741A1 (ja)
JP (1) JP4523965B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012066640A1 (ja) * 2010-11-16 2012-05-24 株式会社日立製作所 計算機システム、マイグレーション方法及び管理サーバ
JP2013073406A (ja) * 2011-09-27 2013-04-22 Toshiba Corp サービス運用装置、サービス運用プログラム、サービス運用システム
JP2013541093A (ja) * 2010-09-30 2013-11-07 アマゾン テクノロジーズ インコーポレイテッド 専用実装リソースを用いる仮想リソース費用追跡
JP2016181092A (ja) * 2015-03-24 2016-10-13 日本電気株式会社 割り当て装置、割り当て方法、割り当てプログラム、及び、通信ネットワーク装置
US9722866B1 (en) 2011-09-23 2017-08-01 Amazon Technologies, Inc. Resource allocation to reduce correlated failures
US10013662B2 (en) 2010-09-30 2018-07-03 Amazon Technologies, Inc. Virtual resource cost tracking with dedicated implementation resources
US11106479B2 (en) 2010-09-30 2021-08-31 Amazon Technologies, Inc. Virtual provisioning with implementation resource boundary awareness
JP2021196922A (ja) * 2020-06-16 2021-12-27 株式会社日立製作所 計算機システム及び計算機システムの運用管理方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352868B2 (en) * 2008-06-27 2013-01-08 Google Inc. Computing with local and remote resources including user mode control
US20090328036A1 (en) * 2008-06-27 2009-12-31 Oqo, Inc. Selection of virtual computing resources using hardware model presentations
US9990114B1 (en) * 2010-12-23 2018-06-05 Oracle International Corporation Customizable publication via multiple outlets
US9639273B2 (en) * 2011-01-31 2017-05-02 Nokia Technologies Oy Method and apparatus for representing content data
US8826135B1 (en) * 2011-06-30 2014-09-02 Amazon Technologies, Inc. Media player social network integration
US10250453B1 (en) * 2013-01-23 2019-04-02 Intuit Inc. System for supporting a multi-tenant data architecture
US9823813B2 (en) * 2013-03-15 2017-11-21 Salesforce.Com, Inc. Apparatus and methods for performing an action on a database record
US9529488B2 (en) * 2013-03-15 2016-12-27 Salesforce.Com, Inc. Systems and methods for creating custom actions
US9544307B2 (en) 2014-10-29 2017-01-10 Salesforce.Com, Inc. Providing a security mechanism on a mobile device
US10528211B2 (en) * 2015-10-08 2020-01-07 Salesforce.Com, Inc. Computing systems and processes for simultaneous co-development of dashboard interfaces
CN107453840B (zh) * 2016-05-30 2021-08-10 北京三星通信技术研究有限公司 一种资源的调度方法和设备
US10474501B2 (en) * 2017-04-28 2019-11-12 Databricks Inc. Serverless execution of code using cluster resources

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793262A (ja) * 1993-09-27 1995-04-07 Nec Corp アプリケーションツール実行管理システム
JPH09185589A (ja) * 1996-01-05 1997-07-15 Toshiba Corp 情報処理システムと情報処理システムの省電力方法
JPH1027167A (ja) * 1996-07-12 1998-01-27 Hitachi Ltd 並列計算機の負荷分散方法
JPH1027109A (ja) * 1996-07-10 1998-01-27 Nippon Telegr & Teleph Corp <Ntt> 資源割当て方法
JPH1115799A (ja) * 1997-06-26 1999-01-22 Hitachi Ltd 並列処理システム
JP2003006175A (ja) * 2001-06-26 2003-01-10 Hitachi Ltd プロセス実行時のプログラム動作特性に基づくプロセススケジューリング方法及びこれを用いたプログラム及びデータ処理装置
WO2005062176A1 (ja) * 2003-12-18 2005-07-07 Club It Corporation サーバ・クライアント・システム、負荷分散装置、負荷分散方法および負荷分散プログラム
JP2005309644A (ja) * 2004-04-20 2005-11-04 Hitachi Ltd リソース制御方法及びそのシステム
JP2007052542A (ja) * 2005-08-16 2007-03-01 Nomura Research Institute Ltd 負荷分散処理システム及び装置
JP2007199811A (ja) * 2006-01-24 2007-08-09 Hitachi Ltd プログラム制御方法、計算機およびプログラム制御プログラム
JP2007272297A (ja) * 2006-03-30 2007-10-18 Nec Corp オンデマンドクライアントサービスシステム、その管理方法、及びプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04195577A (ja) * 1990-11-28 1992-07-15 Hitachi Ltd マルチプロセッサにおけるタスクスケジューリング方式
JP3259620B2 (ja) * 1995-12-21 2002-02-25 株式会社日立製作所 資源割り当て方法
WO2001037075A1 (fr) * 1999-11-16 2001-05-25 Seiko Epson Corporation Systeme d'imprimante, procede de commande d'imprimante et support d'enregistrement
US6957435B2 (en) * 2001-04-19 2005-10-18 International Business Machines Corporation Method and apparatus for allocating processor resources in a logically partitioned computer system
US6952828B2 (en) * 2001-09-26 2005-10-04 The Boeing Company System, method and computer program product for dynamic resource management
US7266823B2 (en) * 2002-02-21 2007-09-04 International Business Machines Corporation Apparatus and method of dynamically repartitioning a computer system in response to partition workloads
JP2003271401A (ja) * 2002-03-18 2003-09-26 Fujitsu Ltd 負荷監視機能を有するマイクロプロセッサ
JP2004171234A (ja) * 2002-11-19 2004-06-17 Toshiba Corp マルチプロセッサシステムにおけるタスク割り付け方法、タスク割り付けプログラム及びマルチプロセッサシステム
US7594231B2 (en) * 2003-07-10 2009-09-22 International Business Machines Corporation Apparatus and method for assuring recovery of temporary resources in a logically partitioned computer system
US7877754B2 (en) * 2003-08-21 2011-01-25 International Business Machines Corporation Methods, systems, and media to expand resources available to a logical partition
CA2559593C (en) * 2004-03-13 2013-12-31 Cluster Resources, Inc. System and method of co-allocating a reservation spanning different compute resources types
US7530071B2 (en) * 2004-04-22 2009-05-05 International Business Machines Corporation Facilitating access to input/output resources via an I/O partition shared by multiple consumer partitions
US7269652B2 (en) * 2004-10-18 2007-09-11 International Business Machines Corporation Algorithm for minimizing rebate value due to SLA breach in a utility computing environment
US7613897B2 (en) * 2005-03-30 2009-11-03 International Business Machines Corporation Allocating entitled processor cycles for preempted virtual processors
US7954106B2 (en) * 2005-12-19 2011-05-31 British Telecommunications Public Limited Company Estimating resource usage system for allocating resources to tasks based upon the rating value of tasks and resources mapping
US8117611B2 (en) * 2006-03-01 2012-02-14 International Business Machines Corporation Method, system, and program product for deploying a platform dependent application in a grid environment
US8072633B2 (en) * 2006-03-31 2011-12-06 Konica Minolta Laboratory U.S.A., Inc. Print shop management method and apparatus for printing documents using a plurality of devices
US7724389B2 (en) * 2006-09-28 2010-05-25 Konica Minolta Systems Laboratory, Inc. Method for printing mixed color and black and white documents and for recovering from interruptions
US8205205B2 (en) * 2007-03-16 2012-06-19 Sap Ag Multi-objective allocation of computational jobs in client-server or hosting environments

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793262A (ja) * 1993-09-27 1995-04-07 Nec Corp アプリケーションツール実行管理システム
JPH09185589A (ja) * 1996-01-05 1997-07-15 Toshiba Corp 情報処理システムと情報処理システムの省電力方法
JPH1027109A (ja) * 1996-07-10 1998-01-27 Nippon Telegr & Teleph Corp <Ntt> 資源割当て方法
JPH1027167A (ja) * 1996-07-12 1998-01-27 Hitachi Ltd 並列計算機の負荷分散方法
JPH1115799A (ja) * 1997-06-26 1999-01-22 Hitachi Ltd 並列処理システム
JP2003006175A (ja) * 2001-06-26 2003-01-10 Hitachi Ltd プロセス実行時のプログラム動作特性に基づくプロセススケジューリング方法及びこれを用いたプログラム及びデータ処理装置
WO2005062176A1 (ja) * 2003-12-18 2005-07-07 Club It Corporation サーバ・クライアント・システム、負荷分散装置、負荷分散方法および負荷分散プログラム
JP2005309644A (ja) * 2004-04-20 2005-11-04 Hitachi Ltd リソース制御方法及びそのシステム
JP2007052542A (ja) * 2005-08-16 2007-03-01 Nomura Research Institute Ltd 負荷分散処理システム及び装置
JP2007199811A (ja) * 2006-01-24 2007-08-09 Hitachi Ltd プログラム制御方法、計算機およびプログラム制御プログラム
JP2007272297A (ja) * 2006-03-30 2007-10-18 Nec Corp オンデマンドクライアントサービスシステム、その管理方法、及びプログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013662B2 (en) 2010-09-30 2018-07-03 Amazon Technologies, Inc. Virtual resource cost tracking with dedicated implementation resources
US11842208B2 (en) 2010-09-30 2023-12-12 Amazon Technologies, Inc. Virtual provisioning with implementation resource boundary awareness
JP2013541093A (ja) * 2010-09-30 2013-11-07 アマゾン テクノロジーズ インコーポレイテッド 専用実装リソースを用いる仮想リソース費用追跡
CN106020928A (zh) * 2010-09-30 2016-10-12 亚马逊技术股份有限公司 用专用实施资源进行虚拟资源成本追踪
US11106479B2 (en) 2010-09-30 2021-08-31 Amazon Technologies, Inc. Virtual provisioning with implementation resource boundary awareness
JP5577412B2 (ja) * 2010-11-16 2014-08-20 株式会社日立製作所 計算機システム、マイグレーション方法及び管理サーバ
WO2012066640A1 (ja) * 2010-11-16 2012-05-24 株式会社日立製作所 計算機システム、マイグレーション方法及び管理サーバ
US9722866B1 (en) 2011-09-23 2017-08-01 Amazon Technologies, Inc. Resource allocation to reduce correlated failures
US11303509B2 (en) 2011-09-23 2022-04-12 Amazon Technologies, Inc. Resource allocation to reduce correlated failures
JP2013073406A (ja) * 2011-09-27 2013-04-22 Toshiba Corp サービス運用装置、サービス運用プログラム、サービス運用システム
JP2016181092A (ja) * 2015-03-24 2016-10-13 日本電気株式会社 割り当て装置、割り当て方法、割り当てプログラム、及び、通信ネットワーク装置
JP2021196922A (ja) * 2020-06-16 2021-12-27 株式会社日立製作所 計算機システム及び計算機システムの運用管理方法
JP7106603B2 (ja) 2020-06-16 2022-07-26 株式会社日立製作所 計算機システム及び計算機システムの運用管理方法

Also Published As

Publication number Publication date
JP4523965B2 (ja) 2010-08-11
US20090144741A1 (en) 2009-06-04

Similar Documents

Publication Publication Date Title
JP4523965B2 (ja) リソース割当方法、リソース割当プログラム、および、運用管理装置
US11194604B2 (en) Assignment of resources in virtual machine pools
JP5368285B2 (ja) 計算機システム、計算機リソースの管理方法及びプログラム
US8677369B2 (en) System and method for allocating virtual resources to application based on the connectivity relation among the virtual resources
JP4605072B2 (ja) 制御装置および情報システムの制御方法
US20110010634A1 (en) Management Apparatus and Management Method
JP4609848B2 (ja) 負荷分散コンピュータシステム、経路設定プログラム及びその方法
US20170019345A1 (en) Multi-tenant resource coordination method
JP2007042034A (ja) 計算機システム、管理計算機及び論理記憶領域の管理方法
JP2007323284A (ja) 計算機システム、ストレージシステム及び帯域管理方法
US20110029930A1 (en) Distributed processing device and distributed processing method
JP2005327089A (ja) 記憶装置管理方法およびシステム
JPH11184699A (ja) 移動オブジェクト群の実行方法、及び移動オブジェクト群を格納した記憶媒体
JP2010128791A (ja) ストレージシステムおよび仮想インタフェース管理方法
JP2008102672A (ja) 計算機システム、管理計算機、操作制御情報の設定方法
JP2017215884A (ja) 仮想マシン配置装置およびリソース管理方法
JP2006048560A (ja) キャッシュメモリの管理方法、ストレージ装置または計算機システム
JP5558615B2 (ja) 計算機システム、計算機リソースの管理方法及びプログラム
JP4834708B2 (ja) リソース割当方法、リソース割当プログラム、および、フロー処理システム
JP2016212548A (ja) ストレージ制御装置、ストレージ制御方法、及びストレージ制御プログラム
US20220318433A1 (en) Provisioning a computing subsystem with disaggregated computing hardware resources selected in compliance with a physical location requirement of a workload
US20050086430A1 (en) Method, system, and program for designating a storage group preference order
JP5821392B2 (ja) ストレージ装置、およびストレージ管理方法
JP2008225793A (ja) 負荷分散システム
JP2011215812A (ja) 仮想計算機管理方法、計算機システム及びリソース管理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100511

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100528

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130604

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees