JP2004062911A - コンピュータ資源の割り当てを管理するシステム - Google Patents

コンピュータ資源の割り当てを管理するシステム Download PDF

Info

Publication number
JP2004062911A
JP2004062911A JP2003278843A JP2003278843A JP2004062911A JP 2004062911 A JP2004062911 A JP 2004062911A JP 2003278843 A JP2003278843 A JP 2003278843A JP 2003278843 A JP2003278843 A JP 2003278843A JP 2004062911 A JP2004062911 A JP 2004062911A
Authority
JP
Japan
Prior art keywords
partitions
partition
resource
resources
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003278843A
Other languages
English (en)
Inventor
Clifford A Mccarthy
クリフォード・エィ・マッカーシー
Thomas E Turicchi
トーマス・イー・テュリッチ
Steven R Landherr
スティーヴン・アール・ランドハー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2004062911A publication Critical patent/JP2004062911A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Multi Processors (AREA)
  • Computer And Data Communications (AREA)

Abstract

【課題】コンピュータ資源の、複数区画コンピュータシステムのうちの複数の区画のうちの少なくとも1つの区画への割り当てを管理するシステムおよび方法を提供すること。
【解決手段】複数の作業負荷マネージャを有し、1つの作業負荷マネージャが複数の区画のうちの各区画に関連付けられ、各作業負荷マネージャが、コンピュータ資源に関連付けられた区画に割り当てられた少なくとも1つの優先度に基づいて、コンピュータ資源の資源要求値を決定する。本システムは区画負荷マネージャも有し、区画負荷マネージャは、各資源要求値に基づいて各区画それぞれの割り当て値を形成するように動作する。本システムは、割り当て値に基づいて複数の区画にコンピュータ資源を配分する。
【選択図】図2A

Description

 本願はコンピュータシステムに関し、特に、アプリケーション間でのコンピュータ資源の動的割り当てに関する。
(関連出願の相互参照)
 本願は、2000年1月28日付で出願された「DYNAMIC MANAGEMENT OF COMPUTER WORKLOADS THROUGH SERVICE LEVEL OPTIMIZATION」と題する米国特許出願第09/493,753号の一部継続出願であり、2000年4月29日付で出願された「RECONFIGUATION SUPPORT FOR A MULTI PARTITION COMPUTER SYSTEM」と題する、本願と同一の譲受人に譲渡された係属中の米国特許出願第09/562,590号に関連する。
 基本的にコンピュータシステムは、限られた資源、特にCPU資源を有する。これら限られた資源を、システム内で動作している様々なアプリケーションに割り当てなければならない。システム資源をアプリケーションに割り当てる従来の割り当て機構は、図1Aに示すプロセス資源マネージャ(PRM)10として知られるシステムである。このシステムは、CPU資源11および他の各種資源を様々なアプリケーション12、13、14に分割するために使用される。PRMは、図1Bに示すPRM構成中の割合として表されるように、資源を全体の何分かの一に分割する。次いで、その各部分または各一部を、アプリケーションを含むプロセス群に割り当てる。そして、各アプリケーションが利用可能な資源のいくらかの部分を受け取る。
 PRMは静的な機構である。すなわち割り当て構成が管理者によって固定され、管理者によってのみ変更可能である。言い換えれば、管理者が、区画をどこに置くか、すなわち、マシンの何パーセントをアプリケーション12、アプリケーション13、およびアプリケーション14に割り当てるかを指定する。
 米国特許第5,675,739号では、アプリケーションの処理に優先度ベースモデルを使用する機構が開示されている。この場合、優先度の高いアプリケーションは、優先度のより低いアプリケーションより先に待ち行列からサービスを受ける。この機構では、処理パフォーマンスを調整するように優先度を変更することができる。
米国特許第5,675,739号
 指定情報は固定なので、様々なアプリケーションのニーズの変化に応じることができない。たとえば、アプリケーションによっては、殆どアイドル状態であっても、時々大量の作業を行うものがある。割り当てが固定された静的機構の下では、このアプリケーションへのCPU資源の割り当てが比較的少なくなる。これは、アイドル時間が長いので割合の資源の割り当てを大きくすることが認められないからである。したがって大量の作業を受けた場合、割り当てが少ないのでそのアプリケーションのパフォーマンスは下がる。そして、トランザクションの処理により長い時間がかかる。別の例では、トランザクションがより長期の時間にわたって大量の資源が必要になるが、アイドル時間もある。割り当てが固定された静的機構の下では、このアプリケーションにはCPU資源がより多く割り当てられる。この場合、このアプリケーションがアイドル状態のとき、このアプリケーションに、使用されないのに大量の資源が割り当てられる。従って他のアプリケーションではその資源を利用できないので、他のアプリケーションのパフォーマンスが下がる。このため、その他のトランザクションの処理により長い時間がかかることになる。このように、この機構では、様々なアプリケーションで要件が変化する場合に対応できない。
 また管理者が資源を分割するという別の問題がある。管理者は、実際のマシンについて様々なアプリケーションの資源および要件を考えなければならない。問題なのは人間が通常見るよりも、資源およびアプリケーションが低いレベルで動作するからである。さらに、管理者は、どこに区画(partition、パーティション)を設定するかを判断するために、アプリケーションの特徴およびその資源要件について深い知識を有する必要がある。知識のない部分は、当て推量で通常ごまかされる。たとえば、管理者が、アプリケーション13に20%のCPU資源を設定するように選んだとする。システムのユーザが不満を訴えた場合、管理者は後にその値を変更することができる。
 他の機構が、IBMによる米国特許第5,675,739号に教示されている。IBMの機構は、アプリケーションの処理に優先度ベースモデルを使用する。言い換えれば、優先度の高いアプリケーションは、優先度のより低いアプリケーションより先に待ち行列からサービスを受ける。この機構は、処理パフォーマンスを調整するように優先度を変更することができる。
 かかる従来技術による機構は、複数区画システムで用いる場合も効率が悪い。大規模コンピュータシステム、たとえば複数のプロセッサ、複数のI/O資源、複数の記憶資源等を有するコンピュータシステムは、区画または保護領域に分けることができる。これら区画は、ハードウェアを区切るものであり、区切ることで資源を別個の機能ブロックに配置する。あるブロック中の資源は、別のブロック中の資源に直接アクセスすることができない。これにより、あるアプリケーションがすべてのシステム資源を使用できず、故障および誤りが発生する。しかし、区画は、一度画定されると静的な性質であり、オペレータの介入なく容易に変更できない。したがって、資源をある区画から別の区画に移し、作業負荷平衡を満足させることは容易ではない。
 本発明の目的は、コンピュータ資源の、複数区画コンピュータシステムのうちの複数の区画のうちの少なくとも1つの区画への割り当てを管理するシステムおよび方法を提供することである。
 本システムは複数の作業負荷マネージャを有し、1つの作業負荷マネージャが複数の区画のうちの各区画に関連付けられ、各作業負荷マネージャが、コンピュータ資源に関連付けられた区画に割り当てられた少なくとも1つの優先度に基づいて、コンピュータ資源の資源要求値を決定する。本システムは区画負荷マネージャも有し、区画負荷マネージャは、各資源要求値に基づいて各区画それぞれの割り当て値を形成するように動作する。本システムは、割り当て値に基づいて複数の区画にコンピュータ資源を配分する。
 本発明は、コンピュータシステムにおける作業負荷特徴の変化に動的に応じることを目的としている。コンピュータシステムは、単一の小型コンピュータ、たとえばパーソナルコンピュータ、単一の大型コンピュータ(たとえば、企業サーバ)、あるいはより大型のコンピュータおよび/または小型コンピュータのネットワークを含むことができる。コンピュータ、特に大型コンピュータ、またはネットワークは保護領域または区画に分割することができる。各区画は、それぞれのオペレーティングシステムを走らせることができる。いずれの場合でも、本発明の機構は、管理者がコンピュータシステム資源および要件ではなくパフォーマンスを目標にするのが好ましい。したがって、管理者は、優先度の異なる様々なパフォーマンス目標を定めるのが好ましく、本発明の機構が、資源の必要な調整をいずれも行うのが好ましい。最終的には、区画に関係なく設定することができるのが好ましい。たとえば、コンピュータシステムのデータベース部分の目標は、検索トランザクションにかかる時間が10ミリ秒を越えないものとすることができる。そして、本発明の機構が、この目標を達成するように資源を操作する。複数区画コンピュータシステムの場合、資源は区画内で操作される。たとえば、プロセッサ時間をアプリケーションに割り当てるか、区画間で操作、たとえばある区画から他の区画へのプロセッサの再割り当てを行う(効率的な区画のサイズ変更)か、またはこれら双方の組み合わせとすることができる。なお、資源は、1台の物理的なコンピュータにあってもよく、あるいは別の物理的なコンピュータにあるアプリケーションまたは区画に割り当てることができる。
 本発明の機構は、資源要求情報をシステム区画から受け取る区画負荷マネージャ(PLM)を備えるのが好ましい。PLMは、資源要求情報を調べ、要求情報を利用可能な資源と比較するのが好ましい。比較に基づいて、PLMは、特定区画の資源を増加、減少、または変更しないままにできる。区画のパフォーマンスが遅い場合、たとえばトランザクションにかかる時間が目標よりも長い場合、その区画はPLMからの資源割り当ての増大を要求することができる。区画が目標を上回っている場合、その区画は過度の資源を有している旨をPLMに通知することができ、PLMはその区画の割り当てを下げ、下げた分を別の区画(1つまたは複数)に割り当てることができる。
 各区画は、PLMと同様に動作しつつも特定の区画内で動作する、作業負荷マネージャ(WLM)を含むのが好ましい。WLMについては、2000年1月28日付で出願された「DYNAMIC MANAGEMENT OF COMPUTER WORKLOADS THROUGH SERVICE LEVEL OPTIMIZATION」と題する米国特許出願第09/493,753号により十分に説明されている。各WLMはまた、ユーザすなわち管理者から目標情報および優先度情報を受け取る。なお、かかる目標および優先度情報はすべての区画について同じであっても、または各区画または区画群毎に固有であってもよい。WLMはまた、区画内のアプリケーションおよび装置のパフォーマンスを監視するプロセスであるパフォーマンスモニタから、パフォーマンス情報を受け取る。WLMは、パフォーマンスモニタからの情報を調べ、この情報を目標と比較する。比較に基づいて、WLMは、アプリケーションの割り当てを増加、減少、または変更しないままにできる。アプリケーションのパフォーマンスが遅い場合、たとえば、トランザクションにかかる時間が目標よりも長い場合、WLMは割り当てを増大する。アプリケーションが目標を上回っている場合、WLMは、そのアプリケーションへの割り当てを下げ、下げた分を別のアプリケーションに割り当てる。
 WLMはまた、PLMと対話する。各WLMは最初に、また定期的に、各自の資源必要性を決定し、資源要求情報をPLMに送る。PLMは、かかる要求を受け取った後、システム資源を区画に割り当てる。各WLMは、区画資源についての情報を受け取った後、割り当てられた資源を区画内のアプリケーションに割り当てる。
 複数区画システムでは、PLMは一区画に常駐して、その他の区画にアクセスすることができる。あるいは、PLMは、すべての区画を管理するサービスモジュールに常駐することができる。あるいは、PLMは各区画に常駐し、協働して資源を各区画に割り当てることができる。
 区画アービタまたは区画資源アロケータは、区画の優先度および資源要求に基づいて資源を様々な区画に割り当てる。この資源の移動は区画サイズ変更と呼ばれる。区画は、それぞれのWLMを通して、要求される各資源の量が表示された優先度付きアプリケーション目標リストを保持することが好ましい。優先度の等しいアプリケーション目標は同等に扱われる。(アプリケーションが2つ以上の目標を有しうることに留意する)。優先度のより低いアプリケーション目標より前に、優先度のより高いアプリケーションの要求が満たされる。割り当てられていない資源は、予備にすることができ、またはデフォルト区画に割り当てることができる。なお、デフォルト区画のアプリケーションでは、それぞれの目標を常に越えるので、この条件を要因にしては、資源の再割り当てまたは区画のサイズ変更を行わないという規則を要求できる。
 なお、区画資源割り当ては、もはや固定された構成ではない。区画の必要性が変化するにつれ、本発明は、資源の可用性および優先度に基づいて区画の割り当てを自動的に調整する。したがって、本発明は動的である。また、本発明は、規定された目標の達成に正しい資源割り当てを判断し、本発明を使用するコンピュータシステムは、記載のパフォーマンス目標を達成する特定の区画割り当て値に収束するので、管理者は初期割り当てを推測するする必要はもはやない。さらに、優先度を様々な目標に割り当てることができる。したがって、システム資源に基づいて様々な目標を満たすことができる。たとえば、大量の資源の場合にはすべての目標を満たすことができるが、資源の量が少なくなるにつれて、より優先度の低い目標よりも先に、より優先度の高い目標が満たされることになる。さらに、システムへの変更は、PLMが資源要求を受け取るとすぐに行うことができ、システム管理者による作業は必要ない。また、複数区画システムでは、管理者が定義し優先順位付けできる目標は、すべての区画、および区画で動作している様々なオペレーティングシステムインスタンスにわたって適用されるものであり、単一の区画内のみに適用されるものではない。
 図2Aは、複数の区画203−1、203−2、203−3、・・・、203−Nを有する複数の区画における本発明の各種構成要素を示す。各区画は、1つまたは複数のプロセッサと、他のシステム資源、たとえば、記憶装置、I/O装置等を有することができる。各区画は、それぞれのオペレーティングシステム26−1、・・・、26−Nを走らせており、区画間の分離および生存性を提供するのが好ましい。なお、様々な区画が様々な量の資源、たとえば様々な数のプロセッサを有しうる。また、複数区画は1つまたは複数の物理的なコンピュータにあってもよいため、区画は仮想的であってもよい。
 また、初期状態では、システムが区画に等分割した資源を有しうる。あるいは、システムの初期状態は、各区画に最小の資源のみを提供し、余分の資源を予備にとっておく、たとえば、割り当てないでおく、あるいは1つまたは複数の区画にすべて配置できる。PLMおよびWLMの動作により、各区画のアプリケーションに定義された目標および優先度の処理に最も効率的な様式で、システム資源を素早く割り当てる。
 コンピュータシステムの資源は、PLM201によって管理される。PLM201は、様々な区画から資源要求を受け取る。要求は、複数の優先度および複数の資源タイプを含むことができる。たとえば要求は、次のように記述することができる。区画が優先度高のアプリケーションをすべて処理するために2つのプロセッサおよび1つの記憶装置を必要とする。優先度高および中のアプリケーションをすべて処理するために4つのプロセッサおよび2つの記憶装置を必要とする。優先度高、中、低のアプリケーションをすべて処理するために7つのプロセッサおよび5つの記憶装置を必要とする。要求は、WLM20−1、・・・、20−Nから発せられる。WLMは、好ましくは、それぞれの目標の達成に必要な資源を合計した後に要求を生成する。PLMは、1つまたは複数の要求を受け取った後、好ましくは、システム資源を検討し、存在する資源、現在の要求、および要求の優先度に基づいて、再割り当てが必要かどうかを判断する。したがって、特定の区画の資源要件が変化した場合、PLMは現在の資源と同様に、特定の区画の新しい要件と、他の区画の既存の要件とを調べ、再割り当てが必要かどうかを判断する。PLMは、システム資源変更後、たとえば、プロセッサが故障した、またはさらなるメモリが追加された等の後に再割り当てを開始することもできる。
 PLMは、好ましくは、資源要求の優先度を調べることによって再割り当てが必要かどうかを判断する。高レベル要求が変更されると、通常、再割り当てが行われる。たとえば、すべての装置資源が区画の高優先度動作の処理に消費される場合、低優先度要求の変更は無視される。一方、たとえば必要な資源がより少ないなど高優先度の要求が変化する場合、資源の再割り当てが行われる。たとえば供給過剰な区画からの余分な資源が、それぞれのアプリケーションの目標および優先度に基づいて他の区画に再割り当てされる。次いで、PLMは、様々な区画のアプリケーションの目標および優先度に基づいて、改訂後資源分配を計算する。次いで、改訂後分配が区画資源アロケータ202に送られる。アロケータ202は、好ましくは、区画をサイズ変更するように動作する。区画のサイズ変更とは、PLM201によって提供される命令に基づいて、資源を1つまたは複数の区画から1つまたは複数の区画に移動することである。かかるアロケータおよび区画サイズ変更の例は、2000年4月29日付けで出願された「RECONFIGURATION SUPPORT FOR A MULTIPARTITION COMPUTER SYSTEM」と題する米国特許出願第09/562,590号に記載されている。
 なおサイズ変更することで、システムが相当のオーバヘッドを起こす場合がある。この場合、ある区画から別の区画に資源を移動すると、利用可能な計算時間が短くなる。このため、PLMによる判断には、PLMが再割り当てを開始する前に、閾値に到達しなければならないことを含めることができる。閾値は、複数の構成要素、たとえば時間、容量を下回る/上回る割合等を含むことができる。たとえば、容量を下回る/上回る割合が小さい場合、再割り当てを行うまでより長い時間にわたって容量を下回る/上回るが、容量を下回る/上回る割合が大きい場合、即座に再割り当てを行う。その結果資源の必要性が小さく一時的に変化しても、システムの再割り当ては行わないようになる。
 図2Bは、パフォーマンス目標および優先度21を有する、本発明のシステムの区画の各種構成要素を示す。目標21は、好ましくは構成ファイルを含む。構成ファイルは、ユーザすなわちシステム管理者によって定義され、関心のあるアプリケーション特徴、測定中のアプリケーション特徴、特徴に関してアプリケーションのパフォーマンスの所望レベル、この目標の達成優先度に関してユーザの好みを記述する。ユーザは、特定の目標を達成すべき期間も指定することができる。たとえば、第1のアプリケーションは第1のデータベースであることができる。この場合ユーザは構成ファイルに、特定タイプのトランザクションが2秒以内で完了し、高い優先度を有するという特徴を指定する。アプリケーションは、同じ特徴について第2の目標を有することもできる。たとえば、同じタイプのトランザクションが30秒以内に完了すべきであり、優先度は低いとする。第2のアプリケーションは、第1のデータベースと同様の目標を有する第2のデータベースであることができる。すなわち、特定タイプのトランザクションを2秒以内で完了し、第1のデータベースと同じ優先度を有する。したがって、資源は、ように2つのアプリケーションに割り当てられ、その結果優先度の高い目標を満たす。すべての余剰資源は、第1のアプリケーションに与えられ、その結果優先度のより低い「広がった」目標を満たす。
 WLM20は、好ましくは、監視中の各アプリケーション12、13、14の特定の特徴(1つまたは複数)の状態を記述するパフォーマンス情報を受け取る。WLM20は、区画208内に含まれるプロセッサ11および他の装置25(たとえば、I/O、記憶装置等)の状態および/または他の特徴を記述するパフォーマンス情報も受け取る。
 パフォーマンス情報は、好ましくは、パフォーマンスモニタ23によって供給される。図2Bに示すように、単一のモニタは複数のアプリケーションおよび装置を処理することが可能であるが、本発明の異なる実施形態は複数のモニタを備え、それぞれが1つまたは複数のアプリケーションおよび装置を監視してもよい。パフォーマンスモニタ23は、アプリケーションおよび/または装置についての特定の情報を集める小さなプログラムである。たとえば、アプリケーションがデータベースである場合、パフォーマンスモニタはデータベースのアクセス時間を測定する。別の例として、装置がハードドライブの場合、パフォーマンスモニタはデータ容量を測定することができる。情報は厳密にアプリケーションパフォーマンスである必要はなく、作業負荷(たとえば、CPU使用量)の任意の測定可能な特徴であることができる。この情報は、システムが動作している間継続的に収集されている。作業負荷マネージャは、管理者によって指定されるある間隔で情報をサンプリングする。
 作業負荷マネージャの出力は、モニタによって報告される進行中のパフォーマンスおよびユーザにより与えられる目標から導出され、好ましくは、周期的にPRM10に提供される。WLM20の出力は、各アプリケーションに割り当てられる異なる資源の分け前、すなわち割り当て配分である。たとえば、各分け前はCPU動作秒の1/100におおよそ等しい。したがって、アプリケーションが少なくとも1つの実行可能プロセスを有する場合、1秒以内に、10の割り当てを有するアプリケーションは1/10秒を受け取ることになる。受け取る時間は連続していない場合もあり、むしろ1秒間隔で分散される場合があることに留意する。分け前は、割り当てられている資源、たとえば、ディスク記憶空間の割合またはディスク記憶空間の実際のバイト数に基づく他のパラメータに等しくてもよいことに留意する。
 区画は、複数の資源、たとえば複数のCPUおよび/または複数の記憶装置を有することができる。したがって、割り当ては、1つの装置にすべて配置されても、または装置にわたって分散してもよい。たとえば、4プロセッサシステムでプロセッサ割り当てを10パーセントにすると、1つのプロセッサで40%、各プロセッサで10%、2つのプロセッサで20%、または他の割り当てにすることができる。異なる装置間での配分は、PRM10が決定する。PRMは、確実に10パーセントを達成する必要があるので、アプリケーションを様々な装置の間で移動させる。したがって、アプリケーションが有する実行可能スレッドが1つのみで1つのCPU上でしか実行できない場合、PRMが与えようとするのは、CPU1つで(2CPUシステム上で)20%、その結果そ外部でCPUを使用できる総領域の10%になる。マルチスレッドアプリケーションは、2つ以上のCPUに割り当てることができる。割り当てにより、アプリケーションをプログラムされたタスクが実行可能になる。タスクを実行する速度および効率は、割り当てられたCPU時間の量を反映する。割り当てられるCPUが少ないほど、時間期間内に実行するタスクは少なくなる。割り当てられるCPUが多いほど、時間期間内に実行するタスクは多くなる。パフォーマンスモニタは、WLMによってサンプリングされることになるパフォーマンスを測定し、システムのフィードバックを完了する。
 WLM20はまた、好ましくは、PLM201への資源要求を送る。これら要求は、リストの形態を採ることができる。リストは、区画208が異なる優先度で目標を達成するのに必要な資源を記述する。次いで、PLMは、要求に基づいて資源を再割り当てすることを決定することができる。PLMは、様々な要求を格納することができる。要求によりPLMは、要求された資源の変化がわかるので、資源の変化を予測できる。たとえば、時間の経過に伴い、PLMは、特定の区画が常に特定の時間(または特定の事象の後に)、たとえば午後4時により多くの資源を必要とすることを認識し、それによって資源をその特定の区画に、区画が要求を送る前に割り当てることができる。要求を格納することで、再割り当てを引き起こす基準の設定できる。単純なトリガを使用して単一のメッセージを現在の資源割り当てと比較することができる。たとえば、現在の資源割り当てを5%以上増加/低減するよう要求されると、再割り当てを行う。より複雑なトリガを使用して、格納メッセージを参照することもできる。たとえば、特定の区画からの、現在の資源割り当ての2%〜5%未満の増加/低減する要求が1時間より長く続く場合、再割り当てを行う。
 PLM201は、図3のフローチャート300に従って動作する。PLMは、WLMから資源要求を受け取る(302)ことによって開始する(301)。次いで、オプションとして、PLMは再割り当てを開始するか否かを判断する(315)。PLMは、資源要求を現在の割り当てと比較することができる。特定の区画が、現在の割り当てと比較して、所定の閾値を越えるより多くの、またはより少ない資源を要求する場合、PLMは再割り当てを開始することができる。また、PLMは、時間の経過に伴って累積された各区画からの複数の要求を比較して、資源の慢性的な余剰/不足があるかどうかを判断する。たとえば、要求資源と現在の資源との差分が10%(余剰あるいは不足)の場合、即座に再割り当てが行われる。差分が9%の場合、2つの連続した要求(または10分間)において差分(9%以上)が発生する場合には再割り当てがなされ、差分が8%の場合(8%以上)、3つの連続した要求(または15分間)において差分が発生する場合に再割り当てが行われると仮定する。PLMは、再割り当てを行うべきであると判断する場合にはボックス316に進み、行うべきではないと判断する場合にはボックス302に戻る。
 ボックス316において、PLMは、好ましくは、すべての区画に値1(以下、装置の最小割り当て、たとえば、1つのCPU、1つのI/O、1つのメモリブロック等を意味する)を割り当てる(301)。余分な資源は、デフォルト区画に割り当てられるか、または割り当てられずに予備としておく。あるいは、PLMは、区画に資源を等分割することができる。
 次いで、ボックス303において、PLMは、好ましくは、区画のアプリケーション最高優先度グループの処理に必要な資源要求を調べる。優先度グループ内の各区画の要求量を満たすことができるかどうかを判断する(304)。満たすことができる場合、PLMは、割り当て情報を区画資源アロケータ202に送ることによって、要求割り当ての割り当てを促す(305)。各アプリケーション優先度レベル、区画毎に1つまたは複数のものとともに、いくつかのメッセージを送ることができることに留意する。あるいは、最後(309)に1つのメッセージを送ることにより、すべての区画への資源の完成した割り当てをレイアウトすることができる。要求量を満たすことができない場合、PLMはステップ310に述べるように、均衡に様々な区画の間を調停するのが好ましい。ステップ305においてアプリケーション優先度グループ中の各区画の要求を満たした後、PLMは、アプリケーション優先度グループがまだあるかどうかを判断する(306)。ある場合、PLMはステップ303に戻り、繰り返す。もうない場合、PLMは割り当てられていない資源が残っているかどうかを判断する(307)。残っていない場合、PLMは終了する(309)。割り当てられた資源の情報が区画資源アロケータに送られ、PLMはこの繰り返しについて終了する。新しい要求を受け取った後、PLMはステップ301において再開する。ステップ307において、資源が利用可能であると判断される場合、PLMは、残っている資源をデフォルト区画に割り当てるか、その資源を割り当てないものと指定して予備にとっておく(貯蔵(hoarding))か、または残っている資源を区画のうちの1つまたは複数で等しく分けることができる。なお、貯蔵することで、本発明がより適正に動作できるようになる。余分な資源を割り当てることで、区画がそれぞれの目標を上回ることになり、その結果、再割り当てを回避する規則を使用しない限り、さらなる再割り当てにつながるからである。次いで、PLMは終了する(309)。
 ステップ304において、アプリケーション優先度グループ内の各区画の要求量を満たすことができないとPLMが判断する場合、PLMは、異なる区画の間を均衡に調停することが好ましい。たとえば、(1)ターゲット値にまだ使用されたことのない、それまで割り当てられた任意の量のうちの最低の割り当て量、または(2)以前のターゲット値にまだ使用されたことのない、優先度グループの中の一区画の最低要求量、のうちの低いほうの値として、現在のターゲット値を指定する(310)という方法がある。なおこれにより、図3に示すPLMのパフォーマンスフローが簡略化されるので(すなわち、ステップ310、311、312、および313が繰り返される回数を低減することによって)、基準(1)および(2)は、それぞれの要求量に達した区画を含まない。次いで、PLMは、アプリケーション優先度グループ内の各区画のターゲット量を満たすことができるかどうかを判断する。満たすことができない場合、割り当て量を、割り当てが現在のターゲットよりも少ないアプリケーション優先度グループの様々な区画に等分することができる(314)が、すでにターゲットレベルを満たしているか、またはターゲットレベルを超えている区画は除外する。次いで、PLMは終了する(309)。満たすことができる場合、PLMは、各区画の資源割り当て値をターゲットレベルにするに十分な資源を割り当てる(312)。すでにターゲットレベルに満たしているか、またはターゲットレベルを超えている区画は、変更されない。次いで、PLMは、割り当てられていない資源が残っているかどうかを判断する(313)。残っていない場合、PLMは終了する(309)。残っている場合、PLMはステップ310に戻り、新しい現在ターゲットレベルを決定し、PLMが終了する(309)までプロセスを繰り返す。
 なおボックス314の分配は例に過ぎず、残っている量は、予備にとっておくこともできる。または、割り当てられていない資源を、デフォルト区画に割り当てることも、別の規則に従って1つまたは複数の区画に割り当てることもできる。
 図4Aは、PLM201の動作の例を示す。図4Aに示すように、4レベルの優先度毎に異なる要件を有する6つの区画がある。なお様々なタイプの資源が存在するが、簡便化のために1つのみの資源タイプを示す。各区画は様々なタイプの資源毎に異なる要件をもつことができる。図示のように、区画1は、優先度2および3のアプリケーションまたはプロセスと同様に優先度1のアプリケーションまたはプロセスの処理に、1つの資源を必要とする。そして優先度4のアプリケーションまたはプロセスの処理に3つの資源を必要とする。その他の区画は、それぞれの要件を図示のように有する。これら資源は単一のプロセッサ、プロセッサグループ、I/O装置、メモリ(たとえば、RAM、ROM等)、記憶装置(光ディスク、ハードドライブ等)、他の装置および/またはシステムへの接続帯域(たとえば、インターネット、イントラネット、LAN、WAN、イーサネット等)などであることができるが、複数区画システムの異なる1つまたは複数の区画の間で、および/またはその区画の中で割り当てることのできる任意の装置、アプリケーション、プログラム、またはプロセスであってもよい。
 なお要件を表すために用いられる値は、例としてのみ資源の増分値として示されるが、他の値を使用することができる。たとえば、記憶装置(RAM、ROM、ハードドライブ等)の場合、要件はメガバイト、またはハードドライブの個数として示すことができる。プロセッサは、パーセンテージ、シェア、または正規化値として示すことができる。コンピュータシステムによっては、小数値を使用することができ、資源が区画の間で分割されることができる。コンピュータシステムが小数値を処理できない(資源の分割がない)場合、丸め誤差または不均衡が資源の割り当てに生じうる。
 図4Aは、要求時の図3に示すPLMの割り当て動作も示す。すべての区画のすべての優先度に必要な合計資源量は21個であるが、システムには合計19個の資源が存在することに留意する。したがって、すべての区画がそれぞれの優先度を満足させることができるわけではない。時間期間後、区画は、図4Aに表形式で示す資源要求をPLMに送る。次いで、PLMは、ボックス315において再割り当てが必要であると判断し、資源の均衡な割り当てを開始する。システムにさらなる資源を追加する、たとえば、もう1つのプロセッサの追加によっても再割り当てを行うことになりうることに留意する。同様に、システムから資源が除去される、たとえば、I/O装置が故障しても、再割り当てにつながり得る。
 PLMは動作するに最小限の資源を各区画に提供することによって開始し、図3のボックス316に従って、列401に示すように各区画に1つの資源を割り当てる。たとえば、各区画は、動作するために少なくとも1つのプロセッサ、メモリブロック、および1つのI/O装置を備えなければならない。PLMは、資源情報を区画資源アロケータ202に送るか、または資源情報を区画資源アロケータ202に送る前に、再割り当てが完了するまで待つことができる。
 次いで、PLMは、各区画がそれぞれの要求資源量を優先度1について受け取ることができるかどうかを判断する(ボックス304)。この場合、残りの資源は13個であるため、要求される資源量を割り当てることができる。列402に示すように、区画3および5はそれぞれ1個の追加資源を受け取る(ボックス305)。その他の区画は、最初の割り当てで満たされている。
 さらなる優先度グループがある(ボックス306)ため、PLMは優先度2について繰り返す。11個の資源が残っているため、PLMはここでも要求量を割り当てることができる。したがって、列403に示すように、区画2および3はさらに2個の資源を受け取り、区画5はさらに1個の資源を受け取る。
 さらなる優先度グループがあるため、PLMは優先度3について繰り返す。PLMは、6個の資源が残っているため、ここでも要求量を割り当てることができる。したがって、列404に示すように、区画2および5がさらに1個の資源を受け取る。
 さらなる優先度グループがあるため、PLMは優先度4について繰り返す。残りの資源が4個しかないため、PLMは要求量を割り当てることができない。区画は、さらに6個の資源の割り当てを望む。(区画4は合計3個の資源を望み、すでに1個の資源が割り当てられているため、さらに必要な資源は2個のみであることに留意する)。したがって、ボックス304から「いいえ」の経路を辿る。現在のステップについてこれまで割り当てられた量は1および4である一方で、要求される量は1、3、4、および5である。現在のターゲットは、要求している区画の最低値であるとともに、以前割り当てられた量の最低値である1と指定される。各区画は少なくとも1個の資源を有するため、列405に示すように、このサイクルでは追加資源は割り当てられない。区画3および6はそれぞれの要求量に達していることに留意する。追加資源が残っている(ボックス313)ため、新しいターゲット、すなわち3(以前使用されていない最低目標)が指定される。列406に示すように、区画1および4はそれぞれ追加資源を受け取るが、区画2および5は変更されないままである。区画1および4はそれぞれの要求量に達したことに留意する。割り当てられた量は、資源割り当て情報として区画資源アロケータ202に提供される。次いで、アロケータ202は区画の資源を操作する。
 図4Bは、図4Aの例と同様の、PLM201の動作の別の例を示す。図4Bに示すように、2レベルの優先度毎に異なる要件を有する5つの区画がある。様々なタイプの資源が存在するが、簡便化のために1つのみの資源タイプを示し、各区画は様々なタイプの資源毎に異なる要件を有しうることに留意する。図示のように、区画1は、優先度1のアプリケーションまたはプロセスの処理に1つの資源を必要とし、優先度2のアプリケーションまたはプロセスの処理に9つの資源を必要とする。その他の区画は、それぞれの要件を図示のように有する。区画5は優先度1については4個の資源を必要とするが、優先度2には3個のみの資源を必要とすることに留意する。このような場合、好ましくは、優先度のより高い要求が満たされる。
 図4Bは、要求時の図3に示すPLMの割り当て動作も示す。すべての区画のすべての優先度に必要な合計資源量は27個であるが、システムには合計24個の資源が存在することに留意する。したがって、すべての区画がそれぞれの優先度を満足させることができるわけではない。時間期間後、区画は、図4Bに表形式で示す資源要求をPLMに送る。次いで、PLMは、ボックス315において再割り当てが必要であると判断し、資源の均衡な割り当てを開始する。
 PLMは動作するに最小限の資源を各区画に提供することによって開始し、図3のボックス316に従って、列408に示すように各区画に1つの資源を割り当てる。次いで、PLMは、各区画がそれぞれの要求資源量を優先度1について受け取ることができるかどうかを判断する(ボックス304)。この場合、要求量を割り当てることができる。列409に示すように、区画3および5はそれぞれ3個の追加資源を受け取る(ボックス305)。区画5は要求量に達していることに留意する。その他の区画は、最初の割り当てで満たされている。
 さらなる優先度グループがある(ボックス306)ため、PLMは優先度2について繰り返す。PLMは、要求量を割り当てることができない。したがって、ボックス304から「いいえ」の経路を辿る。これまで割り当てられた量は1および4であり、要求量は2、3、5、8、および9である。現在のターゲットは、要求量およびそれまで割り当てられた量を含む集合の中で最も低い値である1と指定される。各区画は少なくとも1個の資源を有するため、列410に示すように、このサイクルでは追加資源は割り当てられない。追加資源が残っている(ボックス313)ため、新しいターゲット、すなわち2が指定される。列411に示すように、区画1、2、および4はそれぞれ追加資源を受け取る。区画4は要求量に達したことに留意する。追加資源が残っている(ボックス313)ため、新しいターゲット、すなわち3が指定される。列412に示すように、区画1および2はそれぞれ追加資源を受け取る。追加資源が残っている(ボックス313)ため、新しいターゲット、すなわち4が指定される。列413に示すように、区画1および2はそれぞれ追加資源を受け取る。追加資源が残っている(ボックス313)ため、新しいターゲット、すなわち5が指定される。列414に示すように、区画1、2、および3はそれぞれ追加資源を受け取る。区画3が要求量に達したことに留意する。追加資源が残っている(ボックス313)ため、新しいターゲット、すなわち8が指定される。新しいターゲットに見合うように残りの資源を割り当てることはできない(ボックス311)。したがって、残りの資源はボックス314に従って割り当てられる。たとえば、ボックス314に記述するようにそれぞれの要求割り当てにまだ達していない区画の間で残りの資源を等分することができる。このため、3個の残り資源が区画1および2に分けられ、各区画が1.5個の資源を受け取る。割り当て量は、資源割り当て情報として区画資源アロケータ202に提供される。次いで、アロケータ202は区画の資源を操作する。
 上述したように、資源ユニット全体の代表ではない資源値が使用され、システムが小数単位を処理することができない、たとえば1つのプロセッサの場合、丸め誤差が生じうる。PLMは、図5Aに示し、図5Bおよび図5Cの例に例示するようにかかる誤差を処理する。図5Aは、PLM201の丸め器部分204の動作を示す。上記例は、要求に整数値を使用したため、割り当て値の結果もまた整数であるが、小数または浮動小数、たとえば割り当て値10.1も使用することができる。また、浮動小数は、ステップ314の結果からも生じうる(たとえば、3個の資源を2個の区画で分けると、各区画毎に1.5個の資源になる)。システムによっては、整数の割り当て値でしか動作しないものもあるため、資源の小数値を切り上げ、または切り捨てる必要がある。これは、資源全体を割り当てる必要がある、区画サイズ変更の際にプロセッサ、ハードドライブ等の増分資源を割り当てる場合にも当てはまる。丸め器204はまず、PLMから割り当て値51を受け取る。割り当て値は、図3の動作から得られる値である。次いで、丸め器は、前回割り当てられた値を受け取った各割り当て値に加算することにより、受け取った各割り当て値毎に値を累加する。次いで、丸め器は、各累加和から前回の累加和を差し引くことにより、丸めた割り当て値を形成する。たとえば、図5Bに示すように、3個の区画は、割り当て値R1=3.5、R2=3.5、およびR3=3.0を有する。丸め器は、R1と0を加算することによってS1を形成し(このステップは、S1にR1の値が割り当てられるように変更しうることに留意)てから丸める。ここで、0以上かつ厳密に0.5未満の小数値は0に切り捨てられ、0.5以上の小数値は1に切り上げられる。同様に、丸め器は、R2+R1を加算して丸めることによってS2を形成し、R3+R2+R1を加算して丸めることによってS3を形成する。あらゆる小数値は次の和(丸める前)に累積される、すなわちS1は0.5を有し、S2は1.0を有し、S3も1.0を有する(丸める前)ことに留意する。丸め器は、和から前の和を差し引くことによって、丸められた割り当て値を形成する。具体的には、R1’=S1(すなわちS1−0)、R2’=S2−S1、およびR3’=S3−S2である。最初の値では、累積された小数値が0.5以上である場合であるため、切り上げが行われることに留意する。次いで、これら丸められた値が区画資源アロケータ202に送られる。
 図5Cは、4個の区画が割り当て値R1=10.1、R2=20.2、R3=30.3、およびR4=39.4を有する丸めの別の例である。丸め器は、S1=R1(すなわちR1+0)および丸めによってS1を形成し、S2=R2+R1(すなわちR2+S1)および丸めによってS2を形成し、S3=R3+R2+R1(すなわちR3+S2)および丸めによってS3を形成し、S4=R4+R3+R2+R1(すなわちR4+S3)および丸めを通してS4を形成する。あらゆる小数値は次の和に累積される(丸める前)、すなわちS1は0.1を有し、S2は0.3を有し、S3は0.6を有し、S4は1.0を有する(丸める前)ことに留意する。丸め器は、和から前の和を差し引くことによって、丸められた割り当て値を形成する。具体的には、R1’=S1(すなわちS1−0)、R2’=S2−S1、R3’=S3−S2、およびR4’=S4−S3である。3番目の値では、累積された小数値が0.5以上である場合であるため、切り上げが行われることに留意する。丸めは順序に依存することに留意する。したがって、区画の順序により、どの区画が丸めを受けるかが決まる。たとえば、以下の小数値:0.4、0、および0.1がある場合、0.1を有する3番目のアプリケーションは、この累積値は0.5以上のものであり、かつ小数値0.4未満であるため、切り上げを受けることになる。区画が0、0.1、および0.4に順序替えされる場合には、0.4を有する3番目のアプリケーションは丸めを受ける。割り当て値が非常に小さい場合を除き、丸めにより、本発明のシステムが大きく乱れることにはならない、すなわち目標を上回る/下回ることにはならないことに留意する。割り当て値が非常に小さい場合では、小さな値を1だけ増加することは、大きな割合の変更を表し、目標を上回る/下回ることになりうる。たとえば、割り当て値2.1が3に切り上げられるものと想定する。これは、割り当て値よりも143%大きい値を表す。かかる大きな差は、目標を上回る/下回ることにつながりうる。
 なお本明細書に図示し説明した例は例示のためのものにすぎず、本発明は他の値でも動作する。
 さらに、図3に示し図4Aおよび図4Bに示す例と共に例示した割り当て機構は、アプリケーション優先度グループを有する各区画が概ね等しい扱いを受けるように設計される。代替のものも開発可能である。たとえば、それぞれの要求量を受け取る区画の数を最大化しようとするようにPLMをプログラミングすることができる。これにより、同じアプリケーション優先度グループ、特に要求区画がより大きなアプリケーションを有する区画のいくつかが必要になる。その結果、他の区画すなわちより小さな要求区画が満たされる。他の方法では、割り当て量と要求量との差分に比例する量を区画に受け取らせるものがある。所定のアプリケーション優先度レベルに達し、要求資源に対し利用可能な資源が不足することになる場合、差分に比例する量を割り当てることで、各区画が同じ分点に配置される。これにより、区画のいずれも要求する全体量を受け取らず(丸めを受ける)、それぞれの差分によってすべてスケーリングされる、その結果要求量を受け取る数が最小化される。図3の機構の利点は、区画が、優先度の同じ、または優先度のより低い任意の他の区画(より大きな要求を有する)に影響されないことである。なお区画の要求量を少なくすることにより、それぞれの割り当てが等しくなるまで、等しい優先度の中で多い方の資源区画を減らすことができる。優先度のより高い区画がより多くの資源を要求し始める場合、優先度のより低い区画は資源を失うことになる。しかし、同じ優先度の区画がより多くの資源の要求を開始しこの区画の割り当てが優先度の同じ区画の割り当てよりも小さい場合、この区画が減らしうるのは優先度の同じ区画の資源のみである。したがって、優先度の同じ区画は互いに保護し合う。上述した代替の機構の場合、それぞれの同優先度区画の要求が変化するので、特定の区画の割り当てが影響を受けることになる。
 ソフトウェアで実施される場合、本発明の要素は、本質的に、必要なタスクを実行するコードセグメントである。プログラムまたはコーセグメントは、プロセッサ可読媒体に格納するか、あるいは搬送波で具現されるコンピュータデータ信号または搬送波によって変調された信号により伝送媒体を介して伝送することができる。「プロセッサ可読媒体」は、情報を格納または転送することが可能なあらゆる媒体を含むことができる。プロセッサ可読媒体の例としては、電子回路、半導体メモリ素子、ROM、フラッシュメモリ、消去可能ROM(EROM)、フロッピーディスク、コンパクトディスクCD−ROM、光ディスク、ハードディスク、光ファイバ媒体、無線周波数(RF)リンク等が挙げられる。コンピュータデータ信号は、電子ネットワークチャネル、光ファイバ、空気、電磁気、RFリンク等の伝送媒体を介して伝播可能なあらゆる信号を含むことができる。コードセグメントは、インターネット、イントラネット等のコンピュータネットワークを介してダウンロードすることができる。
 図7は、本発明を使用するように適合されたコンピュータシステム700を示す。中央演算処理装置(CPU)701がシステムバス702に接続される。CPU701は、HP PA−8200プロセッサやIntel Pentium IIプロセッサ等任意の汎用CPUであることができる。しかし、本発明は、CPU701が本明細書に記載する本発明の動作をサポートする限り、CPU701のアーキテクチャによって制限されない。バス702はランダムアクセスメモリ(RAM)703に接続され、RAM703はSRAM、DRAM、またはSDRAMであることができる。バス702にはROM704も接続され、ROM704はPROM、EPROM、またはEEPROMであることができる。RAM703およびROM704は、当分野において周知のように、ユーザデータ、システムデータ、およびプログラムを保持する。
 バス702には、入出力(I/O)コントローラカード705、通信アダプタカード711、ユーザインタフェースカード708、およびディスプレイカード709も接続される。I/Oカード705は、ハードドライブ、CDドライブ、フロッピーディスクドライブ、テープドライブのうちの1つまたは複数等の記憶装置706をコンピュータシステムに接続する。通信カード711は、コンピュータシステム700をネットワーク712に接続するように適合され、ネットワーク712は、ローカルネットワーク(LAN)、広域ネットワーク(WAN)、イーサネット、またはインターネット網のうちの1つまたは複数であることができる。ユーザインタフェースカード708は、キーボード713およびポインティングデバイス707等ユーザ入力装置をコンピュータシステム700に接続する。ディスプレイカード709はCPU701によって駆動され、表示装置710上の表示を制御する。
従来技術による資源マネージャのブロック図。 図1Aのアプリケーションの分割を示すブロック図。 複数の区画を使用して動作する本発明の区画負荷マネージャ(PLM)を示すブロック図。 図2Aの区画を示すブロック図。 図2AのPLMの動作のフローチャート。 図2AのPLMによる資源の割り当て例を示す図。 図2AのPLMによる資源の割り当て例を示す図。 図2AのPLMの丸め器の動作を示すブロック図。 図2AのPLMの丸め器の動作を示すブロック図。 図2AのPLMの丸め器の動作を示すブロック図。 本発明の使用に適合されたコンピュータシステムのブロック図。
符号の説明
 10  プロセス資源マネージャ
 11  CPU
 12,13,14  アプリケーション
 20-1〜20-N  作業負荷マネージャ
 201  区分負荷マネージャ

Claims (10)

  1. 複数の区画を有するコンピュータシステムの複数の区画のうちの少なくとも1つへのコンピュータ資源の割り当てを管理するシステムであって、
     前記複数の区画のそれぞれに1つが関連付けられた複数の作業負荷マネージャを備え、
     前記コンピュータ資源に関連する区画に割り当てられた少なくとも1つの優先度に基づいて、それぞれの作業負荷マネージャが前記コンピュータ資源の資源要求値を決定し、
     それぞれの資源要求値に基づいて、前記それぞれの区画に割り当て値を形成する区画負荷マネージャを備え、
     前記割り当て値に基づいて、前記複数の区画に前記コンピュータ資源を配分するようにした前記システム。
  2. 少なくとも1つのパフォーマンスモニタは、前記複数の区画のそれぞれの区画に関連付けられる複数のパフォーマンスモニタをさらに備え、各パフォーマンスモニタには、前記区画のそれぞれの特徴が関連付けられる請求項1記載のシステム。
  3. 少なくとも1つのパフォーマンスモニタによって提供される情報が、前記コンピュータ資源に資源要求値を決定するにあたり前記作業負荷マネージャによって使用される請求項2記載のシステム。
  4. 前記区画負荷マネージャの構成は、
     前記区画作業マネージャであって、前記複数の区画のうちの1つの区画に常駐し、前記複数の区画のうちの残りの区画にアクセスできるものと、
     前記区画負荷マネージャであって、前記複数の区画の各区画に常駐するものと、
     前記区画負荷マネージャであって、前記複数の区画とは別個のモジュールに常駐するものと、によりなる群から選択される請求項1記載のシステム。
  5. 前記区画負荷マネージャは、累積的に丸めて非整数割り当て要求値を整数に調整するラウンダを備える請求項1記載のシステム。
  6. 前記区画負荷マネージャは、前記資源要求値の前記優先度に基づいて前記資源要求値を優先度グループへとグループ化し、
     優先度グループの各区画が受け取る前記コンピュータ資源の量を等化すること、
     それぞれの要求量の前記コンピュータ資源を受け取る区画の数を、優先度グループ内で最大化すること、
     優先度グループの前記区画それぞれの前記割り当て値および前記要求量の割合を等化すること、
     によりなる群から選択される所定の分配様式に基づいて、割り当て値を形成する請求項1記載のシステム。
  7. 複数の区画を有するコンピュータシステムの複数の区画のうちの少なくとも1つの区画へのコンピュータ資源の割り当てを管理する方法であって、
     前記コンピュータ資源に関連する各区画に割り当てられた少なくとも1つの優先度に基づいて、前記複数の区画のうちの各区画に前記コンピュータ資源についての資源要求値を決定することと、
     それぞれの資源要求値に基づいて、前記区画それぞれに割り当て値を形成することと、
     前記割り当て値に基づいて、前記複数の区画に前記コンピュータ資源を配分することと、を含む方法。
  8. 前記割り当て値を形成するステップは、
     前記資源要求値の前記優先度に基づいて、前記資源要求値を優先度グループにグループ化することと、
     (a)未検査の最高優先度グループ中の前記資源要求値を調べることと、
    を含む請求項7記載の方法。
  9. 前記割り当て値を形成するステップは、
     (b)前記コンピュータ資源のうちの要求量を、未検査の最高優先度グループ中の各区画に割り当てることができるかどうかを判断することを含む請求項8記載の方法。
  10. 前記割り当て値を形成するステップは、
     (c)前記コンピュータ資源のうちの前記要求量を、未検査の最高優先度グループ中の各区画に割り当てることができる場合、前記資源要求値それぞれにおける前記要求量を各割り当て値に等しく割り当てることを含む請求項9記載の方法。
JP2003278843A 2002-07-26 2003-07-24 コンピュータ資源の割り当てを管理するシステム Pending JP2004062911A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/206,594 US7140020B2 (en) 2000-01-28 2002-07-26 Dynamic management of virtual partition computer workloads through service level optimization

Publications (1)

Publication Number Publication Date
JP2004062911A true JP2004062911A (ja) 2004-02-26

Family

ID=30000128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003278843A Pending JP2004062911A (ja) 2002-07-26 2003-07-24 コンピュータ資源の割り当てを管理するシステム

Country Status (3)

Country Link
US (1) US7140020B2 (ja)
EP (1) EP1385091A3 (ja)
JP (1) JP2004062911A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005327269A (ja) * 2004-04-30 2005-11-24 Microsoft Corp マルチメディアコンソール上のシステムアプリケーション
JP2006012122A (ja) * 2004-04-30 2006-01-12 Microsoft Corp マルチメディアコンソール内の並列システムアプリケーション
JP2007108944A (ja) * 2005-10-12 2007-04-26 Renesas Technology Corp 半導体集積回路装置
JP2007193776A (ja) * 2006-01-19 2007-08-02 Internatl Business Mach Corp <Ibm> ロジカル・パーティションのメモリ・アフィニティを動的に改善するための装置および方法
JP2007272263A (ja) * 2006-03-30 2007-10-18 Hitachi Ltd 計算機の管理方法、計算機システム、及び管理プログラム
WO2008132924A1 (ja) * 2007-04-13 2008-11-06 Nec Corporation 仮想計算機システムおよびその最適化方法
JP2009510572A (ja) * 2005-09-30 2009-03-12 インターナショナル・ビジネス・マシーンズ・コーポレーション ロジカル・パーティションにプロセッサを割り当てるための方法、装置、およびプログラム
WO2009066481A1 (ja) * 2007-11-22 2009-05-28 Mitsubishi Electric Corporation 仮想計算機システム及び仮想計算機重み付け設定処理方法及び仮想計算機重み付け設定処理プログラム
WO2009113571A1 (ja) * 2008-03-11 2009-09-17 日本電気株式会社 複数の基盤ソフトウェアを動作可能な情報処理装置および方法
US7765552B2 (en) 2004-09-17 2010-07-27 Hewlett-Packard Development Company, L.P. System and method for allocating computing resources for a grid virtual system
US8046764B2 (en) 2004-04-20 2011-10-25 Hitachi, Ltd. Redistribution of unused resources assigned to a first virtual computer having usage below a predetermined threshold to a second virtual computer
JP2018190355A (ja) * 2017-05-11 2018-11-29 日本電信電話株式会社 リソース管理方法

Families Citing this family (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6938256B2 (en) 2000-01-18 2005-08-30 Galactic Computing Corporation System for balance distribution of requests across multiple servers using dynamic metrics
US6816905B1 (en) 2000-11-10 2004-11-09 Galactic Computing Corporation Bvi/Bc Method and system for providing dynamic hosted service management across disparate accounts/sites
US8538843B2 (en) 2000-07-17 2013-09-17 Galactic Computing Corporation Bvi/Bc Method and system for operating an E-commerce service provider
CN1295610C (zh) 2002-03-25 2007-01-17 艾利森电话股份有限公司 用于动态管理服务器平台上的服务器应用的方法和设备
FI116166B (fi) * 2002-06-20 2005-09-30 Nokia Corp Menetelmä ja järjestelmä sovellusistuntojen suorittamiseksi elektroniikkalaitteessa, ja elektroniikkalaite
US7765299B2 (en) * 2002-09-16 2010-07-27 Hewlett-Packard Development Company, L.P. Dynamic adaptive server provisioning for blade architectures
US6988226B2 (en) * 2002-10-17 2006-01-17 Wind River Systems, Inc. Health monitoring system for a partitioned architecture
JP2004246868A (ja) * 2003-01-22 2004-09-02 Canon Inc 画像抽出方法及び該方法をコンピュータに実行させるプログラム
US7451183B2 (en) * 2003-03-21 2008-11-11 Hewlett-Packard Development Company, L.P. Assembly and method for balancing processors in a partitioned server
US7472246B2 (en) * 2003-04-30 2008-12-30 International Business Machines Corporation Method and system for automated memory reallocating and optimization between logical partitions
US7478393B2 (en) * 2003-04-30 2009-01-13 International Business Machines Corporation Method for marketing to instant messaging service users
US7325062B2 (en) * 2003-04-30 2008-01-29 International Business Machines Corporation Method and system for automated adapter reallocation and optimization between logical partitions
US8892878B2 (en) * 2003-05-09 2014-11-18 Oracle America, Inc. Fine-grained privileges in operating system partitions
US20040226015A1 (en) * 2003-05-09 2004-11-11 Leonard Ozgur C. Multi-level computing resource scheduling control for operating system partitions
US7461080B1 (en) 2003-05-09 2008-12-02 Sun Microsystems, Inc. System logging within operating system partitions using log device nodes that are access points to a log driver
US20040226017A1 (en) * 2003-05-09 2004-11-11 Leonard Ozgur C. Mechanism for associating resource pools with operating system partitions
US7437728B2 (en) * 2003-06-12 2008-10-14 Microsoft Corporation System and method for CPU bandwidth allocation
US7146511B2 (en) * 2003-10-07 2006-12-05 Hewlett-Packard Development Company, L.P. Rack equipment application performance modification system and method
US8544005B2 (en) * 2003-10-28 2013-09-24 International Business Machines Corporation Autonomic method, system and program product for managing processes
JP3896111B2 (ja) * 2003-12-15 2007-03-22 株式会社日立製作所 リソース割り当てシステム、方法及びプログラム
JP4227035B2 (ja) 2004-02-03 2009-02-18 株式会社日立製作所 計算機システム、管理装置、ストレージ装置及びコンピュータ装置
US8584129B1 (en) * 2004-02-20 2013-11-12 Oracle America, Inc. Dispenser determines responses to resource requests for a single respective one of consumable resource using resource management policy
US7555753B2 (en) * 2004-02-26 2009-06-30 International Business Machines Corporation Measuring processor use in a hardware multithreading processor environment
US8782654B2 (en) 2004-03-13 2014-07-15 Adaptive Computing Enterprises, Inc. Co-allocating a reservation spanning different compute resources types
US9268607B2 (en) 2004-03-13 2016-02-23 Adaptive Computing Enterprises, Inc. System and method of providing a self-optimizing reservation in space of compute resources
US20050216716A1 (en) * 2004-03-29 2005-09-29 Hoffman Philip M System and method for licensing and distribution of I/O in partitioned computer systems
US8230085B2 (en) * 2004-04-12 2012-07-24 Netapp, Inc. System and method for supporting block-based protocols on a virtual storage appliance executing within a physical storage appliance
US7814491B1 (en) * 2004-04-14 2010-10-12 Oracle America, Inc. Method and apparatus for managing system resources using a container model
WO2005116833A1 (en) * 2004-05-21 2005-12-08 Computer Associates Think, Inc. Method and apparatus for dynamic cpu resource management
WO2005116828A2 (en) * 2004-05-21 2005-12-08 Computer Associates Think, Inc. Method and apparatus for dynamic memory resource management
US20070266388A1 (en) 2004-06-18 2007-11-15 Cluster Resources, Inc. System and method for providing advanced reservations in a compute environment
US7712102B2 (en) * 2004-07-30 2010-05-04 Hewlett-Packard Development Company, L.P. System and method for dynamically configuring a plurality of load balancers in response to the analyzed performance data
US20060021920A1 (en) * 2004-08-02 2006-02-02 Forbes Robert C Pond filters
US8176490B1 (en) 2004-08-20 2012-05-08 Adaptive Computing Enterprises, Inc. System and method of interfacing a workload manager and scheduler with an identity manager
US7752623B1 (en) * 2004-09-16 2010-07-06 Hewlett-Packard Development Company, L.P. System and method for allocating resources by examining a system characteristic
US7620953B1 (en) * 2004-10-05 2009-11-17 Azul Systems, Inc. System and method for allocating resources of a core space among a plurality of core virtual machines
US8458713B2 (en) * 2004-10-27 2013-06-04 International Business Machines Corporation Method, system, and apparatus for allocating resources to a software configurable computing environment
CA2586763C (en) 2004-11-08 2013-12-17 Cluster Resources, Inc. System and method of providing system jobs within a compute environment
US8181182B1 (en) * 2004-11-16 2012-05-15 Oracle America, Inc. Resource allocation brokering in nested containers
US8214837B2 (en) * 2004-12-03 2012-07-03 Intel Corporation Method, apparatus and system for dynamically allocating sequestered computing resources
US7752624B2 (en) * 2004-12-21 2010-07-06 Hewlett-Packard Development Company, L.P. System and method for associating workload management definitions with computing containers
US8024736B1 (en) * 2005-01-28 2011-09-20 Hewlett-Packard Development Company, L.P. System for controlling a distribution of unutilized computer resources
US7908605B1 (en) * 2005-01-28 2011-03-15 Hewlett-Packard Development Company, L.P. Hierarchal control system for controlling the allocation of computer resources
US7548977B2 (en) * 2005-02-11 2009-06-16 International Business Machines Corporation Client / server application task allocation based upon client resources
US8863143B2 (en) 2006-03-16 2014-10-14 Adaptive Computing Enterprises, Inc. System and method for managing a hybrid compute environment
US9225663B2 (en) 2005-03-16 2015-12-29 Adaptive Computing Enterprises, Inc. System and method providing a virtual private cluster
WO2006112981A2 (en) 2005-03-16 2006-10-26 Cluster Resources, Inc. Automatic workload transfer to an on-demand center
US9231886B2 (en) 2005-03-16 2016-01-05 Adaptive Computing Enterprises, Inc. Simple integration of an on-demand compute environment
US20080307425A1 (en) * 2005-03-31 2008-12-11 Shailendra Tripathi Data Processing System and Method
EP1872249B1 (en) 2005-04-07 2016-12-07 Adaptive Computing Enterprises, Inc. On-demand access to compute resources
US20060233099A1 (en) * 2005-04-19 2006-10-19 Marian Croak Method and apparatus for enabling dynamic increase in call and service processing capacity
US7782870B1 (en) * 2005-04-22 2010-08-24 Oracle America, Inc. Method and apparatus for consolidating available computing resources on different computing devices
US7734895B1 (en) 2005-04-28 2010-06-08 Massachusetts Institute Of Technology Configuring sets of processor cores for processing instructions
US8140816B2 (en) * 2005-05-12 2012-03-20 International Business Machines Corporation Utilizing partition resource requirements from workload estimation to automate partition software configuration and validation
US7478272B2 (en) * 2005-09-30 2009-01-13 International Business Machines Corporation Replacing a failing physical processor
US8104033B2 (en) * 2005-09-30 2012-01-24 Computer Associates Think, Inc. Managing virtual machines based on business priorty
US8225313B2 (en) 2005-10-19 2012-07-17 Ca, Inc. Object-based virtual infrastructure management
US8060610B1 (en) 2005-10-28 2011-11-15 Hewlett-Packard Development Company, L.P. Multiple server workload management using instant capacity processors
US7941804B1 (en) * 2005-10-31 2011-05-10 Hewlett-Packard Development Company, L.P. Allocating resources among tiered partitions of different types
JP2007122664A (ja) * 2005-10-31 2007-05-17 Sony Computer Entertainment Inc 情報処理方法および情報処理装置
US8020164B2 (en) * 2005-12-22 2011-09-13 International Business Machines Corporation System for determining and reporting benefits of borrowed computing resources in a partitioned environment
US7461231B2 (en) * 2006-01-12 2008-12-02 International Business Machines Corporation Autonomically adjusting one or more computer program configuration settings when resources in a logical partition change
US7945913B2 (en) * 2006-01-19 2011-05-17 International Business Machines Corporation Method, system and computer program product for optimizing allocation of resources on partitions of a data processing system
US20070239897A1 (en) * 2006-03-29 2007-10-11 Rothman Michael A Compressing or decompressing packet communications from diverse sources
US7996842B2 (en) * 2006-03-30 2011-08-09 Oracle America, Inc. Computer resource management for workloads or applications based on service level objectives
US7987464B2 (en) * 2006-07-25 2011-07-26 International Business Machines Corporation Logical partitioning and virtualization in a heterogeneous architecture
US8024738B2 (en) * 2006-08-25 2011-09-20 International Business Machines Corporation Method and system for distributing unused processor cycles within a dispatch window
US7844709B2 (en) 2006-09-20 2010-11-30 International Business Machines Corporation Method and apparatus for managing central processing unit resources of a logically partitioned computing environment without shared memory access
GB0618894D0 (en) * 2006-09-26 2006-11-01 Ibm An entitlement management system
US8903888B1 (en) * 2006-10-27 2014-12-02 Hewlett-Packard Development Company, L.P. Retrieving data of a virtual machine based on demand to migrate the virtual machine between physical machines
US8296760B2 (en) * 2006-10-27 2012-10-23 Hewlett-Packard Development Company, L.P. Migrating a virtual machine from a first physical machine in response to receiving a command to lower a power mode of the first physical machine
US8185893B2 (en) * 2006-10-27 2012-05-22 Hewlett-Packard Development Company, L.P. Starting up at least one virtual machine in a physical machine by a load balancer
US7698529B2 (en) * 2007-01-10 2010-04-13 International Business Machines Corporation Method for trading resources between partitions of a data processing system
US20080270653A1 (en) * 2007-04-26 2008-10-30 Balle Susanne M Intelligent resource management in multiprocessor computer systems
US20080271030A1 (en) * 2007-04-30 2008-10-30 Dan Herington Kernel-Based Workload Management
US20080271031A1 (en) * 2007-04-30 2008-10-30 Dan Herington Resource Partition Management in Kernel Space
US20080276060A1 (en) * 2007-05-01 2008-11-06 Erik Bostrom Pre-Configured Partitions With Use-Rights Limitations
US8156502B1 (en) * 2007-06-08 2012-04-10 Hewlett-Packard Development Company, L.P. Computer resource allocation as a function of demand type
US8041773B2 (en) 2007-09-24 2011-10-18 The Research Foundation Of State University Of New York Automatic clustering for self-organizing grids
US8762999B2 (en) * 2007-09-27 2014-06-24 Oracle America, Inc. Guest-initiated resource allocation request based on comparison of host hardware information and projected workload requirement
US9207990B2 (en) * 2007-09-28 2015-12-08 Hewlett-Packard Development Company, L.P. Method and system for migrating critical resources within computer systems
US8424078B2 (en) * 2007-11-06 2013-04-16 International Business Machines Corporation Methodology for secure application partitioning enablement
US8302102B2 (en) * 2008-02-27 2012-10-30 International Business Machines Corporation System utilization through dedicated uncapped partitions
US8255917B2 (en) * 2008-04-21 2012-08-28 Hewlett-Packard Development Company, L.P. Auto-configuring workload management system
US20100017026A1 (en) * 2008-07-21 2010-01-21 Honeywell International Inc. Robotic system with simulation and mission partitions
US8195859B2 (en) 2008-12-03 2012-06-05 Hitachi, Ltd. Techniques for managing processor resource for a multi-processor server executing multiple operating systems
US8930953B2 (en) * 2009-01-16 2015-01-06 International Business Machines Corporation Dynamic checking of hardware resources for virtual environments
US9535767B2 (en) 2009-03-26 2017-01-03 Microsoft Technology Licensing, Llc Instantiating a virtual machine with a virtual non-uniform memory architecture
US9529636B2 (en) * 2009-03-26 2016-12-27 Microsoft Technology Licensing, Llc System and method for adjusting guest memory allocation based on memory pressure in virtual NUMA nodes of a virtual machine
US9152200B2 (en) * 2009-06-23 2015-10-06 Hewlett-Packard Development Company, L.P. Resource and power management using nested heterogeneous hypervisors
US8245234B2 (en) * 2009-08-10 2012-08-14 Avaya Inc. Credit scheduler for ordering the execution of tasks
US8489797B2 (en) * 2009-09-30 2013-07-16 International Business Machines Corporation Hardware resource arbiter for logical partitions
US11720290B2 (en) 2009-10-30 2023-08-08 Iii Holdings 2, Llc Memcached server functionality in a cluster of data processing nodes
US10877695B2 (en) 2009-10-30 2020-12-29 Iii Holdings 2, Llc Memcached server functionality in a cluster of data processing nodes
US9122538B2 (en) * 2010-02-22 2015-09-01 Virtustream, Inc. Methods and apparatus related to management of unit-based virtual resources within a data center environment
US8554917B2 (en) * 2010-08-20 2013-10-08 International Business Machines Corporation Performance isolation for storage clouds
US8954978B1 (en) 2010-12-29 2015-02-10 Amazon Technologies, Inc. Reputation-based mediation of virtual control planes
US8667495B1 (en) * 2010-12-29 2014-03-04 Amazon Technologies, Inc. Virtual resource provider with virtual control planes
US8667399B1 (en) 2010-12-29 2014-03-04 Amazon Technologies, Inc. Cost tracking for virtual control planes
US8788669B2 (en) 2011-01-03 2014-07-22 Novell, Inc. Policy and identity based workload provisioning
US8990823B2 (en) * 2011-03-10 2015-03-24 International Business Machines Corporation Optimizing virtual machine synchronization for application software
JP5439435B2 (ja) * 2011-06-14 2014-03-12 株式会社日立製作所 計算機システムおよびその計算機システムにおけるディスク共有方法
US8661448B2 (en) * 2011-08-26 2014-02-25 International Business Machines Corporation Logical partition load manager and balancer
US8788658B2 (en) 2012-02-03 2014-07-22 International Business Machines Corporation Allocation and balancing of storage resources
US9158668B2 (en) * 2012-06-27 2015-10-13 International Business Machines Corporation System and program product to allocate and reallocate CPU resources needed to utilize full available network adapter bandwidth capacity for logical partition migration
US9495195B2 (en) * 2013-10-04 2016-11-15 Hitachi, Ltd. Resource migration between virtual containers based on utilization rate and performance degradation
GB2523568B (en) * 2014-02-27 2018-04-18 Canon Kk Method for processing requests and server device processing requests
US9513806B2 (en) * 2014-05-01 2016-12-06 Microsoft Technology Licensing, Llc Dimension based load balancing
US9609054B2 (en) 2014-05-01 2017-03-28 Microsoft Technology Licensing, Llc Load balancing scalable storage utilizing optimization modules
US9542221B2 (en) * 2014-05-22 2017-01-10 Oracle International Corporation Dynamic co-scheduling of hardware contexts for parallel runtime systems on shared machines
US20180109469A1 (en) * 2016-10-17 2018-04-19 International Business Machines Corporation Systems and methods for controlling process priority for efficient resource allocation
CN109298949B (zh) * 2018-12-04 2021-08-20 国网辽宁省电力有限公司大连供电公司 一种分布式文件系统的资源调度系统
US10963314B2 (en) * 2019-07-31 2021-03-30 Servicenow, Inc. Discovery and mapping of a platform-as-a-service environment
US11595469B2 (en) * 2021-05-25 2023-02-28 Red Hat, Inc. Balancing data partitions among dynamic services in a cloud environment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5487170A (en) * 1993-12-16 1996-01-23 International Business Machines Corporation Data processing system having dynamic priority task scheduling capabilities
US5473773A (en) * 1994-04-04 1995-12-05 International Business Machines Corporation Apparatus and method for managing a data processing system workload according to two or more distinct processing goals
US5675739A (en) 1995-02-03 1997-10-07 International Business Machines Corporation Apparatus and method for managing a distributed data processing system workload according to a plurality of distinct processing goal types
US6651125B2 (en) 1999-09-28 2003-11-18 International Business Machines Corporation Processing channel subsystem pending I/O work queues based on priorities
US6587938B1 (en) * 1999-09-28 2003-07-01 International Business Machines Corporation Method, system and program products for managing central processing unit resources of a computing environment
US6721568B1 (en) * 1999-11-10 2004-04-13 Telefonaktiebolaget Lm Ericsson (Publ) Admission control in a mobile radio communications system

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8046764B2 (en) 2004-04-20 2011-10-25 Hitachi, Ltd. Redistribution of unused resources assigned to a first virtual computer having usage below a predetermined threshold to a second virtual computer
JP2006012122A (ja) * 2004-04-30 2006-01-12 Microsoft Corp マルチメディアコンソール内の並列システムアプリケーション
JP2005327269A (ja) * 2004-04-30 2005-11-24 Microsoft Corp マルチメディアコンソール上のシステムアプリケーション
US8707317B2 (en) 2004-04-30 2014-04-22 Microsoft Corporation Reserving a fixed amount of hardware resources of a multimedia console for system application and controlling the unreserved resources by the multimedia application
US7765552B2 (en) 2004-09-17 2010-07-27 Hewlett-Packard Development Company, L.P. System and method for allocating computing resources for a grid virtual system
JP2009510572A (ja) * 2005-09-30 2009-03-12 インターナショナル・ビジネス・マシーンズ・コーポレーション ロジカル・パーティションにプロセッサを割り当てるための方法、装置、およびプログラム
JP4841632B2 (ja) * 2005-09-30 2011-12-21 インターナショナル・ビジネス・マシーンズ・コーポレーション ロジカル・パーティションにプロセッサを割り当てるための方法、装置、およびプログラム
JP2007108944A (ja) * 2005-10-12 2007-04-26 Renesas Technology Corp 半導体集積回路装置
JP2007193776A (ja) * 2006-01-19 2007-08-02 Internatl Business Mach Corp <Ibm> ロジカル・パーティションのメモリ・アフィニティを動的に改善するための装置および方法
JP2007272263A (ja) * 2006-03-30 2007-10-18 Hitachi Ltd 計算機の管理方法、計算機システム、及び管理プログラム
JP4519098B2 (ja) * 2006-03-30 2010-08-04 株式会社日立製作所 計算機の管理方法、計算機システム、及び管理プログラム
WO2008132924A1 (ja) * 2007-04-13 2008-11-06 Nec Corporation 仮想計算機システムおよびその最適化方法
JP5596343B2 (ja) * 2007-04-13 2014-09-24 日本電気株式会社 仮想計算機システムおよびその最適化方法
US9104494B2 (en) 2007-04-13 2015-08-11 Nec Corporation Virtual computer system and its optimization method
WO2009066481A1 (ja) * 2007-11-22 2009-05-28 Mitsubishi Electric Corporation 仮想計算機システム及び仮想計算機重み付け設定処理方法及び仮想計算機重み付け設定処理プログラム
JP4999932B2 (ja) * 2007-11-22 2012-08-15 三菱電機株式会社 仮想計算機システム及び仮想計算機重み付け設定処理方法及び仮想計算機重み付け設定処理プログラム
WO2009113571A1 (ja) * 2008-03-11 2009-09-17 日本電気株式会社 複数の基盤ソフトウェアを動作可能な情報処理装置および方法
JP2018190355A (ja) * 2017-05-11 2018-11-29 日本電信電話株式会社 リソース管理方法

Also Published As

Publication number Publication date
EP1385091A2 (en) 2004-01-28
US7140020B2 (en) 2006-11-21
EP1385091A3 (en) 2005-08-31
US20030037092A1 (en) 2003-02-20

Similar Documents

Publication Publication Date Title
JP2004062911A (ja) コンピュータ資源の割り当てを管理するシステム
US7748005B2 (en) System and method for allocating a plurality of resources between a plurality of computing domains
JP3944175B2 (ja) コンピュータ・システムにおける区画間の動的プロセッサ再配分
US8261281B2 (en) Optimizing allocation of resources on partitions of a data processing system
JP4112420B2 (ja) 重みを使用してアプリケーションにシステム資源を割当てる方法およびシステム
CN108701059B (zh) 多租户资源分配方法和系统
JP4374391B2 (ja) 複数のインスタンスアプリケーションに対し負荷分散装置を動作させるシステムおよび方法
KR100419680B1 (ko) 계산 환경의 코프로세서 내에서의 비동기 i/o 요청들의 관리 방법 및 시스템과 기록 매체
KR100420421B1 (ko) 계산환경의 논리 프로세서들을 관리하는 방법, 시스템 및 기록매체
US7665090B1 (en) System, method, and computer program product for group scheduling of computer resources
KR100420420B1 (ko) Cpu 자원 관리 방법 및 시스템과 기록 매체
KR100420419B1 (ko) 계산 환경의 분할들의 그룹들을 관리하는 방법, 시스템 및 기록 매체
JP2559915B2 (ja) ロードバランスシステム
US8112524B2 (en) Recommending moving resources in a partitioned computer
US7975123B2 (en) Computer system, management computer and storage system, and storage area allocation amount controlling method
US20050188075A1 (en) System and method for supporting transaction and parallel services in a clustered system based on a service level agreement
BRPI0014350B1 (pt) gerenciamento de carga de trabalho em um ambiente de computação
JPH10283211A (ja) マルチシステム環境のプロセッサ・リソース管理方法
US8356098B2 (en) Dynamic management of workloads in clusters
US7237139B2 (en) Services heuristics for computer adapter placement in logical partitioning operations
JP2003067203A (ja) 実時間組み込みリソース管理システム
JP2023009934A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN114625544A (zh) 基于虚拟机业务负载动态分配的内存气球管理方法和装置
JP2003131894A (ja) コンピュータ環境の資源管理方法
JP2004152060A (ja) 計算機システム、および、そのディスクサブシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080610

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090316

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090319

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090818