JP6408148B2 - リソース管理方法、ホストおよびエンドポイント - Google Patents

リソース管理方法、ホストおよびエンドポイント Download PDF

Info

Publication number
JP6408148B2
JP6408148B2 JP2017519483A JP2017519483A JP6408148B2 JP 6408148 B2 JP6408148 B2 JP 6408148B2 JP 2017519483 A JP2017519483 A JP 2017519483A JP 2017519483 A JP2017519483 A JP 2017519483A JP 6408148 B2 JP6408148 B2 JP 6408148B2
Authority
JP
Japan
Prior art keywords
resource
endpoint
performance
cpu
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017519483A
Other languages
English (en)
Other versions
JP2017533509A (ja
Inventor
柏峰 ▲ユ▼
柏峰 ▲ユ▼
炯炯 ▲顧▼
炯炯 ▲顧▼
沐▲暉▼ 林
沐▲暉▼ 林
洲 ▲ユ▼
洲 ▲ユ▼
凌志 毛
凌志 毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2017533509A publication Critical patent/JP2017533509A/ja
Application granted granted Critical
Publication of JP6408148B2 publication Critical patent/JP6408148B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3017Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is implementing multitasking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3442Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for planning or managing the needed capacity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3452Performance evaluation by statistical analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5044Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45579I/O management, e.g. providing access to device drivers or storage

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Stored Programmes (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Computer And Data Communications (AREA)

Description

本願は、2014年12月8日に中国特許庁に出願された、“RESOURCE MANAGEMENT METHOD, HOST, AND ENDPOINT”と題する、中国特許出願番号201410745161.3に対して優先権を主張し、その全体が参照によって本明細書に組み込まれる。
本発明はコンピュータ分野に関し、詳細には、リソース管理技術に関する。
データセンタは、コンピュータシステムおよび他の補助デバイスを含む、一組の複合設備である。メンテナンスを容易にするために、これらのデバイスは同じアーキテクチャ内に置かれてよい。データセンタは、記憶、演算およびネットワーキング等の機能を提供することができる。
仮想ローカルエリアネットワーク(Virtual LAN, VLAN)内のデータを処理するとき、データセンタは、高い優先度を有するデータに使用のためにリソースを優先的に割り当てるために、VLAN内のトラフィック上で異なるレベルで優先度制御を実行してよいとともに、同じVLAN内で異なるプロトコルにおけるデータに対して優先度制御を実行してもまたよい。例えば、インターネット小型コンピュータシステムインタフェース(iSCSI)プロトコルにおけるデータの優先度は、ファイバチャネル(Fibre Channel, FC)プロトコルにおけるデータの優先度よりも高くなるように設定される。
プロセスは、データ動作操作ユニットである。データセンタにおいては、異なるプロセスは異なるサービスに対応していてよい。しかしながら、従来技術では、各プロセスのサービスの品質を保証することは難しく、且つ、いくつかのプロセスが十分なリソースを取得しないか、または、プロセスによって使用されるリソースが要件に達しないケースが発生し得る。
本発明の第1の可能な実施方式は、ホストに適用されるリソース管理方法を提供し、ここで、ホストは、その中でプロセスが構成されるCPUおよびCPUに接続されるエンドポイントを含み、エンドポイントはI/Oデバイスに接続され、方法は、CPUによって、ターゲットエンドポイントをターゲットプロセスに割り当てるステップであって、ここで、仮想デバイスがターゲットエンドポイント上に配置される、ステップと、ターゲットエンドポイントによって、ターゲットプロセスの性能仕様を取得し、性能仕様に従って、仮想デバイスの性能パラメータを調整するステップであって、ここで、調整された仮想デバイスは、ターゲットエンドポイントを使用する全てのプロセスの性能仕様の総要件を満たす、ステップと、ターゲットプロセスがリソースにアクセスする必要があるとき、CPUによって、ターゲットプロセスの、仮想デバイスのためのリソースアクセス要求をターゲットエンドポイントに送信するステップと、リソースアクセス要求を受信した後、ターゲットエンドポイントによって、I/Oデバイスから、ターゲットプロセスの性能仕様を満たすリソースを取得し、取得されたリソースをターゲットプロセスに使用のために提供するステップとを含む。
この解決手段を使用することによって、エンドポイントに割り当てられたターゲットプロセスおよび別のプロセスのリソース性能が事前に設定された標準に達することが保証されることができ、このことは、QoS効果を達成する。
本発明の第1の可能な実施方式の第1の態様では、ターゲットエンドポイントによって、ターゲットプロセスの性能仕様を取得するステップの具体的な方式は、ターゲットエンドポイントによって、CPUから性能仕様を取得するステップであってよく、または、ターゲットエンドポイントによって、ターゲットプロセスが過去に動作していたときに占有されたリソースの性能に関する統計を収集し、統計結果に従って、性能仕様を生成するステップであってよい。前者の方式はより速く、且つ、後者の方式は、プロセスの実際の要件をより良く満たすことができる。
本発明の第1の可能な実施方式の第2の態様では、ターゲットプロセスは、仮想マシン内で動作するプロセス、または、物理マシン内で動作するマルチスレッドのプロセス、または、仮想マシンである。3つ全てが「プロセス」の概念に応じる。
本発明の第1の可能な実施方式の第3の態様では、本発明の第1の可能な実施方式のI/Oリソースは、単一のI/Oデバイスから来てよく、または、I/Oリソースプールから来てよい。I/OリソースがI/Oリソースプールから来る場合、複数のエンドポイントからの複数のI/Oデバイスのリソースは、I/Oリソースプールを共同して形成し、または、同じエンドポイントからの複数のI/Oデバイスのリソースは、I/Oリソースプールを共同して形成する。リソースプーリングによって、I/Oリソースは、エンドポイント間でまたはエンドポイント内でより良くスケジュールされることができ、且つ、I/Oデバイスの利用率はより高くなることができる。
本発明の第1の可能な実施方式の第4の態様では、調整された仮想デバイスが、ターゲットエンドポイントを使用する全てのプロセスの性能仕様の総要件を満たすことは、具体的には、複数のプロセスによって共有されることができる性能について、全ての性能仕様におけるこの性能パラメータに関する最大要件を満たすことと、複数のプロセスによって共有されることができない性能について、全ての性能仕様における性能パラメータに関する総要件を満たすこととを含む。このようにして、ターゲットプロセスによって必要とされるリソース性能が保証されることができる。
本発明の第1の可能な実施方式の第5の態様では、プロセスをホストから別のホストに移行するための方法が提供され、ここで、別のホストは、別のCPU、別のエンドポイントおよび別のI/Oリソースプールを含み、且つ、移行するステップの具体的なステップは、CPUによって、プロセスの性能仕様を、別のCPUに送信するステップと、別のCPUによって、性能仕様を、別のエンドポイントに送信するステップと、別のエンドポイントによって、別の仮想デバイスを生成するステップであって、ここで、別の仮想デバイスは性能仕様を満たす、ステップと、CPUによって、プロセスの記述情報を別のCPUに送信し、別のCPUによって、記述情報に従って、新しいプロセスを生成するステップと、新しいプロセスがリソースにアクセスする必要があるとき、別のCPUによって、別の仮想デバイスのための新しいプロセスの別のリソースアクセス要求を別のエンドポイントに送信し、別のリソースアクセス要求を受信した後、別のエンドポイントによって、性能仕様に従って、別のI/Oリソースプールからリソースを取得し、リソースをターゲットプロセスに使用のために提供するステップとを含む。新しいエンドポイントはまた、新しいプロセス(移行後に取得されるプロセス)のために、この移行解決手段を使用することによって、性能要件を満たすリソースを提供することができる。
本発明の第2の可能な実施方式は、CPUおよびエンドポイントを含むとともに、I/Oリソースを管理するように構成されるホストを提供し、ここで、CPUは、プロセスを実行し、ターゲットエンドポイントをプロセスに割り当てるように構成され、ここで、ターゲットエンドポイントはCPUと通信し、且つ、ターゲットプロセスがリソースにアクセスする必要があるとき、CPUは、ターゲットプロセスの、仮想デバイスのためのリソースアクセス要求をターゲットエンドポイントに送信し、ターゲットエンドポイントは、仮想デバイスを生成するように構成され、ターゲットプロセスの性能仕様を取得し、性能仕様に従って、仮想デバイスの性能パラメータを調整するように構成され、I/Oデバイスに接続され、リソースアクセス要求を受信した後、ターゲットプロセスの性能仕様に従って、I/OデバイスからI/Oリソースを取得し、リソースをターゲットプロセスに使用のために提供するようにさらに構成され、ここで、調整された仮想デバイスは、ターゲットエンドポイントを使用する全てのプロセスの性能仕様の総要件を満たす。本発明の第2の可能な実施方式におけるホストは、本発明の第1の可能な実施方式の実施方法および第1の可能な実施方式の各態様を使用してよく、このことは対応する有益な効果を有する。
本発明の第3の可能な実施方式は、エンドポイントに適用されるリソース管理方法を提供し、ここで、エンドポイントは、CPUインタフェースを使用することによって、CPUに接続され、エンドポイントは、入力/出力I/Oインタフェースを使用することによって、I/Oデバイスに接続され、仮想デバイスは、エンドポイント上に配置され、且つ、方法は、ターゲットプロセスの性能仕様を取得し、性能仕様に従って、仮想デバイスの性能パラメータを調整するステップであって、ここで、調整された仮想デバイスは、エンドポイントを使用する全てのプロセスの性能仕様の総要件を満たす、ステップと、CPUインタフェースを使用することによって、ターゲットプロセスの、仮想デバイスのためのリソースアクセス要求を受信し、I/Oデバイスから、ターゲットプロセスの性能仕様を満たすリソースを取得し、CPUインタフェースを使用することによって、取得されたリソースをターゲットプロセスに提供するステップとを含む。本発明の第3の可能な実施方式におけるエンドポイントは、第1の可能な実施方式におけるエンドポイントおよび第1の可能な実施方式の各態様内の解決手段におけるエンドポイントと一貫しており、従って、前述の操作ステップを実行することができ、このことは、対応する有益な効果を有する。
本発明の第4の可能な実施方式は、エンドポイントに適用されるリソース管理方法を提供し、ここで、エンドポイントは、CPUインタフェースを使用することによって、CPUに接続され、エンドポイントは、入力/出力I/Oインタフェースを使用することによって、I/Oデバイスに接続され、仮想デバイスは、エンドポイント上に配置され、且つ、方法は、ターゲットプロセスの性能仕様を取得し、性能仕様に従って、仮想デバイスの性能パラメータを調整するステップであって、ここで、調整された仮想デバイスは、エンドポイントを使用する全てのプロセスの性能仕様の総要件を満たす、ステップと、CPUインタフェースを使用することによって、ターゲットプロセスの、仮想デバイスのためのリソースアクセス要求を受信し、I/Oデバイスから、ターゲットプロセスの性能仕様を満たすリソースを取得し、CPUインタフェースを使用することによって、取得されたリソースをターゲットプロセスに提供するステップとを含む。本発明の第4の可能な実施方式におけるエンドポイントは、第1の可能な実施方式におけるエンドポイントおよび第1の可能な実施方式の各態様内の解決手段におけるエンドポイントと一貫しており、従って、前述の操作ステップを実行することができ、このことは、対応する有益な効果を有する。
本発明の第の可能な実施方式は、仮想デバイスが配置される、リソース管理装置を提供し、ここで、リソース管理装置は、ハードウェアであってよく、または、ソフトウェアであってよいとともに、エンドポイントまたはエンドポイントにおけるソフトウェアの構造的記述である。リソース管理装置は、ターゲットプロセスの性能仕様およびリソースアクセス要求を受信するように構成される受信モジュールと、性能仕様に従って、仮想デバイスの性能パラメータを調整するように構成される仮想デバイス調整モジュールであって、ここで、調整された仮想デバイスは、リソース管理デバイスを使用する全てのプロセスの性能仕様の総要件を満たす、仮想デバイス調整モジュールと、受信モジュールが、ターゲットプロセスの、仮想デバイスのためのリソースアクセス要求を受信した後、I/Oデバイスから、ターゲットプロセスの性能仕様を満たすリソースを取得し、リソースをターゲットプロセスに提供するように構成されるリソース獲得モジュールとを含む。本発明の第の可能な実施方式におけるエンドポイントは、第1の可能な実施方式におけるエンドポイントおよび第1の可能な実施方式の各態様内の解決手段におけるエンドポイントの機能を有し、このことは、対応する有益な効果を有する。
本発明の第の可能な実施方式では、エンドポイントの内部構造エンドポイントが説明され、ここで、エンドポイントはCPUに接続され、且つ、エンドポイントは、CPUに接続されるように構成されるCPUインタフェースと、I/Oデバイスに接続されるように構成される入力/出力I/Oインタフェースと、仮想デバイスが配置される処理ユニットとを含み、ここで、処理ユニットは、CPUインタフェースおよびI/Oインタフェースに接続されるとともに、ターゲットプロセスの性能仕様を取得し、性能仕様に従って、仮想デバイスの性能パラメータを調整し、CPUインタフェースを使用することによって、ターゲットプロセスの、仮想デバイスのためのリソースアクセス要求を受信し、I/Oデバイスから、ターゲットプロセスの性能仕様を満たすリソースを取得し、CPUインタフェースを使用することによって、取得されたリソースをターゲットプロセスに提供するようにさらに構成され、ここで、調整された仮想デバイスは、エンドポイントを使用する全てのプロセスの性能仕様の総要件を満たす。本発明の第の可能な実施方式におけるエンドポイントは、第1の可能な実施方式におけるエンドポイントおよび第1の可能な実施方式の各態様内の解決手段におけるエンドポイントと一貫しており、従って、前述の操作ステップを実行することができ、このことは、対応する有益な効果を有する。
本発明の実施形態における解決手段をより明確に説明するために、以下では、実施形態を説明するために必要とされる添付図面を簡潔に説明する。以下の説明における添付図面は単に、本発明のいくつかの実施形態を示し、且つ、他の図面は、これらの添付図面からさらに導出されることができる。
図1は、本発明の実施形態に係るコンピュータの内部トポロジ図である。 図2は、本発明の実施形態に係る、2つのコンピュータが相互接続されているケースのトポロジ図である。 図3は、本発明の実施形態に係る、リソース管理方法のフローチャートである。 図4は、本発明の実施形態に係る、プロセス移行方法のフローチャートである。 図5は、本発明の実施形態に係る、リソース管理デバイスの構成図である。 図6は、本発明の実施形態に係る、エンドポイントの構成図である。
以下では、本発明の実施形態における添付図面を参照して、本発明における技術的解決手段を明確且つ完全に説明する。明らかに、説明される実施形態は単に、実施形態の一部であるが全てではない。本発明の実施形態に基づいて得られる全ての他の実施形態は、本発明の保護範囲に包含されるべきである。
PCIeは、データセンタにおいて広く使用されているシステムバス標準であり、且つ、多くのデータセンタコンピュータ周辺機器は、PCIeエンドポイント(Endpoint)の範囲に属する。
本発明の方法は、周辺構成要素相互接続エクスプレス(PCI Express, PCIe)エンドポイント(Endpoint)において使用されてよい。PCIeエンドポイントは、例えば、ネットワークアダプタ(Network Adapter)またはホストバスアダプタ(Host Bus Adapter, HBA)カードであってよい。図1を参照すると、図1は、コンピュータの内部構成図である。エンドポイント12は、PCIeトランザクションのイニシエータまたはコンプリータである。CPU11はエンドポイント12に接続される。エンドポイント12はI/Oデバイス13に接続されるとともに、I/OデバイスのI/OリソースをCPUに使用のために提供する。I/Oデバイスは、例えば、メモリ、アクセラレータカードまたはネットワークアダプタであり、ここで、メモリは記憶リソースを提供することができ、アクセラレータカードはコンピューティングリソースを提供することができ、ネットワークアダプタは帯域幅リソースを提供することができる。ホストが複数のCPUを含むとき、CPU11は、同じホスト上の全てのCPUのセットである。I/Oデバイス13は、コンピュータの内部に配置されてよく、または、コンピュータの周辺デバイスであってよいことは留意されるべきである。以下では、I/Oデバイスがコンピュータの内部に配置されるケースを説明する。
PCIeエンドポイントはまた、エンドポイントと呼ばれてもよい。エンドポイントは、それ自身の代わりに、PCIeトランザクションのリクエスタまたはコンプリータとして役目を果たすPCIe機能デバイス、または非PCIeデバイスである。例えば、エンドポイントは、PCIeバス上に取り付けられたグラフィックコントローラ、またはPCIe USBホストコントローラである。エンドポイントは、Legacyエンドポイント、PCI Expressエンドポイントおよびルート複合統合エンドポイントのタイプに包含される。
エンドポイント12はプロセッサを含み、且つ、従って、演算能力を有する。エンドポイントは、インタフェースをさらに含むとともに、I/OデバイスおよびCPUに別々に接続される。エンドポイントは、リソースプール方式で、エンドポイントに接続されるI/Oデバイス13を管理することができ、且つ、リソースプール内のリソースをCPU11に使用のために提供することができる。エンドポイント12は仮想デバイスを実行してよく、ここで、仮想デバイスは、CPU11上で動作するサービスを実行するように構成される。複数のエンドポイント12があるとき、エンドポイント12は相互接続されてよく、有線または無線方式で直接接続されてよく、または、スイッチを使用することによって、接続されてよい。
複数のエンドポイント12は、全てのI/Oデバイス13を共同して管理するために、スイッチ14を使用することによって、互いに通信してよい。例えば、各エンドポイント12のI/Oデバイス13によって提供されるリソースは、エンドポイント12によって共有されてよい。エンドポイントに直接属するI/Oデバイス13が、仮想デバイス(vDev)のために十分なリソースを提供することができないとき、リソースは、別のエンドポイント12に直接属するI/Oデバイス13から取得されてよい。
任意で、複数のエンドポイント12があるとき、スイッチ(図には示されない)は、CPU11とエンドポイント12との間に追加されてよい。スイッチは、CPU11とエンドポイント12との間でデータ交換を実行する。一方では、エンドポイント12の外部ポートは拡張されてよく、すなわち、CPU11は、より多くのエンドポイント12に接続されてよく、他方では、CPU11のデータは、正しいエンドポイント12に、より正確に且つ速く送信されてよい。
図2は別のトポロジ図であり、且つ、図1との違いは、2つのコンピュータが含まれることである。コンピュータのエンドポイントは、スイッチ14を使用することによって相互接続され、その結果、エンドポイント12は、ネゴシエーションによって、全てのI/Oデバイス13を共同して管理することができる。3つ以上のコンピュータによって構成されるシステムはまた、これらのコンピュータのエンドポイントがスイッチを使用することによって接続される限り、本発明に適用可能である。コンピュータはまた、ホストまたはノードとも呼ばれ、且つ、異なるコンピュータは、それらのそれぞれのオペレーティングシステムを操作する。プロセスが仮想マシン内で動作する場合、仮想マシンはハイパーバイザ(hypervisor)内で動作し、且つ、異なるホストは、それら自身のハイパーバイザを有する。
以下では、メモリがI/Oデバイスとして使用される例を使用することによって、本発明の実施形態を説明する。メモリ、例えば、磁気ディスクまたはソリッドステートディスク等の媒体は、独立した記憶媒体であってよく、または、複数の記憶メディアによって構成されるアレイであってよい。記憶デバイスは、スループット、待ち時間、帯域幅、パケット損失率およびジッタ等の複数のパラメータを含むサービス能力を提供することができる。異なるプロセス(Process)によって要求されるサービスの品質(QoS)は一般に異なる。例えば、高い帯域幅は一般に、高解像度ビデオのプロセスを満たすために必要とされ、且つ、より短い待ち時間およびより低いパケット損失率は一般に、バンキングサービスのプロセスにおいて期待される。
サービスレベルアグリーメント(Service Level Agreement, SLA)は、サービスレベルの品質についての、サービス提供者とユーザとの間のネゴシエーションによって決定されるアグリーメントまたはコントラクトであり、且つ、アグリーメントまたはコントラクトは、サービス提供者およびユーザによって到達される、サービスの内容、優先度、責任等についてのアグリーメントを指定する。SLAは主に、(1) 商業的な部分、例えば、2つの契約の当事者、権利および責任、および請求ルール、(2) 技術的な部分、例えば、送信元ノードアドレス、宛先ノードアドレス、および、サービスの品質を満たすために必要とされる、予約済帯域幅、待ち時間、ジッタおよびパケット損失、の2つの部分、およびネットワークに関するいくつかの他の技術的なパラメータを含む。本発明の本実施形態では、SLAサービスオブジェクトにおけるサービスの品質に関する部分のみが議論されることは留意されるべきである。具体的には、SLAの技術的な部分に記載される性能仕様のみが議論され、ここで、性能仕様は量子化されてよく、例えば、帯域幅の値、待ち時間の値、ジッタの値またはパケット損失率の値が、性能仕様であってよい。SLAの残りの部分(例えば、商業的な部分および送信元アドレスまたは宛先アドレス)は、本発明の本実施形態では議論されない。例えば、プロセス1の待ち時間の性能仕様が、0.5ms以下であるように要求される場合、このサービスのために生成されるSLAは、“プロセス1:待ち時間は0.5ms以下である”である。
リソース管理方法の実施形態のより良い説明のために、図3を参照されたい。CPUは、複数のプロセスを実行してよく、且つ、以下では、例として、プロセスのうちの1つの動作プロセスを使用することによって、リソース管理を実行する方法を説明する。説明の便利さのために、このプロセスはターゲットプロセスと呼ばれる。
ステップ21.エンドポイントは、仮想デバイス(Virtual Device, vDev)を生成する。各エンドポイントは、その自身の仮想デバイスを生成してよく、または、1つのエンドポイントは、複数の仮想デバイスを生成するとともに、複数の仮想デバイスを各エンドポイントに割り当ててよい。vDevの数は、エンドポイントの数と同じであり、且つ、各エンドポイントは、1つの仮想デバイスを実行する。
仮想デバイスは仮想I/Oデバイスである。エンドポイントが1つのI/Oデバイスに接続されるとき、CPUは、I/Oデバイスにアクセスしてよい。エンドポイントが複数のI/Oデバイスに接続される場合、CPUがこれらのI/Oデバイスに直接アクセスすることは難しい。従って、仮想I/Oデバイスが、I/Oデバイスの数を1つに変更するために使用される。すなわち、I/Oデバイス仮想化によって、CPUには、エンドポイントは常にただ一つのI/Oデバイスに接続されているように見える。
本発明の本実施形態では、仮想デバイスvDevのリソースは、リソースプールに由来し、且つ、リソースプールのリソースが複数のエンドポイントに由来する場合、vDevのリソースは、エンドポイントによって限定されなくてよい。すなわち、エンドポイントに対応するvDevのリソースは、エンドポイントのI/Oデバイスに由来してよく、ホスト内の別のエンドポイントのI/Oデバイスに由来してよく、または、別のホスト内のエンドポイントのI/Oデバイスに由来してよい。
vDevは、物理機能(Physical Function, PF)、多機能(Multi Function, MF)または仮想機能(Virtual Function, VF)の形態でCPUに提供されてよい。すなわち、vDevは、仮想化されたPF、MFまたはVFであってよい。
複数のエンドポイントが1つのリソースプールを共有するとき、リソースプール内のリソースは、エンドポイントの数に従って、全てのvDevに均等に割り当てられてよい。例えば、全体として3個のエンドポイントおよび6個のメモリがあり、各メモリの記憶空間は100GBであり、そのとき200GBの記憶空間が各vDevに割り当てられる。異なるvDevに割り当てられたリソースは異なってよい。例えば、100GBの記憶空間は第1のvDevに割り当てられ、200GBの記憶空間は第2のvDevに割り当てられ、300GBの記憶空間は第3のvDevに割り当てられる。I/Oリソースのいくつかのタイプについて、例えば、アクセラレータカードによって提供されるI/Oリソースについては、このステップでは、vDevは生成されるだけであってよいが、リソースはそのvDevに割り当てられない。全てのI/Oデバイスによって提供されるリソースは、リソースプールの一部になるとともに、エンドポイントによって管理されることができる。I/Oデバイスによって提供されるリソースは、I/Oリソースと呼ばれる。
このステップでは、各エンドポイントに対して1つのvDevが作成され、その結果、vDevはその後呼び出されることができることは留意されるべきである。リソースの各vDevへの割り当ては、シン割り当てであってよく、すなわち、リソースが割り当てられるが、vDevに割り当てられたリソースは、実際には、vDevによって占有されず、且つ、プロセスがリソースを使用するとき、対応するリソースは、実際には、プロセスの要件に従って占有される。シン割り当ては、リソース利用を改善することができる。確かに、別の実施方式では、シン割り当ては使用されなくてよく、且つ、vDevは実際にリソースを占有する。割り当てモードに関わらず、vDevのためのリソースの数は調整されてよく、例えば、1つのvDevに割り当てられ、且つ1つのvDevによって所持されるリソースは、別のvDevに使用のために転用されてよい。
本発明の本実施形態では、複数のエンドポイントのI/Oデバイスのリソースが、I/Oリソースプールを共同して形成する場合、リソースプールにおけるリソースは、エンドポイントにおける任意のエンドポイントによって呼び出されてよく、従って、リソース利用は改善されることができる。複数のホストによって構成されるリソース管理システムにおいてでも、ホストのI/Oリソースはリソースプールを共同して形成するため、1つのエンドポイントは、別のエンドポイントのI/Oデバイスを呼び出してよい。呼び出すエンドポイントおよび呼び出されるエンドポイントは、同じホスト上にあっても異なるホスト上にあってもよい。
具体的な呼出し方法は、ターゲットプロセスはvDevが配置されるエンドポイントにリソース使用要求を送信し、vDevが配置されるエンドポイント(ターゲットエンドポイント)は、ターゲットプロセスによる使用のために、エンドポイントのI/Oデバイスのリソースを呼び出し、ターゲットエンドポイントはまた、エンドポイント間のスイッチを使用することによって、リソース呼出し要求を別のエンドポイントに送信してよく、要求を受信した後、別のエンドポイントは、要求されたリソースをターゲットプロセスに使用のために割り当てることである。
このステップでは、各エンドポイントは1つのvDevを有し、且つ、エンドポイントの数は1または少なくとも2であってよい。エンドポイントの数が1であるとき、この唯一のエンドポイントは1つのvDevを有する。ホストのエンドポイントの数が少なくとも2であるとき、各エンドポイントは1つのvDevを有する。エンドポイントの数が少なくとも2であるとき、全てのvDevのリソースは、エンドポイント間の相互ネゴシエーションによって、共同して決定されてよく、且つ、vDevは、決定されたリソースに従って生成され、または、全てのvDevは、1つのエンドポイントによって生成されてよく、リソースの具体的な数が各vDevに割り当てられ、次いで、生成されたvDevがエンドポイントに割り当てられる。
vDevが生成された後、CPUは、プロセスとvDevとの間の対応関係をさらに確立してよい。vDevはエンドポイント上で動作するため、vDevとvDevが配置されるエンドポイントとの間に対応関係が存在する。すなわち、対応関係はまた、プロセスとエンドポイントとの間にも存在する。このようにして、プロセスは、対応するエンドポイントから、I/Oリソースを取得してよい。プロセスとvDevとの間にあるとともに、CPUによって確立される対応関係は、プロセスが、vDevが配置されるエンドポイントからリソースを呼び出すための許可を有することを表す。
ステップ22.CPUは、プロセスとエンドポイントとの間の対応関係に従って、ターゲットプロセスのSLAをターゲットエンドポイントに送信する。プロセスはCPU内で動作し、且つ、CPUは、プロセスのSLAを取得してよい。加えて、プロセスの識別子は、エンドポイントにさらに送信されてよい。プロセスの識別子は、プロセスアドレス空間識別子(Process Address Space Identifier, PAS ID)であってよく、ここで、異なるプロセスのPAS IDは異なり、または、プロセスの識別子は、プロセスを識別することができる別のタイプのIDであってよい。
CPUが、SLAを使用することによって各性能仕様をエンドポイントに送信することは、エンドポイントが性能仕様を取得する任意の方式にすぎない。別の任意の方式は、エンドポイントが、事前に記録された設定ファイルから性能仕様を取得することであり、ここで、設定ファイルは、ネットワークサーバ上、または、ローカルハードディスク内に記憶されてよい。SLAは、データベース内にさらに記録されてよく、ここで、データベースはまた、ネットワークサーバ上、または、ローカルハードディスク内に記憶されてもよく、または、分散記憶システム内に記憶されてもよい。
例えば、プロセスは、データを書き込むプロセスであり、且つ、プロセスのSLAで搬送される性能仕様は、IOPS(Input/Output Per Second, 入力/出力毎秒)≧500、待ち時間(Latency Time)≦1ms、帯域幅≧500Mbpsの3つの項目を含む。記憶デバイスはエンドポイントに接続されるとともに、エンドポイントを使用することによって、全ての性能仕様を満たすI/Oリソースを書込みプロセスに使用のために提供する。ターゲットプロセスの性能仕様を満たすリソースは、その性能仕様が、ターゲットプロセスの性能仕様以上であるリソースを指す。
可能なケースは、プロセスが仮想マシン内で動作し、且つ、仮想マシンがCPU内で動作することである。別の可能なケースは、仮想マシンがなく、且つ、プロセスがCPU内で直接動作することである。従来より、プロセスはまた、操作またはジョブ(job)とも呼ばれる。プロセスは、1つ以上のスレッド(Thread)によって構成される。仮想マシンのシナリオにおいては、本発明の実施形態で言及されるプロセスは、前述の仮想マシンの内部プロセスであってよく、または、オペレーティングシステムにとっては、仮想マシンもまたプロセスであるため、仮想マシン自身を指してよいことは留意されるべきである。従って、本発明の本実施形態におけるプロセスは、CPU内で直接動作するプロセス、CPU内で動作する仮想マシンおよび仮想マシン内で動作するプロセスの少なくとも3つの可能性を含む。
ステップ23.ターゲットプロセスのSLAを受信した後、ターゲットエンドポイントは、vDevの全ての性能パラメータを調整し、その結果、vDevの調整された性能パラメータは、全ての受信された有効SLAを満たす。加えて、ターゲットエンドポイントは受信されたSLAを記憶し、且つ、プロセスの1よりも多くのSLAが受信されたとき、SLAを記憶することに加えて、各性能仕様をさらに結合して、結合された性能仕様を生成し、結合された性能仕様を記憶する。
vDevの調整された性能パラメータは、全ての受信された有効SLAを満たす。有効SLAは、現在受信されたSLAおよび前に受信されたSLAを含むが、そのリソースが解放されたプロセスのSLAを含まない。すなわち、このエンドポイントによって受信されたリソースのための全てのプロセスの総要求は、vDevのリソースを呼び出すことによって満たされてよい。ここで説明される全てのプロセスは、ターゲットエンドポイントからリソースを呼び出す許可を未だ有するプロセスであり、終了したプロセスを含まず、そのリソースが解放されたプロセスを含まない。
1つのエンドポイントが複数のプロセスに対応している場合、エンドポイントは、同じ期間に、または異なる期間に、複数のプロセスのSLAを受信してよく、且つ、エンドポイントは、全ての受信されたSLAを満たす必要がある。具体的な操作方法は、性能仕様を結合し、結合された性能仕様を満たすようにvDevの性能パラメータを調整することである。結合ポリシーは、複数のプロセスによって共有されることができる性能のタイプについて、性能の各タイプに対して、最大性能要件を有する性能仕様が結合された性能仕様として使用されることである。複数のプロセスによって共有されることができない(すなわち、プロセスによって占有された後、別のプロセスによって占有されることができない)性能のタイプについては、性能の各タイプに対して、性能パラメータの合計が、結合された性能仕様として使用される。例えば、IOPSまたは帯域幅は、複数のプロセスによって共有されることができず、且つ、プロセスによって占有されるIOPSまたはプロセスによって占有される帯域幅の部分は、別のプロセスによって使用されることができない。しかしながら、性能待ち時間は、複数のプロセスによって共有されることができ、且つ、プロセスは、別のプロセスの待ち時間性能を占有しない。従って、待ち時間のための最大要件を有するプロセスが満たされる限り、残りのプロセスの待ち時間性能は満たされる。プロセスが、別のプロセスが持たない性能パラメータを有する場合、この唯一の性能パラメータの性能仕様は、結合された性能仕様として使用される。性能仕様は、リソースの性能のタイプのためのプロセスの要件であるとともに、性能パラメータのタイプの値のための標準である。
例えば、全体として3個のプロセスがあり、且つ、3個のプロセスのPAS IDはそれぞれ、プロセス1、プロセス2およびプロセス3である。3つのプロセス各々は、2つまたは3つの性能仕様を有し、プロセス1:IOPS≧500および待ち時間≦2ms;プロセス2:IOPS≧400および待ち時間≦1ms;プロセス3:IOPS≧300、待ち時間≦3msおよび帯域幅≧500Mbpsである。このケースでは、結合された性能仕様は、IOPS≧500+400+300、待ち時間≦1msおよび帯域幅≧500Mbpsの3つの項目を全体として有する。性能仕様は、性能のタイプのための要件である。性能パラメータは、パラメータ値を含むとともに、リソースの性能のタイプを記述するために使用される。
ステップ21では、リソースはvDevに割り当てられるが、リソースの性能は関係しない。このステップでは、vDevは、QoS要件を満たすことを可能にされる。具体的には、vDevが提供することができるリソースは、SLA内で記述される性能仕様を満たすことを可能にされる。
エンドポイントは、受信されたSLAを記憶するとともに、各SLAに対応するPAS IDを識別する。前述の3つのプロセスは、例として使用される。エンドポイントにおける各プロセスの性能仕様および結合された性能仕様は、以下の内容を含む。
プロセス1の性能仕様:IOPS≧500、待ち時間≦2ms
プロセス2の性能仕様:IOPS≧400、待ち時間≦1ms
プロセス3の性能仕様:IOPS≧300、待ち時間≦3ms、帯域幅≧500Mbps
合計の結合された性能仕様:IOPS≧1200、待ち時間≦1ms、帯域幅≧500Mbps
ステップ24.動作するとき、ターゲットプロセスは、vDevが配置されるターゲットエンドポイントに、リソースアクセス要求を送信し、ターゲットエンドポイントは、リソースアクセス要求を受信し、リソースアクセス要求を受信した後、ターゲットエンドポイントは、リソースアクセス要求から、ターゲットプロセスのPAS IDを取得する。次いで、ターゲットエンドポイントは、プロセスのPAS IDを使用して、ターゲットプロセスのSLAを検索し、I/Oデバイスリソースプールから、ターゲットプロセスに対応するSLA要件を満たすリソースを取得し、リソースを、ターゲットプロセスに使用のために提供する。
例えば、ターゲットプロセスのPAS IDはプロセス1である。ターゲットプロセスの現在の操作は、データを記憶することであり、そのとき、要求されたリソースは記憶空間である。リソースアクセス要求は記憶されるべきデータを搬送し、且つ、プロセス1のリソースアクセス要求を受信した後、エンドポイントは、プロセス1のSLAを検索し、次いで、SLA要件を満たす記憶空間を取得し、記憶されるべきデータを取得された記憶空間に記憶する。リソースアクセス要求を、プロセスに対応するエンドポイントのvDevに送信することはまた、エンドポイントのvDevに、リソースを提供するように要求するために、リソースアクセス要求をエンドポイントに送信することとして理解されてもよいことは留意されるべきである。
ターゲットプロセスは、リソースアクセス要求を送信する。具体的には、CPUは、リソースアクセス要求をターゲットエンドポイントに送信し、且つ、アクセス要求は、プロセスのPAS IDを搬送するとともに、vDevのIDをさらに搬送してよい。
本発明の本実施形態では、最初にリソースアクセス要求を受信するエンドポイントは、ターゲットエンドポイントである。ターゲットエンドポイントは、ターゲットプロセスによる使用のために、ターゲットエンドポイントのI/Oデバイスのリソースを呼び出してよい。ターゲットエンドポイントは、エンドポイント間のスイッチを使用することによって、別のエンドポイントのI/Oデバイスをさらに呼び出してよく、このことは、I/Oデバイスが単独に1つのエンドポイントに属するという特性を論理的に取り消す。具体的には、リソース利用は、リソースプールを使用することによって改善される。
任意の方式は、リソースが、I/Oデバイスが属するエンドポイントを考慮すること無しに、リソースプールから直接取得され、且つ、リソースは、任意のI/Oデバイスに由来してよいことである。別の任意の方式は、エンドポイントは、エンドポイントのI/Oデバイスによって提供されたリソースを優先的に呼び出し、且つ、エンドポイントのI/Oデバイスのリソースが要件を満たすのに不十分であるとき、要求される残りのリソースは、別のエンドポイントのI/Oデバイスから取得されることである。前者の方式と比較すると、後者の方式では、スイッチの負荷は低減されることができ、且つ、リソースを呼び出す速度が改善される。I/Oデバイスとエンドポイントとの間にホーミング関係が存在し、且つ、エンドポイントによって所持されるI/Oデバイスは、エンドポイントに直接接続されるI/Oデバイスエンドポイントデバイスである。
このステップでは、ターゲットプロセスがリソースを呼び出すことは、例として使用されることは留意されるべきである。実際には、別のプロセスがまた、ターゲットエンドポイントを使用することによって、リソースを呼び出してもよい。調整された仮想デバイスは、全ての受信された有効SLAを満たす。従って、ターゲットプロセスに加えて、別のプロセスがまた、ターゲットエンドポイントからリソースを呼び出すための許可を有する場合、動作しているとき、別のプロセスは、vDevが配置されるターゲットエンドポイントに、リソースアクセス要求を送信し、ターゲットエンドポイントはまた、I/Oデバイスリソースプールから、別のプロセスに対応するSLA要件を満たすリソースを取得してもよいとともに、リソースを、別のプロセスに使用のために提供してもよい。本実施形態が使用された後、エンドポイントは、エンドポイントを使用する全てのプロセスのリソースに対する要求を満たすことができる。
ステップ25.ターゲットプロセスがリソースを使用した後、CPUは、ターゲットプロセスによって占有されるリソースを解放するために、ターゲットエンドポイントに、リソース解放コマンドを送信する。
加えて、ターゲットプロセスが終了した後、ターゲットエンドポイントは、記憶された性能仕様を更新し、エンドポイントから、終了したプロセスの性能仕様を消去し、終了していないプロセスに従って、結合された性能仕様を更新してよい。
vDevが作成されるとき、異なるタイプのI/Oデバイスは異なってよい。前述の実施形態では、使用のためにエンドポイントに提供された物理I/Oデバイスはメモリであるため、メモリによって提供されたリソースは記憶容量であり、vDevは物理I/Oデバイスの仮想化であり、vDevはまた、仮想メモリと呼ばれてもよい。I/Oデバイスがネットワークアダプタである場合、vDevは、仮想ネットワークアダプタであり、ネットワークアダプタによって提供されるリソースはネットワーク帯域幅であり、性能パラメータは、例えば、待ち時間である。I/Oデバイスが暗号アクセラレータカードである場合、vDevは仮想暗号アクセラレータカードである。アクセラレータカードのリソースは、暗号アルゴリズム操作毎秒であるが、一般に、暗号アルゴリズム操作毎秒はQoSの性能パラメータとみなされてもよく、従って、リソースは、vDevが作成されるとき、vDevに割り当てられず、しかし、暗号アルゴリズム操作毎秒はリソースの性能パラメータとして使用される。従って、リソースは、vDevが作成されるとき(ステップ21)に割り当てられなくてよく、しかし、リソースは、性能パラメータのタイプとして使用される。例えば、IOPS要件、待ち時間要件および帯域幅要件を搬送することに加えて、SLAは、記憶空間要件、例えば、記憶空間≧200GBをさらに搬送する。
加えて、プロセスの性能仕様が変化する場合、CPUは、新しい性能仕様を、対応するエンドポイントに送信してよい。エンドポイントは、新しい性能仕様に従って、記憶された性能仕様を更新するとともに、結合された性能仕様を更新する。プロセスが動作しているとき、リソースは、新しい性能仕様に従って取得される。
コンピュータまたはコンピュータの主な機能を有するデバイスもまた、一般に、ノードと呼ばれてもよい。本発明の本実施形態では、図2におけるクロスノードシナリオに基づいて、クロスオーバI/Oリソース共有が、エンドポイント間の相互接続によって実施されてよい。ノードのプロセスのI/Oリソースが不十分であるとき、I/Oリソースは、別のノードから取得されてよい。
前述の実施形態では、ステップ22では、性能仕様はSLA内で搬送され、且つ、SLAは、CPUを使用することによって、エンドポイントに送信される。すなわち、エンドポイントは、CPUによって送信されるSLAを使用することによって、プロセスの性能仕様を取得する。性能仕様は、CPUを使用することによって、エンドポイントに送信されてよいとともに、SLA内で搬送されなくてよい。
前述の2つの方式に加えて、本発明は、別のリソース管理方法の実施形態をさらに提供する。前述の実施形態との違いは、性能仕様が、CPUを使用することによって取得されないことにあり、このことは、ステップ22が修正されることと同等である。別のステップについては、前述の実施形態に対して参照が行われてよい。別のリソース管理方法の本実施形態では、性能仕様は、エンドポイントによって事前に記憶されるとともに、CPUから取得される必要はない。
任意の解決手段は、エンドポイントは、プロセスによって占有されるリソースの性能に関する統計を収集するとともに、統計結果に従って、プロセスのための性能仕様を設定することである。統計を収集する期間の後、プロセスが記憶されたリソースを使用するプロセスでは、占有される帯域幅は、10MBと20MBの間で変動すると想定される。プロセスの帯域幅の性能仕様は、20MBよりも小さくないように設定されてよい。プロセスの残りの性能パラメータの性能仕様もまた、統計を収集することによって取得されてもよい。この解決手段では、プロセスが必須の性能要件を持たない(例えば、SLAは性能要件を含まない)とき、プロセスはより良く動作することができ、且つ、リソース利用は改善される。
別の任意の解決手段は、システム管理者が、経験に従って、プロセスのための性能仕様を設定することである。
本発明の本実施形態では、リソースプールから、プロセスの性能仕様に従って、プロセスのQoS要件を満たすように、対応するリソースがプロセスに割り当てられる。しかしながら、リソースプール内のリソースのソースについて、本発明は、拡張をさらに実行してよい。リソースプール実施方法は、異なるエンドポイントに属するとともに、ホスト内にあるI/Oデバイスのリソースがリソースプールを構成することである。第2の実施方法は、複数のホストが相互接続されて、システムを構成し、異なるエンドポイントに属するI/Oデバイスのリソースがリソースプールを構成し、これらのエンドポイントの全てが同じホストに由来するわけではないことである。第1の実施方法および第2の実施方法は、複数のエンドポイントのI/Oデバイスのリソースがリソースプールを構成することとして結論付けられてよく、且つ、違いは、これらのエンドポイントは同じホストに由来するか、または異なるホストに由来するかにある。第3の実施方法は、単一のエンドポイントのI/Oデバイスのリソースは、リソースプールを構成することである。第4の実施方法は、複数のエンドポイントのI/Oデバイスのリソースは大きなリソースプールを構成し、次いで、大きなリソースプールは複数の小さいリソースプールに分割され、1つ以上のエンドポイントが1つの小さいリソースプールを共有することである。小さいリソースプールが分割によって取得されるとき、リソースのホームエンドポイントは考慮されない。
前述の実施形態に基づくと、本発明は、プロセス移行の実施形態をさらに提供する。具体的には、本発明の本実施形態によると、プロセスは、ホストから別のホストに移行され、且つ、具体的には、CPUから別のCPUに移行される。図4を参照されたい。この方法では、プロセスがホストから別のホストに移行された後、プロセスの性能仕様は変更されないままである。プロセス移行の解決手段は、ホストが元のプロセスを実行するとき、元のプロセスの記述情報を使用することによって、別のホスト上に新しいプロセスを生成することを含み、その結果、新しいプロセスは、元のプロセスと同じである。新しいプロセスが生成された後、元のプロセスは終了してよい。記述情報を使用することによって新しいプロセスを生成する方法は、本実施形態には含まれない。実施形態の主な焦点は、プロセスが移行された後および移行される前で、新しいプロセスのリソース設定が元のプロセスのリソース設定と一貫していることを保証する方法にある。以下は、プロセス移行の具体的なステップである。
ステップ31.移行元ホストのCPUは、元のプロセスのSLAを、移行先ホストのCPUに送信する。
移行元ホストのCPUは、現在、元のプロセスを実行している。プロセスが移行される元のCPUは、移出ホストのネットワークアダプタを使用することによって、移行先ホストのネットワークアダプタにSLAを送信し、移行先ホストのネットワークアダプタは、プロセスが移行される先のCPUに元のプロセスのSLAを送信する。
ステップ32.移行先ホストのCPUは、移入エンドポイントとしてエンドポイントを選択し、SLAを移入エンドポイントに送信する。
CPUは、複数のアルゴリズムを使用することによって、移入エンドポイントを選択してよく、例えば、実行可能な方法は、移入エンドポイントとしてエンドポイントをランダムに指定することである。
ステップ33.SLAを受信した後、移入エンドポイントは、SLA内で搬送される性能仕様に従って、vDevを生成する。
SLAを受信したエンドポイントがvDevを既に有する場合、既存のvDevが更新される。更新プロセスについては、ステップ23を参照されたい。更新されたvDevは、移入エンドポイントに対応する全ての有効SLAの性能仕様(移入されるべきプロセスの性能仕様および元のプロセスが移行される前に移入エンドポイントによって受信された有効SLA内で搬送された性能仕様を含む)を満たす。性能仕様を満たす方法については、ステップ23の具体的な操作方法を参照されたい。
SLAを受信するエンドポイントがvDevを持たない場合、vDevは、元のプロセスの性能仕様に従って生成される。
ステップ34.移行元ホストのCPUは、元のプロセスの記述情報を、移行先ホストのCPUに送信する。移行先ホストのCPUは、元のプロセスの記述情報に従って新しいプロセスを生成し、このことは、プロセス移行を実施する。
記述情報およびSLAを送信する順序は限定されない。記述情報は最初に送信されてよく、次いで、SLAは送信される。
新しいプロセスを生成した後、移行先ホストのCPUは、応答メッセージを移出ホストに送信し、且つ、移行元ホストのCPU内で動作する元のプロセスは終了してよい。あるいは、移行元ホストが記述情報を送信した後、元のプロセスは終了するとともに、移行先ホストからの応答メッセージを待つ必要はない。
プロセスの記述情報は、新しいプロセスが元のプロセスと同じであることができるのに十分な情報である。記述情報は、プロセスが動作するときの対応するメモリデータおよびプロセスがCPU内で動作するときのレジスタ内のプロセスの値等の、プロセスのコンテキスト情報を含む。可能な方法は、プロセスのメモリページが、移行元ホストから移行先ホストにページ毎に送信されることである。このプロセスでは、動作プロセスが送信されたメモリページを修正することが可能であり、且つ、このケースでは、ノードに送信されたメモリページが、最新の状態で維持することを可能にするために、移行元ホストのCPUは、この修正されたメモリページを再送信しようと試みる。プロセスのメモリページの送信が完了したとき、移行元ホストのCPUは、プロセスの実行を保留し、且つ、同時に、休止の瞬間にプロセスがCPU内で動作するときのレジスタ内のプロセスの値を記憶するとともに、移行先ホストのCPUに値を送信する。移行先ホストのCPUは、プロセスがCPU内で動作するときのレジスタ内のプロセスの値を再記憶した後、プロセスを実行し始める。
ステップ35.新しいプロセスは、リソースアクセス要求を、対応するエンドポイントに送信し、且つ、リソース要求を受信したエンドポイントは、プロセスのSLAに従ってリソースを取得して、リソースをプロセスに使用のために提供する。
加えて、ステップ34の後、移行先ホストのCPUは、リソース解放命令を、移出ホストのエンドポイントに送信し、リソース解放命令を受信した後、移行元ホストは、元のプロセスが動作するときに占有されたリソースを解放するという、ステップ36がさらにあってよい。このステップは任意である。別の実行可能な方法は、記述情報およびSLAを送信した後、移出ホストは、リソース解放命令を待つこと無しに、元のプロセスによって占有されるリソースを直接解放することである。
前述の移行方法では、リソースがプロセスに割り当てられた後、プロセスが移行される場合、移行されたプロセスは、同じ性能を有するリソースを再び容易に有することができる。
図5を参照すると、本発明は、リソース管理装置の実施形態をさらに提供し、且つ、前述の方法は、52に対応するように使用されてよい。具体的な詳細については、前述の方法の実施形態に対して参照が行われてよいとともに、従って、簡潔な説明のみが以下で提供される。リソース管理装置5は、受信モジュール51、受信モジュール51に接続される仮想デバイス調整モジュール52および仮想デバイス調整モジュールに接続されるリソース獲得モジュール53を含む。リソース管理装置は仮想デバイスを実行してよい。リソース管理装置は、ハードウェアであってよく、または、ハードウェア内で動作するソフトウェアまたはファームウェアであってよい。
受信モジュール51は、ターゲットプロセスの性能仕様およびリソースアクセス要求を受信するように構成され、ここで、ターゲットプロセスの性能仕様を受信することは、具体的には、受信モジュールによって、CPUから、性能仕様を受信することか、または、リソース管理装置によって、ターゲットプロセスが過去に動作していたときに占有されたリソースの性能に関する統計を収集し、統計結果に従って、性能仕様を生成することである。
仮想デバイス調整モジュール52は、性能仕様に従って、仮想デバイスの性能パラメータを調整するように構成され、ここで、調整された仮想デバイスは、リソース管理デバイスを使用する全てのプロセスの性能仕様の総要件を満たす。
リソース獲得モジュール53は、受信モジュールが、ターゲットプロセスの、仮想デバイスのためのリソースアクセス要求を受信した後、I/Oデバイスから、ターゲットプロセスの性能仕様を満たすリソースを取得し、リソースをターゲットプロセスに提供するように構成される。I/Oデバイスによって提供されるリソースは、単一のI/Oデバイスによって提供されてよく、または、リソースプール方式で複数のI/Oデバイスによって提供されてよい。
例えば、複数のI/Oデバイスのリソースは、I/Oリソースプールを共同して形成し、リソース管理装置5によって管理されるI/Oデバイスおよび別のリソース管理装置によって管理されるI/Oデバイスは、I/Oリソースプールを共同して形成し、I/Oデバイスから、ターゲットプロセスの性能仕様を満たすリソースを取得することは、具体的には、リソース獲得モジュールによって、且つ、I/Oリソースプールから、ターゲットプロセスの性能仕様を満たすリソースを取得することを含む。
リソースプールはまた、リソース管理装置によって管理される複数のI/Oデバイスのリソースによって共同して形成されるI/Oリソースプールであってもよく、且つ、I/Oデバイスから、ターゲットプロセスの性能仕様を満たすリソースを取得することは、具体的には、リソース獲得モジュールによって、且つ、I/Oリソースプールから、ターゲットプロセスの性能仕様を満たすリソースを取得することを含む。
図1および図2における本発明の方法の実施形態では、エンドポイントが言及されるが、エンドツーエンド内部構成は説明されていない。図6を参照して、以下では、エンドポイントの構成を簡潔に説明する。エンドポイントの具体的な機能は、方法の実施形態で詳細に説明されるため、詳細は、本実施形態では説明されない。エンドポイント6は、CPUインタフェース61を使用することによってCPUに接続され、ここで、エンドポイントは、CPUに接続されるように構成されるCPUインタフェース61、I/Oデバイスに接続されるように構成される入力/出力I/Oインタフェース63、および、CPUインタフェースおよびI/Oインタフェースに接続される処理ユニット62を含む。エンドポイント6は、ホストから独立してよく、または、CPUとともにホストを構成してよい。
仮想デバイスが配置される処理ユニット62は、ターゲットプロセスの性能仕様を取得し、性能仕様に従って、仮想デバイスの性能パラメータを調整し、CPUインタフェースを使用することによって、ターゲットプロセスの、仮想デバイスのためのリソースアクセス要求を受信し、I/Oデバイスから、ターゲットプロセスの性能仕様を満たすリソースを取得し、CPUインタフェースを使用することによって、取得されたリソースを送信するようにさらに構成され、ここで、調整された仮想デバイスは、エンドポイントを使用する全てのプロセスの性能仕様の総要件を満たす。
実施方式の前述の説明に基づいて、当業者は、本発明が、必要な汎用ハードウェアに加えてソフトウェアによって実施されてよく、またはハードウェアのみによって実施されてよいことを明確に理解することができる。たいていの状況においては、前者が好ましい実施方式である。このような理解に基づくと、本発明の技術的解決手段は、本質的に、または、従来技術に貢献する部分は、ソフトウェア製品の形態で実施されてよい。コンピュータソフトウェア製品は、コンピュータのフロッピーディスク、ハードディスクまたは光ディスク等の、可読記憶媒体内に記憶されるとともに、コンピュータデバイス(パーソナルコンピュータ、サーバ、ネットワークデバイス等であってよい)に、本発明の実施形態で説明される方法を実行するように命令するためのいくつかの命令を含む。
前述の説明は単に、本発明の具体的な実施方式であるが、本発明の保護範囲を限定するように意図されない。本発明で開示される技術的範囲内で、当業者によって容易に理解される任意の変更または置換は、本発明の保護範囲に包含されるべきである。従って、本発明の保護範囲は、請求項の保護範囲に従うべきである。
12 エンドポイント
13 I/Oデバイス
14 スイッチ
51 受信モジュール
52 仮想デバイス調整モジュール
53 リソース獲得モジュール
61 CPUインタフェース
62 処理ユニット
63 入力/出力インタフェース

Claims (28)

  1. ホストに適用されるリソース管理方法であって、前記ホストは、CPUおよび前記CPUに接続されるエンドポイントを含み、前記エンドポイントはI/Oデバイスに接続され、プロセスは前記CPU内で構成され、前記方法は、
    前記CPUによって、ターゲットエンドポイントをターゲットプロセスに割り当てるステップであって、仮想デバイスが前記ターゲットエンドポイント上に配置される、ステップと、
    前記ターゲットエンドポイントによって、前記ターゲットプロセスの性能仕様を取得し、前記性能仕様に従って、前記仮想デバイスの性能パラメータを調整するステップであって、調整された前記仮想デバイスは、前記ターゲットエンドポイントを使用する全てのプロセスの性能仕様の総要件を満たす、ステップと、
    前記ターゲットプロセスがリソースにアクセスする必要があるとき、前記CPUによって、前記ターゲットプロセスの、前記仮想デバイスのためのリソースアクセス要求を前記ターゲットエンドポイントに送信し、前記リソースアクセス要求を受信した後、前記ターゲットエンドポイントによって、前記I/Oデバイスから、前記ターゲットプロセスの前記性能仕様を満たすリソースを取得し、取得された前記リソースを前記ターゲットプロセスに使用のために提供するステップと
    を含む、リソース管理方法。
  2. 前記ターゲットエンドポイントによって、前記ターゲットプロセスの性能仕様を取得する前記ステップは、
    前記ターゲットエンドポイントによって、前記CPUから前記性能仕様を取得するステップを含む、請求項1に記載のリソース管理方法。
  3. 前記ターゲットエンドポイントによって、前記ターゲットプロセスの性能仕様を取得する前記ステップは、
    前記ターゲットエンドポイントによって、前記ターゲットプロセスが過去に動作していたときに占有されたリソースの性能に関する統計を収集し、統計結果に従って、前記性能仕様を生成するステップを含む、請求項1に記載のリソース管理方法。
  4. 前記ターゲットプロセスは仮想マシン内で動作する、請求項1乃至請求項3のいずれか1項に記載のリソース管理方法。
  5. 複数のエンドポイントからの前記複数のI/Oデバイスのリソースは、I/Oリソースプールを共同して形成し、または、同じエンドポイントからの複数のI/Oデバイスのリソースは、I/Oリソースプールを共同して形成し、且つ、前記I/Oデバイスから、前記ターゲットプロセスの前記性能仕様を満たすリソースを取得する前記ステップは、
    前記I/Oリソースプールから、前記ターゲットプロセスの前記性能仕様を満たす前記リソースを取得するステップを含む、請求項1乃至請求項4のいずれか1項に記載のリソース管理方法。
  6. 前記性能仕様に従って、前記仮想デバイスの性能パラメータを調整する前記ステップは、
    全てのプロセスのための全ての性能仕様において唯一でない性能パラメータについて、前記総要件におけるこの性能パラメータのための最大要件を指定することと、
    全てのプロセスのための全ての性能仕様において唯一である性能パラメータについて、前記総要件における前記唯一の性能パラメータを指定することとを含む、請求項1乃至5のいずれか1項に記載のリソース管理方法。
  7. 待ち時間を含む、複数のプロセスによって共有されることができる性能と、
    入力/出力毎秒IOPSおよび帯域幅を含む、前記複数のプロセスによって共有されることができない性能とを含む、請求項1乃至6のいずれか1項に記載のリソース管理方法。
  8. 前記方法は、前記プロセスを別のホストに移行するステップをさらに含み、前記別のホストは、別のCPU、別のエンドポイントおよび別のI/Oリソースプールを含み、且つ、前記移行するステップの具体的なステップは、
    前記CPUによって、前記プロセスの前記性能仕様を、前記別のCPUに送信するステップと、
    前記別のCPUによって、前記性能仕様を、前記別のエンドポイントに送信するステップと、
    前記別のエンドポイントによって、別の仮想デバイスを生成するステップであって、前記別の仮想デバイスは前記性能仕様を満たす、ステップと、
    前記CPUによって、前記プロセスの記述情報を前記別のCPUに送信し、前記別のCPUによって、前記記述情報に従って、新しいプロセスを生成するステップと、
    前記新しいプロセスがリソースにアクセスする必要があるとき、前記別のCPUによって、前記新しいプロセスの、前記別の仮想デバイスのための別のリソースアクセス要求を前記別のエンドポイントに送信し、前記別のリソースアクセス要求を受信した後、前記別のエンドポイントによって、前記性能仕様に従って、前記別のI/Oリソースプールからリソースを取得し、前記リソースを前記新しいプロセスに使用のために提供するステップとを含む、請求項1乃至7のいずれか1項に記載のリソース管理方法。
  9. CPUおよびエンドポイントを含むとともに、I/Oリソースを管理するように構成されるホストであって、
    前記CPUは、プロセスを実行し、ターゲットエンドポイントを前記プロセスに割り当てるように構成され、前記ターゲットエンドポイントは前記CPUと通信し、且つ、ターゲットプロセスがリソースにアクセスする必要があるとき、前記CPUは、前記ターゲットプロセスの、仮想デバイスのためのリソースアクセス要求を前記ターゲットエンドポイントに送信し、
    前記ターゲットエンドポイントは、前記仮想デバイスを生成するように構成され、前記ターゲットプロセスの性能仕様を取得し、前記性能仕様に従って、前記仮想デバイスの性能パラメータを調整するように構成され、I/Oデバイスに接続され、前記リソースアクセス要求を受信した後、前記ターゲットプロセスの前記性能仕様に従って、前記I/OデバイスからI/Oリソースを取得し、前記リソースを前記ターゲットプロセスに使用のために提供するようにさらに構成され、調整された前記仮想デバイスは、前記ターゲットエンドポイントを使用する全てのプロセスの性能仕様の総要件を満たす、ホスト。
  10. 前記ターゲットエンドポイントが、前記CPUから前記性能仕様を取得するように構成される、請求項9に記載のホスト。
  11. 前記ターゲットエンドポイントが、前記ターゲットプロセスが過去に動作していたときに占有されたリソースの性能に関する統計を収集し、統計結果に従って、前記エンドポイントのための前記性能仕様を生成するように構成される、請求項9に記載のホスト。
  12. 前記ターゲットプロセスは、仮想マシン内で動作し、且つ、前記仮想マシンは、前記CPUのハイパーバイザ内で動作する、請求項9乃至請求項11のいずれか1項に記載のホスト。
  13. 前記I/Oデバイスは、少なくとも2つのエンドポイントに由来し、I/Oリソースプールを共同して生成して、前記I/Oリソースプールを使用することによって、リソースを提供する、請求項9乃至請求項12のいずれか1項に記載のホスト。
  14. 複数のI/Oデバイスのリソースは、I/Oリソースプールを共同して形成し、且つ、
    前記I/Oデバイスは、1つのエンドポイントに由来し、且つ、前記I/Oデバイスは、リソースを提供して、前記I/Oリソースプールを形成し、前記I/Oリソースプールを使用することによって、リソースを提供する、請求項9乃至請求項13のいずれか1項に記載のホスト。
  15. 前記性能仕様に従って、前記仮想デバイスの性能パラメータを調整することは、
    全てのプロセスのための全ての性能仕様において唯一でない性能パラメータについて、前記総要件におけるこの性能パラメータのための最大要件を指定することと、
    全てのプロセスのための全ての性能仕様において唯一である性能パラメータについて、前記総要件における前記唯一の性能パラメータを指定することとを含む、請求項9乃至請求項14のいずれか1項に記載のホスト。
  16. 前記ホストおよび別のホストは、リソース管理システムを構成し、且つ、前記別のホストは、別のCPU、別のエンドポイントおよび別のI/Oリソースプールを含み、
    前記CPUは、前記プロセスの性能仕様を、前記別のCPUに送信するようにさらに構成され、前記プロセスの記述情報を、前記別のCPUに送信するようにさらに構成され、
    前記別のCPUは、前記性能仕様を、前記別のエンドポイントに送信するように構成され、前記記述情報に従って、前記プロセスを再生成するようにさらに構成され、
    前記別のエンドポイントは、別の仮想デバイスを生成するように構成され、前記別の仮想デバイスは、前記性能仕様を満たし、
    再生成された前記プロセスがリソースにアクセスする必要があるとき、前記別のCPUは、前記別の仮想デバイスのための再生成された前記プロセスの別のリソースアクセス要求を、前記別のエンドポイントに送信するようにさらに構成され、前記別のリソースアクセス要求を受信した後、前記別のエンドポイントは、前記性能仕様に従って、前記別のI/Oリソースプールからリソースを取得し、前記リソースを新しいプロセスに使用のために提供する、請求項9乃至15のいずれか1項に記載のホスト。
  17. エンドポイントに適用されるリソース管理方法であって、前記エンドポイントは、CPUインタフェースを使用することによって、CPUに接続され、前記エンドポイントは、入力/出力I/Oインタフェースを使用することによって、I/Oデバイスに接続され、仮想デバイスは、前記エンドポイント上に配置され、且つ、前記方法は、
    ターゲットプロセスの性能仕様を取得し、前記性能仕様に従って、前記仮想デバイスの性能パラメータを調整するステップであって、調整された前記仮想デバイスは、前記エンドポイントを使用する全てのプロセスの性能仕様の総要件を満たす、ステップと、
    前記CPUインタフェースを使用することによって、前記ターゲットプロセスの、前記仮想デバイスのためのリソースアクセス要求を受信し、前記I/Oデバイスから、前記ターゲットプロセスの前記性能仕様を満たすリソースを取得し、前記CPUインタフェースを使用することによって、取得された前記リソースを前記ターゲットプロセスに提供するステップと
    を含む、リソース管理方法。
  18. 前記ターゲットプロセスの性能仕様を取得する前記ステップは、
    前記エンドポイントによって、前記CPUインタフェースを使用することによって、前記性能仕様を受信するステップか、または、
    前記エンドポイントによって、前記ターゲットプロセスが過去に動作していたときに占有されたリソースの性能に関する統計を収集し、統計結果に従って、前記性能仕様を生成するステップを含む、請求項17に記載のリソース管理方法。
  19. 複数のI/Oデバイスのリソースは、I/Oリソースプールを共同して形成し、且つ、前記I/Oデバイスから、前記ターゲットプロセスの前記性能仕様を満たすリソースを取得する前記ステップは、
    前記I/Oリソースプールから、前記ターゲットプロセスの前記性能仕様を満たす前記リソースを取得するステップであって、前記エンドポイントからの、および別のエンドポイントからの複数のI/Oデバイスのリソースは、前記I/Oリソースプールを共同して形成し、且つ、前記複数のエンドポイントは、前記I/Oリソースプールにおけるリソースを共有する、ステップを含む、請求項17に記載のリソース管理方法。
  20. 複数のI/Oデバイスのリソースは、I/Oリソースプールを共同して形成し、且つ、前記I/Oデバイスから、前記ターゲットプロセスの前記性能仕様を満たすリソースを取得する前記ステップは、
    前記I/Oリソースプールから、ターゲットプロセスの前記性能仕様を満たす前記リソースを取得するステップであって、前記エンドポイントからの複数のI/Oデバイスは、前記I/Oリソースプールを共同して形成する、ステップを含む、請求項17に記載のリソース管理方法。
  21. 仮想デバイスが配置される、リソース管理装置であって、前記装置は、CPUインタフェースを使用することによってCPUに接続され、前記装置は、入力/出力I/Oインタフェースを使用することによってI/Oデバイスに接続され、
    ターゲットプロセスの性能仕様およびリソースアクセス要求を受信するように構成される受信モジュールと、
    前記性能仕様に従って、前記仮想デバイスの性能パラメータを調整するように構成される仮想デバイス調整モジュールであって、調整された前記仮想デバイスは、前記リソース管理装置を使用する全てのプロセスの性能仕様の総要件を満たす、仮想デバイス調整モジュールと、
    前記受信モジュールが、前記ターゲットプロセスの、前記仮想デバイスのためのリソースアクセス要求を受信した後、I/Oデバイスから、前記ターゲットプロセスの前記性能仕様を満たすリソースを取得し、前記リソースを前記ターゲットプロセスに提供するように構成されるリソース獲得モジュールとを含む、リソース管理装置。
  22. 前記受信モジュールは、CPUから、前記性能仕様を受信するように構成され、または、
    前記リソース管理装置は、前記ターゲットプロセスが過去に動作していたときに占有されたリソースの性能に関する統計を収集し、統計結果に従って、前記性能仕様を生成するように構成される、請求項21に記載のリソース管理装置。
  23. 複数のI/Oデバイスのリソースは、I/Oリソースプールを共同して形成し、前記リソース管理装置によって管理されるI/Oデバイスのリソースおよび別のリソース管理装置によって管理されるI/Oデバイスのリソースは、前記I/Oリソースプールを共同して形成し、
    前記リソース獲得モジュールは、前記I/Oリソースプールから、前記ターゲットプロセスの前記性能仕様を満たす前記リソースを取得するように構成される、請求項21に記載のリソース管理装置。
  24. 前記リソース管理装置によって管理される複数のI/Oデバイスのリソースは、I/Oリソースプールを共同して形成し、
    前記リソース獲得モジュールは、前記I/Oリソースプールから、前記ターゲットプロセスの前記性能仕様を満たす前記リソースを取得するように構成される、請求項21に記載のリソース管理装置。
  25. エンドポイントであって、前記エンドポイントはCPUに接続され、且つ、前記エンドポイントは、
    前記CPUに接続されるように構成されるCPUインタフェースと、
    I/Oデバイスに接続されるように構成される入力/出力I/Oインタフェースと、
    仮想デバイスが配置される処理ユニットとを含み、前記処理ユニットは、前記CPUインタフェースおよび前記I/Oインタフェースに接続されるとともに、
    ターゲットプロセスの性能仕様を取得し、前記性能仕様に従って、前記仮想デバイスの性能パラメータを調整し、
    前記CPUインタフェースを使用することによって、前記ターゲットプロセスの、前記仮想デバイスのためのリソースアクセス要求を受信し、前記I/Oデバイスから、前記ターゲットプロセスの前記性能仕様を満たすリソースを取得し、前記CPUインタフェースを使用することによって、取得された前記リソースを前記ターゲットプロセスに提供するようにさらに構成され、調整された前記仮想デバイスは、前記エンドポイントを使用する全てのプロセスの性能仕様の総要件を満たす、エンドポイント。
  26. 前記処理ユニットは、前記CPUインタフェースを使用することによって、前記性能仕様を取得するように構成され、または、
    前記処理ユニットは、前記ターゲットプロセスが過去に動作していたときに占有されたリソースの性能に関する統計を収集し、統計結果に従って、前記性能仕様を生成するように構成される、請求項25に記載のエンドポイント。
  27. 複数のI/Oデバイスのリソースは、I/Oリソースプールを共同して形成し、且つ、
    前記処理ユニットは、前記I/Oリソースプールから、前記ターゲットプロセスの前記性能仕様を満たす前記リソースを取得するように構成され、前記エンドポイントからの、および別のエンドポイントからの複数のI/Oデバイスのリソースは、前記I/Oリソースプールを共同して形成し、且つ、前記複数のエンドポイントは、前記I/Oリソースプールにおけるリソースを共有する、請求項25に記載のエンドポイント。
  28. 前記エンドポイントからの複数のI/Oデバイスのリソースは、I/Oリソースプールを共同して形成し、且つ、
    前記処理ユニットは、前記I/Oリソースプールから、前記ターゲットプロセスの前記性能仕様を満たす前記リソースを取得するように構成される、請求項25に記載のエンドポイント。
JP2017519483A 2014-12-08 2015-11-04 リソース管理方法、ホストおよびエンドポイント Active JP6408148B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410745161.3A CN105743808B (zh) 2014-12-08 2014-12-08 一种适配QoS的方法和装置
CN201410745161.3 2014-12-08
PCT/CN2015/093800 WO2016091035A1 (zh) 2014-12-08 2015-11-04 一种资源管理方法、主机和端点

Publications (2)

Publication Number Publication Date
JP2017533509A JP2017533509A (ja) 2017-11-09
JP6408148B2 true JP6408148B2 (ja) 2018-10-17

Family

ID=56106661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017519483A Active JP6408148B2 (ja) 2014-12-08 2015-11-04 リソース管理方法、ホストおよびエンドポイント

Country Status (14)

Country Link
US (2) US10489207B2 (ja)
EP (2) EP3206125B1 (ja)
JP (1) JP6408148B2 (ja)
KR (1) KR101880407B1 (ja)
CN (3) CN107645407B (ja)
AU (1) AU2015361607B2 (ja)
BR (1) BR112017005195B1 (ja)
CA (1) CA2961283C (ja)
ES (1) ES2757375T3 (ja)
MX (1) MX365979B (ja)
RU (1) RU2673707C1 (ja)
SG (1) SG11201701729UA (ja)
WO (1) WO2016091035A1 (ja)
ZA (1) ZA201701765B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10296383B2 (en) 2015-07-10 2019-05-21 Samsung Electronics Co., Ltd. Computing system with resource management mechanism and method of operation thereof
CN106506189B (zh) * 2016-09-13 2019-08-30 中国电子科技集团公司第三十二研究所 虚拟平台实时与非实时处理环境数据交换方法
CN108199864A (zh) * 2017-12-06 2018-06-22 中国航空工业集团公司西安航空计算技术研究所 一种基于PCIe事务层数据传输的带宽分配方法
CN110392400B (zh) * 2018-04-21 2022-04-12 华为技术有限公司 一种通信方法及相关设备
US11036649B2 (en) * 2019-04-04 2021-06-15 Cisco Technology, Inc. Network interface card resource partitioning
CN109992314B (zh) * 2019-04-09 2022-03-29 Oppo广东移动通信有限公司 数据上报方法、装置、终端和存储介质
CN110581776B (zh) * 2019-06-10 2022-06-21 阿里巴巴集团控股有限公司 QoS处理及控制方法及网络接口控制器
JP7191906B2 (ja) * 2020-09-09 2022-12-19 株式会社日立製作所 リソース割当制御装置、計算機システム、及びリソース割当制御方法
KR102488615B1 (ko) * 2021-01-18 2023-01-17 주식회사 텐 리소스 크기 추전 방법, 장치 및 컴퓨터 프로그램
KR102488614B1 (ko) * 2021-01-18 2023-01-17 주식회사 텐 가상화된 리소스를 관리하는 방법, 장치 및 컴퓨터 프로그램
CN115729694A (zh) * 2021-08-31 2023-03-03 华为技术有限公司 一种资源管理的方法及相应装置

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6816456B1 (en) * 2000-02-04 2004-11-09 At&T Corp. Methods and apparatus for network use optimization
US7058826B2 (en) * 2000-09-27 2006-06-06 Amphus, Inc. System, architecture, and method for logical server and other network devices in a dynamically configurable multi-server network environment
US7159010B2 (en) * 2002-02-06 2007-01-02 Intel Corporation Network abstraction of input/output devices
US20030208581A1 (en) * 2002-05-02 2003-11-06 Behren Paul D. Von Discovery of fabric devices using information from devices and switches
US7818447B1 (en) 2003-03-28 2010-10-19 Emc Corporation End-to-end broadcast based flow control in a switch fabric
BRPI0318608B1 (pt) * 2003-11-17 2017-04-11 Telecom Italia Spa arquitetura e método para monitorar qualidade de serviço em uma rede de telecomunicação e rede de telecomunicação
US7685281B1 (en) * 2004-02-13 2010-03-23 Habanero Holdings, Inc. Programmatic instantiation, provisioning and management of fabric-backplane enterprise servers
US7623516B2 (en) * 2004-06-29 2009-11-24 Damaka, Inc. System and method for deterministic routing in a peer-to-peer hybrid communications network
US8139598B2 (en) * 2005-03-21 2012-03-20 Telefonaktiebolaget L M Ericsson (Publ) Automatic QoS configuration
US7574536B2 (en) * 2005-04-22 2009-08-11 Sun Microsystems, Inc. Routing direct memory access requests using doorbell addresses
US20070174429A1 (en) * 2006-01-24 2007-07-26 Citrix Systems, Inc. Methods and servers for establishing a connection between a client system and a virtual machine hosting a requested computing environment
US8108550B2 (en) 2006-10-25 2012-01-31 Hewlett-Packard Development Company, L.P. Real-time identification of an asset model and categorization of an asset to assist in computer network security
US7752360B2 (en) * 2007-05-16 2010-07-06 Nuova Systems, Inc. Method and system to map virtual PCIe I/O devices and resources to a standard I/O bus
US20090006702A1 (en) * 2007-06-26 2009-01-01 Nitin Sarangdhar Sharing universal serial bus isochronous bandwidth between multiple virtual machines
US7970903B2 (en) * 2007-08-20 2011-06-28 Hitachi, Ltd. Storage and server provisioning for virtualized and geographically dispersed data centers
US8141094B2 (en) * 2007-12-03 2012-03-20 International Business Machines Corporation Distribution of resources for I/O virtualized (IOV) adapters and management of the adapters through an IOV management partition via user selection of compatible virtual functions
US7711789B1 (en) 2007-12-07 2010-05-04 3 Leaf Systems, Inc. Quality of service in virtual computing environments
US7962587B2 (en) * 2007-12-10 2011-06-14 Oracle America, Inc. Method and system for enforcing resource constraints for virtual machines across migration
US20100138829A1 (en) 2008-12-01 2010-06-03 Vincent Hanquez Systems and Methods for Optimizing Configuration of a Virtual Machine Running At Least One Process
US8549516B2 (en) * 2008-12-23 2013-10-01 Citrix Systems, Inc. Systems and methods for controlling, by a hypervisor, access to physical resources
US8144582B2 (en) * 2008-12-30 2012-03-27 International Business Machines Corporation Differentiating blade destination and traffic types in a multi-root PCIe environment
US8458368B2 (en) * 2009-05-26 2013-06-04 Oracle America, Inc. System and method for discovering and protecting shared allocated resources in a shared virtualized I/O device
US8521915B2 (en) * 2009-08-18 2013-08-27 Fusion-Io, Inc. Communicating between host computers and peripheral resources in an input/output (I/O) virtualization system
US8639917B1 (en) * 2009-10-20 2014-01-28 Vmware, Inc. Streaming a desktop image over wide area networks in which the desktop image is segmented into a prefetch set of files, streaming set of files and leave-behind set of files
US8732349B2 (en) * 2009-11-18 2014-05-20 Fusion-Io, Inc. Assignment of resources in an input/output (I/O) virtualization system
US8473947B2 (en) * 2010-01-18 2013-06-25 Vmware, Inc. Method for configuring a physical adapter with virtual function (VF) and physical function (PF) for controlling address translation between virtual disks and physical storage regions
US8732310B2 (en) * 2010-04-22 2014-05-20 International Business Machines Corporation Policy-driven capacity management in resource provisioning environments
US20140013129A1 (en) * 2012-07-09 2014-01-09 L. Pierre de Rochemont Hybrid computing module
CN101938416B (zh) 2010-09-01 2012-08-08 华南理工大学 一种基于动态重配置虚拟资源的云计算资源调度方法
CN102087618A (zh) * 2011-02-12 2011-06-08 浪潮(北京)电子信息产业有限公司 云计算操作系统的资源管理方法及系统
WO2012151392A1 (en) * 2011-05-04 2012-11-08 Citrix Systems, Inc. Systems and methods for sr-iov pass-thru via an intermediary device
US8631154B2 (en) 2011-06-29 2014-01-14 International Business Machines Corporation Dynamically modifying quality of service levels for resources in a networked computing environment
WO2012109870A1 (zh) 2011-08-01 2012-08-23 华为技术有限公司 虚拟资源管理方法、系统及装置
US9372827B2 (en) * 2011-09-30 2016-06-21 Commvault Systems, Inc. Migration of an existing computing system to new hardware
US8276140B1 (en) * 2011-11-14 2012-09-25 Google Inc. Adjustable virtual network performance
US20130138813A1 (en) 2011-11-28 2013-05-30 Microsoft Corporation Role instance reachability in data center
CN103503404A (zh) * 2011-12-05 2014-01-08 华为技术有限公司 资源调度方法、装置和系统
US8707316B1 (en) * 2012-01-05 2014-04-22 The Boeing Company Methods and systems for mission-driven quality of service management
US9239786B2 (en) * 2012-01-18 2016-01-19 Samsung Electronics Co., Ltd. Reconfigurable storage device
JP5983728B2 (ja) * 2012-03-08 2016-09-06 日本電気株式会社 仮想マシン管理装置及び仮想マシン管理方法
CN102662750A (zh) * 2012-03-23 2012-09-12 上海交通大学 基于弹性虚拟机池的虚拟机资源优化控制方法及其系统
US9450885B2 (en) 2012-03-26 2016-09-20 Oracle International Corporation System and method for supporting live migration of virtual machines in a virtualization environment
US9311122B2 (en) * 2012-03-26 2016-04-12 Oracle International Corporation System and method for providing a scalable signaling mechanism for virtual machine migration in a middleware machine environment
US9027024B2 (en) * 2012-05-09 2015-05-05 Rackspace Us, Inc. Market-based virtual machine allocation
US8966321B2 (en) * 2012-05-09 2015-02-24 Ixia Logical port and layer protocol test configuration resource manager
JP2013254304A (ja) 2012-06-06 2013-12-19 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9154589B1 (en) * 2012-06-28 2015-10-06 Amazon Technologies, Inc. Bandwidth-optimized cloud resource placement service
US20140007097A1 (en) * 2012-06-29 2014-01-02 Brocade Communications Systems, Inc. Dynamic resource allocation for virtual machines
WO2014058411A1 (en) * 2012-10-08 2014-04-17 Hewlett-Packard Development Company, L.P. Hybrid cloud environment
US9444800B1 (en) * 2012-11-20 2016-09-13 Amazon Technologies, Inc. Virtual communication endpoint services
KR102020046B1 (ko) * 2012-12-06 2019-09-10 한국전자통신연구원 서버 가상화 환경에서의 플로우 관리 장치 및 방법, 서비스품질 정책 적용 방법
US9608933B2 (en) * 2013-01-24 2017-03-28 Hitachi, Ltd. Method and system for managing cloud computing environment
CN104111800B (zh) 2013-04-18 2018-02-23 阿里巴巴集团控股有限公司 一种虚拟磁盘的io口调度方法及其调度装置
US20140324862A1 (en) * 2013-04-30 2014-10-30 Splunk Inc. Correlation for user-selected time ranges of values for performance metrics of components in an information-technology environment with log data from that information-technology environment
US9380467B2 (en) * 2013-05-10 2016-06-28 Elwha Llc Dynamic point to point mobile network including intermediate device aspects system and method
CN103353861B (zh) * 2013-06-18 2016-06-29 中国科学院计算技术研究所 实现分布式i/o资源池化的方法及装置
US9495211B1 (en) * 2014-03-04 2016-11-15 Google Inc. Allocating computing resources based on user intent
CN103870341A (zh) * 2014-03-12 2014-06-18 汉柏科技有限公司 一种调整虚拟机资源的方法和系统
US9374324B2 (en) * 2014-03-14 2016-06-21 International Business Machines Corporation Determining virtual adapter access controls in a computing environment
US9424216B2 (en) * 2014-03-14 2016-08-23 International Business Machines Corporation Ascertaining configuration of a virtual adapter in a computing environment
US9658897B2 (en) * 2014-06-23 2017-05-23 International Business Machines Corporation Flexible deployment and migration of virtual machines
US9635103B2 (en) * 2014-09-11 2017-04-25 Amazon Technologies, Inc. Dynamic virtual resource request rate control for utilizing physical resources
US9842075B1 (en) * 2014-09-12 2017-12-12 Amazon Technologies, Inc. Presenting multiple endpoints from an enhanced PCI express endpoint device
US9804877B2 (en) * 2014-09-16 2017-10-31 Unisys Corporation Reset of single root PCI manager and physical functions within a fabric

Also Published As

Publication number Publication date
ES2757375T3 (es) 2020-04-29
CN105743808B (zh) 2017-09-19
MX2017005248A (es) 2018-01-30
ZA201701765B (en) 2018-04-25
AU2015361607A1 (en) 2017-03-30
CA2961283C (en) 2019-03-05
EP3620919A1 (en) 2020-03-11
RU2673707C1 (ru) 2018-11-29
SG11201701729UA (en) 2017-04-27
US20170199767A1 (en) 2017-07-13
BR112017005195B1 (pt) 2023-01-17
KR101880407B1 (ko) 2018-07-19
EP3206125A1 (en) 2017-08-16
WO2016091035A1 (zh) 2016-06-16
CN107645407A (zh) 2018-01-30
CN107645407B (zh) 2021-02-12
CA2961283A1 (en) 2016-06-16
CN105743808A (zh) 2016-07-06
US11379265B2 (en) 2022-07-05
EP3206125B1 (en) 2019-09-11
KR20170046786A (ko) 2017-05-02
CN105874432A (zh) 2016-08-17
US20190286488A1 (en) 2019-09-19
AU2015361607B2 (en) 2019-01-31
JP2017533509A (ja) 2017-11-09
BR112017005195A8 (pt) 2018-12-26
EP3206125A4 (en) 2017-12-06
BR112017005195A2 (pt) 2017-12-12
MX365979B (es) 2019-06-21
US10489207B2 (en) 2019-11-26

Similar Documents

Publication Publication Date Title
JP6408148B2 (ja) リソース管理方法、ホストおよびエンドポイント
EP3468151B1 (en) Acceleration resource processing method and apparatus
US9141785B2 (en) Techniques for providing tenant based storage security and service level assurance in cloud storage environment
JP6200497B2 (ja) 仮想マシンのフローの物理的なキューへのオフロード
US9442763B2 (en) Resource allocation method and resource management platform
JP4620776B2 (ja) ネットワークに付属する物理的なポートの仮想インスタンスを管理するための方法およびシステム
US8732339B2 (en) NPIV at storage devices
EP3574613B1 (en) Unified resource management in a data center cloud architecture
US10229021B1 (en) System, and control method and program for input/output requests for storage systems
US20100287262A1 (en) Method and system for guaranteed end-to-end data flows in a local networking domain
WO2014063463A1 (zh) 一种物理网卡管理方法、装置及物理主机
US20110302287A1 (en) Quality of service control
US10489177B2 (en) Resource reconciliation in a virtualized computer system
US20150113114A1 (en) Network interface adapter registration method, driver, and server
KR101474872B1 (ko) 클라우드 상에 가상 클러스터들의 효율적 구축을 위한 탄력적 가상 클러스터 관리 방법, 이를 이용한 가상 클러스터 관리 장치 및 클라우드 시스템
US11734172B2 (en) Data transmission method and apparatus using resources in a resource pool of a same NUMA node
JP2009075718A (ja) 仮想i/oパスの管理方法、情報処理システム及びプログラム
WO2013023473A1 (zh) 虚拟机资源的管理方法及系统
US20160254958A1 (en) Method, apparatus and system for virtualizing a policy and charging rules function
Thaha et al. Data location aware scheduling for virtual Hadoop cluster deployment on private cloud computing environment
US20240143376A1 (en) Apparatus and method for emulating or para virtualizing a physical function of a resource
JP2017111597A (ja) 帯域設定方法、帯域設定プログラム、情報処理装置及び情報処理システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170420

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180919

R150 Certificate of patent or registration of utility model

Ref document number: 6408148

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250