JP7102950B2 - 情報処理システム、情報処理システムの制御方法及び管理装置の制御プログラム - Google Patents

情報処理システム、情報処理システムの制御方法及び管理装置の制御プログラム Download PDF

Info

Publication number
JP7102950B2
JP7102950B2 JP2018103574A JP2018103574A JP7102950B2 JP 7102950 B2 JP7102950 B2 JP 7102950B2 JP 2018103574 A JP2018103574 A JP 2018103574A JP 2018103574 A JP2018103574 A JP 2018103574A JP 7102950 B2 JP7102950 B2 JP 7102950B2
Authority
JP
Japan
Prior art keywords
control unit
instruction
information processing
load
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018103574A
Other languages
English (en)
Other versions
JP2019207624A (ja
Inventor
純一 松田
啓次 宮内
祐一 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018103574A priority Critical patent/JP7102950B2/ja
Priority to US16/398,358 priority patent/US11487587B2/en
Publication of JP2019207624A publication Critical patent/JP2019207624A/ja
Application granted granted Critical
Publication of JP7102950B2 publication Critical patent/JP7102950B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45579I/O management, e.g. providing access to device drivers or storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5022Workload threshold
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/508Monitor

Description

本発明は、情報処理システム、情報処理システムの制御方法及び管理装置の制御プログラムに関する。
クラウドシステムでは、負荷の増加に応じて、システムを構成するサーバの台数を増やすことによりシステムの処理能力を高めるスケールアウトが重要であるが、スケールアウトの要となる仮想ロードバランサ(仮想負荷分散装置)がボトルネックとなる場合がある。ここで、仮想ロードバランサとは、VM(Virtual Machine:仮想マシン)で実行されるロードバランサであり、処理を実行する複数のVMに負荷を分散する処理を行う。
仮想ロードバランサに過負荷が発生すると、処理を実行するVMに割り当てられる物理的なリソースを追加してもクラウドシステムの性能は向上しない。したがって、クラウドシステムでは、仮想ロードバランサのスケールアウトが重要となる。このため、負荷状況に応じて仮想ロードバランサが自動的にスケールアウトする技術がある。
なお、負荷分散に関する技術として、ネットワ-ク上に接続されたクライアントとサ-バの間でトランザクション処理を行うシステムにおいて、トランザクションの処理を効率化、高速化し、システム全体としての処理効率を向上させる技術がある。この技術では、トランザクションの負荷を監視し、監視結果に基づいて業務サーバプロセス数を制御する。そして、各業務サーバプロセスが処理要求を受け付けるべき業務クライアントを決定し、各業務サーバプロセスが処理要求を受け付ける業務クライアントを管理する(以下、特許文献1参照)。
また、アクセス要求が負荷の高い資源に到着した場合に、他の代替資源管理装置に転送することで負荷分散を可能とし、負荷の増大に対してボトルネックになる機構をなくし、効果的な分散を行う技術がある(以下、特許文献2参照)。
また、通常データ分散処理システムと高負荷データ分散処理システムとで構成することで、高負荷データの発生時に、高負荷データの処理を継続しつつ、他のデータの信号処理への影響の発生や、非効率なスケールアウトの頻発を抑止する分散処理システムがある。この分散処理システムでは、通常データ分散処理システムの各ノードは、データの処理負荷と、リソース負荷とを計測することにより、高負荷データを抽出する。そして、各ノードは、高負荷データを専用で処理する高負荷データ分散処理システムに、抽出した高負荷データを移管する。また、高負荷データ分散処理システムのノードは、負荷が低減したデータを正常負荷データとして抽出し、通常データ分散処理システムに返還する(以下、特許文献3参照)。
特開平7-302242号公報 特開平5-216842号公報 特開2016-157367号公報
仮想ロードバランサの自動スケールアウトには、数分程度の時間を要するため、テレビ放送等に起因するサイト(例えばウェブサイト)への瞬発的なアクセス量の増加に間に合わないという問題がある。
本発明は、1つの側面では、仮想ロードバランサに割り当てられるリソースを瞬時に増加することを目的とする。
1つの態様では、情報処理システムは、複数の第1の仮想マシンに負荷を分散する仮想負荷分散装置を実行する第2の仮想マシンを動作させる情報処理装置と、前記情報処理装置を制御する管理装置とを有する。前記情報処理装置は、前記第2の仮想マシンへのリソース割り当てを制御する第1の制御部を有する。前記第1の制御部は、前記仮想負荷分散装置の負荷を監視し、該負荷が所定の閾値を超えると過負荷の発生を前記管理装置に通知する監視部を有する。前記管理装置は、前記情報処理装置のリソース情報及び前記仮想負荷分散装置の管理情報を記憶する記憶部を有する。また、前記管理装置は、前記過負荷が発生すると、前記第2の仮想マシンに割り当てられるリソースを追加する追加命令を前記記憶部に基づいて作成し、該作成した追加命令を前記第1の制御部に通知する第2の制御部を有する。前記第1の制御部は、前記追加命令を実行して前記リソースを追加する。
1つの側面では、本発明は、仮想ロードバランサに割り当てられるリソースを瞬時に増加することができる。
図1は、実施例1に係る情報処理システムの構成を示す図である。 図2は、仮想ロードバランサが動作する処理装置及び管理装置の機能構成を示す図である。 図3は、LB管理テーブルの一例を示す図である。 図4は、リソース管理テーブルの一例を示す図である。 図5は、CPU-ID管理テーブルの一例を示す図である。 図6は、LBに過負荷が発生したときの処理装置及び管理装置の動作を示す図である。 図7は、情報収集に関する動作を示す図である。 図8Aは、メモリ拡張に関する動作を示す第1の図である。 図8Bは、メモリ拡張に関する動作を示す第2の図である。 図9Aは、CPU拡張に関する動作を示す第1の図である。 図9Bは、CPU拡張に関する動作を示す第2の図である。 図10は、スケールアップしたLBへの処理投入を示す図である。 図11は、LBに過負荷が発生したときの処理の全体フローを示すフローチャートである。 図12は、情報収集及び負荷状況監視の処理のフローを示すフローチャートである。 図13は、メモリ領域を拡張する処理のフローを示すフローチャートである。 図14は、CPUを拡張する処理のフローを示すフローチャートである。 図15は、スケールアップ後の引継ぎ処理のフローを示すフローチャートである。 図16Aは、LBに過負荷が発生したときの処理のシーケンスを示す第1の図である。 図16Bは、LBに過負荷が発生したときの処理のシーケンスを示す第2の図である。 図17は、1つのサイトの負荷が上昇したときの処理装置及び管理装置の動作を示す図である。 図18は、実施例1及び2に係る制御プログラムを実行するコンピュータのハードウェア構成を示す図である。
以下に、本願の開示する情報処理システム、情報処理システムの制御方法及び管理装置の制御プログラムの実施例を図面に基づいて詳細に説明する。なお、実施例は開示の技術を限定するものではない。
まず、実施例1に係る情報処理システムの構成について説明する。図1は、実施例1に係る情報処理システムの構成を示す図である。図1に示すように、実施例1に係る情報処理システム1は、管理装置2と、管理端末2aと、仮想ロードバランサ42が動作する処理装置3と、仮想サーバ43が動作する複数の処理装置3と、複数のクライアント4とを有する。
仮想ロードバランサ42が動作する処理装置3は、複数のクライアント4とネットワーク5で接続され、仮想サーバ43が動作する複数の処理装置3とネットワーク6で接続される。管理装置2は、各処理装置3及び管理端末2aと接続される。なお、仮想ロードバランサ42が動作する処理装置3の数は複数でもよい。また、仮想サーバ43が動作する処理装置3の数は1でもよい。
管理装置2は、処理装置3に関する情報を管理して処理装置3を制御する装置である。管理端末2aは、管理者が管理装置2との対話に使用する端末である。処理装置3は、VMを実行する情報処理装置である。仮想サーバ43は、情報処理を行うVMである。仮想ロードバランサ42は、VMで実行され、仮想サーバ43に負荷を分散する仮想的な負荷分散装置である。クライアント4は、処理を依頼する装置である。
クライアント4が依頼した処理は、仮想ロードバランサ42により受け付けられ、仮想サーバ43に振り分けられる。仮想ロードバランサ42は、振り分け処理以外に、セッション維持・セッション管理を含む接続管理、SSL(Secure Sockets Layer)のための暗号処理及び復号処理を行う。
次に、仮想ロードバランサ42が動作する処理装置3及び管理装置2の機能構成について説明する。図2は、仮想ロードバランサ42が動作する処理装置3及び管理装置2の機能構成を示す図である。図2に示すように、仮想ロードバランサ42が動作する処理装置3では、仮想化基盤31と、VM#1、VM#2、・・・で表される複数のVM32が動作する。VM#1ではOS(Operating System)#1で表されるOS41とLB#1で表されるLB42が動作する。ここで、LB42は、仮想ロードバランサ42を表す。VM#2ではOS#2で表されるOS41とLB#2で表されるLB42が動作する。
仮想化基盤31は、処理装置3を仮想化して制御する。仮想化基盤31は、処理装置3が有する演算処理装置またはプロセッサとしてのCPU(Central Processing Unit)61、メモリ62等のリソースを管理し、VM32に割り当てる。仮想化基盤31は、CPU61を、CPUプール51を用いて管理し、メモリ62を共有メモリ52として管理する。なお、プロセッサとしては、CPU以外にGPU(Graphics Processing Unit)、NPU(Network Processing Unit)、DSP(Digital Signal Processor)等が含まれる。
仮想化基盤31は、監視部53を有する。監視部53は、LB42のCPU使用率を監視し、所定の閾値を超えるとLB42へのリソース追加要求を管理装置2に送信する。また、監視部53は、仮想化基盤31の情報、LB42の情報、処理装置3の情報を管理装置2に送信する。
仮想化基盤31は、構成情報54と負荷情報55を記憶する。構成情報54には、動作するVM32の情報、LB42の情報等が含まれる。負荷情報55には、VM32毎あるいはLB42毎のCPU使用率が含まれる。
管理装置2は、構成情報DB21と、管理部22と、制御部23とを有する。構成情報DB21は、監視部53により送られてきた情報を記憶する。構成情報DB21には、LB管理テーブルとリソース管理テーブルとCPU-ID管理テーブルが含まれる。
LB管理テーブルは、LB42に関する情報を記憶する。図3は、LB管理テーブルの一例を示す図である。図3に示すように、LB管理テーブルは、VM-ID、仮想化基盤装置名、プロセスID、使用CPU-ID及び使用メモリ量をLB42毎に記憶する。
VM-IDは、LB42を実行するVM32を識別する番号である。仮想化基盤装置は、仮想化基盤31が動作する処理装置3であり、仮想化基盤装置名は、LB42が動作する処理装置3を識別する名前である。プロセスIDは、LB42のプロセス(以下、LBプロセス)を識別する番号である。すなわち、LB42は、VM32においてプロセスとして実行される。使用CPU-IDは、LB42を実行するVM32に割り当てられたCPU61を識別する番号である。使用メモリ量は、LB42を実行するVM32に割り当てられたメモリ62の量である。使用メモリ量の単位は、例えばMB(メガバイト)である。
例えば、「Server1」で識別される処理装置3において「0001」で識別されるVM32で動作するLBプロセスのプロセスIDは「1000」である。また、当該VM32には、「1」で識別されるCPU61が割り当てられ、「350MB」のメモリ62が割り当てられる。
リソース管理テーブルは、CPU61及びメモリ62に関する情報を記憶する。図4は、リソース管理テーブルの一例を示す図である。図4に示すように、リソース管理テーブルは、仮想化基盤装置名、搭載CPU-ID数、未使用CPU-ID数、搭載メモリ量及び未使用メモリ量を処理装置3毎に記憶する。
仮想化基盤装置名は、処理装置3の名前である。搭載CPU-ID数は、処理装置3に搭載されたCPU61の数である。未使用CPU-ID数は、使用されていないCPU61の数である。搭載メモリ量は、処理装置3に搭載されたメモリ62の量である。未使用メモリ量は、使用されていないメモリ62の量である。搭載メモリ量及び未使用メモリ量の単位は、例えばMBである。
例えば、「Server1」で識別される処理装置3には、「20個」のCPU61と「264000MB」のメモリ62が搭載され、使用されていないCPU61の数は「17」であり、使用されていないメモリ62の量は「263000MB」である。
CPU-ID管理テーブルは、CPU61の使用状況に関する情報を記憶する。図5は、CPU-ID管理テーブルの一例を示す図である。図5に示すように、CPU-ID管理テーブルは、仮想化基盤装置名、CPU-ID及び使用フラグをCPU61毎に記憶する。仮想化基盤装置名は、CPU61を搭載する処理装置3の名前である。CPU-IDは、CPU61を識別する番号である。使用フラグは、CPU61が使用されている「use」であるか、使用されていない「no use」であるかを示す。例えば、「Server1」で識別される処理装置3において「1」で識別されるCPU61は、使用されている。
図2に戻って、管理部22は、構成情報DB21を用いて全ての処理装置3のリソース、VM32を管理する。例えば、管理部22は、監視部53から仮想化基盤31の情報、LB42の情報、処理装置3の情報を受信して構成情報DB21に格納する。
また、管理部22は、LB42が動作する処理装置3の監視部53からリソース追加要求を受信すると、メモリ62を増設するメモリ領域追加命令の作成を制御部23に要求する。また、管理部22は、LB42用にメモリ増設を実行した仮想化基盤31からメモリ増設の完了を通知されると、VM32のメモリ領域を拡張するメモリ領域拡張命令の作成を制御部23に要求する。また、管理部22は、LB42を実行するVM32のOS41からメモリ領域拡張の完了を通知されると、CPU追加命令の作成を制御部23に要求する。
制御部23は、管理部22からのメモリ領域追加命令の作成要求に基づいて、LB42が処理に用いているデータ領域を確保するメモリ領域確保命令と、メモリ領域追加命令を作成し、リソース追加要求を送信した監視部53を有する仮想化基盤31に発行する。また、制御部23は、管理部22からのメモリ領域拡張命令の作成要求に基づいて、メモリ領域拡張命令を作成し、メモリ追加が行われたVM32のOS41に発行する。
また、制御部23は、管理部22からのCPU追加命令の作成要求に基づいて、LBプロセスに対するCPU61の固定割り当て(保護)を要求するLBプロセス保護命令と、CPU61を追加するCPU追加命令を作成する。そして、制御部23は、CPU61が追加されるVM32のOS41にLBプロセス保護命令を発行し、リソース追加要求を送信した監視部53を有する仮想化基盤31にCPU追加命令を発行する。
次に、LB42に過負荷が発生したときの処理装置3及び管理装置2の動作について説明する。図6は、LB42に過負荷が発生したときの処理装置3及び管理装置2の動作を示す図である。
図6に示すように、LB#1が動作する処理装置3の監視部53が、VM#1のCPU負荷の閾値オーバーを検知し(1)、管理部22へCPU過負荷通知を送信する(2)。管理部22は、CPU過負荷通知を受信すると、構成情報DB21から未使用CPU61を選定する(3)。
そして、制御部23が、構成情報を確認し、既存のメモリ空間を維持したままLB#1を停止せずにリソース(CPU61及びメモリ62)を拡張する命令を作成する(4)。具体的には、制御部23は、メモリ領域確保命令、メモリ領域追加命令、メモリ領域拡張命令、LBプロセス保護命令及びCPU追加命令を作成する。そして、制御部23は、メモリ領域確保命令、メモリ領域追加命令及びCPU追加命令を仮想化基盤31に通知し、メモリ領域拡張命令、LBプロセス保護命令を対象OS41に通知する(5)。なお、各命令を作成して通知するタイミングについては後述する。
そして、仮想化基盤31が、メモリ領域確保命令を実行後、メモリ領域追加命令を実行する(6)。そして、OS#1が、メモリ領域拡張命令を実行して、LB#1の既存のメモリ領域を確保したままメモリ領域を拡張する(7)。そして、OS#1は、LBプロセス保護命令を実行して、LB#1の処理中の命令を既存のCPU61に紐づける(8)ことで、LB#1の停止を防ぐ。そして、仮想化基盤31が、CPU追加命令を実行する(9)。
このように、仮想化基盤31がメモリ領域追加命令及びCPU追加命令を実行してVM#1に割り当てられるリソースを追加するので、情報処理システム1はLB#1の過負荷を解消することができる。また、仮想化基盤31がメモリ領域追加命令の前にメモリ領域確保命令を実行するので、情報処理システム1はLB42が処理に用いているデータ領域を確保したままメモリ62を増設することができる。また、仮想化基盤31がCPU追加命令を実行する前にOS#1がLBプロセス保護命令を実行するので、情報処理システム1はLB#1を停止することなくCPU61を追加することができる。
次に、図6に示した動作の詳細について図7~図10を用いて説明する。図7は、情報収集に関する動作を示す図であり、図8A及び図8Bは、メモリ拡張に関する動作を示す図であり、図9A及び図9Bは、CPU拡張に関する動作を示す図であり、図10は、スケールアップしたLB42への処理投入を示す図である。
図7に示すように、監視部53は、仮想化基盤装置の情報、各VM32のID、各VM32の使用CPU61のCPU-ID及びメモリ使用量、未使用CPU61のCPU-IDを管理装置2に通知する(1)。ここで、各VM32は、LB42を実行するVM32である。
そして、管理部22が、通知された情報を構成情報DB21に保存する(2)。そして、監視部53は、各LB42の負荷監視を実施し(3)、過負荷が発生すると対象VM-IDと、LB42のプロセスIDを管理部22へ報告する(4)。
そして、図8Aに示すように、監視部53は、管理部22へリソース追加要求を行う(5)。すると、管理部22は、対象VM-IDから、メモリ増設対象のLB42を特定し(6)、制御部23へメモリ領域追加命令の作成を要求する(7)。すると、制御部23は、メモリ領域確保命令とメモリ領域追加命令を作成し(8)、仮想化基盤31に対し、メモリ領域確保命令とメモリ領域追加命令を発行する(9)。
すると、図8Bに示すように、仮想化基盤31は、メモリ領域確保命令を実行した後、メモリ領域追加命令を実行してメモリ62を増設する。仮想化基盤31は、メモリ増設対象のLB42を管理装置2からの命令情報とVM32のIDとLB42のプロセスIDにより抽出し、増設対象VM32のメモリ62を増設する(10)。
そして、図8Aに示すように、仮想化基盤31は、メモリ領域追加後、管理部22に報告する(11)。管理部22は、制御部23へメモリ領域拡張命令の作成を要求する(12)。そして、制御部23は、メモリ領域拡張命令を作成し(13)、対象LB42のVM32のOS41へメモリ領域拡張命令を発行する(14)。
そして、図8Bに示すように、仮想化基盤上にあるLB42のVM32のOS41が、LB#1の処理で使用する領域を未使用領域と結合し、該領域を拡張する(15)。LB#1の処理で使用する領域には、クッキー情報、セッションID情報及びSSL暗号処理情報が含まれる。そして、対象VM32のOS41は、メモリ拡張完了後、管理部22へ報告する(16)。
このように、仮想化基盤31がメモリ領域追加命令を実行する前にメモリ領域確保命令を実行する。したがって、仮想化基盤上にあるLB42のVM32のOS41は、LB#1の処理で使用する領域をクッキー情報、セッションID情報及びSSL暗号処理情報を保持したまま未使用領域と結合することができる。
そして、図9Aに示すように、管理部22は、制御部23へCPU追加命令の作成を要求する(17)。すると、制御部23は、対象VM-IDとLB42のプロセスIDを基に、LBプロセス保護命令を作成し(18)、対象VM32のOS41にLBプロセス保護命令を発行する(19)。
そして、図9Bに示すように、対象VM32のOS41は、LBプロセス保護命令を実行し(20)、制御部23へLBプロセス保護命令の実行完了を報告する(21)。そして、図9Aに示すように、制御部23は、報告を受けたのち構成情報DB21より未使用CPU61のCPU-IDを特定し(22)、特定したCPU-IDを基に、CPU追加命令を作成する(23)。そして、制御部23は、仮想化基盤31に対しCPU追加命令を発行する(24)。
そして、図9Bに示すように、仮想化基盤31は、CPU追加命令を実行し、対象VM32のCPU61を追加する(25)。そして、VM32のOS41は、追加されたCPU61の使用登録を実施する(26)。そして、仮想化基盤31は、CPU61の追加完了後、管理部22へ報告する(27)。管理部22は、図9Aに示すように、制御部23に処理完了後の状態を構成情報DB21に反映することを要求する(28)。そして、図9Bに示すように、VM32のOS41は、LBリソースのスケールアップ処理完了かを判断する(29)。
そして、LBリソースのスケールアップ処理完了の場合には、図10に示すように、対象LB42のOS41は、スケールアップしたLBリソースへ処理を投入する(30)。そして、スケールアップしたLBリソースが処理を開始する(31)。図10では、スケールアップ前は、プロセッサの空き待ちやクッキーとセッションの追加ができない状況が発生していたが、スケールアップ後は、プロセッサの空き待ちやクッキーとセッションの追加ができない状況が解消される。
次に、LB42に過負荷が発生したときの処理のフローについて図11~図15を用いて説明する。図11は、LB42に過負荷が発生したときの処理の全体フローを示すフローチャートである。図11に示すように、情報処理システム1は、情報収集及び負荷状況の監視を実施する(ステップS1)。
そして、LB42に過負荷が発生すると、情報処理システム1は、LB42が動作するVM32のメモリ領域の拡張を実施し(ステップS2)、LB42が動作するVM32のCPU61の拡張を実施する(ステップS3)。そして、情報処理システム1は、スケールアップ後の処理引継ぎ作業を実施する(ステップS4)。
このように、情報処理システム1は、LB42に過負荷が発生すると、LB42が動作するVM32のメモリ領域とCPU61を自動的に拡張することで、過負荷に瞬時に対応することができる。
図12は、情報収集及び負荷状況監視の処理のフローを示すフローチャートである。なお、図12の処理は、図11に示したステップS1の処理に対応する。図12に示すように、監視部53は、仮想化基盤装置の情報、各VM32のID、各VM32の使用CPU61のCPU-ID及びメモリ使用量、未使用CPU61のCPU-IDを管理装置2に初期設定として送信する(ステップS11)。ここで、各VM32は、LB42を実行するVM32である。
そして、管理部22は、送信された情報を構成情報DB21に保存する(ステップS12)。そして、監視部53は、各LB42の負荷監視を実施し(ステップS13)、負荷が閾値を超えているか否かを判定する(ステップS14)。そして、負荷が閾値を超えていると、監視部53は、対象VM-IDと、LB42のプロセスIDを管理部22へ報告する(ステップS15)。
このように、監視部53が各LB42の負荷監視を実施し、負荷が閾値を超えていると、対象VM-IDとLB42のプロセスIDを管理部22へ報告するので、管理部22は過負荷の発生を知ることができる。
図13は、メモリ領域を拡張する処理のフローを示すフローチャートである。なお、図13の処理は、図11に示したステップS2の処理に対応する。図13に示すように、監視部53は、管理部22へリソース追加を要求する(ステップS21)。すると、管理部22は、対象VM-IDから、メモリ増設対象のLB42を特定し(ステップS22)、制御部23へメモリ領域追加命令の作成を要求する(ステップS23)。すると、制御部23は、メモリ領域確保命令とメモリ領域追加命令を作成し(ステップS24)、仮想化基盤31に対し、メモリ領域確保命令とメモリ領域追加命令を発行する(ステップS25)。
すると、仮想化基盤31は、メモリ領域確保命令とメモリ領域追加命令を実行し(ステップS26)、メモリ領域追加後、管理部22に報告する(ステップS27)。管理部22は、報告を受けたのち、制御部23へメモリ領域拡張命令の作成を要求する(ステップS28)。そして、制御部23は、メモリ領域拡張命令を作成し(ステップS29)、対象LB42のVM32のOS41へメモリ領域拡張命令を発行する(ステップS30)。そして、対象LB42のVM32のOS41は、メモリ領域拡張命令を実行し(ステップS31)、メモリ拡張完了後、管理部22へ報告する(ステップS32)。
このように、情報処理システム1は、メモリ領域追加命令を実行する前にメモリ領域確保命令を実行することにより、LB42が処理に用いているデータを維持したままメモリ領域を拡張することができる。
図14は、CPU61を拡張する処理のフローを示すフローチャートである。なお、図14の処理は、図11に示したステップS3の処理に対応する。図14に示すように、管理部22は、制御部23へCPU追加命令の作成を要求する(ステップS41)。すると、制御部23は、対象VM-IDとLB42のプロセスIDを基に、LBプロセス保護命令を作成し(ステップS42)、対象VM32のOS41にLBプロセス保護命令を発行する(ステップS43)。
そして、対象VM32のOS41は、LBプロセス保護命令を実行し(ステップS44)、制御部23へLBプロセス保護命令の実行完了を報告する(ステップS45)。そして、制御部23は、報告を受けたのち、構成情報DB21より未使用CPU61のCPU-IDを特定し(ステップS46)、特定したCPU-IDを基に、CPU追加命令を作成する(ステップS47)。そして、制御部23は、仮想化基盤31に対しCPU追加命令を発行する(ステップS48)。
そして、仮想化基盤31は、CPU追加命令を実行し、対象VM32のCPU61を追加する(ステップS49)。そして、VM32のOS41は、追加されたCPU61の使用登録を実施する(ステップS50)。そして、仮想化基盤31は、CPU61の追加完了後、管理部22へ通知する(ステップS51)。管理部22は、制御部23に処理完了後の状態を構成情報DB21に反映することを要求する(ステップS52)。
このように、情報処理システム1は、CPU61の追加を行う前に、LBプロセス保護命令を実行するので、LB42のプロセスに対するCPU61の割り当てを固定し、LB42の停止を防ぐことができる。
図15は、スケールアップ後の引継ぎ処理のフローを示すフローチャートである。なお、図15の処理は、図11に示したステップS4の処理に対応する。図15に示すように、対象LB42のOS41は、LBリソースのスケールアップ処理完了か否かを判断し(ステップS61)、LBリソースのスケールアップ処理完了の場合には、スケールアップしたLBリソースへ処理を投入する(ステップS62)。そして、スケールアップしたLBリソースを用いた処理が開始する(ステップS63)。
このように、情報処理システム1は、LBリソースのスケールアップ処理が完了すると、スケールアップしたLBリソースへ処理を投入するので、LB42の過負荷を解消することができる。
次に、LB42に過負荷が発生したときの処理のシーケンスについて説明する。図16A及び図16Bは、LB42に過負荷が発生したときの処理のシーケンスを示す図である。図16Aに示すように、VM-OS41は、メモリ領域の情報を管理部22へ送信する(t1)。ここで、VM-OS41は、VM32で動作するOS41である。そして、仮想化基盤31は、各VM32のメモリ領域の情報を管理部22へ送信する(t2)。
そして、監視部53は、管理部22へ収集情報を送信する(t3)。ここで、収集情報とは、仮想化基盤装置の情報、LB42を実行するVM32について、各VM32のIDと各VM32の使用CPU61のCPU-ID及びメモリ使用量、未使用CPU61のCPU-IDである。そして、管理部22は、メモリ領域の情報、収集情報を受信し(t4)、構成情報DB21に反映する(t5)。
そして、監視部53は、LB42のCPU使用率を監視し(t6)、閾値オーバーが発生したか否かを判定する(t7)。そして、閾値オーバーが発生すると、監視部53は、管理部22に発生元LB42のリソース追加要求を送信する(t8)。
すると、管理部22は、リソース追加要求を受信し(t9)、制御部23にメモリ領域追加命令の作成を要求する(t10)。すると、制御部23は、メモリ領域確保命令とメモリ領域追加命令を作成する(t11)。このとき、制御部23は、構成情報DB21を参照してメモリサイズの確認を行う(t12)。そして、制御部23は、仮想化基盤31に対し、メモリ領域確保命令とメモリ領域追加命令を発行する(t13)。
すると、仮想化基盤31は、メモリ領域確保命令を実行した後にメモリ領域追加命令を実行することでLB用にメモリ増設を実行し(t14)、メモリ増設が完了すると、LB用のメモリ増設完了を管理部22に報告する。管理部22は、LB用のメモリ増設完了を受信し(t15)、制御部23にメモリ領域拡張命令の作成を要求する(t16)。そして、制御部23は、メモリ領域拡張命令を作成し(t17)、対象LB42のVM-OS41へメモリ領域拡張命令を発行する(t18)。
そして、VM-OS41は、メモリ領域拡張命令を実行し(t19)、図16Bに示すように、メモリ領域拡張の完了を管理部22へ通知する(t20)。そして、管理部22は、メモリ領域拡張の完了を通知されると、制御部23へCPU追加命令の作成を要求する(t21)。すると、制御部23は、LBプロセス保護命令を作成する(t22)。このとき、制御部23は、構成情報DB21を参照してプロセス情報の確認を行う(t23)。そして、制御部23は、VM-OS41にLBプロセス保護命令を発行する(t24)。
そして、VM-OS41は、LBプロセス保護命令を実行し(t25)、制御部23へLBプロセス保護命令の実行完了を報告する。そして、制御部23は、報告を受けると、CPU追加命令を作成する(t26)。このとき、制御部23は、構成情報DB21を参照してCPUプール情報の確認を行う(t27)。そして、制御部23は、仮想化基盤31に対しCPU追加命令を発行する(t28)。
そして、仮想化基盤31は、CPU追加命令を実行し(t29)、対象VM32にCPU61を追加する。そして、VM-OS41は、追加されたCPU61の使用登録を行い(t30)、CPU61の使用登録の完了を仮想化基盤31に通知する(t31)。仮想化基盤31は、CPU61の使用登録の完了を管理部22へ通知する(t32)。
管理部22は、制御部23に処理完了後の状態を構成情報DB21に反映することを要求し、制御部23は、処理完了後の状態を構成情報DB21に反映する(t33)。そして、制御部23は、DB反映完了を管理部22に通知し(t34)、管理部22は、リソース拡張を完了する(t35)。
このように、情報処理システム1は、LB42に過負荷が発生すると、メモリ領域を拡張してCPU61を追加することで、LB42の過負荷を解消することができる。
上述してきたように、実施例1では、情報処理システム1は、管理装置2と処理装置3を有し、処理装置3ではLB42を実行するVM32が仮想化基盤31の制御の下で動作し、管理装置2は構成情報DB21を管理する。そして、仮想化基盤31の監視部53が、LB42の負荷を監視し、負荷が閾値を超えると過負荷の発生を管理装置2に通知する。そして、管理装置2の制御部23が、構成情報DB21を参照し、メモリ領域追加命令及びCPU追加命令を作成して仮想化基盤31に発行する。そして、仮想化基盤31が、メモリ領域追加命令及びCPU追加命令を実行する。したがって、情報処理システム1は、LB42に割り当てられるCPU61とメモリ62を瞬時に増加することができる。
また、実施例1では、仮想化基盤31は、メモリ領域追加命令を実行する前にメモリ領域確保命令を実行するので、LB42が使用しているデータ領域を維持したままメモリ62を拡張することができる。
また、実施例1では、制御部23はCPU追加命令を発行する前にLBプロセス保護命令を発行し、OS41はCPU61が追加される前にLBプロセス保護命令を実行してLBプロセスに対するCPU61を固定するので、LBプロセスの停止を防ぐことができる。
なお、実施例1では、CPU61とメモリ62を追加する場合について説明したが、情報処理システム1は、CPU61とメモリ62の一方を追加してもよい。
ところで、上記実施例1では、LB42は1つのサイトを管理したが、LB42は複数のサイトを管理することもできる。そこで、実施例2では、LB42が2つのサイトを管理する場合について説明する。なお、LB42は3つ以上のサイトを管理してもよい。
図17は、1つのサイトの負荷が上昇したときの処理装置3及び管理装置2の動作を示す図である。図17では、LB#1がサイト#1とサイト#2の2つのサイトについて負荷分散を行う。サイト#1は「UserA」で識別されるユーザに対応付けられ、サイト#2は「UserB」で識別されるユーザに対応付けられる。サイト#1についての負荷分散を行うLBプロセスのプロセスID(PID)は「01」であり、サイト#2についての負荷分散を行うLBプロセスのプロセスIDは「02」である。
図17に示すように、サイト#1のアクセス量が増加する(1)と、監視部53が、VM#1のCPU負荷の閾値オーバーを検知し(2)、管理部22へ過負荷通知をVM-IDと、サイト#1に対応するLBプロセスのプロセスIDとともに送信する(3)。管理部22は、CPU過負荷通知を受信すると、構成情報DB21から未使用CPU61を選定するとともに、プロセスIDに対応するCPU-IDを特定する(4)。
そして、制御部23が、メモリ領域確保命令と、メモリ領域追加命令と、メモリ領域拡張命令と、紐づけ命令と、CPU追加命令とを作成する(5)。ここで、紐づけ命令は、過負荷のCPU61のCPU-ID、プロセス及びサイト(ユーザ)を紐づける命令である。なお、サイト(ユーザ)を特定するために、図3に示したLB管理テーブルには、サイト(ユーザ)に関する情報が追加される。そして、制御部23は、メモリ領域確保命令、メモリ領域追加命令及びCPU追加命令を対象仮想化基盤31に通知し、メモリ領域拡張命令及び紐づけ命令をOS#1に通知する(6)。
そして、仮想化基盤31が、メモリ領域確保命令を実行し(7)、メモリ領域追加命令を実行する(8)。そして、OS#1が、メモリ領域拡張命令を実行し(9)、紐づけ命令を実行する(10)。OS#1が紐づけ命令を実行することで、サイト#1について負荷分散を行うLBプロセスに対するCPU61の割り当てを固定することができる。そして、仮想化基盤31が、CPU追加命令を実行する(11)。
このように、OS#1が、CPU-ID、プロセス、サイト及びユーザを紐づける紐づけ命令を実行することで、情報処理システム1は、LB#1によるサイト#1の処理を維持しながらLB#1に割り当てられるリソースを拡張することができる。
上述してきたように、実施例2では、監視部53が、LB42の負荷をサイト毎に監視し、負荷が閾値を超えるサイトがあると、管理装置2へ過負荷の発生を通知する。そして、制御部23が、紐づけ命令を作成し、OS41が、CPU追加命令を実行する前に紐づけ命令を実行する。したがって、情報処理システム1は、サイト毎に負荷分散を行うプロセスに対するCPU61の割り当てを固定することができ、サイト毎のLB42の処理を維持しながらCPU61を拡張することができる。
なお、実施例1及び2では、管理装置2について説明したが、管理装置2が有する構成をソフトウェアによって実現することで、同様の機能を有する制御プログラムを得ることができる。そこで、制御プログラムを実行するコンピュータについて説明する。
図18は、実施例1及び2に係る制御プログラムを実行するコンピュータのハードウェア構成を示す図である。図18に示すように、コンピュータ80は、メモリ81と、CPU82と、LAN(Local Area Network)インタフェース83と、HDD(Hard Disk Drive)84とを有する。また、コンピュータ80は、スーパーIO(Input Output)85と、DVI(Digital Visual Interface)86と、ODD(Optical Disk Drive)87とを有する。
メモリ81は、プログラムやプログラムの実行途中結果などを記憶するRAM(Random Access Memory)である。CPU82は、メモリ81からプログラムを読み出して実行する中央処理装置である。CPU82は、メモリコントローラを有するチップセットを含む。
LANインタフェース83は、コンピュータ80をLAN経由で他のコンピュータに接続するためのインタフェースである。HDD84は、プログラムやデータを格納するディスク装置であり、スーパーIO85は、マウスやキーボードなどの入力装置を接続するためのインタフェースである。DVI86は、液晶表示装置を接続するインタフェースであり、ODD87は、DVDの読み書きを行う装置である。
LANインタフェース83は、PCIエクスプレス(PCIe)によりCPU82に接続され、HDD84及びODD87は、SATA(Serial Advanced Technology Attachment)によりCPU82に接続される。スーパーIO85は、LPC(Low Pin Count)によりCPU82に接続される。
そして、コンピュータ80において実行される制御プログラムは、コンピュータ80により読み出し可能な記録媒体の一例であるDVDに記憶され、ODD87によってDVDから読み出されてコンピュータ80にインストールされる。あるいは、制御プログラムは、LANインタフェース83を介して接続された他のコンピュータシステムのデータベースなどに記憶され、これらのデータベースから読み出されてコンピュータ80にインストールされる。そして、インストールされた制御プログラムは、HDD84に記憶され、メモリ81に読み出されてCPU82によって実行される。
1 情報処理システム
2 管理装置
2a 管理端末
3 処理装置
4 クライアント
5 ネットワーク
6 ネットワーク
21 構成情報DB
22 管理部
23 制御部
31 仮想化基盤
32 VM
41 OS
42 仮想ロードバランサ(LB)
43 仮想サーバ
51 CPUプール
52 共有メモリ
53 監視部
54 構成情報
55 負荷情報
61 CPU
62 メモリ
80 コンピュータ
81 メモリ
82 CPU
83 LANインタフェース
84 HDD
85 スーパーIO
86 DVI
87 ODD

Claims (7)

  1. 複数の第1の仮想マシンに負荷を分散する仮想負荷分散装置を実行する第2の仮想マシンを動作させる情報処理装置と、
    前記情報処理装置を制御する管理装置と
    を有し、
    前記情報処理装置は、前記第2の仮想マシンへのリソース割り当てを制御する第1の制御部を有し、
    前記第1の制御部は、
    前記仮想負荷分散装置の負荷を監視し、該負荷が所定の閾値を超えると過負荷の発生を前記管理装置に通知する監視部を有し、
    前記管理装置は、
    前記情報処理装置のリソース情報及び前記仮想負荷分散装置の管理情報を記憶する記憶部と、
    前記過負荷が発生すると、前記第2の仮想マシンに割り当てられるリソースを追加する追加命令を前記記憶部に基づいて作成し、該作成した追加命令を前記第1の制御部に通知する第2の制御部を有し、
    前記第1の制御部は、
    前記追加命令を実行して前記リソースを追加することを特徴とする情報処理システム。
  2. 前記リソースは少なくともプロセッサ又はメモリであることを特徴とする請求項1に記載の情報処理システム。
  3. 前記第2の制御部は、リソースとしてのメモリの追加命令を作成して通知する際に、前記仮想負荷分散装置が処理に使用するデータ領域を確保する確保命令も作成して前記第1の制御部に通知し、
    前記第1の制御部は、前記確保命令を実行した後でメモリの追加命令を実行することを特徴とする請求項1に記載の情報処理システム。
  4. 前記第2の仮想マシンは、該第2の仮想マシンを制御する第3の制御部を有し、
    前記第2の制御部は、リソースとしてのプロセッサの追加命令を作成して通知する前に、前記仮想負荷分散装置を実行するプロセッサを固定する保護命令を作成して前記第3の制御部に通知し、
    前記第3の制御部は、前記保護命令を実行し、
    前記第1の制御部は、前記第3の制御部により前記保護命令が実行された後にプロセッサの追加命令を実行することを特徴とする請求項1に記載の情報処理システム。
  5. 前記仮想負荷分散装置は、複数サイトについてサイト毎のプロセスで負荷分散を行い、
    前記監視部は、サイト毎に負荷を監視し、該負荷が所定の閾値を超えると過負荷の発生を前記管理装置に通知し、
    前記第2の仮想マシンは、該第2の仮想マシンを制御する第3の制御部を有し、
    前記第2の制御部は、リソースとしてのプロセッサの追加命令を作成して通知する前に、過負荷が発生したサイトについて負荷分散を行うプロセスを実行するプロセッサを固定する紐づけ命令を作成して前記第3の制御部に通知し、
    前記第3の制御部は、前記紐づけ命令を実行し、
    前記第1の制御部は、前記第3の制御部により前記紐づけ命令が実行された後にプロセッサの追加命令を実行することを特徴とする請求項1に記載の情報処理システム。
  6. 複数の第1の仮想マシンに負荷を分散する仮想負荷分散装置を実行する第2の仮想マシンを動作させる情報処理装置と、前記情報処理装置を制御する管理装置とを有する情報処理システムの制御方法において、
    前記管理装置は、前記情報処理装置のリソース情報及び前記仮想負荷分散装置の管理情報を前記情報処理装置から受信して記憶部に格納し、
    記第2の仮想マシンへのリソース割り当てを制御する第1の制御部は、前記仮想負荷分散装置の負荷を監視し、該負荷が所定の閾値を超えると過負荷の発生を前記管理装置に通知し、
    前記管理装置は、前記過負荷が発生すると、前記第2の仮想マシンに割り当てられるリソースを追加する追加命令を前記記憶部に基づいて作成し、該作成した追加命令を前記第1の制御部に通知し、
    前記第1の制御部は、前記追加命令を実行して前記リソースを追加する
    ことを特徴とする情報処理システムの制御方法。
  7. 複数の第1の仮想マシンに負荷を分散する仮想負荷分散装置を実行する第2の仮想マシンを動作させる情報処理装置から該情報処理装置のリソース情報及び前記仮想負荷分散装置の管理情報を受信して記憶部に格納し、
    記第2の仮想マシンへのリソース割り当てを制御する第1の制御部から前記仮想負荷分散装置の過負荷の発生を通知されると、前記第2の仮想マシンに割り当てられるリソースを追加する追加命令を前記記憶部に基づいて作成し、該作成した追加命令を前記第1の制御部に通知して該第1の制御部に前記リソースを追加させる
    処理をコンピュータに実行させることを特徴とする管理装置の制御プログラム。
JP2018103574A 2018-05-30 2018-05-30 情報処理システム、情報処理システムの制御方法及び管理装置の制御プログラム Active JP7102950B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018103574A JP7102950B2 (ja) 2018-05-30 2018-05-30 情報処理システム、情報処理システムの制御方法及び管理装置の制御プログラム
US16/398,358 US11487587B2 (en) 2018-05-30 2019-04-30 Information processing system and method for controlling information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018103574A JP7102950B2 (ja) 2018-05-30 2018-05-30 情報処理システム、情報処理システムの制御方法及び管理装置の制御プログラム

Publications (2)

Publication Number Publication Date
JP2019207624A JP2019207624A (ja) 2019-12-05
JP7102950B2 true JP7102950B2 (ja) 2022-07-20

Family

ID=68693813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018103574A Active JP7102950B2 (ja) 2018-05-30 2018-05-30 情報処理システム、情報処理システムの制御方法及び管理装置の制御プログラム

Country Status (2)

Country Link
US (1) US11487587B2 (ja)
JP (1) JP7102950B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102410586B1 (ko) * 2020-06-26 2022-06-17 충북대학교 산학협력단 사물인터넷 엣지 컴퓨팅 환경을 위한 컨테이너 기반 동적 자원 분배 방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249829A (ja) 2006-03-17 2007-09-27 Hitachi Electronics Service Co Ltd 内部ネットワーク間通信システム及び情報処理装置及び中継情報処理装置及び通信制御プログラム及び内部ネットワーク間における通信制御方法及び遠隔障害管理システム及び被管理装置及び管理装置
JP2012063296A (ja) 2010-09-17 2012-03-29 Ntn Corp バルクハウゼンノイズ検査装置
JP2014119719A (ja) 2012-12-19 2014-06-30 Nippon Seiki Co Ltd 車両用表示装置
JP2016115333A (ja) 2014-12-16 2016-06-23 キヤノン株式会社 管理システムおよび管理システムの制御方法
JP6110715B2 (ja) 2013-04-11 2017-04-05 山口精研工業株式会社 Ni−Pメッキされたアルミ磁気ディスク基板粗研磨用研磨剤組成物、Ni−Pメッキされたアルミ磁気ディスク基板の研磨方法、Ni−Pメッキされたアルミ磁気ディスク基板の製造方法、及びNi−Pメッキされたアルミ磁気ディスク基板
JP2017199369A (ja) 2016-04-22 2017-11-02 カビウム・インコーポレーテッド 動的仮想システム・オン・チップのための方法および装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05216842A (ja) 1992-02-05 1993-08-27 Mitsubishi Electric Corp 資源管理装置
JPH06110715A (ja) * 1992-09-25 1994-04-22 Hitachi Ltd 仮想計算機システムにおける計算機資源の動的割付け方法
JPH07302242A (ja) 1994-04-30 1995-11-14 Mitsubishi Electric Corp 負荷分散方式
JP2007148582A (ja) * 2005-11-24 2007-06-14 Matsushita Electric Ind Co Ltd タスク実行制御装置、タスク実行制御方法、及びプログラム
US8825856B1 (en) * 2008-07-07 2014-09-02 Sprint Communications Company L.P. Usage-based content filtering for bandwidth optimization
US8489744B2 (en) * 2009-06-29 2013-07-16 Red Hat Israel, Ltd. Selecting a host from a host cluster for live migration of a virtual machine
US8978035B2 (en) * 2012-09-06 2015-03-10 Red Hat, Inc. Scaling of application resources in a multi-tenant platform-as-a-service environment in a cloud computing system
US10158579B2 (en) * 2013-06-21 2018-12-18 Amazon Technologies, Inc. Resource silos at network-accessible services
US9183043B2 (en) * 2013-07-16 2015-11-10 Oracle International Corporation Systems and methods for adaptive integration of hardware and software lock elision techniques
JP6259408B2 (ja) 2015-02-26 2018-01-10 日本電信電話株式会社 分散処理システム
US9715416B2 (en) * 2015-06-03 2017-07-25 Intel Corporation Adaptive queued locking for control of speculative execution
US10567388B1 (en) * 2016-03-31 2020-02-18 Amazon Technologies, Inc. Automatic account resource and policy decommissioning
US10673761B2 (en) * 2017-09-29 2020-06-02 Vmware, Inc. Methods and apparatus to improve packet flow among virtualized servers

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249829A (ja) 2006-03-17 2007-09-27 Hitachi Electronics Service Co Ltd 内部ネットワーク間通信システム及び情報処理装置及び中継情報処理装置及び通信制御プログラム及び内部ネットワーク間における通信制御方法及び遠隔障害管理システム及び被管理装置及び管理装置
JP2012063296A (ja) 2010-09-17 2012-03-29 Ntn Corp バルクハウゼンノイズ検査装置
JP2014119719A (ja) 2012-12-19 2014-06-30 Nippon Seiki Co Ltd 車両用表示装置
JP6110715B2 (ja) 2013-04-11 2017-04-05 山口精研工業株式会社 Ni−Pメッキされたアルミ磁気ディスク基板粗研磨用研磨剤組成物、Ni−Pメッキされたアルミ磁気ディスク基板の研磨方法、Ni−Pメッキされたアルミ磁気ディスク基板の製造方法、及びNi−Pメッキされたアルミ磁気ディスク基板
JP2016115333A (ja) 2014-12-16 2016-06-23 キヤノン株式会社 管理システムおよび管理システムの制御方法
JP2017199369A (ja) 2016-04-22 2017-11-02 カビウム・インコーポレーテッド 動的仮想システム・オン・チップのための方法および装置

Also Published As

Publication number Publication date
US20190370067A1 (en) 2019-12-05
US11487587B2 (en) 2022-11-01
JP2019207624A (ja) 2019-12-05

Similar Documents

Publication Publication Date Title
JP4921384B2 (ja) メモリを1台のバーチャル・マシンからもう一方へダイナミックに再割り当てする方法、装置及びシステム
US11093297B2 (en) Workload optimization system
JP5600361B2 (ja) ハイパーバイザベースのサーバ二重化システム、その方法およびサーバ二重化コンピュータプログラムが記録された記録媒体
US9575688B2 (en) Rapid virtual machine suspend and resume
US10248175B2 (en) Off-line affinity-aware parallel zeroing of memory in non-uniform memory access (NUMA) servers
US6944847B2 (en) Virtualization of input/output devices in a logically partitioned data processing system
JP6029550B2 (ja) 計算機の制御方法及び計算機
US20140130048A1 (en) Dynamic scaling of management infrastructure in virtual environments
US9875056B2 (en) Information processing system, control program, and control method
JPWO2015132941A1 (ja) 計算機
KR101765725B1 (ko) 대용량 방송용 빅데이터 분산 병렬처리를 위한 동적 디바이스 연결 시스템 및 방법
JP4957765B2 (ja) ソフトウェアプログラム実行装置、ソフトウェアプログラム実行方法、及びプログラム
CN107528871B (zh) 存储系统中的数据分析
JP5151509B2 (ja) 仮想マシンシステム及びそれに用いる仮想マシン分散方法
JP7102950B2 (ja) 情報処理システム、情報処理システムの制御方法及び管理装置の制御プログラム
KR102001641B1 (ko) 가상화 환경에서의 gpu 자원 관리 방법 및 장치
US20090307403A1 (en) System for executing system management interrupts and methods thereof
US11853798B2 (en) Disaggregated memory pool assignment
KR20130104958A (ko) 다중 운영체제들을 실행하는 장치 및 방법
JPWO2018173300A1 (ja) I/o制御方法およびi/o制御システム
CN113031852A (zh) 数据处理方法、装置、电子设备及存储介质
Opsahl A Comparison of Management of Virtual Machines with z/VM and ESX Server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220620

R150 Certificate of patent or registration of utility model

Ref document number: 7102950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150