JP6959519B2 - 処理分散プログラム、処理分散装置及び処理分散方法 - Google Patents
処理分散プログラム、処理分散装置及び処理分散方法 Download PDFInfo
- Publication number
- JP6959519B2 JP6959519B2 JP2017213768A JP2017213768A JP6959519B2 JP 6959519 B2 JP6959519 B2 JP 6959519B2 JP 2017213768 A JP2017213768 A JP 2017213768A JP 2017213768 A JP2017213768 A JP 2017213768A JP 6959519 B2 JP6959519 B2 JP 6959519B2
- Authority
- JP
- Japan
- Prior art keywords
- application
- specific
- cpu
- specified
- packet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1031—Controlling of the operation of servers by a load balancer, e.g. adding or removing servers that serve requests
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
- H04L43/0876—Network utilisation, e.g. volume of load or congestion level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5077—Logical partitioning of resources; Management or configuration of virtualized resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
- G06F9/5088—Techniques for rebalancing the load in a distributed system involving task migration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/16—Threshold monitoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/4557—Distribution of virtual machine instances; Migration and load balancing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/45595—Network integration; Enabling network access in virtual machine instances
Description
図1は、情報処理システム10の全体構成を示す図である。図1に示す情報処理システム10は、管理装置1と、物理マシン2と、操作端末5とを含む。
次に、仮想マシン3における処理の具体例について説明を行う。図2は、仮想マシン3における処理の具体例について説明する図である。なお、以下、図1で説明した物理マシン2には、PaaSによるサービス(例えば、Cloud Foundry)を提供する物理マシン2a及び物理マシン2bと、IaaSによるサービスを提供する物理マシン2c及び物理マシン2dとが含まれているものとして説明を行う。
次に、GW用仮想マシン35aにおける処理の具体例について説明を行う。図3は、GW用仮想マシン35aにおける処理の具体例について説明する図である。なお、以下、仮想マシン31aには、コンテナCON11、CON12及びCON13が生成されており、それぞれAP11、12及び13が動作しているものとして説明を行う。また、GW用仮想マシン35aには、物理マシン2bからVCPU0とVCPU1とが割当てられているものとして説明を行う。
次に、情報処理システム10のハードウエア構成について説明する。図4は、管理装置1のハードウエア構成を示す図である。
次に、情報処理システム10の機能について説明する。図5は、管理装置1の機能のブロック図である。
次に、第1の実施の形態の概略について説明を行う。図6及び図7は、第1の実施の形態における処理分散処理の概略を説明するフローチャート図である。図8から図11は、第1の実施の形態における処理分散処理の概略を説明する図である。図8から図11を参照しながら、図6及び図7に示す処理分散処理について説明を行う。
図8は、S3の処理の具体例を説明する図である。具体的に、図8は、アプリケーションからVCPUに対して送信されるパケットの具体例を説明する図である。
図9は、S4の処理の具体例を説明する図である。
図10は、S13の処理の具体例を説明する図である。以下、図2で説明した物理マシン2aにおいてVM32a及びVM33aが生成されているものとして説明を行う。また、以下、VM32aにおいてコンテナCON21が生成され、VM33aにおいてコンテナCON31が生成されているものとして説明を行う。
次に、第1の実施の形態の詳細について説明する。図12から図19は、第1の実施の形態における処理分散処理の詳細を説明するフローチャート図である。また、図20から図25は、第1の実施の形態における処理分散処理の詳細を説明する図である。図20から図25を参照しながら、図12から図19に示す処理分散処理の詳細を説明する。
初めに、処理分散処理のうち、仮想マシン情報133を取得する処理(以下、情報取得処理とも呼ぶ)について説明を行う。図12は、情報取得処理を説明するフローチャート図である。
図20及び図24は、仮想マシン情報133の具体例について説明する図である。
次に、処理分散処理の詳細について説明を行う。図13から図19は、処理分散処理の詳細を説明するフローチャート図である。
図21及び図25は、アプリケーション情報131の具体例について説明する図である。
図22及び図23は、GW情報132の具体例について説明する図である。
所定の間隔において、複数の仮想マシンにおいて動作する複数のアプリケーションごとに、各アプリケーションが複数のCPU(Central Computing Unit)のうちのいずれかに対して送信するパケットの通信量を含むアプリケーション情報を取得し、
前記複数のアプリケーションごとに、各アプリケーションから送信されるパケットの送信元IPアドレスと送信先IPアドレスとを含むアドレス情報から算出されるハッシュ値に基づいて、前記複数のCPUのうち、各アプリケーションからパケットが送信されるCPUを特定し、
前記複数のCPUごとに、前記複数のアプリケーションのうち、各CPUにパケットを送信するアプリケーションに対応する前記通信量を合計することにより、各CPUが受信するパケットの通信量を算出し、
前記複数のCPUから、算出した前記通信量が所定閾値を超える特定のCPUを特定し、
前記複数のアプリケーションのうち、特定した前記特定のCPUに対してパケットを送信するアプリケーションから、パケットを送信するCPUを変更する特定のアプリケーションを特定し、
前記複数の仮想マシンのうち、特定した前記特定のアプリケーションを移動した場合に、前記特定のアプリケーションがパケットを送信するCPUが変更される特定の仮想マシンを特定し、
特定した前記仮想マシンに対し、前記特定のアプリケーションを移動する、
ことをコンピュータに実行させることを特徴とする処理分散プログラム。
付記1において、
前記特定のアプリケーションを特定する処理では、
前記特定のCPUに対してパケットを送信するアプリケーションのうち、前記特定のCPUに対して送信されるパケットの通信量が最も多いアプリケーションを、前記特定のアプリケーションとして特定する、
ことを特徴とする処理分散プログラム。
付記1において、
前記特定のアプリケーションを特定する処理では、前記特定のCPUに対して送信されるパケットの通信量が前記所定閾値以下になるまで、前記特定のアプリケーションの特定を繰り返す、
ことを特徴とする処理分散プログラム。
付記1において、さらに、
前記複数のCPUのうち、前記複数のアプリケーションから送信されるパケットの通信量と前記所定閾値との差が、前記特定のアプリケーションから前記特定のCPUに対して送信されるパケットの特定の通信量よりも大きい他のCPUを特定する、
処理をコンピュータに実行させ、
前記特定の仮想マシンを特定する処理では、前記特定のアプリケーションを移動した場合に、前記特定のアプリケーションがパケットを送信するCPUが前記他のCPUに変更される仮想マシンを、前記特定の仮想マシンとして特定する、
ことを特徴とする処理分散プログラム。
付記4において、
前記他のCPUを特定する処理では、
前記差が前記特定の通信量よりも大きいCPUが複数存在する場合、複数存在する前記CPUのうち、前記複数のアプリケーションから送信されるパケットの通信量が最も少ないCPUを、前記他のCPUとして特定する、
ことを特徴とする処理分散プログラム。
付記1において、
前記アプリケーション情報は、各アプリケーションの動作に要するリソースの使用量を含み、さらに、
所定の間隔において、前記複数の仮想マシンごとに、リソースの使用可能量を含む仮想マシン情報を取得する、
処理をコンピュータに実行させ、
前記特定の仮想マシンを特定する処理では、前記複数の仮想マシンのうち、前記使用可能量が前記特定のアプリケーションに対応する前記使用量よりも大きい仮想マシンを、前記特定の仮想マシンとして特定する、
ことを特徴とする処理分散プログラム。
付記6において、
前記特定の仮想マシンを特定する処理では、前記使用可能量が前記特定のアプリケーションの前記使用量よりも大きい仮想マシンが複数存在する場合、複数存在する前記仮想マシンのうち、前記使用可能量が最も大きい仮想マシンを、前記特定の仮想マシンとして特定する、
ことを特徴とする処理分散プログラム。
付記1において、
前記アドレス情報は、各アプリケーションから送信されるパケットの送信元ポート番号と送信先ポート番号とを含む、
ことを特徴とする処理分散プログラム。
付記1において、
前記複数のCPUは、VPN(Virtual Private Network)のゲートウエイとして機能する1以上の仮想マシンに割り当てられたCPUである、
ことを特徴とする処理分散プログラム。
所定の間隔において、複数の仮想マシンにおいて動作する複数のアプリケーションごとに、各アプリケーションが複数のCPUのうちのいずれかに対して送信するパケットの通信量を含むアプリケーション情報を取得する情報取得部と、
前記複数のアプリケーションごとに、各アプリケーションから送信されるパケットの送信元IPアドレスと送信先IPアドレスとを含むアドレス情報から算出されるハッシュ値に基づいて、前記複数のCPUのうち、各アプリケーションからパケットが送信されるCPUを特定する送信先特定部と、
前記複数のCPUごとに、前記複数のアプリケーションのうち、各CPUにパケットを送信するアプリケーションに対応する前記通信量を合計することにより、各CPUが受信するパケットの通信量を算出する通信量特定部と、
前記複数のCPUから、算出した前記通信量が所定閾値を超える特定のCPUを特定するCPU特定部と、
前記複数のアプリケーションのうち、特定した前記特定のCPUに対してパケットを送信するアプリケーションから、パケットを送信するCPUを変更する特定のアプリケーションを特定するアプリ特定部と、
前記複数の仮想マシンのうち、特定した前記特定のアプリケーションを移動した場合に、前記特定のアプリケーションがパケットを送信するCPUが変更される特定の仮想マシンを特定する仮想マシン特定部と、
特定した前記仮想マシンに対し、前記特定のアプリケーションを移動するアプリ移動部と、を有する、
ことを特徴とする処理分散装置。
付記10において、さらに、
前記複数のCPUのうち、前記複数のアプリケーションから送信されるパケットの通信量と前記所定閾値との差が、前記特定のアプリケーションから前記特定のCPUに対して送信されるパケットの特定の通信量よりも大きい他のCPUを特定する変更先特定部を有し、
前記仮想マシン特定部は、前記特定のアプリケーションを移動した場合に、前記特定のアプリケーションがパケットを送信するCPUが前記他のCPUに変更される仮想マシンを、前記特定の仮想マシンとして特定する、
ことを特徴とする処理分散装置。
所定の間隔において、複数の仮想マシンにおいて動作する複数のアプリケーションごとに、各アプリケーションが複数のCPUのうちのいずれかに対して送信するパケットの通信量を含むアプリケーション情報を取得し、
前記複数のアプリケーションごとに、各アプリケーションから送信されるパケットの送信元IPアドレスと送信先IPアドレスとを含むアドレス情報から算出されるハッシュ値に基づいて、前記複数のCPUのうち、各アプリケーションからパケットが送信されるCPUを特定し、
前記複数のCPUごとに、前記複数のアプリケーションのうち、各CPUにパケットを送信するアプリケーションに対応する前記通信量を合計することにより、各CPUが受信するパケットの通信量を算出し、
前記複数のCPUから、算出した前記通信量が所定閾値を超える特定のCPUを特定し、
前記複数のアプリケーションのうち、特定した前記特定のCPUに対してパケットを送信するアプリケーションから、パケットを送信するCPUを変更する特定のアプリケーションを特定し、
前記複数の仮想マシンのうち、特定した前記特定のアプリケーションを移動した場合に、前記特定のアプリケーションがパケットを送信するCPUが変更される特定の仮想マシンを特定し、
特定した前記仮想マシンに対し、前記特定のアプリケーションを移動する、
ことを特徴とする処理分散方法。
付記12において、さらに、
前記複数のCPUのうち、前記複数のアプリケーションから送信されるパケットの通信量と前記所定閾値との差が、前記特定のアプリケーションから前記特定のCPUに対して送信されるパケットの特定の通信量よりも大きい他のCPUを特定する、
処理をコンピュータに実行させ、
前記特定の仮想マシンを特定する処理では、前記特定のアプリケーションを移動した場合に、前記特定のアプリケーションがパケットを送信するCPUが前記他のCPUに変更される仮想マシンを、前記特定の仮想マシンとして特定する、
ことを特徴とする処理分散方法。
3:仮想マシン 4:仮想化ソフトウエア
5:操作端末
Claims (11)
- 所定の間隔において、複数の仮想マシンにおいて動作する複数のアプリケーションごとに、各アプリケーションが複数のCPU(Central Computing Unit)のうちのいずれかに対して送信するパケットの通信量を含むアプリケーション情報を取得し、
前記複数のアプリケーションごとに、各アプリケーションから送信されるパケットの送信元IPアドレスと送信先IPアドレスとを含むアドレス情報から算出されるハッシュ値に基づいて、前記複数のCPUのうち、各アプリケーションからパケットが送信されるCPUを特定し、
前記複数のCPUごとに、前記複数のアプリケーションのうち、各CPUにパケットを送信するアプリケーションに対応する前記通信量を合計することにより、各CPUが受信するパケットの通信量を算出し、
前記複数のCPUから、算出した前記通信量が所定閾値を超える特定のCPUを特定し、
前記複数のアプリケーションのうち、特定した前記特定のCPUに対してパケットを送信するアプリケーションから、パケットを送信するCPUを変更する特定のアプリケーションを特定し、
前記複数の仮想マシンのうち、特定した前記特定のアプリケーションを移動した場合に、前記特定のアプリケーションがパケットを送信するCPUが変更される特定の仮想マシンを特定し、
特定した前記仮想マシンに対し、前記特定のアプリケーションを移動する、
ことをコンピュータに実行させることを特徴とする処理分散プログラム。 - 請求項1において、
前記特定のアプリケーションを特定する処理では、
前記特定のCPUに対してパケットを送信するアプリケーションのうち、前記特定のCPUに対して送信されるパケットの通信量が最も多いアプリケーションを、前記特定のアプリケーションとして特定する、
ことを特徴とする処理分散プログラム。 - 請求項1において、
前記特定のアプリケーションを特定する処理では、前記特定のCPUに対して送信されるパケットの通信量が前記所定閾値以下になるまで、前記特定のアプリケーションの特定を繰り返す、
ことを特徴とする処理分散プログラム。 - 請求項1において、さらに、
前記複数のCPUのうち、前記複数のアプリケーションから送信されるパケットの通信量と前記所定閾値との差が、前記特定のアプリケーションから前記特定のCPUに対して送信されるパケットの特定の通信量よりも大きい他のCPUを特定する、
処理をコンピュータに実行させ、
前記特定の仮想マシンを特定する処理では、前記特定のアプリケーションを移動した場合に、前記特定のアプリケーションがパケットを送信するCPUが前記他のCPUに変更される仮想マシンを、前記特定の仮想マシンとして特定する、
ことを特徴とする処理分散プログラム。 - 請求項4において、
前記他のCPUを特定する処理では、
前記差が前記特定の通信量よりも大きいCPUが複数存在する場合、複数存在する前記CPUのうち、前記複数のアプリケーションから送信されるパケットの通信量が最も少ないCPUを、前記他のCPUとして特定する、
ことを特徴とする処理分散プログラム。 - 請求項1において、
前記アプリケーション情報は、各アプリケーションの動作に要するリソースの使用量を含み、さらに、
所定の間隔において、前記複数の仮想マシンごとに、リソースの使用可能量を含む仮想マシン情報を取得する、
処理をコンピュータに実行させ、
前記特定の仮想マシンを特定する処理では、前記複数の仮想マシンのうち、前記使用可能量が前記特定のアプリケーションに対応する前記使用量よりも大きい仮想マシンを、前記特定の仮想マシンとして特定する、
ことを特徴とする処理分散プログラム。 - 請求項6において、
前記特定の仮想マシンを特定する処理では、前記使用可能量が前記特定のアプリケーションの前記使用量よりも大きい仮想マシンが複数存在する場合、複数存在する前記仮想マシンのうち、前記使用可能量が最も大きい仮想マシンを、前記特定の仮想マシンとして特定する、
ことを特徴とする処理分散プログラム。 - 請求項1において、
前記アドレス情報は、各アプリケーションから送信されるパケットの送信元ポート番号と送信先ポート番号とを含む、
ことを特徴とする処理分散プログラム。 - 請求項1において、
前記複数のCPUは、VPN(Virtual Private Network)のゲートウエイとして機能する1以上の仮想マシンに割り当てられたCPUである、
ことを特徴とする処理分散プログラム。 - 所定の間隔において、複数の仮想マシンにおいて動作する複数のアプリケーションごとに、各アプリケーションが複数のCPUのうちのいずれかに対して送信するパケットの通信量を含むアプリケーション情報を取得する情報取得部と、
前記複数のアプリケーションごとに、各アプリケーションから送信されるパケットの送信元IPアドレスと送信先IPアドレスとを含むアドレス情報から算出されるハッシュ値に基づいて、前記複数のCPUのうち、各アプリケーションからパケットが送信されるCPUを特定する送信先特定部と、
前記複数のCPUごとに、前記複数のアプリケーションのうち、各CPUにパケットを送信するアプリケーションに対応する前記通信量を合計することにより、各CPUが受信するパケットの通信量を算出する通信量特定部と、
前記複数のCPUから、算出した前記通信量が所定閾値を超える特定のCPUを特定するCPU特定部と、
前記複数のアプリケーションのうち、特定した前記特定のCPUに対してパケットを送信するアプリケーションから、パケットを送信するCPUを変更する特定のアプリケーションを特定するアプリ特定部と、
前記複数の仮想マシンのうち、特定した前記特定のアプリケーションを移動した場合に、前記特定のアプリケーションがパケットを送信するCPUが変更される特定の仮想マシンを特定する仮想マシン特定部と、
特定した前記仮想マシンに対し、前記特定のアプリケーションを移動するアプリ移動部と、を有する、
ことを特徴とする処理分散装置。 - 所定の間隔において、複数の仮想マシンにおいて動作する複数のアプリケーションごとに、各アプリケーションが複数のCPUのうちのいずれかに対して送信するパケットの通信量を含むアプリケーション情報を取得し、
前記複数のアプリケーションごとに、各アプリケーションから送信されるパケットの送信元IPアドレスと送信先IPアドレスとを含むアドレス情報から算出されるハッシュ値に基づいて、前記複数のCPUのうち、各アプリケーションからパケットが送信されるCPUを特定し、
前記複数のCPUごとに、前記複数のアプリケーションのうち、各CPUにパケットを送信するアプリケーションに対応する前記通信量を合計することにより、各CPUが受信するパケットの通信量を算出し、
前記複数のCPUから、算出した前記通信量が所定閾値を超える特定のCPUを特定し、
前記複数のアプリケーションのうち、特定した前記特定のCPUに対してパケットを送信するアプリケーションから、パケットを送信するCPUを変更する特定のアプリケーションを特定し、
前記複数の仮想マシンのうち、特定した前記特定のアプリケーションを移動した場合に、前記特定のアプリケーションがパケットを送信するCPUが変更される特定の仮想マシンを特定し、
特定した前記仮想マシンに対し、前記特定のアプリケーションを移動する、
ことを特徴とする処理分散方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017213768A JP6959519B2 (ja) | 2017-11-06 | 2017-11-06 | 処理分散プログラム、処理分散装置及び処理分散方法 |
US16/175,911 US10715590B2 (en) | 2017-11-06 | 2018-10-31 | Non-transitory computer-readable storage medium, process distribution apparatus and process distribution method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017213768A JP6959519B2 (ja) | 2017-11-06 | 2017-11-06 | 処理分散プログラム、処理分散装置及び処理分散方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019086957A JP2019086957A (ja) | 2019-06-06 |
JP6959519B2 true JP6959519B2 (ja) | 2021-11-02 |
Family
ID=66327810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017213768A Active JP6959519B2 (ja) | 2017-11-06 | 2017-11-06 | 処理分散プログラム、処理分散装置及び処理分散方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10715590B2 (ja) |
JP (1) | JP6959519B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021131782A1 (ja) * | 2019-12-26 | 2021-07-01 | ソニーグループ株式会社 | 情報処理システムおよび情報処理方法、並びにプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8813065B2 (en) * | 2010-04-26 | 2014-08-19 | Vmware, Inc. | Microcloud platform delivery system |
JP2012075070A (ja) * | 2010-09-30 | 2012-04-12 | Fujitsu Ltd | 管理プログラム、装置及び方法、ルータ、情報処理プログラム及び方法 |
JP5617586B2 (ja) * | 2010-12-10 | 2014-11-05 | 富士通株式会社 | 情報処理プログラム、中継装置及び中継管理装置 |
JP5675471B2 (ja) | 2011-04-05 | 2015-02-25 | 株式会社日立製作所 | データセンタシステム管理方法、データセンタシステム、及び管理装置 |
US8891392B2 (en) * | 2012-06-21 | 2014-11-18 | Breakingpoint Systems, Inc. | Dynamic latency analysis system |
JP2014056335A (ja) | 2012-09-11 | 2014-03-27 | Nec Commun Syst Ltd | 仮想マシン配置システム及び仮想マシン配置方法、並びにコンピュータ・プログラム |
JP6020146B2 (ja) * | 2012-12-26 | 2016-11-02 | 富士通株式会社 | 情報処理装置,情報処理方法,及び情報処理プログラム |
US10120729B2 (en) * | 2014-02-14 | 2018-11-06 | Vmware, Inc. | Virtual machine load balancing |
JPWO2015141337A1 (ja) * | 2014-03-19 | 2017-04-06 | 日本電気株式会社 | 受信パケット分散方法、キュー選択器、パケット処理装置、プログラム、およびネットワークインタフェースカード |
JP6298711B2 (ja) * | 2014-05-19 | 2018-03-20 | 株式会社日立製作所 | 分散処理システム |
US10362506B2 (en) * | 2014-10-07 | 2019-07-23 | Nec Corporation | Communication aggregation system, control device, processing load control method and non-transitory computer readable medium storing program |
JP2016134700A (ja) * | 2015-01-16 | 2016-07-25 | 富士通株式会社 | 管理サーバ、通信システム、および、経路管理方法 |
WO2017006384A1 (ja) * | 2015-07-03 | 2017-01-12 | 富士通株式会社 | 仮想マシン管理プログラム,仮想マシン管理装置および仮想マシン管理方法 |
-
2017
- 2017-11-06 JP JP2017213768A patent/JP6959519B2/ja active Active
-
2018
- 2018-10-31 US US16/175,911 patent/US10715590B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20190141123A1 (en) | 2019-05-09 |
JP2019086957A (ja) | 2019-06-06 |
US10715590B2 (en) | 2020-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10581884B2 (en) | Channel data encapsulation system and method for use with client-server data channels | |
US10579407B2 (en) | Systems and methods for deploying microservices in a networked microservices system | |
US8863138B2 (en) | Application service performance in cloud computing | |
CN102187315B (zh) | 在虚拟环境中获取用于服务器负载均衡的反馈信息的方法和装置 | |
EP3400535B1 (en) | System and method for distributed resource management | |
US20180034832A1 (en) | Systems and Methods for Real-time Configurable Load Determination | |
US10412154B2 (en) | Configuration recommendation for a microservice architecture | |
US20230231825A1 (en) | Routing for large server deployments | |
EP3596600B1 (en) | Systems and methods for compute node management protocols | |
CN108933829A (zh) | 一种负载均衡方法及装置 | |
CN109416646B (zh) | 一种容器分配的优化方法及处理设备 | |
CN113094182B (zh) | 一种服务的负载均衡处理方法、装置及云端服务器 | |
US20120185529A1 (en) | Application server management system, application server management method, management apparatus, application server and computer program | |
JP2015503158A (ja) | データ・センターにおけるロール・インスタンス到達可能性 | |
US20220239632A1 (en) | Load balancing and secure tunneling for cloud-based network controllers | |
JP6959519B2 (ja) | 処理分散プログラム、処理分散装置及び処理分散方法 | |
Lee et al. | The impact of container virtualization on network performance of IoT devices | |
US10896067B2 (en) | Determining the cost of container-based workloads | |
KR100584193B1 (ko) | 그리드 컴퓨팅 시스템에서 파일기반의 mpi초기화방법을 이용한 그리드 mpi 작업 할당 시스템 및그리드 mpi 작업 할당방법 | |
US10791088B1 (en) | Methods for disaggregating subscribers via DHCP address translation and devices thereof | |
US20230099186A1 (en) | Distributed data processing application service in a provider network | |
JP6928237B2 (ja) | 制御プログラム、制御装置及び制御方法 | |
JP6717092B2 (ja) | 制御装置および制御装置における処理方法 | |
JP6920612B2 (ja) | スケールイン管理プログラム、スケールイン管理装置及びスケールイン管理方法 | |
US11290385B2 (en) | Method and traffic processing unit for handling traffic in a communication network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210811 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210907 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210920 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6959519 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |