JP2022017754A - Container location destination determining program, and container location destination determining method - Google Patents

Container location destination determining program, and container location destination determining method Download PDF

Info

Publication number
JP2022017754A
JP2022017754A JP2020120485A JP2020120485A JP2022017754A JP 2022017754 A JP2022017754 A JP 2022017754A JP 2020120485 A JP2020120485 A JP 2020120485A JP 2020120485 A JP2020120485 A JP 2020120485A JP 2022017754 A JP2022017754 A JP 2022017754A
Authority
JP
Japan
Prior art keywords
container
virtual machine
application
program
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020120485A
Other languages
Japanese (ja)
Other versions
JP7469655B2 (en
Inventor
宏明 新井
Hiroaki Arai
昌浩 佐藤
Masahiro Sato
公敬 山崎
Kimitaka Yamazaki
裕二 和田
Yuji Wada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020120485A priority Critical patent/JP7469655B2/en
Publication of JP2022017754A publication Critical patent/JP2022017754A/en
Application granted granted Critical
Publication of JP7469655B2 publication Critical patent/JP7469655B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)

Abstract

To suppress delay in communication between programs.SOLUTION: The present invention is directed to a container location destination determining program which makes a computer execute processing for specifying, if a resource use rate of a first container located in a first virtual machine exceeds a threshold value, a second program requesting processing to a first program operated in the first container, for specifying a second virtual machine having a second container located therein and having the second program operated therein, and for determining the second virtual machine as a scale-out destination of the first container.SELECTED DRAWING: Figure 16

Description

本発明は、コンテナ配置先決定プログラム、及びコンテナ配置先決定方法に関する。 The present invention relates to a container placement destination determination program and a container placement destination determination method.

仮想化技術の発展に伴い、データセンタ内で起動している仮想マシンを利用して種々のサービスを利用者に提供するクラウドが普及しつつある。特に、近年では異なるクラウド事業者のクラウド同士を組み合わせたマルチクラウドと呼ばれる新たなサービスが普及しつつある。マルチクラウドにおいては、いずれかのクラウド事業者に障害が発生しても、残りクラウド事業者のクラウドで仮想マシンを稼働し続けることができるため、サービスの可用性を高めることができる。 With the development of virtualization technology, the cloud that provides various services to users by using virtual machines running in data centers is becoming widespread. In particular, in recent years, a new service called multi-cloud, which combines the clouds of different cloud providers, is becoming widespread. In the multi-cloud, even if a failure occurs in one of the cloud operators, the virtual machines can continue to operate in the cloud of the remaining cloud operators, so that the availability of services can be improved.

マルチクラウドを実現するためのアプリケーションプログラムは、仮想マシンが直接実行するのではなく、仮想マシンに起動したコンテナが実行することがある。なお、以下ではアプリケーションプログラムのことを単にアプリとも呼ぶ。 The application program for realizing multi-cloud may be executed by the container started in the virtual machine instead of being executed directly by the virtual machine. In the following, the application program is also simply referred to as an application.

コンテナは、ゲストOSのカーネルの一部のみを利用した仮想的なユーザ空間であって、DOCKER(登録商標)等のコンテナエンジンによって生成される。アプリが実行時に参照するライブラリをコンテナに予め格納しておくことで、アプリをコンテナごと他の仮想マシンに移動したときに、移動前と同じ環境でアプリを実行することができる。 A container is a virtual user space that uses only a part of the kernel of the guest OS, and is created by a container engine such as DOCKER (registered trademark). By storing the library that the application refers to at the time of execution in the container in advance, when the application is moved to another virtual machine together with the container, the application can be executed in the same environment as before the movement.

但し、コンテナを利用したマルチクラウドには、アプリ等のプログラム間の通信の遅延を抑制するという点で改善の余地がある。 However, there is room for improvement in the multi-cloud using containers in terms of suppressing delays in communication between programs such as applications.

特開2017-219972号公報Japanese Unexamined Patent Publication No. 2017-219972

一側面によれば、プログラム間の通信の遅延を抑制することを目的とする。 According to one aspect, the purpose is to suppress the delay in communication between programs.

一側面によれば、コンピュータに、第1の仮想マシンに配置されている第1のコンテナのリソース使用率が閾値を超えたときに、前記第1のコンテナで動作している第1のプログラムに対して処理を依頼している第2のプログラムを特定し、前記第2のプログラムが動作している第2のコンテナが配置されている第2の仮想マシンを特定し、第2の仮想マシンを第1のコンテナのスケールアウト先として決定する、処理を実行させるためのコンテナ配置先決定プログラムが提供される。 According to one aspect, when the resource utilization of the first container placed in the first virtual machine exceeds the threshold value on the computer, the first program running in the first container is used. The second program requesting processing is specified, the second virtual machine in which the second container in which the second program is running is located, and the second virtual machine is specified. A container placement destination determination program for executing a process, which is determined as a scale-out destination of the first container, is provided.

一側面によれば、プログラム間の通信の遅延を抑制することができる。 According to one aspect, delays in communication between programs can be suppressed.

図1は、本願発明者が検討したマルチクラウドのシステム構成図である。FIG. 1 is a multi-cloud system configuration diagram examined by the inventor of the present application. 図2は、処理の依頼元と依頼先の各アプリの模式図である。FIG. 2 is a schematic diagram of each application of the processing request source and the request destination. 図3は、スケールアウトの一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of scale-out. 図4は、スケールアウトをしたときの各アプリへの処理の振り分けを示す模式図である。FIG. 4 is a schematic diagram showing the distribution of processing to each application when scaling out. 図5は、遅延時間の定義を示す模式図である。FIG. 5 is a schematic diagram showing the definition of the delay time. 図6は、本実施形態に係る情報処理システムの構成図である。FIG. 6 is a configuration diagram of an information processing system according to the present embodiment. 図7は、本実施形態に係る物理サーバの模式図である。FIG. 7 is a schematic diagram of the physical server according to the present embodiment. 図8は、本実施形態において各クラウド拠点で動作している仮想マシン、コンテナ、及びアプリの各々を示す模式図である。FIG. 8 is a schematic diagram showing each of the virtual machines, containers, and applications operating at each cloud base in the present embodiment. 図9は、本実施形態において仮想マシン、コンテナ、及びアプリの各々によって構築されるシステムの模式図である。FIG. 9 is a schematic diagram of a system constructed by each of a virtual machine, a container, and an application in the present embodiment. 図10は、本実施形態に係るコンテナ配置先決定方法について示す模式図(その1)である。FIG. 10 is a schematic diagram (No. 1) showing a container placement destination determination method according to the present embodiment. 図11は、本実施形態に係るコンテナ配置先決定方法について示す模式図(その2)である。FIG. 11 is a schematic diagram (No. 2) showing a container placement destination determination method according to the present embodiment. 図12は、本実施形態に係るコンテナ配置先決定方法について示す模式図(その3)である。FIG. 12 is a schematic diagram (No. 3) showing a container placement destination determination method according to the present embodiment. 図13は、本実施形態における各コンテナのリソース使用率の監視結果を示す図である。FIG. 13 is a diagram showing a monitoring result of the resource usage rate of each container in the present embodiment. 図14は、本実施形態に係る設計情報の模式図である。FIG. 14 is a schematic diagram of design information according to this embodiment. 図15は、本実施形態に係る管理情報の模式図である。FIG. 15 is a schematic diagram of management information according to this embodiment. 図16は、本実施形態においてスケールアウトを行った後におけるシステム30の模式図である。FIG. 16 is a schematic diagram of the system 30 after scaling out in the present embodiment. 図17は、本実施形態に係る情報処理装置の機能構成図である。FIG. 17 is a functional configuration diagram of the information processing apparatus according to the present embodiment. 図18は、本実施形態に係るコンテナ配置先決定方法のフローチャートである。FIG. 18 is a flowchart of the container placement destination determination method according to the present embodiment. 図19は、本実施形態に係る情報処理装置のハードウェア構成図である。FIG. 19 is a hardware configuration diagram of the information processing apparatus according to the present embodiment.

本実施形態の説明に先立ち、本願発明者が検討した事項について説明する。
図1は、本願発明者が検討したマルチクラウドのシステム構成図である。
Prior to the description of the present embodiment, the matters examined by the inventor of the present application will be described.
FIG. 1 is a multi-cloud system configuration diagram examined by the inventor of the present application.

このシステム1は、利用者に対してサービスを提供するためのシステムであって、クラウドを提供する事業者やリージョンが異なる複数の仮想マシンVMを組み合わせて構築される。 This system 1 is a system for providing services to users, and is constructed by combining a plurality of virtual machine VMs in different regions and businesses that provide clouds.

リージョンは、仮想マシンVMを実行する物理マシンを収容したデータセンタが存在する地域である。例えば、「日本」や「米国」がリージョンとなる。また、事業者は、そのデータセンタを利用して仮想マシンVMを提供する事業者である。図1の例では、事業者Aと事業者Bの各々が提供する仮想マシンVMによってシステム1が構築される。以下では、事業者とリージョンの組のことをクラウド拠点と呼ぶ。例えば、(事業者A、日本)、(事業者A、米国)、(事業者B、日本)、及び(事業者B、米国)は、相異なるクラウド拠点の一例である。 A region is a region where a data center containing a physical machine running a virtual machine VM resides. For example, "Japan" and "US" are regions. In addition, the business operator is a business operator that provides a virtual machine VM using the data center. In the example of FIG. 1, the system 1 is constructed by the virtual machine VMs provided by each of the business operator A and the business operator B. In the following, the pair of business operator and region will be referred to as a cloud base. For example, (Operator A, Japan), (Operator A, USA), (Operator B, Japan), and (Operator B, USA) are examples of different cloud bases.

なお、システム1の利用者がオンプレミスでデータセンタを運用している場合には、利用者が自己所有するデータセンタで仮想マシンVMを稼働し、その仮想マシンVMをシステム1に取り入れてもよい。 When the user of the system 1 operates the data center on-premises, the virtual machine VM may be operated in the data center owned by the user and the virtual machine VM may be incorporated into the system 1.

また、この例では、一つの仮想マシンVMの各々に複数のコンテナ4を配置する。そして、各々のコンテナ4にアプリ5を一つずつ配置する。これにより、コンテナ4をアプリ5ごと他の仮想マシンVMに移動することで、アプリ単位での仮想マシンVMの移動が可能となる。 Further, in this example, a plurality of containers 4 are arranged in each of one virtual machine VM. Then, one application 5 is placed in each container 4. As a result, by moving the container 4 together with the application 5 to another virtual machine VM, it is possible to move the virtual machine VM for each application.

このようなシステム1においては複数のアプリ5の各々が互いに処理を依頼し合うことにより一つのサービスが実現される。 In such a system 1, one service is realized by each of a plurality of applications 5 requesting processing from each other.

図2は、処理の依頼元と依頼先の各アプリ5の模式図である。
図2の例では、「appA」、「appB」、「appO」、「appP」、「appW」、及び「appX」の各アプリ5が、「appV」のアプリ5に処理を依頼する場合を想定している。このように「appV」のアプリ5に処理が集中すると、「appV」のアプリ5のコンテナ4に割り当てられたメモリやCPU(Central Processing Unit)等のリソースが不足し、該アプリ5の処理速度が低下するおそれがある。
FIG. 2 is a schematic diagram of each application 5 of the processing request source and the request destination.
In the example of FIG. 2, it is assumed that each application 5 of "appA", "appB", "appO", "appP", "appW", and "appX" requests the application 5 of "appV" for processing. is doing. When the processing is concentrated on the application 5 of the "appV" in this way, the resources such as the memory and the CPU (Central Processing Unit) allocated to the container 4 of the application 5 of the "appV" are insufficient, and the processing speed of the application 5 becomes high. It may decrease.

これを避けるために、「appV」のアプリ5が動作しているクラウド拠点(事業者A、米国)に新たに仮想マシンVMを作成し、その仮想マシンVMに「appV」のアプリ5が動作しているコンテナ4をスケールアウトすることが考えられる。スケールアウトは、ある仮想マシンVMで動作しているコンテナ4を、そのコンテナ4で動作しているアプリ5ごと他の仮想マシンVMにコピーする操作である。これにより、クラウド拠点(事業者A、米国)の二つの仮想マシンVMで「appV」のアプリ5が動作するため、該アプリ5に処理が集中するのを抑制できる。 To avoid this, create a new virtual machine VM at the cloud base (operator A, USA) where the "appV" app 5 is running, and the "appV" app 5 runs on that virtual machine VM. It is conceivable to scale out the container 4 that is in use. Scale-out is an operation of copying a container 4 running on a certain virtual machine VM to another virtual machine VM together with an application 5 running on the container 4. As a result, since the application 5 of "appV" operates on the two virtual machine VMs of the cloud base (operator A, the United States), it is possible to suppress the concentration of processing on the application 5.

但し、このように新たな仮想マシンVMを作成すると、システム1に含まれる仮想マシンVMの個数が増えてしまうため、システム1の利用料金が増えてしまう。 However, when a new virtual machine VM is created in this way, the number of virtual machine VMs included in the system 1 increases, so that the usage fee for the system 1 increases.

そこで、利用料金が増えるのを防止しつつ、「appV」のアプリ5に処理が集中するのを抑制するために、次のようにシステム1に既に存在する仮想マシンVMをスケールアウト先とすることが考えられる。 Therefore, in order to prevent the usage fee from increasing and to prevent the processing from being concentrated on the application 5 of "appV", the virtual machine VM that already exists in the system 1 should be scaled out as follows. Can be considered.

図3は、この場合のスケールアウトの一例を示す模式図である。
図3の例では、クラウド拠点(事業者A、米国)において「appV」のアプリ5が動作しているコンテナ4を、クラウド拠点(事業者B、米国)の既存の仮想マシンVMにスケールアウトする。ここでは、スケールアウト前のアプリ5の名前「appV」にプライムを付けた名前「appV’」をスケールアウト先でのアプリ5の名前とする。
FIG. 3 is a schematic diagram showing an example of scale-out in this case.
In the example of FIG. 3, the container 4 in which the application 5 of "appV" is operating at the cloud base (operator A, USA) is scaled out to the existing virtual machine VM of the cloud base (business B, USA). .. Here, the name "appV'" obtained by adding the prime to the name "appV" of the application 5 before the scale-out is used as the name of the application 5 at the scale-out destination.

図4は、このようにスケールアウトをしたときの各アプリ5への処理の振り分けを示す模式図である。 FIG. 4 is a schematic diagram showing the distribution of processing to each application 5 when scaled out in this way.

図4の例では、適当な仮想マシンVMにおいてロードバランサ6を起動し、そのロードバランサ6を用いて「appV」と「appV’」の各アプリ5に処理を均等に振り分ける。これにより、「appV」のアプリ5のコンテナ4に割り当てられたメモリやCPU等のリソースが不足するのを抑制できる。しかも、スケールアウト先の仮想マシンVMはシステム1に元々存在しているため、当該仮想マシンVMを新たに作成する必要がなく、システム1の利用料金が増加するのを防止できる。 In the example of FIG. 4, the load balancer 6 is started in an appropriate virtual machine VM, and the load balancer 6 is used to evenly distribute the processing to each application 5 of "appV" and "appV'". As a result, it is possible to suppress a shortage of resources such as memory and CPU allocated to the container 4 of the application 5 of the "appV". Moreover, since the scale-out destination virtual machine VM originally exists in the system 1, it is not necessary to newly create the virtual machine VM, and it is possible to prevent the usage fee of the system 1 from increasing.

しかし、この例のようにスケールアウト先の仮想マシンVMのクラウド拠点が、スケールアウト元の仮想マシンVMのクラウド拠点と異なると、アプリ5の間の遅延時間が増大する可能性が高くなる。 However, if the cloud base of the scale-out destination virtual machine VM is different from the cloud base of the scale-out source virtual machine VM as in this example, there is a high possibility that the delay time between the applications 5 will increase.

図5は、遅延時間の定義を示す模式図である。
ここでは、「appA」のアプリ5が「appB」のアプリ5に処理を依頼してからその結果が通知されるまでの時間を応答時間TRとする。また、「appB」のアプリ5が当該処理をするのに要する時間を処理時間TPとする。この場合、遅延時間TLはTR - TPで定義される。この定義によれば、遅延時間TLは、通信路に起因した遅延の長さということになる。そのため、異なるクラウド拠点にあるアプリ5の間のように、地理的に離れたアプリ5の間において遅延時間TLは増大し易い。
FIG. 5 is a schematic diagram showing the definition of the delay time.
Here, the time from when the application 5 of "appA" requests the application 5 of " appB " to process and the result is notified is defined as the response time TR. Further, the time required for the application 5 of "appB" to perform the processing is defined as the processing time T P. In this case, the delay time T L is defined by T R --TP . According to this definition, the delay time T L is the length of the delay due to the communication path. Therefore, the delay time T L tends to increase between the geographically distant apps 5, such as between the apps 5 in different cloud bases.

利用者に対してサービスを提供するシステム1(図3参照)の要件には、遅延時間TLは上限値(例えば5msec)以下にすべきとの制約が課せられることがある。このとき、上記のようにスケールアウトによって二つのアプリ5が異なるクラウド拠点に配置されると、例えばこれらのアプリ5の間の遅延時間TLが10msecとなってしまい、システム1の要件を満たせなくなってしまう。 The requirement of the system 1 (see FIG. 3) that provides the service to the user may be restricted that the delay time T L should be equal to or less than the upper limit value (for example, 5 msec). At this time, if the two apps 5 are placed in different cloud bases due to scale-out as described above, for example, the delay time T L between these apps 5 becomes 10 msec, and the requirements of the system 1 cannot be satisfied. Will end up.

(本実施形態)
図6は、本実施形態に係る情報処理システムの構成図である。
この情報処理システム20は、マルチクラウドにより利用者にサービスを提供するシステムであって、インターネット等のネットワーク21を介して相互に接続された複数の物理サーバ22と情報処理装置23とを有する。
(The present embodiment)
FIG. 6 is a configuration diagram of an information processing system according to the present embodiment.
The information processing system 20 is a system that provides services to users by a multi-cloud, and has a plurality of physical servers 22 and an information processing device 23 that are interconnected via a network 21 such as the Internet.

このうち、物理サーバ22は、クラウドを提供する事業者Aと事業者Bの各々のデータセンタに収容された計算機である。ここでは、事業者A、Bが、それぞれ「日本」と「米国」という異なるリージョンにデータセンタを保有しているものとする。なお、サービスの提供を受ける利用者が自己所有する物理サーバ22を情報処理システム20に含めてもよい。 Of these, the physical server 22 is a computer housed in each of the data centers of the business operator A and the business operator B that provide the cloud. Here, it is assumed that operators A and B have data centers in different regions, "Japan" and "US", respectively. The information processing system 20 may include the physical server 22 owned by the user who receives the service.

各物理サーバ22には仮想マシンが起動しており、更にその仮想マシンの内部でコンテナが起動する。そして、各コンテナは、利用者にサービスを提供するための種々のアプリを実行する。 A virtual machine is started on each physical server 22, and a container is started inside the virtual machine. Then, each container executes various applications for providing a service to the user.

情報処理装置23は、ある仮想マシンで動作しているコンテナのリソース使用率が増えたときに、そのコンテナを他の仮想マシンにスケールアウトする制御を行うためのPC(Personal Computer)やサーバ等の計算機である。 The information processing device 23 is a PC (Personal Computer), a server, or the like for controlling to scale out the container to another virtual machine when the resource usage rate of the container running in a certain virtual machine increases. It is a computer.

図7は、物理サーバ22の模式図である。
図7に示すように、物理サーバ22は、CPU(Central Processing Unit)やメモリ等の物理的なリソース25を有しており、そのリソース25がホストOS26を実行する。
FIG. 7 is a schematic diagram of the physical server 22.
As shown in FIG. 7, the physical server 22 has a physical resource 25 such as a CPU (Central Processing Unit) and a memory, and the resource 25 executes the host OS 26.

更に、物理サーバ22は、ホストOS26の上で複数の仮想マシン27を起動する。以下では、各仮想マシン27を「VM1」、「VM2」、…等の文字列で識別する。各仮想マシン27は、リソース25の一部を使用してコンテナ28を起動する。コンテナ28を起動するために各仮想マシン27が使用するコンテナエンジンとしては例えばDOCKER(登録商標)がある。そして、各コンテナ28が一つのアプリ29を実行する。 Further, the physical server 22 starts a plurality of virtual machines 27 on the host OS 26. In the following, each virtual machine 27 is identified by a character string such as "VM 1 ", "VM 2 ", and so on. Each virtual machine 27 uses a portion of the resource 25 to start the container 28. The container engine used by each virtual machine 27 to start the container 28 is, for example, DOCKER (registered trademark). Then, each container 28 executes one application 29.

図8は、各クラウド拠点で動作している仮想マシン27、コンテナ28、及びアプリ29の各々を示す模式図である。 FIG. 8 is a schematic diagram showing each of the virtual machine 27, the container 28, and the application 29 operating at each cloud base.

図8に示すように、例えばクラウド拠点(事業者A、米国)において「VM10」の仮想マシン27が動作しており、この仮想マシン27の各コンテナ28において「appV」、「appW」、「appX」の各アプリ29が動作している。 As shown in FIG. 8, for example, a virtual machine 27 of "VM 10 " is operating in a cloud base (operator A, USA), and "appV", "appW", and "appW" are operated in each container 28 of the virtual machine 27. Each app 29 of "appX" is operating.

図9は、仮想マシン27、コンテナ28、及びアプリ29の各々によって構築されるシステム30の模式図である。 FIG. 9 is a schematic diagram of the system 30 constructed by each of the virtual machine 27, the container 28, and the application 29.

システム30は、利用者が利用するシステムであって、ネットワーク21によって相互に接続された複数の仮想マシン27を有する。そのシステム30においては、あるアプリ29に処理が集中すると、そのアプリ29を実行しているコンテナ28に割り当てられたリソース25(図7参照)が不足することがある。この場合には、以下のようにして情報処理装置23(図6参照)がコンテナ28をスケールアウトする。 The system 30 is a system used by the user and has a plurality of virtual machines 27 connected to each other by the network 21. In the system 30, if the processing is concentrated on a certain application 29, the resource 25 (see FIG. 7) allocated to the container 28 executing the application 29 may be insufficient. In this case, the information processing apparatus 23 (see FIG. 6) scales out the container 28 as follows.

図10~図12は、本実施形態に係るコンテナ配置先決定方法について示す模式図である。 10 to 12 are schematic views showing a container placement destination determination method according to the present embodiment.

まず、図10に示すように、情報処理装置23が、スケールアウトするコンテナ28として、「appV」のアプリ29が動作しているコンテナ28を特定する。一例として、情報処理装置23は、各コンテナ28のリソース使用率を監視し、リソース使用率が閾値を超えた「appV」のアプリ29が動作しているコンテナ28をスケールアウトが必要なコンテナ28として特定する。 First, as shown in FIG. 10, the information processing apparatus 23 identifies the container 28 in which the application 29 of "appV" is operating as the container 28 to be scaled out. As an example, the information processing apparatus 23 monitors the resource usage rate of each container 28, and sets the container 28 in which the application 29 of "appV" whose resource usage rate exceeds the threshold value is operating as the container 28 that needs to be scaled out. Identify.

図13は、各コンテナ28のリソース使用率の監視結果を示す図である。
図13においては、各コンテナ28で動作しているアプリ29の名前で各コンテナ28を区別する。また、この例では、各コンテナ28のリソース使用率としてCPU使用率とメモリ使用率の各々を採用し、リソース使用率の閾値として85%を採用した場合を想定する。この場合、情報処理装置23は、CPU使用率とメモリ使用率のいずれかが95%を超えたコンテナ28を、スケールアウトが必要なコンテナ28として特定する。
FIG. 13 is a diagram showing a monitoring result of the resource usage rate of each container 28.
In FIG. 13, each container 28 is distinguished by the name of the application 29 running on each container 28. Further, in this example, it is assumed that each of the CPU usage rate and the memory usage rate is adopted as the resource usage rate of each container 28, and 85% is adopted as the threshold value of the resource usage rate. In this case, the information processing apparatus 23 specifies the container 28 in which either the CPU usage rate or the memory usage rate exceeds 95% as the container 28 that needs to be scaled out.

再び図10を参照する。
次に、情報処理装置23が、「appV」のアプリ29に対して処理を依頼している依頼元のアプリ29を特定する。アプリ29の特定方法は特に限定されない。ここでは、情報処理装置23は、各アプリ29同士が対応付けられた設計情報を参照することにより依頼元のアプリ29を特定する。
See FIG. 10 again.
Next, the information processing device 23 identifies the requesting application 29 requesting the application 29 of the "appV" to perform processing. The method of specifying the application 29 is not particularly limited. Here, the information processing device 23 identifies the requesting application 29 by referring to the design information associated with each application 29.

図14は、設計情報40の模式図である。
設計情報40は、開発者が情報処理システム20を設計した際に生成した情報であって、処理の依頼元と依頼先のアプリ29同士を対応付けた情報である。ここでは、二つのアプリ29が処理の依頼元と依頼先との関係にある場合に記号「〇」を付し、依頼元と依頼先との関係にない場合には記号「×」を付してある。図14によれば、情報処理装置23は、「appV」のアプリ29に対して処理を依頼している依頼元のアプリ29として、「appA」、「appB」、「appO」、「appP」、「appW」、及び「appX」の各アプリ29を特定する。
FIG. 14 is a schematic diagram of the design information 40.
The design information 40 is information generated when the developer designs the information processing system 20, and is information in which the application 29 of the request source and the application 29 of the request destination are associated with each other. Here, the symbol "○" is added when the two applications 29 have a relationship between the request source and the request destination for processing, and the symbol "×" is added when the two applications 29 do not have a relationship between the request source and the request destination. There is. According to FIG. 14, the information processing apparatus 23 has "appA", "appB", "appO", "appP", as the requesting application 29 requesting processing from the "appV" application 29. Each application 29 of "appW" and "appX" is specified.

再び図10を参照する。
次に、情報処理装置23が、「appV」のアプリ29に対して処理を依頼している各アプリ29が配置されている仮想マシン27を特定する。図10の例では、情報処理装置23は、「VM1」、「VM7」、及び「VM10」の仮想マシン27を特定する。
See FIG. 10 again.
Next, the information processing device 23 identifies a virtual machine 27 in which each application 29 requesting processing from the application 29 of "appV" is arranged. In the example of FIG. 10, the information processing apparatus 23 identifies the virtual machines 27 of "VM 1 ", "VM 7 ", and "VM 10 ".

仮想マシン27の特定方法は特に限定されない。例えば、情報処理装置23は、Kubernetes等のコンテナ管理プログラムを実行することにより管理情報を生成し、その管理情報に基づいて仮想マシン27を特定する。 The method for specifying the virtual machine 27 is not particularly limited. For example, the information processing apparatus 23 generates management information by executing a container management program such as Kubernetes, and identifies the virtual machine 27 based on the management information.

図15は、その管理情報41の模式図である。
管理情報41は、アプリ29とそれを実行する仮想マシン27とを対応付けた情報である。図15の例では、「VM1」の仮想マシン27が「appA」と「appB」の各コンテナ28を実行し、「VM7」の仮想マシン27が「appO」と「appP」の各コンテナ28を実行している。また、「VM10」の仮想マシン27が「appW」と「appX」の各コンテナ28を実行している。
FIG. 15 is a schematic diagram of the management information 41.
The management information 41 is information in which the application 29 and the virtual machine 27 that executes the application 29 are associated with each other. In the example of FIG. 15, the virtual machine 27 of "VM 1 " executes each container 28 of "appA" and "appB", and the virtual machine 27 of "VM 7 " executes each container 28 of "appO" and "appP". Is running. Further, the virtual machine 27 of "VM 10 " is executing each container 28 of "appW" and "appX".

次に、図11に示すように、情報処理装置23が、上記で特定した「VM1」と「VM7」の各仮想マシン27を、「appV」のアプリ29を実行しているコンテナ28のスケールアウト先として決定する。なお、「VM10」の仮想マシン27においては既に「appV」のアプリ29が実行されているため、情報処理装置23は、「VM10」の仮想マシン27についてはスケールアウト先から除外する。 Next, as shown in FIG. 11, the information processing apparatus 23 uses the virtual machines 27 of "VM 1 " and "VM 7 " specified above in the container 28 running the application 29 of "appV". Decide as a scale-out destination. Since the application 29 of "appV" is already executed in the virtual machine 27 of "VM 10 ", the information processing apparatus 23 excludes the virtual machine 27 of "VM 10 " from the scale-out destination.

その後、情報処理装置23が、「VM1」と「VM7」の各仮想マシン27に、「appV」のアプリ29を実行しているコンテナ28をスケールアウトする。ここでは、「VM1」の仮想マシン27にスケールアウトしたコンテナ28が実行するアプリ29の名前を「appV’」とし、「VM7」の仮想マシン27にスケールアウトしたコンテナ28が実行するアプリ29の名前を「appV”」とする。 After that, the information processing apparatus 23 scales out the container 28 running the application 29 of the “appV” to each of the virtual machines 27 of the “VM 1 ” and the “VM 7 ”. Here, the name of the application 29 executed by the container 28 scaled out to the virtual machine 27 of "VM 1 " is "appV'", and the application 29 executed by the container 28 scaled out to the virtual machine 27 of "VM 7 " is executed. The name of is "appV".

次に、図12に示すように、情報処理装置23が、「appA」と「appB」の各アプリ29が処理を依頼する依頼先を、これらのアプリ29と同じ「VM1」の仮想マシン27にある「appV’」のアプリ29に変更する。同様に、情報処理装置23は、「appO」と「appP」の各アプリ29が処理を依頼する依頼先を、これらのアプリ29と同じ「VM7」の仮想マシン27にある「appV”」のアプリ29に変更する。 Next, as shown in FIG. 12, the information processing apparatus 23 requests the processing of each of the applications 29 of "appA" and "appB" to the virtual machine 27 of "VM 1 " which is the same as those of these applications 29. Change to app 29 of "appV'" in. Similarly, in the information processing device 23, the request destination to which each application 29 of "appO" and "appP" requests processing is the "appV" in the virtual machine 27 of the same "VM 7 " as these applications 29. Change to app 29.

以上により、本実施形態に係るコンテナ配置先決定方法の基本的な処理を終える。 This completes the basic processing of the container placement destination determination method according to the present embodiment.

図16は、上記のようにスケールアウトを行った後におけるシステム30の模式図である。 FIG. 16 is a schematic diagram of the system 30 after scaling out as described above.

図16に示すように、スケールアウトした後においては、「appA」と「appB」の各アプリ29が処理を依頼する依頼先が、これらのアプリ29と同じ「VM1」の仮想マシン27で動作する「appV’」のアプリ29となる。同様に、「appO」と「appP」の各アプリ29が処理を依頼する依頼先が、これらのアプリ29と同じ「VM7」の仮想マシン27で動作する「appV”」のアプリ29となる。 As shown in FIG. 16, after scaling out, the request destination to which each application 29 of "appA" and "appB" requests processing operates on the same "VM 1 " virtual machine 27 as these applications 29. It becomes the application 29 of "appV'". Similarly, the request destination to which each application 29 of "appO" and "appP" requests processing is the application 29 of "appV" running on the virtual machine 27 of the same "VM 7 " as these applications 29.

これにより、スケールアウトに起因して相異なるクラウド拠点にあるアプリ29間で処理の依頼が発生するのを抑制でき、アプリ29の間の通信の遅延を抑制できる。その結果、システム30の要件に遅延時間の上限値が規定されている場合に、スケールアウト後でもその要件を満たすことができるようになる。 As a result, it is possible to suppress the generation of processing requests between the applications 29 in different cloud bases due to scale-out, and it is possible to suppress the delay in communication between the applications 29. As a result, if the requirements of the system 30 specify an upper limit of the delay time, the requirements can be satisfied even after the scale-out.

次に、本実施形態に係る情報処理装置23の機能構成について説明する。 Next, the functional configuration of the information processing apparatus 23 according to the present embodiment will be described.

図17は、本実施形態に係る情報処理装置23の機能構成図である。
図17に示すように、情報処理装置23は、記憶部51、通信部52、及び制御部53を備える。
FIG. 17 is a functional configuration diagram of the information processing apparatus 23 according to the present embodiment.
As shown in FIG. 17, the information processing apparatus 23 includes a storage unit 51, a communication unit 52, and a control unit 53.

このうち、記憶部51は、前述の設計情報40(図14)と管理情報41(図15参照)とを記憶する。 Of these, the storage unit 51 stores the above-mentioned design information 40 (FIG. 14) and management information 41 (see FIG. 15).

また、通信部52は、情報処理装置23をネットワーク21(図6参照)に接続する通信インターフェースである。 Further, the communication unit 52 is a communication interface for connecting the information processing device 23 to the network 21 (see FIG. 6).

制御部53は、情報処理装置23の各部を制御する処理部であって、リソース監視部55、アプリ特定部56、仮想マシン特定部57、決定部58、スケールアウト実行部59、及び依頼先変更部60を有する。 The control unit 53 is a processing unit that controls each unit of the information processing device 23, and is a resource monitoring unit 55, an application identification unit 56, a virtual machine identification unit 57, a determination unit 58, a scale-out execution unit 59, and a request destination change. It has a part 60.

このうち、リソース監視部55は、システム30(図9参照)に含まれる全てのコンテナ28のリソース使用率を監視する処理部である。監視対象のリソース使用率としては、例えばメモリ使用率とCPU使用率がある。 Of these, the resource monitoring unit 55 is a processing unit that monitors the resource usage rates of all the containers 28 included in the system 30 (see FIG. 9). The resource usage rate to be monitored includes, for example, the memory usage rate and the CPU usage rate.

アプリ特定部56は、リソース使用率が閾値を超えたコンテナ28で動作しているアプリ29を特定し、更にそのアプリ29に処理を依頼している依頼元のアプリ29を特定する処理部である。一例として、アプリ特定部56は、図14の設計情報40を参照して依頼元のアプリ29を特定する。図14の例において「appV」のアプリ29が動作しているコンテナ28のリソース使用率が閾値を超えた場合には、アプリ特定部56は、「appA」、「appB」、「appO」、「appP」、「appW」、及び「appX」の各アプリ29を依頼元として特定する。 The application specifying unit 56 is a processing unit that identifies the application 29 operating in the container 28 whose resource usage rate exceeds the threshold value, and further specifies the requesting application 29 requesting the application 29 to process. .. As an example, the application specifying unit 56 identifies the requesting application 29 with reference to the design information 40 in FIG. In the example of FIG. 14, when the resource usage rate of the container 28 in which the application 29 of "appV" is operating exceeds the threshold value, the application specifying unit 56 performs "appA", "appB", "appO", and "appO". Each application 29 of "appP", "appW", and "appX" is specified as a request source.

仮想マシン特定部57は、図15の管理情報41を参照することにより、アプリ特定部56が特定したアプリ29が動作しているコンテナ28が配置されている仮想マシン27を特定する処理部である。図15の例では、仮想マシン特定部57は、「VM1」、「VM7」、及び「VM10」の各仮想マシン27を特定する。 The virtual machine specifying unit 57 is a processing unit that identifies the virtual machine 27 in which the container 28 in which the application 29 specified by the application specifying unit 56 is operating is arranged by referring to the management information 41 in FIG. .. In the example of FIG. 15, the virtual machine specifying unit 57 identifies each virtual machine 27 of "VM 1 ", "VM 7 ", and "VM 10 ".

決定部58は、仮想マシン特定部57が特定した仮想マシン27を、リソース使用率が閾値を超えたコンテナ28のスケールアウト先として決定する処理部である。図15の場合では、決定部58は、「VM1」と「VM7」の各仮想マシン27を、「appV」のアプリ29を実行しているコンテナ28のスケールアウト先として決定する。なお、決定部58は、既に「appV」のアプリ29を実行している「VM10」の仮想マシン27についてはスケールアウト先から除外する。 The determination unit 58 is a processing unit that determines the virtual machine 27 specified by the virtual machine identification unit 57 as the scale-out destination of the container 28 whose resource usage rate exceeds the threshold value. In the case of FIG. 15, the determination unit 58 determines each of the virtual machines 27 of "VM 1 " and "VM 7 " as the scale-out destination of the container 28 running the application 29 of "appV". The decision unit 58 excludes the virtual machine 27 of the "VM 10 " that has already executed the application 29 of the "appV" from the scale-out destination.

スケールアウト実行部59は、図11に示したように、決定部58が決定したスケールアウト先の仮想マシン27に実際にコンテナ28をスケールアウトする処理部である。 As shown in FIG. 11, the scale-out execution unit 59 is a processing unit that actually scales out the container 28 to the scale-out destination virtual machine 27 determined by the determination unit 58.

依頼先変更部60は、アプリ特定部56が特定したアプリ29が処理を依頼する依頼先を、スケールアウト後のコンテナ28で動作するアプリ29に変更する処理部である。図12の例では、依頼先変更部60は、「appA」と「appB」の各アプリ29が処理を依頼する依頼先を「appV’」のアプリ29に変更する。同様に、依頼先変更部60は、「appO」と「appP」の各アプリ29が処理を依頼する依頼先を「appV”」のアプリ29に変更する。 The request destination changing unit 60 is a processing unit that changes the request destination to which the application 29 specified by the application specifying unit 56 requests processing to the application 29 that operates in the container 28 after the scale-out. In the example of FIG. 12, the request destination changing unit 60 changes the request destination to which each application 29 of "appA" and "appB" requests processing to the application 29 of "appV'". Similarly, the request destination changing unit 60 changes the request destination to which each application 29 of "appO" and "appP" requests processing to the application 29 of "appV".

次に、本実施形態に係るコンテナ配置先決定方法について説明する。
図18は、本実施形態に係るコンテナ配置先決定方法のフローチャートである。
Next, a method for determining the container placement destination according to the present embodiment will be described.
FIG. 18 is a flowchart of the container placement destination determination method according to the present embodiment.

まず、リソース監視部55が、システム30(図9参照)に含まれる全てのコンテナ28のリソース使用率を監視する(ステップS11)。 First, the resource monitoring unit 55 monitors the resource usage rates of all the containers 28 included in the system 30 (see FIG. 9) (step S11).

次に、アプリ特定部56が、リソース使用率が閾値を超えたコンテナ28で動作しているアプリ29を特定し、更にそのアプリ29に処理を依頼している依頼元のアプリ29を特定する(ステップS12)。 Next, the application specifying unit 56 identifies the application 29 operating in the container 28 whose resource usage rate exceeds the threshold value, and further specifies the requesting application 29 requesting the application 29 to process (the application specifying unit 56). Step S12).

次いで、仮想マシン特定部57が、依頼元のアプリ29が動作しているコンテナ28が配置されている仮想マシン27を特定する(ステップS13)。 Next, the virtual machine specifying unit 57 identifies the virtual machine 27 in which the container 28 in which the requesting application 29 is operating is arranged (step S13).

続いて、決定部58が、ステップS13で特定した仮想マシン27を、リソース使用率が閾値を超えたコンテナ28のスケールアウト先として決定する(ステップS14)。 Subsequently, the determination unit 58 determines the virtual machine 27 specified in step S13 as the scale-out destination of the container 28 whose resource usage rate exceeds the threshold value (step S14).

次に、スケールアウト実行部59が、ステップS14で決定したスケールアウト先の仮想マシン27に、リソース使用率が閾値を超えたコンテナ28をスケールアウトする(ステップS15)。 Next, the scale-out execution unit 59 scales out the container 28 whose resource usage rate exceeds the threshold value to the scale-out destination virtual machine 27 determined in step S14 (step S15).

そして、依頼先変更部60が、ステップS12で特定したアプリ29が処理を依頼する依頼先を、スケールアウト後のコンテナ28で動作するアプリ29に変更する(ステップS16)。 Then, the request destination change unit 60 changes the request destination to which the application 29 specified in step S12 requests processing to the application 29 that operates in the container 28 after the scale-out (step S16).

以上により、本実施形態に係るコンテナ配置先決定方法の基本的な処理を終える。 This completes the basic processing of the container placement destination determination method according to the present embodiment.

上記した本実施形態によれば、リソース使用率が閾値を超えたコンテナ28のスケールアウト先を、該アプリ29に処理を依頼している依頼元のアプリ29が動作しているコンテナ28が配置されている仮想マシン27とする。これにより、処理の依頼元と依頼先の二つのアプリ29がスケールアウト後に同一の仮想マシン27で動作するため、異なるクラウド拠点にある二つのアプリ29の間で処理の依頼が発生しない。その結果、アプリ29の間における遅延時間TLを抑制することができ、遅延時間TLがシステム30の要件を満たさなくなる可能性を低減できる。 According to the above-described embodiment, the container 28 in which the requesting application 29 requesting the application 29 to process the scale-out destination of the container 28 whose resource usage rate exceeds the threshold value is arranged. Let's assume that the virtual machine 27 is running. As a result, since the two applications 29 of the processing request source and the request destination operate on the same virtual machine 27 after the scale-out, the processing request does not occur between the two applications 29 in different cloud bases. As a result, the delay time T L between the applications 29 can be suppressed, and the possibility that the delay time T L does not meet the requirements of the system 30 can be reduced.

(ハードウェア構成)
図19は、情報処理装置23のハードウェア構成図である。
図19に示すように、情報処理装置23は、記憶装置23a、メモリ23b、プロセッサ23c、通信インターフェース23d、表示装置23e、入力装置23f、及び媒体読取装置23gを有する。これらの各部は、バス23iにより相互に接続される。
(Hardware configuration)
FIG. 19 is a hardware configuration diagram of the information processing apparatus 23.
As shown in FIG. 19, the information processing device 23 includes a storage device 23a, a memory 23b, a processor 23c, a communication interface 23d, a display device 23e, an input device 23f, and a medium reading device 23g. Each of these parts is connected to each other by a bus 23i.

このうち、記憶装置23aは、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の不揮発性のストレージであって、本実施形態に係るコンテナ配置先決定プログラム100を記憶する。 Of these, the storage device 23a is a non-volatile storage such as an HDD (Hard Disk Drive) or SSD (Solid State Drive), and stores the container placement destination determination program 100 according to the present embodiment.

なお、コンテナ配置先決定プログラム100をコンピュータが読み取り可能な記録媒体23hに記録し、媒体読取装置23gを介してプロセッサ23cにそのコンテナ配置先決定プログラム100を読み取らせるようにしてもよい。 The container placement destination determination program 100 may be recorded on a recording medium 23h that can be read by a computer, and the processor 23c may be made to read the container placement destination determination program 100 via the medium reading device 23g.

そのような記録媒体23hとしては、例えばCD-ROM (Compact Disc - Read Only Memory)、DVD (Digital Versatile Disc)、及びUSB (Universal Serial Bus)メモリ等の物理的な可搬型記録媒体がある。また、フラッシュメモリ等の半導体メモリやハードディスクドライブを記録媒体23hとして使用してもよい。これらの記録媒体23hは、物理的な形態を持たない搬送波のような一時的な媒体ではない。 Examples of such a recording medium 23h include a physically portable recording medium such as a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc), and a USB (Universal Serial Bus) memory. Further, a semiconductor memory such as a flash memory or a hard disk drive may be used as the recording medium 23h. These recording media 23h are not temporary media such as a carrier wave having no physical form.

更に、公衆回線、インターネット、及びLAN等に接続された装置にコンテナ配置先決定プログラム100を記憶させてもよい。その場合は、プロセッサ23cがそのコンテナ配置先決定プログラム100を読み出して実行すればよい。 Further, the container placement destination determination program 100 may be stored in a device connected to a public line, the Internet, a LAN, or the like. In that case, the processor 23c may read and execute the container placement destination determination program 100.

一方、メモリ23bは、DRAM(Dynamic Random Access Memory)等のようにデータを一時的に記憶するハードウェアであって、その上にコンテナ配置先決定プログラム100が展開される。 On the other hand, the memory 23b is hardware that temporarily stores data such as DRAM (Dynamic Random Access Memory), and the container placement destination determination program 100 is deployed on the hardware.

プロセッサ23cは、情報処理装置23の各部を制御するCPUやGPU(Graphical Processing Unit)等のハードウェアである。また、プロセッサ23cは、メモリ23bと協働してコンテナ配置先決定プログラム100を実行する。 The processor 23c is hardware such as a CPU and a GPU (Graphical Processing Unit) that control each part of the information processing device 23. Further, the processor 23c executes the container placement destination determination program 100 in cooperation with the memory 23b.

このようにメモリ23bとプロセッサ23cとが協働してコンテナ配置先決定プログラム100を実行することにより、情報処理装置23の制御部53(図17参照)が実現される。その制御部53には、リソース監視部55、アプリ特定部56、仮想マシン特定部57、決定部58、スケールアウト実行部59、及び依頼先変更部60が含まれる。 By executing the container placement destination determination program 100 in cooperation with the memory 23b and the processor 23c in this way, the control unit 53 (see FIG. 17) of the information processing apparatus 23 is realized. The control unit 53 includes a resource monitoring unit 55, an application identification unit 56, a virtual machine identification unit 57, a determination unit 58, a scale-out execution unit 59, and a request destination change unit 60.

また、記憶部51(図17参照)は、記憶装置23aとメモリ23bによって実現される。 Further, the storage unit 51 (see FIG. 17) is realized by the storage device 23a and the memory 23b.

更に、通信インターフェース23dは、情報処理装置23をネットワーク21(図6参照)に接続するためのNIC(Network Interface Card)等のハードウェアである。その通信インターフェース23dにより通信部52(図17参照)が実現される。 Further, the communication interface 23d is hardware such as a NIC (Network Interface Card) for connecting the information processing device 23 to the network 21 (see FIG. 6). The communication unit 52 (see FIG. 17) is realized by the communication interface 23d.

そして、表示装置23eは、各種の情報を表示するための液晶ディスプレイやタッチパネル等のハードウェアである。 The display device 23e is hardware such as a liquid crystal display and a touch panel for displaying various information.

また、入力装置23fは、システム30の管理者が情報処理装置23に各種のデータを入力するためのキーボードやマウス等のハードウェアである。 Further, the input device 23f is hardware such as a keyboard and a mouse for the administrator of the system 30 to input various data to the information processing device 23.

媒体読取装置23gは、記録媒体23hを読み取るためのCDドライブ、DVDドライブ、及びUSBインターフェース等のハードウェアである。 The medium reading device 23g is hardware such as a CD drive, a DVD drive, and a USB interface for reading the recording medium 23h.

1…システム、4…コンテナ、5…アプリ、6…ロードバランサ、20…情報処理システム、21…ネットワーク、22…物理サーバ、23…情報処理装置、25…リソース、27…仮想マシン、28…コンテナ、29…アプリ、30…システム、40…設計情報、41…管理情報、51…記憶部、52…通信部、53…制御部、55…リソース監視部、56…アプリ特定部、57…仮想マシン特定部、58…決定部、59…スケールアウト実行部、60…依頼先変更部。 1 ... system, 4 ... container, 5 ... app, 6 ... load balancer, 20 ... information system, 21 ... network, 22 ... physical server, 23 ... information processing device, 25 ... resource, 27 ... virtual machine, 28 ... container , 29 ... App, 30 ... System, 40 ... Design information, 41 ... Management information, 51 ... Storage unit, 52 ... Communication unit, 53 ... Control unit, 55 ... Resource monitoring unit, 56 ... App identification unit, 57 ... Virtual machine Specific part, 58 ... decision part, 59 ... scale-out execution part, 60 ... request destination change part.

Claims (5)

コンピュータに、
第1の仮想マシンに配置されている第1のコンテナのリソース使用率が閾値を超えたときに、前記第1のコンテナで動作している第1のプログラムに対して処理を依頼している第2のプログラムを特定し、
前記第2のプログラムが動作している第2のコンテナが配置されている第2の仮想マシンを特定し、
前記第2の仮想マシンを前記第1のコンテナのスケールアウト先として決定する、
処理を実行させるためのコンテナ配置先決定プログラム。
On the computer
When the resource usage rate of the first container placed in the first virtual machine exceeds the threshold value, the first program running in the first container is requested to process. Identify the program of 2
Identify the second virtual machine where the second container running the second program is located.
Determining the second virtual machine as the scale-out destination for the first container.
A container placement destination determination program for executing processing.
前記コンピュータに、
前記第2の仮想マシンに前記第1のコンテナをスケールアウトし、
前記第2のプログラムが処理を依頼する依頼先を、スケールアウトにより前記第2の仮想マシンに配置された前記第1のコンテナで動作する前記第1のプログラムに変更する、
処理を実行させるための請求項1に記載のコンテナ配置先決定プログラム。
To the computer
Scale out the first container to the second virtual machine and
The request destination to which the second program requests processing is changed to the first program operating in the first container placed in the second virtual machine by scale-out.
The container placement destination determination program according to claim 1, for executing the process.
前記第1の仮想マシンと前記第2の仮想マシンは、それぞれ異なるクラウド拠点に配置されていることを特徴とする請求項1に記載のコンテナ配置先決定プログラム。 The container placement destination determination program according to claim 1, wherein the first virtual machine and the second virtual machine are placed in different cloud bases. 前記コンピュータに、
前記第1のプログラムと前記第2のプログラムとを対応付けた情報を記憶した記憶部を参照することにより、前記第1のプログラムに対して処理を依頼している前記第2のプログラムを特定する、
処理を実行させるための請求項1に記載のコンテナ配置先決定プログラム。
To the computer
By referring to the storage unit that stores the information in which the first program and the second program are associated with each other, the second program for which processing is requested to the first program is specified. ,
The container placement destination determination program according to claim 1, for executing the process.
コンピュータが、
第1の仮想マシンに配置されている第1のコンテナのリソース使用率が閾値を超えたときに、前記第1のコンテナで動作している第1のプログラムに対して処理を依頼している第2のプログラムを特定し、
前記第2のプログラムが動作している第2のコンテナが配置されている第2の仮想マシンを特定し、
前記第2の仮想マシンを前記第1のコンテナのスケールアウト先として決定する、
処理を実行することを特徴とするコンテナ配置先決定方法。
The computer
When the resource usage rate of the first container placed in the first virtual machine exceeds the threshold value, the first program running in the first container is requested to process. Identify the program of 2
Identify the second virtual machine where the second container running the second program is located.
Determining the second virtual machine as the scale-out destination for the first container.
A method for determining a container placement destination, which is characterized by executing a process.
JP2020120485A 2020-07-14 2020-07-14 CONTAINER PLACEMENT DESTINATION DECISION PROGRAM AND CONTAINER PLACEMENT DESTINATION DECISION METHOD Active JP7469655B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020120485A JP7469655B2 (en) 2020-07-14 2020-07-14 CONTAINER PLACEMENT DESTINATION DECISION PROGRAM AND CONTAINER PLACEMENT DESTINATION DECISION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020120485A JP7469655B2 (en) 2020-07-14 2020-07-14 CONTAINER PLACEMENT DESTINATION DECISION PROGRAM AND CONTAINER PLACEMENT DESTINATION DECISION METHOD

Publications (2)

Publication Number Publication Date
JP2022017754A true JP2022017754A (en) 2022-01-26
JP7469655B2 JP7469655B2 (en) 2024-04-17

Family

ID=80186157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020120485A Active JP7469655B2 (en) 2020-07-14 2020-07-14 CONTAINER PLACEMENT DESTINATION DECISION PROGRAM AND CONTAINER PLACEMENT DESTINATION DECISION METHOD

Country Status (1)

Country Link
JP (1) JP7469655B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5675471B2 (en) 2011-04-05 2015-02-25 株式会社日立製作所 Data center system management method, data center system, and management apparatus
JP7011162B2 (en) 2018-02-05 2022-01-26 富士通株式会社 Performance adjustment program and performance adjustment method

Also Published As

Publication number Publication date
JP7469655B2 (en) 2024-04-17

Similar Documents

Publication Publication Date Title
JP2020173840A (en) Efficient live migration of remotely accessed data
US10055257B2 (en) Virtual machine placement in a cloud computing environment based on factors including optimized processor-memory affinity
JP5497201B2 (en) Method for allocating resources, computer program for allocating resources, and system for allocating resources
US8413142B2 (en) Storage optimization selection within a virtualization environment
US9367947B2 (en) Remote rendering of three-dimensional images using virtual machines
US9069438B2 (en) Allocating virtual machines according to user-specific virtual machine metrics
US11126467B2 (en) Proactive load-balancing using retroactive work refusal
US8327370B2 (en) Dynamic policy manager method, system, and computer program product for optimizing fractional resource allocation
US20130019015A1 (en) Application Resource Manager over a Cloud
US20130132953A1 (en) Method and System for Providing Application by Virtual Machine and Computer-Readable Storage Medium to Execute the Method
US20100115510A1 (en) Virtual graphics device and methods thereof
US8135899B1 (en) Expansion of virtualized physical memory of virtual machine
JP2013518330A5 (en)
US20190281112A1 (en) System and method for orchestrating cloud platform operations
US20220405385A1 (en) Secure container construction device and method executable by android application, and computer-readable recording medium on which program thereof is recorded
US20160182403A1 (en) Automatic creation of affinity-type rules for resources in distributed computer systems
CN113391881B (en) Interrupt management method and device, electronic equipment and computer storage medium
US11586471B2 (en) Computer system and control method for computer system
US11640311B2 (en) Providing non-volatile storage for permanent data to virtual machines
JP7469655B2 (en) CONTAINER PLACEMENT DESTINATION DECISION PROGRAM AND CONTAINER PLACEMENT DESTINATION DECISION METHOD
KR102001641B1 (en) Method and apparatus for managing gpu resource in virtualization environment
CN114726657B (en) Interrupt management and data receiving and transmitting management method and device and intelligent network card
US11868805B2 (en) Scheduling workloads on partitioned resources of a host system in a container-orchestration system
TW201201102A (en) Resource adjustment methods and systems for virtual machines, and computer program products thereof
JP2023544192A (en) Tag-driven scheduling of computing resources for function execution

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7469655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150