JP6904155B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6904155B2
JP6904155B2 JP2017154219A JP2017154219A JP6904155B2 JP 6904155 B2 JP6904155 B2 JP 6904155B2 JP 2017154219 A JP2017154219 A JP 2017154219A JP 2017154219 A JP2017154219 A JP 2017154219A JP 6904155 B2 JP6904155 B2 JP 6904155B2
Authority
JP
Japan
Prior art keywords
load
data
information processing
unit
executes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017154219A
Other languages
English (en)
Other versions
JP2019032745A (ja
Inventor
中村 亘
亘 中村
雄太 大浦
雄太 大浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017154219A priority Critical patent/JP6904155B2/ja
Priority to US16/055,484 priority patent/US10467079B2/en
Publication of JP2019032745A publication Critical patent/JP2019032745A/ja
Application granted granted Critical
Publication of JP6904155B2 publication Critical patent/JP6904155B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0766Error or fault reporting or storing
    • G06F11/0778Dumping, i.e. gathering error/state information after a fault for later diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/079Root cause analysis, i.e. error or fault diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0721Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment within a central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0766Error or fault reporting or storing
    • G06F11/0787Storage of error reports, e.g. persistent data storage, storage using memory protection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/28Error detection; Error correction; Monitoring by checking the correct order of processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3433Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment for load management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/301Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is a virtual computing platform, e.g. logically partitioned systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3024Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is a central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3041Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is an input/output interface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3476Data logging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Hardware Design (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、プロセッサ負荷の推定技術に関する。
システムの運用中においては、処理の競合(リソース負荷の競合とも呼ばれる)を原因とする障害がしばしば発生する。障害が発生する前のシステムにおける装置の処理負荷の状況を知ることができれば、障害が発生したシステムの障害発生前の状況を検証用のシステムにおいて再現し、原因の究明および対策等を行うことが可能になる。
或る文献に開示されているように、システムの運用中にCPU(Central Processing Unit)等のリソースの負荷のログを常時生成しておけば、障害が発生する前のCPU負荷の情報を障害の発生後にログを利用して取得することができる。しかし、実際に稼働させるシステムにおいてCPU負荷のログを取得するために常駐プロセス等を動作させることは、他の処理に影響を及ぼす可能性があるため好ましくない。
特開2010−224629号公報
本発明の目的は、1つの側面では、障害が発生する前のシステムにおける装置のCPU負荷を推定するための技術を提供することである。
一態様に係る情報処理装置は、障害が発生した第1システムと同一又は類似のシステムである第2システムにおいて或る処理を実行する第1装置のプロセッサ負荷と通信負荷との関係を示すデータを生成する第1生成部と、生成されたデータと、障害が発生する前の第1システムにおいて或る処理を実行する第2装置の通信負荷とに基づき、障害が発生する前の第2装置のプロセッサ負荷を算出する算出部とを有する。
1つの側面では、障害が発生する前のシステムにおける装置のCPU負荷を推定できるようになる。
図1は、本実施の形態のシステムの概要を示す図である。 図2は、情報処理装置の構成図である。 図3は、管理装置のハードウエア構成図である。 図4は、管理装置の機能ブロック図である。 図5は、管理装置の第1収集部が実行する処理の処理フローを示す図である。 図6は、通信負荷データ格納部に格納されるデータの一例を示す図である。 図7は、管理装置の第2収集部が実行する処理の処理フローを示す図である。 図8は、CPU負荷データ格納部に格納されるデータの一例を示す図である。 図9は、障害が発生する前のCPU負荷を推定する処理の処理フローを示す図である。 図10は、システム構成データ格納部に格納されているデータの一例を示す図である。 図11は、グループ分けの結果の一例を示す図である。 図12は、対象システムの構成データの一例を示す図である。 図13は、各仮想APサーバについての通信負荷の統計量の一例を示す図である。 図14は、各仮想APサーバについてのCPU負荷の統計量の一例を示す図である。 図15は、障害が発生する前のCPU負荷を推定する処理の処理フローを示す図である。 図16は、CPU負荷とHTTPの各メソッドのリクエスト数との関係を示す図である。 図17は、関係データ格納部に格納されるデータの一例を示す図である。 図18は、推定データ格納部に格納されるデータの一例を示す図である。 図19は、障害前のCPU負荷を再現する処理の処理フローを示す図である。 図20は、送信パターンの一例を示す図である。
図1は、本実施の形態のシステムの概要を示す図である。情報処理システム1は、本実施の形態の主要な処理を実行する管理装置10と、検証用のシステムを動作させる検証装置13と、例えば顧客に使用させるシステムを稼働させる1又は複数の情報処理装置16とを有する。情報処理システム1は、LAN(Local Area Network)又はインターネット等のネットワークであるネットワーク5に接続される。
情報処理装置3はネットワーク5に接続される。本実施の形態においては、情報処理装置3において稼働しているシステムにおいて障害が発生するとする。障害とは、例えば、システムにおける仮想AP(APplication)サーバが実行するアプリケーションソフトウエアの異常である。
図2は、情報処理装置3の構成図である。情報処理装置3は、ハードウエアコンポーネントとして、1又は複数のCPU131と、1又は複数のメモリ132と、1又は複数のHDD(Hard Disk Drive)133と、NIC(Network Interface Card)134とを有する。
仮想化ソフトウエアであるハイパバイザ1300は、例えば、メモリ132にロードされたプログラムがCPU131に実行されることで実現される。ハイパバイザ1300は、仮想スイッチ1310と、仮想CPU(図2におけるv(virtual)CPU)と仮想メモリ(図2におけるvMEM(MEMory))と仮想NIC(図2におけるvNIC)とを有するVM(Virtual Machine)1321乃至1323を実現する。本実施の形態において、VM1321は仮想WEBサーバであり、VM1322は仮想APサーバであり、VM1323は仮想DB(DataBase)サーバである。
情報処理装置3は、クライアント端末からのリクエストを受信し、受信したリクエストは仮想スイッチ1310により仮想WEBサーバであるVM1321の仮想NICに転送される。VM1321は、リクエストの内容に応じて処理リクエストを仮想APサーバであるVM1322に転送し、VM1322は、処理リクエストの内容に応じてデータリクエストを仮想DBサーバであるVM1323に転送する。本実施の形態においては、情報処理装置3において実現されるシステムの通信負荷として、仮想APサーバが受け取るHTTP(Hyper Text Transfer Protocol)リクエストの数及びSQL(Structured Query Language)の各命令の数が利用される。また、情報処理装置3において実現されるシステムの処理負荷として、仮想APサーバの仮想CPUの負荷が利用される。
図2においてはVMの数は3であるが、4以上のVMが実行されてもよい。また、図2においては仮想WEBサーバ、仮想APサーバ及び仮想DBサーバをそれぞれ1台ずつ有するシステムが実現されているが、このような構成以外の構成を有するシステムが実現されてもよい。例えば、WEBサーバの機能及びAPサーバの機能の両方を有するVMが実行されてもよい。また、仮想DBサーバが無い、仮想WEBサーバ及び仮想APサーバで構成されたシステムが実現されてもよい。また、2台以上のVMで1つの機能(例えば、WEBサーバの機能)を実現してもよい。また、例えばファイアウォール、負荷分散装置、AD(Active Directory)サーバ或いは帳票サーバ等の機能を有するVMを実行してもよい。
図3は、管理装置10のハードウエア構成図である。管理装置10は、ハードウエアコンポーネントとして、CPU11と、メモリ12と、HDD17と、NIC14とを有する。各ハードウエアコンポーネントは、バス15を介して接続される。なお、管理装置10がその他のハードウエアコンポーネントを有してもよい。
図4は、管理装置10の機能ブロック図である。管理装置10は、第1収集部101と、第2収集部103と、特定部105と、関係算出部107と、推定データ生成部109と、パターン抽出部111と、リクエスト出力部113と、制御部115と、通信負荷データ格納部121と、CPU負荷データ格納部123と、システム構成データ格納部125と、関係データ格納部127と、推定データ格納部129と、パターンデータ格納部135とを有する。
管理装置10に処理を実行させるためのプログラムは、例えばHDD17に格納され、メモリ12にロードされてCPU11により実行されることで、図4に示した第1収集部101、第2収集部103、特定部105、関係算出部107、推定データ生成部109、パターン抽出部111、リクエスト出力部113および制御部115を実現する。通信負荷データ格納部121、CPU負荷データ格納部123、システム構成データ格納部125、関係データ格納部127、推定データ格納部129及びパターンデータ格納部135は、例えばメモリ12又はHDD17に設けられる。
第1収集部101は、情報処理装置3、検証装置13および情報処理装置16から受信した通信ログに基づき通信負荷のデータを生成する処理を実行し、生成した通信負荷のデータを通信負荷データ格納部121に格納する。第2収集部103は、情報処理装置3、検証装置13および情報処理装置16から受信したCPU負荷のデータをCPU負荷データ格納部123に格納する。特定部105は、通信負荷データ格納部121に格納されているデータ、CPU負荷データ格納部123に格納されているデータ及びシステム構成データ格納部125に格納されているデータに基づき処理を実行し、処理結果を関係算出部107に通知する。関係算出部107は、特定部105から通知された処理結果、通信負荷データ格納部121に格納されているデータ及びCPU負荷データ格納部123に格納されているデータに基づき処理を実行し、処理結果を関係データ格納部127に格納する。推定データ生成部109は、通信負荷データ格納部121に格納されているデータ及び関係データ格納部127に格納されているデータに基づき処理を実行し、処理結果を推定データ格納部129に格納する。
パターン抽出部111は、通信負荷データ格納部121に格納されているデータに基づき処理を実行し、処理結果をパターンデータ格納部135に格納する。リクエスト出力部113は、関係データ格納部127に格納されているデータ、推定データ格納部129に格納されているデータ及びパターンデータ格納部135に格納されているデータに基づき、検証装置13に対してHTTPリクエストを出力する処理を実行する。制御部115は、CPU負荷データ格納部123に格納されているデータ及び推定データ格納部129に格納されているデータに基づき処理を実行し、処理結果に応じて、リクエスト出力部113が検証装置13に対して出力するHTTPリクエストの送信頻度を変更する。
次に、管理装置10の実行する処理をより詳細に説明する。
図5は、管理装置10の第1収集部101が実行する処理の処理フローを示す図である。
第1収集部101は、情報処理装置3から所定時間(例えば1秒)分の通信ログを受信する(図5:ステップS1)。通信ログは、時刻の情報、URI(Uniform Resource Identifier)、HTTPのメソッドの情報、リクエストパラメータ及びその他の情報を含む。
第1収集部101は、ステップS1において受信した通信ログに基づき、HTTPの各メソッドのリクエスト数とSQLの各命令の数とを集計する(ステップS3)。そして、第1収集部101は、集計の結果を通信負荷データ格納部121に格納する。
図6は、通信負荷データ格納部121に格納されるデータの一例を示す図である。図6の例では、時刻の情報と、HTTPの各メソッドのリクエスト数(ここでは1秒あたりのリクエスト数)及びデータ量(ここでは1秒あたりのデータ量(キロバイト))と、SQLの各命令の数及びデータ量とが格納される。
第1収集部101は、ステップS3を実行してから所定時間が経過したか判定する(ステップS5)。所定時間が経過していない場合(ステップS5:Noルート)、処理はステップS5に戻る。
一方、所定時間が経過した場合(ステップS5:Yesルート)、第1収集部101は、処理の終了指示があったか判定する(ステップS7)。処理の終了指示がない場合(ステップS7:Noルート)、処理はステップS1に戻る。一方、処理の終了指示があった場合(ステップS7:Yesルート)、処理は終了する。
以上のような処理を実行すれば、情報処理装置3の通信負荷のデータを管理装置10が管理できるようになる。なお、管理装置10は、情報処理装置3だけでなく、検証装置13及び情報処理装置16の通信負荷のデータも同様の方法で取得することができる。
図7は、管理装置10の第2収集部103が実行する処理の処理フローを示す図である。
本実施の形態においては、情報処理装置3上の仮想APサーバであるVM1322が実行する他の処理への影響を及ぼさないようにするため、VM1322のCPU負荷(具体的には、CPU使用率)は、障害が発生した後にかぎり計測される。管理装置10は、情報処理装置3において障害が発生した後に、情報処理装置3からCPU負荷のデータを取得する。従って、図7に示した処理は障害が発生した後、例えば定期的に実行される。
第2収集部103は、情報処理装置3において障害が発生した後のCPU負荷のデータのうち未取得のCPU負荷のデータ(具体的には、CPU負荷のデータを前回取得した時点より後に計測されたCPU負荷のデータ)を、情報処理装置3から受信する(図7:ステップS11)。
第2収集部103は、ステップS11において受信したCPU負荷のデータをCPU負荷データ格納部123に格納する(ステップS13)。そして処理は終了する。
図8は、CPU負荷データ格納部123に格納されるデータの一例を示す図である。図8の例では、時刻の情報と、仮想APサーバが仮想CPUとして実際に使用している各物理CPUのCPU負荷(単位は%)の情報とが格納されている。
以上のような処理を実行すれば、情報処理装置3のCPU負荷のデータを管理装置10が管理できるようになる。なお、管理装置10は、情報処理装置3だけでなく、情報処理装置16の通信負荷のデータも同様の方法で取得することができる。検証装置13については、CPU負荷の再現のため、稼働中のCPU負荷のデータが常時取得される。
図9は、障害が発生する前のCPU負荷を推定する処理の処理フローを示す図である。
まず、特定部105は、システム構成データ格納部125に格納されているデータを用いて、情報処理装置16上で実現されている複数のシステムをシステム構成に基づきグループ分けする(図9:ステップS21)。
図10は、システム構成データ格納部125に格納されているデータの一例を示す図である。図10の例では、システム名と、サーバの種別と、CPUコア数と、メモリ容量(単位はギガバイト)とについての情報が格納されている。
ステップS21においては、同一のシステム構成であるシステムが同じグループに属するようにグループ分けが行われる。図11は、グループ分けの結果の一例を示す図である。図11の例では、グループ_1に属するシステムの構成は「LB+Cache+3層Web+Storage」であり、グループ_2に属するシステムの構成は「2層Web」であり、グループ_3に属するシステムの構成は「LB+App」である。
特定部105は、システム構成データ格納部125から、障害が発生したシステム(本実施の形態においては、情報処理装置3において実現されているシステム。以下、対象システムと呼ぶ)の構成データを読み出す(ステップS23)。
図12は、対象システムの構成データの一例を示す図である。図12の例では、対象システムの構成は「LB+Cache+3層Web+Storage」である。
特定部105は、ステップS23において読み出された構成データと、ステップS21におけるグループ分けの結果とに基づき、対象システムと同一又は類似の構成を有するシステムのグループを抽出する(ステップS25)。
例えば、対象システムの構成データが図12に示した構成データであり、且つ、グループ分けの結果が図11に示した結果である場合、グループ_1が抽出される。
特定部105は、ステップS25において抽出されたグループ内の各システムについて、仮想APサーバの通信負荷の統計量及びCPU負荷の統計量を、通信負荷データ格納部121に格納されているデータ及びCPU負荷データ格納部123に格納されているデータを用いて算出する(ステップS27)。本実施の形態における統計量は平均および標準偏差であるが、その他の統計量を用いてもよい。
図13は、各仮想APサーバの通信負荷の統計量の一例を示す図である。図13の例では、HTTPの各メソッドのリクエスト数及びデータ量の統計量と、SQLの各命令の数及びデータ量についての統計量とが、各仮想APサーバについて算出されている。リクエスト数は1秒あたりのリクエスト数であり、データ量の単位は、キロバイト/秒である。
図14は、各仮想APサーバについてのCPU負荷の統計量の一例を示す図である。図14の例では、CPU負荷の統計量が各仮想APサーバについて算出されており、CPU負荷の統計量は、各物理CPUのCPU負荷(%)の統計量の平均に相当する。
特定部105は、対象システムにおける仮想APサーバの通信負荷の統計量及びCPU負荷の統計量を、通信負荷データ格納部121に格納されているデータ及びCPU負荷データ格納部123に格納されているデータを用いて算出する(ステップS29)。ステップS29においては、ステップS27と同じ項目について統計量が算出される。具体的には、HTTPの各メソッドのリクエスト数及びデータ量についての平均及び標準偏差と、SQLの各命令の数及びデータ量についての平均及び標準偏差とが算出される。
特定部105は、ステップS27において算出された統計量とステップS29において算出された統計量との比較に基づき、対象システムにおける仮想APサーバと類似する仮想APサーバを特定する(ステップS31)。そして処理は端子Aを介して図15のステップS33に移行する。
ステップS31においては、例えば、通信負荷の各項目についての統計量の差の合計と、CPU負荷の各項目についての統計量の差の合計との和が、最小である(すなわち、類似度が最も高い)或いは所定値以下である仮想APサーバが特定される。
図15の説明に移行し、特定部105は、ステップS31の処理結果を関係算出部107に通知する。そして、関係算出部107は、ステップS31において特定された仮想APサーバの通信負荷のデータを通信負荷データ格納部121から読み出し、ステップS31において特定された仮想APサーバのCPU負荷のデータをCPU負荷データ格納部123から読み出す(ステップS33)。なお、ステップS33においては、通信負荷のデータとしてHTTPの各メソッドのリクエスト数が読み出され、SQLの各命令数は読み出されない。
関係算出部107は、障害発生後の対象システムにおける仮想APサーバの通信負荷のデータを通信負荷データ格納部121から読み出す。また、関係算出部107は、障害発生後の対象システムにおける仮想APサーバのCPU負荷のデータをCPU負荷データ格納部123から読み出す(ステップS35)。なお、ステップS35においては、通信負荷のデータとしてHTTPの各メソッドのリクエスト数が読み出され、SQLの各命令数は読み出されない。
関係算出部107は、ステップS33において読み出されたデータとステップS35において読み出されたデータとに基づき、通信負荷とCPU負荷との関係を示すデータを生成する(ステップS37)。関係算出部107は、算出された関係についてのデータを関係データ格納部127に格納する。ステップS37においては、例えば回帰分析が実行され、回帰分析の結果に基づきCPU負荷と通信負荷との関係を示すデータが生成される。なお、CPU負荷データとしては、各物理CPUのCPU負荷の平均が使用される。
図16は、CPU負荷とHTTPの各メソッドのリクエスト数との関係を示す図である。図16に示すように、普通、仮想APサーバが受け取るHTTPリクエストの数が増えるに従ってCPU負荷(すなわちCPU使用率)は増加する。従って、各メソッドのHTTPリクエストの数からCPU負荷を推定することが可能である。
図17は、関係データ格納部127に格納されるデータの一例を示す図である。図17の例では、CPU負荷の各値について、各メソッドのリクエスト数(ここでは1秒あたりのリクエスト数)が格納されている。例えば、「GET」の数が255であり且つ他のメソッドのHTTPリクエスト数が0であるときは、CPU負荷は10(%)である。また、「GET」の数が255であり、「POST」の数が324であり、「PUT」の数が261であり且つ「DELETE」の数が218であるときは、CPU負荷は40(%)であると推定される。
推定データ生成部109は、対象システムの仮想APサーバの通信負荷のデータのうち障害発生前のデータを、通信負荷データ格納部121から読み出す(ステップS39)。
推定データ生成部109は、ステップS39において読み出されたデータと、関係データ格納部127に格納されているデータとに基づき、障害発生前のCPU負荷の推定値を算出する(ステップS41)。推定データ生成部109は、算出した推定値を推定データ格納部129に格納する。そして処理は終了する。ステップS41においては、障害発生前の各時刻について、読み出した通信負荷のデータが示す各メソッドのリクエスト数に対応するCPU負荷が、関係データ格納部127に格納されているデータに基づき算出され、算出されたCPU負荷の合計が算出される。なお、CPU負荷の合計が100(%)を超えた場合には合計を100(%)とする。
図18は、推定データ格納部129に格納されるデータの一例を示す図である。図18の例では、ステップS31において特定された仮想APサーバのCPU負荷の推定値が、障害が発生する前の各時刻について格納されている。
以上のように、CPU負荷と通信負荷との関係を利用することで、たとえ障害が発生する前のCPU負荷を計測していない場合であっても、障害が発生する前のCPU負荷を推定することができる。これにより、CPU負荷を監視するための常駐プロセス等を動作させる必要がなくなるので、より多くのCPUリソースを他の処理に割り当てることができるようになる。
また、本実施の形態によれば、障害が発生する前の通信負荷(すなわち、仮想ネットワークIO(Input Output)の負荷)が考慮されるので、仮想APサーバのCPU負荷の推定値をより適切な値にすることができるようになる。
図19は、障害前のCPU負荷を検証装置13において再現する処理の処理フローを示す図である。本処理は、例えば、CPU負荷の推定値が算出された後に実行される。また、検証装置13には、ステップS31において特定された仮想APサーバを含むシステムと同一の構成を有するシステムが、仮想的に構築されているとする。
パターン抽出部111は、第1収集部101が情報処理装置3から受信した通信ログ(ここでは、障害が発生する前の通信ログ)から、HTTPリクエストの送信パターンを1又は複数抽出する(図19:ステップS51)。
図20は、送信パターンの一例を示す図である。図20の例では、10:00:02に送信されたPOSTのHTTPリクエストと、10:00:03に送信されたGETのHTTPリクエストと、10:00:05に送信されたGETのHTTPリクエストとを含む送信パターン_1が示されている。本実施の形態においては、例えば、所定時間(例えば10秒)内に受信した一連のHTTPリクエストが1つの送信パターンとして取り扱われる。
リクエスト出力部113は、ステップS51において抽出された送信パターンに従って送信されるリクエストの送信頻度を、推定データ格納部129に格納された推定値及び関係データ格納部127に格納されたデータに基づき決定する(ステップS53)。
一例として、図20に示したような3つのHTTPリクエストを含む送信パターンが得られた場合に送信頻度を決定する方法を示す。この場合において、例えば図18に示した、10:00:02におけるCPU負荷27.00%を再現する場合、POSTに対応するCPU負荷が9(=27/3*1)%になり且つGETに対応するCPU負荷が18%(=27/3*2)になるようにHTTPリクエストが送信される。関係データ格納部127に格納されているデータ(例えば図17に示したデータ)に基づき決定されるHTTPリクエスト数が、POSTについては290であり且つGETについては410である場合、10:00:02に対応する時刻においてはPOSTのHTTPリクエストが290回送信され、GETのHTTPリクエストが410回送信される。同様の処理を、10:00:03以降の各時刻について実行することで、障害が発生する前の期間における各時刻に対応する時刻での送信頻度を決定することができる。なお、HTTPリクエストのリクエストURI及びパラメータは適宜変更される。
また、例えば図20に示した送信パターン以外の送信パターンが、11:00:00において抽出された場合には、11:00:00に対応する時刻以降においては、11:00:00において抽出された送信パターンでHTTPリクエストが送信される。
なお、ここで説明した方法は一例であって、抽出される送信パターンの内容や数に応じて方法を変更してもよい。
図18の説明に戻り、リクエスト出力部113は、ステップS55において決定された送信頻度で、検証装置13上で構築されたシステムにHTTPリクエストを送信する(ステップS55)。リクエスト出力部113からHTTPリクエストが送信されている間、検証装置13においてはシステムにおける仮想APサーバのCPU負荷が計測されているとする。
リクエスト出力部113は、第2収集部103に対して、CPU負荷のデータの受信を指示する。これに応じ、第2収集部103は、検証装置13上で構築されたシステムの仮想APサーバからのCPU負荷のデータを検証装置13から受信し(ステップS57)、受信したデータをCPU負荷データ格納部123に格納する。
制御部115は、推定データ格納部129に格納された推定値と、ステップS57において受信したCPU負荷のデータとを比較し、障害発生前のCPU負荷が検証装置13上のシステムにおいて再現されたか判定する(ステップS59)。
障害発生前のCPU負荷が検証装置13上のシステムにおいて再現されていない場合(ステップS59:Noルート)、制御部115は、以下の処理を実行する。具体的には、制御部115は、CPU負荷の推定値と実際のCPU負荷(すなわちステップS57において受信したCPU負荷のデータ)との比較に基づき、リクエスト出力部113が送信するリクエストの送信頻度を変更する(ステップS61)。そして処理はステップS55に戻る。
例えば、或る時刻におけるCPU負荷の推定値が20(%)であるのに対して実際のCPU負荷が25(%)である場合、CPU負荷が25(%)から20(%)に下がるように、送信頻度が現状の80(=20/25*100)(%)になるように変更を行う。このような処理を各時刻において行うことで、推定されたCPU負荷が検証装置13上のシステムにおいて再現される。
一方、障害発生前のCPU負荷が検証装置13上のシステムにおいて再現されている場合(ステップS59:Yesルート)、制御部115は、再現が完了したことを示すデータを、管理装置10の表示装置(例えばディスプレイ)に出力する(ステップS63)。そして処理は終了する。
以上のような処理を実行すれば、障害が発生する前の状況を再現することができるようになる。これにより、障害の原因究明および障害への対策等を行うことができるようになる。なお、従来はランダムに負荷をかけていたため障害の原因究明および障害への対策等を行うことが難しく、また例えできたとしても時間がかかっていたが、本実施の形態の方法であれば、障害の原因究明および障害への対策等をより容易に行えるようになる。
以上本発明の一実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、上で説明した管理装置10の機能ブロック構成は実際のプログラムモジュール構成に一致しない場合もある。
また、上で説明した各テーブルの構成は一例であって、上記のような構成でなければならないわけではない。さらに、処理フローにおいても、処理結果が変わらなければ処理の順番を入れ替えることも可能である。さらに、並列に実行させるようにしても良い。
なお、ステップS37においては対象システムの仮想APサーバの通信負荷のデータ及びCPU負荷のデータを用いなくてもよく、その場合にはステップS35の処理をスキップしてもよい。
なお、情報処理装置16上で実現されているシステムの通信負荷のデータ及びCPU負荷のデータを、予め管理装置10が保持しておいてもよい。そして、管理装置10は、保持された通信負荷のデータ及びCPU負荷のデータを用いて、ステップS31の処理等を実行してもよい。
なお、対象システムの仮想APサーバと類似するシステムの仮想APサーバを抽出する場合に、統計量ではなく時系列の値そのものを比較してもよい。また、期間中において同一種類の複数の統計量を求め、複数の統計量を比較することで類似する仮想APサーバを抽出してもよい。なお、比較に使用される期間は例えば同一であるが、必ずしも同一でなくてもよい。
なお、対象システムの仮想APサーバと類似するシステムの仮想APサーバを抽出する場合に、SQLの各命令数を使用しなくてもよい。
なお、仮想APサーバ以外のサーバであって通信負荷に従ってCPU負荷が変動するサーバに対して、本実施の形態を適用してもよい。
なお、物理CPUごとに通信負荷とCPU負荷との関係を算出した場合には、物理CPUごとに推定値を算出してもよい。
なお、類似する仮想APサーバが動作するシステムが停止している場合には、検証装置13上のシステムではなく、そのシステムを用いてCPU負荷の再現を行ってもよい。
以上述べた本発明の実施の形態をまとめると、以下のようになる。
本実施の形態の第1の態様に係る情報処理装置は、(A)障害が発生した第1システムと同一又は類似のシステムである第2システムにおいて或る処理を実行する第1装置のプロセッサ負荷と通信負荷との関係を示すデータを生成する第1生成部(実施の形態における関係算出部107は上記第1生成部の一例である)と、(B)生成されたデータと、障害が発生する前の第1システムにおいて或る処理を実行する第2装置の通信負荷とに基づき、障害が発生する前の第2装置のプロセッサ負荷を算出する算出部(実施の形態における推定データ生成部109は上記算出部の一例である)とを有する。
たとえ障害が発生する前の第2装置のプロセッサ負荷の情報を取得することができなくても、通信負荷の情報を取得することができれば、障害が発生する前のプロセッサ負荷を推定できるようになる。
また、第1生成部は、(a1)第1システムの構成並びに第2装置のプロセッサ負荷の変動及び通信負荷の変動と、第1システム以外のシステムの構成及び当該システムにおいて特定の処理を実行する装置のプロセッサ負荷の変動及び通信負荷の変動との比較に基づき、第2システムを特定してもよい。
第1システムにおける第2装置のプロセッサ負荷の推定に適した第2システムを特定できるようになる。
また、第1生成部は、(a2)第1装置のプロセッサ負荷と第1装置に対するリクエストの数との関係を示すデータを、第1装置に対するリクエストの種類ごとに生成してもよい。
リクエストの種類によってプロセッサ負荷の変動の特徴は違うため、上で述べたような処理を実行すれば、算出されるプロセッサ負荷をより適切な値にすることができるようになる。
また、本情報処理装置は、(C)障害が発生する前の第2装置に対するリクエストの送信パターンを、障害が発生する前の第2装置の通信ログから生成する第2生成部(実施の形態におけるパターン抽出部111は上記第2生成部の一例である)と、(D)生成された送信パターンに従って第1装置に対するリクエストを送信する出力部(実施の形態におけるリクエスト出力部113は上記出力部の一例である)と、(E)生成された送信パターンに従って第1装置に対するリクエストが送信された場合における第1装置のプロセッサ負荷と、算出された第2装置のプロセッサ負荷との比較の結果に基づき、出力部が第1装置に対するリクエストを送信する頻度を変更する制御部(実施の形態における制御部115は上記制御部の一例である)とをさらに有してもよい。
第2装置において発生したプロセッサ負荷を考慮しつつ第1装置においてプロセッサ負荷を発生させることができるので、障害前の状況の再現により障害の原因等を調べることができるようになる。
また、制御部は、(e1)計測されたプロセッサ負荷と、算出された第2装置のプロセッサ負荷とが同じになるように、出力部が第1装置に対するリクエストを送信する頻度を変更してもよい。
また、第1装置及び第2装置は仮想マシンであってもよい。
本実施の形態の第2の態様に係る情報処理方法は、(F)障害が発生した第1システムと同一又は類似のシステムである第2システムにおいて或る処理を実行する第1装置のプロセッサ負荷と通信負荷との関係を示すデータを生成し、(G)生成されたデータと、障害が発生する前の第1システムにおいて或る処理を実行する第2装置の通信負荷とに基づき、障害が発生する前の第2装置のプロセッサ負荷を算出する処理を含む。
なお、上記方法による処理をプロセッサに行わせるためのプログラムを作成することができ、当該プログラムは、例えばフレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納される。尚、中間的な処理結果はメインメモリ等の記憶装置に一時保管される。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
障害が発生した第1システムと同一又は類似のシステムである第2システムにおいて或る処理を実行する第1装置のプロセッサ負荷と通信負荷との関係を示すデータを生成する第1生成部と、
生成された前記データと、前記障害が発生する前の前記第1システムにおいて前記或る処理を実行する第2装置の通信負荷とに基づき、前記障害が発生する前の前記第2装置のプロセッサ負荷を算出する算出部と、
を有する情報処理装置。
(付記2)
前記第1生成部は、
前記第1システムの構成並びに前記第2装置のプロセッサ負荷の変動及び通信負荷の変動と、前記第1システム以外のシステムの構成及び当該システムにおいて前記特定の処理を実行する装置のプロセッサ負荷の変動及び通信負荷の変動との比較に基づき、前記第2システムを特定する、
付記1記載の情報処理装置。
(付記3)
前記第1生成部は、
前記第1装置のプロセッサ負荷と前記第1装置に対するリクエストの数との関係を示すデータを、前記第1装置に対するリクエストの種類ごとに生成する、
付記1又は2記載の情報処理装置。
(付記4)
前記障害が発生する前の前記第2装置に対するリクエストの送信パターンを、前記障害が発生する前の前記第2装置の通信ログから生成する第2生成部と、
生成された前記送信パターンに従って前記第1装置に対するリクエストを送信する出力部と、
生成された前記送信パターンに従って前記第1装置に対するリクエストが送信された場合における前記第1装置のプロセッサ負荷と、算出された前記第2装置のプロセッサ負荷との比較の結果に基づき、前記出力部が前記第1装置に対するリクエストを送信する頻度を変更する制御部と、
をさらに有する付記1乃至3のいずれか1つ記載の情報処理装置。
(付記5)
前記制御部は、
計測された前記プロセッサ負荷と、算出された前記第2装置のプロセッサ負荷とが同じになるように、前記出力部が前記第1装置に対するリクエストを送信する頻度を変更する、
付記4記載の情報処理装置。
(付記6)
前記第1装置及び前記第2装置は仮想マシンである、
付記1乃至5のいずれか1つ記載の情報処理装置。
(付記7)
コンピュータが、
障害が発生した第1システムと同一又は類似のシステムである第2システムにおいて或る処理を実行する第1装置のプロセッサ負荷と通信負荷との関係を示すデータを生成し、
生成された前記データと、前記障害が発生する前の前記第1システムにおいて前記或る処理を実行する第2装置の通信負荷とに基づき、前記障害が発生する前の前記第2装置のプロセッサ負荷を算出する、
処理を実行する情報処理方法。
(付記8)
コンピュータに、
障害が発生した第1システムと同一又は類似のシステムである第2システムにおいて或る処理を実行する第1装置のプロセッサ負荷と通信負荷との関係を示すデータを生成し、
生成された前記データと、前記障害が発生する前の前記第1システムにおいて前記或る処理を実行する第2装置の通信負荷とに基づき、前記障害が発生する前の前記第2装置のプロセッサ負荷を算出する、
処理を実行させるプログラム。
1 情報処理システム 10 管理装置
13 検証装置 16 情報処理装置
3 情報処理装置 5 ネットワーク
131 CPU 132 メモリ
133 HDD 134 NIC
1300 ハイパバイザ 1310 仮想スイッチ
1321,1322,1323 VM
11 CPU 12 メモリ
14 NIC 15 バス
17 HDD
101 第1収集部 103 第2収集部
105 特定部 107 関係算出部
109 推定データ生成部 111 パターン抽出部
113 リクエスト出力部 115 制御部
121 通信負荷データ格納部 123 CPU負荷データ格納部
125 システム構成データ格納部 127 関係データ格納部
129 推定データ格納部 135 パターンデータ格納部

Claims (6)

  1. 障害が発生した第1システムと同一又は類似のシステムである第2システムにおいて或る処理を実行する第1装置のプロセッサ負荷と通信負荷との関係を示すデータを生成する第1生成部と、
    生成された前記データと、前記障害が発生する前の前記第1システムにおいて前記或る処理を実行する第2装置の通信負荷とに基づき、前記障害が発生する前の前記第2装置のプロセッサ負荷を算出する算出部と、
    を有する情報処理装置。
  2. 前記第1生成部は、
    前記第1システムの構成並びに前記第2装置のプロセッサ負荷及び通信負荷と、前記第1システム以外のシステムの構成及び当該システムにおいて前記特定の処理を実行する装置のプロセッサ負荷及び通信負荷との比較に基づき、前記第2システムを特定する、
    請求項1記載の情報処理装置。
  3. 前記第1生成部は、
    前記第1装置のプロセッサ負荷と前記第1装置に対するリクエストの数との関係を示すデータを、前記第1装置に対するリクエストの種類ごとに生成する、
    請求項1又は2記載の情報処理装置。
  4. 前記障害が発生する前の前記第2装置に対するリクエストの送信パターンを、前記障害が発生する前の前記第2装置の通信ログから生成する第2生成部と、
    生成された前記送信パターンに従って前記第1装置に対するリクエストを送信する出力部と、
    生成された前記送信パターンに従って前記第1装置に対するリクエストが送信された場合における前記第1装置のプロセッサ負荷と、算出された前記第2装置のプロセッサ負荷との比較の結果に基づき、前記出力部が前記第1装置に対するリクエストを送信する頻度を変更する制御部と、
    をさらに有する請求項1乃至3のいずれか1つ記載の情報処理装置。
  5. コンピュータが、
    障害が発生した第1システムと同一又は類似のシステムである第2システムにおいて或る処理を実行する第1装置のプロセッサ負荷と通信負荷との関係を示すデータを生成し、
    生成された前記データと、前記障害が発生する前の前記第1システムにおいて前記或る処理を実行する第2装置の通信負荷とに基づき、前記障害が発生する前の前記第2装置のプロセッサ負荷を算出する、
    処理を実行する情報処理方法。
  6. コンピュータに、
    障害が発生した第1システムと同一又は類似のシステムである第2システムにおいて或る処理を実行する第1装置のプロセッサ負荷と通信負荷との関係を示すデータを生成し、
    生成された前記データと、前記障害が発生する前の前記第1システムにおいて前記或る処理を実行する第2装置の通信負荷とに基づき、前記障害が発生する前の前記第2装置のプロセッサ負荷を算出する、
    処理を実行させるプログラム。
JP2017154219A 2017-08-09 2017-08-09 情報処理装置、情報処理方法及びプログラム Active JP6904155B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017154219A JP6904155B2 (ja) 2017-08-09 2017-08-09 情報処理装置、情報処理方法及びプログラム
US16/055,484 US10467079B2 (en) 2017-08-09 2018-08-06 Information processing device, information processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017154219A JP6904155B2 (ja) 2017-08-09 2017-08-09 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019032745A JP2019032745A (ja) 2019-02-28
JP6904155B2 true JP6904155B2 (ja) 2021-07-14

Family

ID=65274121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017154219A Active JP6904155B2 (ja) 2017-08-09 2017-08-09 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10467079B2 (ja)
JP (1) JP6904155B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021002849A1 (en) * 2019-07-02 2021-01-07 Hewlett-Packard Development Company, L.P. Computer readable program code change impact estimations

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6353902B1 (en) * 1999-06-08 2002-03-05 Nortel Networks Limited Network fault prediction and proactive maintenance system
US6609212B1 (en) * 2000-03-09 2003-08-19 International Business Machines Corporation Apparatus and method for sharing predictive failure information on a computer network
JP4066932B2 (ja) * 2003-11-10 2008-03-26 株式会社日立製作所 予測に基づいた計算機リソース配分方法
US7484132B2 (en) * 2005-10-28 2009-01-27 International Business Machines Corporation Clustering process for software server failure prediction
US20080126881A1 (en) * 2006-07-26 2008-05-29 Tilmann Bruckhaus Method and apparatus for using performance parameters to predict a computer system failure
JP5425497B2 (ja) * 2009-03-19 2014-02-26 株式会社日立システムズ ソフトウェア検証システムと方法およびプログラム
US8140914B2 (en) * 2009-06-15 2012-03-20 Microsoft Corporation Failure-model-driven repair and backup
JP2011002906A (ja) * 2009-06-16 2011-01-06 Fujitsu Ltd 監視プログラム、監視装置、および監視方法
US8966039B1 (en) * 2011-04-25 2015-02-24 Sprint Communications Company L.P. End-to-end communication service monitoring and reporting
US8881108B2 (en) * 2012-06-28 2014-11-04 Sap Ag Test program for HTTP-communicating service
JP5814874B2 (ja) * 2012-07-20 2015-11-17 三菱電機株式会社 コンピュータ装置及びリソース使用量予測方法及びプログラム
WO2014078457A1 (en) * 2012-11-19 2014-05-22 Siemens Corporation Resilient optimization and control for distributed systems
WO2014118897A1 (ja) * 2013-01-29 2014-08-07 富士通株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP6126891B2 (ja) * 2013-03-29 2017-05-10 富士通株式会社 検出方法、検出プログラム、および検出装置
JP6247480B2 (ja) * 2013-09-12 2017-12-13 株式会社東芝 制御装置、制御システムおよび制御方法
CA2870080C (en) * 2013-11-08 2017-12-19 Accenture Global Services Limited Network node failure predictive system
US9674046B2 (en) * 2014-10-21 2017-06-06 At&T Intellectual Property I, L.P. Automatic detection and prevention of network overload conditions using SDN
US9830240B2 (en) * 2015-05-14 2017-11-28 Cisco Technology, Inc. Smart storage recovery in a distributed storage system
JP6686459B2 (ja) * 2016-01-19 2020-04-22 富士通株式会社 診断装置、診断方法および診断プログラム
US10339131B1 (en) * 2016-06-10 2019-07-02 Hortonworks, Inc. Fault prevention
US10198330B2 (en) * 2016-11-30 2019-02-05 Sap Se Configuring disaster recovery for a cloud based application

Also Published As

Publication number Publication date
JP2019032745A (ja) 2019-02-28
US10467079B2 (en) 2019-11-05
US20190050282A1 (en) 2019-02-14

Similar Documents

Publication Publication Date Title
US11122067B2 (en) Methods for detecting and mitigating malicious network behavior and devices thereof
CN103853627B (zh) 由与物理机器相关地分析虚拟机器性能问题原因的方法和系统
US7840517B2 (en) Performance evaluating apparatus, method, and computer-readable medium
US9229778B2 (en) Method and system for dynamic scaling in a cloud environment
WO2014149148A1 (en) Distributed network services
CN103377077A (zh) 通过诱发延时来评估分布式计算服务的弹性的方法和系统
US20120297251A1 (en) Method and computer program product for system tuning based on performance measurements and historical problem data and system thereof
CN111641563B (zh) 基于分布式场景的流量自适应方法与系统
US20180107503A1 (en) Computer procurement predicting device, computer procurement predicting method, and recording medium
Caglar et al. Intelligent, performance interference-aware resource management for iot cloud backends
Jayathilaka et al. Detecting performance anomalies in cloud platform applications
US20180095819A1 (en) Incident analysis program, incident analysis method, information processing device, service identification program, service identification method, and service identification device
Papadopoulos et al. Control-based load-balancing techniques: Analysis and performance evaluation via a randomized optimization approach
US10282239B2 (en) Monitoring method
Dhingra et al. Comparative analysis of fault tolerance models and their challenges in cloud computing
WO2014204470A1 (en) Generating a fingerprint representing a response of an application to a simulation of a fault of an external service
JP6904155B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN104135525B (zh) 云平台elb组件的资源扩展方法和装置
Samir et al. Autoscaling recovery actions for container‐based clusters
US10067778B2 (en) Management system, recording medium and method for managing virtual machines
US8798982B2 (en) Information processing device, information processing method, and program
CN103795766B (zh) 一种p2sp多源下载系统
US10102101B1 (en) Methods, systems, and computer readable mediums for determining a system performance indicator that represents the overall operation of a network system
KR101630088B1 (ko) 가상머신의 라이프사이클 모니터링 방법 및 그 장치
US11526784B2 (en) Real-time server capacity optimization tool using maximum predicted value of resource utilization determined based on historica data and confidence interval

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200514

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210607

R150 Certificate of patent or registration of utility model

Ref document number: 6904155

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150