JP6227841B1 - データ処理システム及びデータ処理方法 - Google Patents

データ処理システム及びデータ処理方法 Download PDF

Info

Publication number
JP6227841B1
JP6227841B1 JP2017511807A JP2017511807A JP6227841B1 JP 6227841 B1 JP6227841 B1 JP 6227841B1 JP 2017511807 A JP2017511807 A JP 2017511807A JP 2017511807 A JP2017511807 A JP 2017511807A JP 6227841 B1 JP6227841 B1 JP 6227841B1
Authority
JP
Japan
Prior art keywords
data processing
program
application node
history
application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017511807A
Other languages
English (en)
Other versions
JPWO2017141363A1 (ja
Inventor
理 竹内
理 竹内
青木 英郎
英郎 青木
田中 剛
剛 田中
有哉 礒田
有哉 礒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of JP6227841B1 publication Critical patent/JP6227841B1/ja
Publication of JPWO2017141363A1 publication Critical patent/JPWO2017141363A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • G06F9/5088Techniques for rebalancing the load in a distributed system involving task migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/485Task life-cycle, e.g. stopping, restarting, resuming execution
    • G06F9/4856Task life-cycle, e.g. stopping, restarting, resuming execution resumption being on a different machine, e.g. task migration, virtual machine migration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/501Performance criteria

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Debugging And Monitoring (AREA)

Abstract

プログラムを実行できるアプリケーションノードを、複数拠点のサイトに設け、データを格納するストレージノードを前記複数の拠点に設けておき、各拠点間をネットワークを介して接続したデータ処理システムにおいて、第一のアプリケーションノードは、プログラムのI/O履歴を保存し、I/O履歴をもとに、第二のアプリケーションノードがI/O再現実行を行うことで、データ処理性能を予測し、第一のアプリケーションノードは、データ性能予測に基づいて、第二のアプリケーションノードにプログラムを移送するか否かを決める。

Description

本発明は、分散データ処理装置及び方法、特に、ネットワーク通信コストを抑えつつ、広域分散配置されたデータに対するコンピューティング処理を高速に実行する装置及び方法に関する。
広域分散配置されたデータに対するコンピューティング処理を高速に実行する装置及び方法としては、特許文献1及び特許文献2に記載の技術が知られている。
特許文献1記載の技術では、特定のデバイスから遠隔に離れたデバイスにアプリケーションを移送し、実行を継続する技術を提供している。本技術を用いることで、広域分散配置されたデータの近傍のデバイスに、当該データに対するコンピューティング処理を行うアプリケーションをマイグレートすることで、データアクセスの際のアクセスレイテンシを低減することが可能になる。
一方、特許文献2記載の技術では、ネットワーク帯域の使用率の統計情報、及びネットワーク性能に関する要求情報を一括管理し、ネットワーク帯域の使用率(達成性能)が要求情報を下回った場合には、より大きな空きネットワーク帯域を使用可能なホストに対象VM(プログラム)をマイグレートする技術を提供している。本技術を用いることで、データアクセスの際のネットワーク帯域を最大化することが可能になる。
Cisco, “Application Context Transfer for Distributed Computing Resources”, Patent US2013/0212212, Aug. 2013. Microsoft, “Controlling Network Utilization”, US2013/0007254, Jun. 2011.
背景技術で示した技術により、広域分散配置されたデータに対するコンピューティング処理の際に発生するデータアクセスのレイテンシ、もしくは、ネットワーク帯域の最大化が可能になる。
しかし、これらの技術を単純に組み合わせても、プログラムレベルのデータ処理スループット(実効性能)を最大化することは難しい。その理由の一つは、データアクセスのレイテンシ、及びネットワーク帯域を同時に最適化できる保証がないことにある。すなわち、レイテンシを下げようとするとネットワーク帯域が得られない、もしくは、ネットワーク帯域を上げようとするとレイテンシが大きくなる、ということがありうる。また、データアクセスのレイテンシまたはネットワーク帯域のどちらを重点的に最適化すべきかについては、プログラムによって変わりうる。例えばI/O並列度が十分得られるプログラムにおいて、アクセスレイテンシの最適化の重要度が下がるが、I/O並列度が不十分であれば、アクセスレイテンシは重点的に最適化しなければならない。
本発明の目的は、プログラムの特性まで考慮に入れて、分散配置されたデータに対するコンピューティング処理の性能を高くすることにある。
本発明は、プログラムを実行できるアプリケーションノードを、複数拠点のサイトに設け、データを格納するストレージノードを複数の拠点に設けておき、各拠点間をネットワークを介して接続し、記複数のアプリケーションノードのうち一つアプリケーションノードである第一のアプリケーションノードは、
プログラムを実行することでストレージノードに発行するI/Oの履歴を保存し、
プログラムの実行における実データ処理性能を計測し、
プログラムの移送先候補となるアプリケーションノードのリストを受付け、
アプリケーションノードリストに含まれる第二のアプリケーションノードにI/Oの履歴を含むI/Oの履歴再現要求をし、
I/Oの履歴再現要求を受取った第二のアプリケーションノードは、
I/Oの履歴再現要求に含まれるI/Oの履歴に従って、プログラムが発行したI/Oを再現する再現I/Oを発行し、再現I/Oの性能をI/Oの予測性能として求め、
第一のアプリケーションノードは、
第二のアプリケーションノードで求めた前記I/Oの予測性能に基づいて、第二のアプリケーションノードに前記プログラムを移送するか否かを決めることにある。
本発明によれば、プログラムの特性まで考慮に入れて、分散配置されたデータに対するコンピューティング処理の性能を高くすることができる。
本発明の実施例1のソフトウェアモジュール構成を示す図である。 アプリケーションノードのハードウェア構成を示す図である。 ストレージノードのハードウェア構成を示す図である。 本発明の実施例1の全体処理フローを示す図である。 データ移送先決定部のユーザインタフェースを示す図である。 移送ポリシーのデータ構造を示す図である。 I/O履歴のデータ構造を示す図である。 実処理性能のデータ構造を示す図である。 予測処理性能のデータ構造を示す図である。 I/O履歴記録部の動作フローとCPU利用率を取得するフローを示す図である。 移送先決定部の動作フローを示す図である。 データ処理性能予測部の動作フローを示す図である。 ストレージ制御部のモジュール構成と動作概要を示す図である。 本発明の実施例2のソフトウェアモジュール構成を示す図である。 計測精度最適化部のユーザインタフェースを示す図である。 計測ポリシーのデータ構造を示す図である。 計測負荷のデータ構造を示す図である。 計測パラメータのデータ構造を示す図である。 計測精度最適化部の動作フローを示す図である。
本発明の第1の実施形態のソフトウェアモジュール構成を図1に示す。
本実施の第1の実施形態では、本社サイト(101)、及び拠点サイト(102、103)に配置された計算機が連携して、データコンピューティング処理を行うことを想定している。
本社サイト、及び拠点サイトには、アプリケーションノードもしくはアプリケーションVM(111)(以下、「アプリケーションノード」と略記する)が配置されており、本ノード上でプログラム(125)が動作し、コンピューティング処理を実行する。また、少なくとも拠点サイトでは、ストレージノードもしくはストレージVM(112)(以下、「ストレージノード」と略記する)が配置されており、コンピューティング処理の対象となるデータを格納する。アプリケーションノード、もしくは、ストレージノードは、一つのコンピュータもしくは仮想コンピュータに相当する。図1では、本社には、ストレージノードは省力してあるが、ストレージノード0を備えていてもよい。
プログラム(125)は、データ処理スループットを最適にするアプリケーションノード(111)に移送し、処理を継続する機能を持つ。この最適な移送先の決定のため、まず、各アプリケーションノード(111)上でI/O履歴記録部部(124)が動作する。I/O履歴記録部(124)は、プログラムをCPUが実行することでストレージノードに発行するI/O履歴(131)を、本社サイト(101)に配置されたアプリケーションノード(111)に接続されたストレージメディア(113)に記録する機能を持つ。さらに、プログラム実行時のデータ処理スループット性能を格納した実処理性能(133)も計測することができる。
さらに、本社サイト(101)に配置されるアプリケーションノード(111)上では移送先決定部ユーザインタフェース(121)及び移送先決定部(122)が、そして、少なくとも拠点サイト(102、103)に配置されるアプリケーションノード(111)上ではデータ処理性能予測部(123)が動作する。
移送先決定部ユーザインタフェース(121)は、ユーザから、プログラム(125)の移送先候補となるアプリケーションノードのリスト情報を含む移送ポリシー(134)を受け取り、移送先決定部(122)に受け渡す。移送先決定部(122)は、本ポリシーに記載されたアプリケーションノード(111)上で動作するデータ処理性能予測部(123)に、I/O履歴記録部(124)が記録したI/O履歴(131)を含むデータ処理性能計測要求を発行する。
当該要求を受け取ったデータ処理予測部(123)は、当該要求に含まれるI/O履歴(131)に基づきI/Oの再現実行を行う。そして、プログラム(125)を当該アプリケーションノード(111)に移送した場合に得られるデータ処理スループットを予測し、その予測処理性能(132)を移送先決定部に送信する。
移送先決定部(122)は、I/O履歴記録部(124)が計測した実処理性能(133)、及び、データ処理性能予測部(123)から受信した予測処理性能(132)をもとに、最適なプログラムの移送先となるアプリケーションノード(111)を決定する。そして、当該アプリケーションノード(111)へのプログラム移送指示をプログラム(125)に対して発行する。
プログラム(125)は上記指示を受け取ると、指定されたアプリケーションノード(111)への移送を実行させるようにした後、処理を継続する。
なお、ストレージノード(112)にはストレージ制御部(126)を搭載されている。ストレージ制御部(126)は、プログラム(125)が発行するデータI/Oだけでなく、データ処理予測部(123)が発行するダミーデータI/Oを処理する機能を持つ。データI/O処理においては、当該ストレージノードのストレージメディアに対するI/Oを実行するのに対し、ダミーデータI/O処理においては、当該I/Oを行わず、I/O処理時間経過をエミュレートする。本機能により、データ処理性能予測部(123)による予測処理性能の計測時に、ストレージメディアへの負荷発生を抑えられる。
本発明の実施形態のアプリケーションノード(111)のハードウェア構成を図2に示す。
アプリケーションノード(111)は、CPU(201)、主メモリ(202)、入力部(203)、ネットワークI/O部(204)、ディスクI/O部(205)を保持する。 主メモリ(202)には、プログラム(125)、移送先決定部ユーザインタフェース(121)、移送先決定部(122)、データ処理性能予測部(123)、I/O履歴記録部(124)を含むアプリケーション実行コードが格納されている。これらのコードをCPU(201)が読み込んで、アプリケーション実行を行う。また、ディスクI/O部(205)を介して、接続されたストレージメディア(113)に対してデータI/Oを行うこともできる。さらに、ストレージノード(112)と通信して、データI/OやダミーデータI/Oを行うこともできる。
必要に応じて、入力部(203)を介して、移送ポリシー(134)などのユーザからの入力を取得することができる。また、ネットワークI/O部(204)を介して、他アプリケーションノード(111)と、データ処理性能計測要求などの要求や、I/O履歴(131)や予測処理性能(132)などのデータを送受できる。また、ネットワークI/O部(204)を介して、I/O履歴(131)などのデータを他アプリケーションノード(111)に接続されたストレージメディア(113)に保存することもできる。
本発明の実施形態のストレージノード(112)のハードウェア構成を図3に示す。
ストレージノード(112)も、アプリケーションノード(111)と同様に、CPU(201)、主メモリ(202)、ネットワークI/O部(204)、ディスクI/O部(205)を保持する。
主メモリ(202)にはストレージ制御部(126)を含むアプリケーション実行コードを搭載し、当該実行コードをCPU(201)が読み込んで、アプリケーション実行を行う。
ネットワークI/O部(204)を介して、アプリケーションノード(111)からデータI/O要求やダミーデータI/O要求を受信し、ストレージ制御部(126)にて当該要求を処理する。
また、ディスクI/O部(205)を介して、接続されたストレージメディア(113)に対するディスクI/Oも実行できる。
本発明の実施形態の全体処理フローを図4に示す。
まず、本実施形態の初期状態では、本社サイト(101)に配置されたアプリケーションノード(111)上で、プログラム(125)及びI/O履歴記録部(124)が動作している。そして、プログラムが、拠点サイト(102、103)に配置されたストレージノード(112)上のストレージ制御部(126)からデータを取得しながら、コンピューティング処理を行う。この際、I/O履歴記録部が、I/O履歴(131)及び実処理性能(133)を取得し、移送先決定部(122)に受け渡す。
移送先決定部(122)は、移送先決定部ユーザインタフェース(121)経由で移送ポリシー(134)をユーザから取得し、当該移送ポリシー(134)に記載されたアプリケーションノード(111)上に存在するデータ処理性能予測部(123)に対してデータ処理性能計測要求を発行する。この要求には、I/O履歴記録部(124)が取得したI/O履歴(131)も含まれる。
本要求を受け取ったデータ処理性能予測部(123)は、ストレージ制御部(126)に対してダミーデータI/O要求を発行し、当該I/O履歴の再現実行を行う。そして、予測処理性能(132)を算出し、移送先決定部(122)に送信する。
移送先決定部(122)は、実処理性能(133)、及び予測処理性能(132)をもとに、最適なプログラム(125)の移送先を決定し、当該移送先となるアプリケーションノード(111)への移送指示をプログラム(125)に対して発行する。プログラム(125)は当該アプリケーションノード(111)への移送を実行したのち、処理を継続する。
データ処理性能計測部ユーザインタフェース(121)が提供するユーザインタフェース画面を図5に示す。
本ユーザインタフェース画面は、ユーザからデータ処理性能計測要求発行受け付け画面(501)、データ処理性能計測結果表示画面(502)、及びプログラム移送確認画面(503)からなる。
データ処理性能計測要求発行受け付け画面(501)は、「対象プログラムID」(511)、「対象アプリケーションノード」(512)、「使用I/O履歴実行時刻」(513)、「CPU利用率しきい値」(514)の部位からなる。各部位をユーザが指定する。「対象プログラムID」には、移送対象となるプログラム(125)のIDを指定する。「対象アプリケーションノード」には、移送先候補となるアプリケーションノード(111)のIPアドレスを指定する。「使用I/O履歴実行時刻」には、移送先決定部(122)がデータ処理性能予測部(123)に対して発行するデータ処理性能計測要求に付随させるI/O履歴(131)の時刻範囲を指定する。「CPU利用率しきい値」には、移送先決定部(122)が、対象となるプログラム(125)がCPUネック状態で走行しているか否かを判定するためのしきい値を指定する。
本画面で指定された情報をもとに、図6に示すデータ構造を持つ移送ポリシー(134)が生成される。移送ポリシーには、「対象プログラムID」(601)、「対象アプリケーションノード」(602)、「使用I/O履歴実行時刻」(603)、「CPU利用率しきい値」(604)のフィールドを持ち、それぞれのフィールドは、上記データ処理性能計測要求発行受け付け画面(501)で指定された値が格納される。
データ処理性能計測結果表示画面(502)は、「計測データ処理スループット、遠隔I/O率、平均I/O遅延時間、平均I/Oビジー時間、予測スループット」(521)、「実CPU利用率、実データ処理スループット、遠隔I/O率、平均I/O遅延時間、平均I/Oビジー時間」(522)、「プログラム移送先」(523)の部位からなる。データ処理性能計測要求発行受け付け画面(501)をユーザが入力した後に、データ処理性能計測結果表示画面(502)の各部位に結果が出力される。
データ処理性能計測要求発行受け付け画面の入力の結果、移送先決定部(122)がデータ処理性能予測部(123)に対してデータ処理性能計測要求を発行する。そして、移送先決定部(122)はデータ処理性能予測部(123)から予測処理性能(132)を受け取る。「計測データ処理スループット、遠隔I/O率、平均I/O遅延時間、予測スループット」は、この受け取った予測処理性能(132)の情報を表示する。
予測処理性能(132)は図9に示す様に、「プログラムID」(901)、「I/O履歴実行時刻」(902)、「I/Oバイト数累計」(903)、「遠隔I/Oバイト数累計」(904)、「I/O遅延時間累計」(905)、「I/Oビジー時間累計」(906)、「予測スループット」(907)のフィールドを持つ。「プログラムID」(901)には計測対象となるプログラムIDを格納する。「I/O履歴実行時刻」(902)には、データ処理性能予測部(123)が再現実行したI/O履歴(131)の時刻情報を格納する。「I/Oバイト数累計」(903)には、上記時刻のI/O履歴の再現実行において発行したダミーデータI/O要求のI/Oバイト数総計を格納する。「遠隔I/Oバイト数累計」(904)には、上記I/Oバイト数の総計のうち、異なる拠点に配置されたストレージノード(112)に対して発行したダミーデータI/Oのバイト数の総計を格納する。「I/O遅延時間累計」(905)には、上記時刻のI/O履歴(131)の再現実行において発行したダミーデータI/O要求処理におけるI/O応答時間の総計を格納する。「I/Oビジー時間累計」(906)には、なんらかのダミーI/Oが実行中であった(I/O要求を発行したがI/O完了通知を受け取っていないI/Oが存在する)時間の累計値を格納する。「予測スループット」(907)には、これらの測定結果をもとに、データ処理性能予測部(122)が予測したデータ処理スループットを格納する。
移動先決定部(122)は、上記フィールドを持つ予測処理性能(132)から、データ処理スループット(「I/Oバイト数累計」(903))の平均、「遠隔I/Oバイト数累計」(904)/「「I/Oバイト数累計」(903)の平均、「I/O遅延時間累計」(905)の平均、「I/Oビジー時間累計」(906)の平均、「予測スループット」(907)の平均を算出し、移動先決定部ユーザインタフェース(121)に受け渡す。そして、移動先決定部ユーザインタフェース(121)がこれらの情報をデータ処理性能計測結果表示画面の「計測データ処理スループット、遠隔I/O率、平均I/O遅延時間、平均I/Oビジー時間、予測スループット」(521)の部位に表示する。
また、移動先決定部(122)は、I/O履歴記録部(124)から実処理性能(133)を受け取る。「実CPU利用率、実データ処理スループット、遠隔I/O率、平均I/O遅延時間、平均I/Oビジー時間」(522)には、この実処理性能の情報を表示する。実処理性能(133)は、図8に示すように、「プログラムID」(801)、「I/O実行時刻」(802)、「CPU利用率」(803)、「I/Oバイト数累計」(804)、「遠隔I/Oバイト数累計」(805)、「I/O遅延時間累計」(806)、「I/Oビジー時間累計」(807)のフィールドを持つ。「プログラムID」(801)には、計測対象となるプログラム(125)のIDを格納する。「I/O実行時刻」(802)には、当該プログラム(125)がデータI/O要求を発行した時刻を格納する。「CPU利用率」(803)は、当該時刻におけるCPU使用率を格納する。「I/Oバイト数累計」(804)は、当該時刻に発行されたデータI/O要求のI/Oバイト数の総計を格納する。「遠隔I/Oバイト数累計」(805)は、上記I/Oバイト数総計のうち、異なる拠点に配置されたストレージノード(112)に対して発行したデータI/Oのバイト数の総計を格納する。「I/O遅延時間累計」(806)には、上記時刻のI/O履歴の再現実行において発行したデータI/O要求処理におけるI/O応答時間の総計を格納する。「I/Oビジー時間累計」(807)には、なんらかのI/Oが実行中であった(I/O要求を発行したがI/O完了通知を受け取っていないI/Oが存在する)時間の累計値を格納する。
移動先決定部(122)は、これらの情報から、「CPU利用率」(803)の平均、データ処理スループット(「I/Oバイト数累計」(804))の平均、「遠隔I/Oバイト数累計」(805)/「I/Oバイト数累計」(804)の平均、「I/O遅延時間累計」(806)の平均、「I/Oビジー時間累計」(807)の平均を算出して、移動先決定部ユーザインタフェース(121)に受け渡す。そして、移動先決定部ユーザインタフェース(121)がこれらの情報をデータ処理性能計測結果表示画面(502)の「実CPU利用率、実データ処理スループット、遠隔I/O率、平均I/O遅延時間、平均I/Oビジー時間」(522)部位に表示する。
「プログラム移送先」(523)には、データ処理性能の計測の結果、プログラム(125)の移送先として最適と判定されたアプリケーションノード(111)のIPアドレスを表示する。
データ移送確認画面(503)は、「プログラム移送確認」(531)の部位からなる。データ処理性能計測結果画面(502)に表示された移送の実行を行いたい場合に、それを指示する入力をユーザが行うことで、移送先決定部(122)はプログラム(125)に対する移送指示の発行を開始する。
I/O履歴記録部(124)の動作フローを図10に示す。
I/O履歴記録部(124)は、プログラム(125)/データ処理性能予測部(123)のデータI/OもしくはダミーデータI/Oを検知し、I/O履歴(131)、実処理性能(133)、予測処理性能(134)を記録する機能を持つ。
I/O履歴(131)は図7に示すデータ構造を持つ。I/O履歴(131)は、「プログラムID」(701)、「実行時刻」(702)、「通信先ノード」(703)、「データタイプ」(704)、「ファイル/DB名」(705)、「オフセット」(706)、「RW種別/SQL」(707)、「I/Oバイト数」(708)のフィールドを持つ。
「プログラムID」(701)は、のデータI/OもしくはダミーデータI/O要求を発行したプログラムのIDを格納する。「実行時刻」(702)は、当該I/O要求の発行時刻を格納する。「通信先ノード」(703)には、ファイルもしくはDBのデータを格納しているストレージノード(112)のIPアドレスを格納する。「データタイプ」(704)には、アクセス先のデータがファイルかDBかの種別を格納する。「ファイル/DB名」(705)には、アクセス先となるファイル名、もしくはDB名を格納する。「オフセット」(706)には、アクセス先がファイルの場合に、アクセス先オフセットを格納する。「RW種別/SQL」(707)には、アクセス先がファイルの場合にはread I/Oかwrite I/Oかの種別を格納する。アクセスがDBの場合にはSQLを格納する。「I/Oバイト数」(708)には、実際に行ったI/Oバイト数を格納する。
I/O履歴記録部(124)は、図10(a)に示すように、まず、ステップ1001にて、プログラム(125)/データ処理予測部(123)からのI/O要求発行を検知する。
ステップ1002にて、I/O履歴(131)に格納すべき情報を取得し、ステップ1003にてI/O履歴のエントリを作成し、本社サイト(101)に配置されたアプリケーションノード(111)に附属のストレージメディア(113)に、当該I/O履歴エントリを格納する。
ステップ1004にて、プログラム/データ処理予測部からのI/O完了通知到達を検知する。
ステップ1005にて、現在時刻を取得し、ステップ1006にて、I/O遅延時間、すなわち、ステップ1002にて取得した現在時刻情報と、ステップ1005にて取得した現在時刻情報の差分を算出する。
ステップ1007にて、実処理情報(133)/予測処理性能(132)の「I/Oバイト数累計」(804/903)「遠隔I/Oバイト数累計」(805/904)「I/O遅延時間累計」(806/905)、「I/Oビジー時間累計」(807/906)の更新を行う。これにより、実処理情報(133)もしくは予測処理性能(132)の対応する「I/O実行時刻」(802/902)における性能情報を最新に保つことが可能になる。
実処理性能(133)の「CPU利用率」(803)については、図10(b)に示すように、定期的な起床を契機に更新する。具体的には、ステップ1011にて定期的な起床を行った後、ステップ1012にてCPU利用率情報を取得し、ステップ1013にて当該フィールドの更新処理を行う。
移動先決定部(122)の動作フローを図11に示す。
まず、移送先決定部(122)は、移送先決定部ユーザインタフェース(121)におけるデータ処理性能計測要求発行画面(501)からの移送ポリシー(134)の入力に伴い、データ処理性能予測部(123)へのデータ処理性能計測要求の発行を行う。この処理を、図11(a)に示すように、ステップ1101から1103にて行う。
ステップ1101にて、移送先ユーザインタフェース(121)から移送ポリシー(134)を受け取る。
ステップ1102にて、移送ポリシー(134)の使用I/O履歴実行時刻(603)に記載の時刻に対応するI/O履歴(131)をストレージメディア(113)から読み出し取得する。
ステップ1103にて、移送ポリシー(134)の対象アプリケーションノード(602)に記載のアプリケーションノード(111)に対して、データ処理性能計測要求を発行する。この際、ステップ1102で取得したI/O履歴の情報もあわせて送信する。
また、移送先決定部(122)は、データ処理性能予測部(123)から予測処理性能(132)を受け取り、最適なプログラム(125)の移送先を決定する。これをステップ1111以降で実現する。
図11(b)に示すように、ステップ1111にて、データ処理性能予測部(123)から予測処理性能(132)を受信する。また、I/O履歴記録部(124)から、実処理性能(131)を受信する。
ステップ1112にて、実処理性能(131)のCPU利用率(803)の平均値が、移送ポリシー(134)のCPU利用率しきい値(604)に指定された値以上か否かを判定する。しきい値以上であればステップ1113に、しきい値以下であればステップ1114にジャンプする。
ステップ1113では、CPU利用率がしきい値以上ゆえコンピューティング処理がCPUネックであると判断し、その仮定のもとで、最適な移送先アプリケーションノード(111)を決定する。具体的には、受信した予測性能(132)のうち、予測性能(132)のI/Oバイト数累計(903)の平均値が実処理性能(133)のI/Oバイト数累計(804)の平均値を超えている、かつ、予測性能(132)のI/O遅延時間累計(905)の平均値が実処理性能(133)のI/O遅延時間累計(806)の平均値より下回っている予測性能(132)をフィルタリングする。そして、その条件下で、遠隔I/Oバイト数累計(805)が最小の予測性能(132)を送信したデータ処理性能予測部(123)が存在するアプリケーションノード(111)をプログラム(125)の移送先とする。上記の条件下では、分散配置されたアプリケーションノード全体でのCPU資源のうち、コンピューティング以外に使用するCPU資源の総量をできる限り減らすことができる。一般にネットワークI/OはCPU資源を大量に消費することから、発生するネットワークI/O総量を減らすことは、CPU利用効率を高くできる。移送しても、現状のI/O性能を下回らず、かつ、ネットワーク経由のI/O発生を極力抑えることで、I/O性能維持とCPU利用効率の両立を図ろうとしている。
ステップ1114では、CPU利用率がしきい値以下ゆえコンピューティング処理がI/Oネックであると判断し、その仮定のもとで、最適な移送先アプリケーションノード(111)を決定する。具体的にはスループット(実データ処理スループットおよび予測スループット)が最大の性能のアプリケーションノード(111)をプログラム(125)の移送先とする。予測スループットの算出方法は図12の説明で述べる。実データ処理スループットは、I/Oバイト数累計804を、累計した時間で割ることで求める。
ステップ1113、もしくはステップ1114の実行後に、選択された移送先が現在実行中のアプリケーションノードであるか否かをステップ1117で判定する。そして、選択された移送先が現在実行中のアプリケーションノードであれば処理を終了し、選択された移送先が現在実行中のアプリケーションノードでなければステップ1115にジャンプする。
ステップ1115では、受信した予測処理性能(132)から、図5で説明したデータ処理性能計測結果画面(502)での表示内容を算出し、プログラム移動先決定部ユーザインタフェース(121)に受け渡す。
ステップ1116では、移送先決定部ユーザインタフェース(121)経由で、ユーザからの移送OKの入力を受け取り、プログラム(125)に対して、プログラム移送指示を発行する。
データ処理性能予測部(123)の動作フローを図12に示す。
ステップ1201にて、移送先決定部(122)からI/O履歴情報(131)を含むデータ処理性能計測要求を受信する。
ステップ1202にて、I/O再現実行開始から所定時間(実処理性能(133)におけるI/O実行時刻(133)の時間単位)経過したかどうかを検査する。所定時間が経過していればステップ1206に、そうでなければステップ1203にジャンプする。
ステップ1203にて、受信したI/O履歴(131)のエントリのうち、I/O再現実行が終了していないI/O履歴エントリが存在するか否かを判定する。存在すればステップ1204に、存在しなければステップ1206にジャンプする。
ステップ1204にて、I/O履歴エントリから1エントリを抜き取って、当該エントリに従って、DBアクセスもしくはファイルアクセスの再現を実行する。この再現の際には、I/O履歴(131)に格納された実行時刻(702)情報に基づき、ダミーデータI/Oの発行タイミングを調整する。そのため、再現実行での達成I/Oスループット、すなわち、予測処理性能(132)に格納されるI/Oバイト数累計(903)の値は、最大でも、実処理性能(133)のI/Oバイト数累計(804)と同等にしかならない。
ステップ1205にて、ダミーI/O完了通知をストレージ制御部(1204)から受信し、ステップ1202に戻る。このようなI/Oの再現実行を行うことで、I/O記録保存部が、予測処理性能のI/Oバイト数累計(903)、遠隔I/Oバイト数累計(904)、I/O遅延時間累計(905)、I/Oビジー時間累計(906)の各フィールドの値を計測値に設定できるようになる。
ステップ1206にて、予測処理性能(132)のI/Oバイト数累計(903)、遠隔I/Oバイト数累計(904)、I/O遅延時間累計(905)、I/Oビジー時間累計(906)の計測値をベースに予測スループット(907)、すなわち、プログラム(125)を当該アプリケーションノード(111)に移送した際に達成できるであるデータ処理スループットを算出する。
本算出は、例えば以下のアルゴリズムを用いて行う。まず、予測処理性能(132)に記載のI/Oバイト数累計(903)と、実処理性能(133)に記載のI/Oバイト数累計(804)を比較する。前者が後者を下回れば、データ処理性能予測部(123)によるI/O再現実行が、プログラム(125)によるデータI/O実行より所要時間がかかっていることを意味する。よって、移送後のデータ処理スループットは、I/O再現実行の時に達成したダミーデータI/Oのスループットと等しい、すなわち、予測スループット(907)は現状のI/Oバイト数累計(903)と等しいと想定する。一方、前者が後者を上回れば、データ処理性能予測部によるI/O再現実行を行っても、I/O 処理能力に余裕があることを意味する。そこで、I/Oビジー時間累計(906)から1分当たりのI/Oビジー時間累計であるI/Oビジー率を算出し、その逆数をI/Oバイト数累計(903)にかけた値を予測スループット(907)とする。例えば、I/O履歴 実行時刻が11:22における予測スループットは、12345*60/40=18517(Byte/s)で求められる。
ストレージ制御部(126)の動作概要を図13に示す。
ストレージ制御部(126)は、プログラム(125)が発行するデータI/Oだけでなく、データ処理予測部(123)が発行するダミーデータI/Oを処理する。データI/O処理においては、当該ストレージノード(112)のストレージメディア(113)に対するI/Oを実行するのに対し、ダミーデータI/O処理においては、当該I/Oを行わず、I/O処理時間経過をエミュレートする。本機能により、データ処理性能予測部(123)による予測処理性能の計測時に、ストレージメディア(113)への負荷発生を抑える。
上記実現のため、ストレージ制御部はI/O要求振り分け部(1301)を備え、到着したI/O要求がデータI/O要求かダミーデータI/O要求であるかの判別を行う。データI/O要求の場合は、メディアI/O部に当該要求を転送し、ストレージメディア(113)に対するメディアI/Oを実効する。ダミーデータI/O要求の場合は、メディアI/Oエミュレート部(1303)に当該要求を転送し、ストレージメディアI/Oと同等の時刻の経過を待ち合わせる。エミュレート部における待ちあわせの手法としては、公知の手法を使う。例えば、実際に予めいろんなI/Oサイズでランダムread/write及びシーケンシャルread/writeのパターンで実際のI/Oを実行しておき、その処理時間を計測しておく。そして、実際にダミーI/Oが到達した場合には、I/Oパターンとそのサイズを認識して、その計測処理時間から待ちあわせの時間を決めることが可能である。どちらの場合も、処理が完了した際には、I/O完了通知部(1302)を通じ、I/O完了通知をプログラム(125)もしくは、データ処理性能予測部(123)に通知する。
本発明の第2の実施形態のソフトウェアモジュール構成を図14に示す。
本実施形態では、第1の実施形態の構成に加えて、データ処理性能予測部(123)から移送先決定部(122)に対して、計測負荷(1431)が送信させる。そして、移送先決定部(122)は、実処理性能(133)、予測処理性能(132)、計測負荷(1431)の情報を、本社サイト(101)に配置されたアプリケーションノード(111)直結のストレージメディア(113)に格納する。
計測精度最適化部(1422)は、計測精度最適化部ユーザインタフェース(1421)より計測ポリシー(1432)を受け取る。計測ポリシー(1432)と、実処理性能(133)、予測処理性能(132)、計測負荷(1431)をもとに、計測精度最適化部(1422)は最適な計測パラメータ(計測対象として使用するI/O履歴の時間量、計測間隔)を決定し、プログラム移送先決定部(122)に通知する。プログラム移送先決定部は、この計測パラメータに基づき、データ処理性能予測部へのデータ処理性能計測要求発行を周期的に行う。この結果、本実施例では、移送先決定部ユーザインタフェース(121)経由でデータ処理性能計測要求実行を指示しなくとも、プログラムの移送先の自動決定を行うことが可能になる。
計測精度最適化部ユーザインタフェース(1421)が提供するユーザインタフェース画面を図15に示す。
本ユーザインタフェース画面は、計測精度最適化実行指示画面(1501)、計測精度状況表示画面(1502)、計測精度最適化実行確認画面(1503)からなる。
計測精度最適化実行指示画面(1501)は計測ポリシー(1432)の入力を行う。
計測ポリシー(1432)には、上限計測負荷1511と、上限計測誤差1512があり、ユーザが入力する。
計測ポリシー(1432)は図16に示すように、上限計測誤差(1601)及び上限計測負荷(1602)のフィールドを持ち、本画面でこれらのパラメータ入力を行う。
計測精度状況表示画面(1502)は、現在の計測精度の状況と、計測パラメータ調整の結果その精度がどの程度変化するかを表示する。
まず、本画面には、計測負荷(1513)、誤差(1514)フィールドが存在する。計測負荷(1513)は、データ処理性能予測部(123)からの返送で得られる計測負荷(1431)情報を表示する。データ処理性能予測部(123)からの返送で得られる計測負荷(1431)は、図17に示すようにCPU負荷フィールドがあり、各データ処理性能予測部(123)がダミーI/O要求発行するのに要したCPU負荷情報が格納されている。計測精度最適化部(1422)はこの平均値を計算し、計測精度最適化部ユーザインタフェース(1421)に受け渡し、計測負荷(1513)フィールドに表示させる。一方、誤差(1514)は、各データ処理性能予測部(123)が予測した予測処理性能(132)と、プログラム移送の結果達成できた実処理性能(131)の誤差を表示する。例えば、I/Oバイト数累計804を時間で割った実データ処理スループットを求めて、予測スループット907と実測スループットとの間の誤差を求める。計測精度最適化部(1422)はストレージメディア(113)に格納されたこれらの情報から予測データ処理スループット、実データ処理スループット、誤差の平均値を計算する。そして、計測精度最適化部ユーザインタフェース(1421)に受け渡し、誤差(1514)フィールドに表示させる。
計測対象I/O履歴量(1515)、及び計測間隔(1516)フィールドには、計測パラメータ情報を表示する。図18に示すように、計測パラメータにはこれらの情報を格納するフィールドが格納されている。本フィールドに、このパラメータの現在値と、この変更内容提案が表示される。計測精度最適化部(1422)による変更内容提案の算出方法は図19で説明する。
計測負荷(予測値)(1517)、計測誤差(予測値)(1518)フィールドには、上記計測パラメータ変更により、これらがどのように変化するかの予測が表示される。計測精度最適化部(1422)による本予測値の算出方法も図19で説明する。
計測精度最適化実行確認画面(1503)は、計測パラメータの変更を実施してよいかのユーザ確認を行う画面である。本画面でユーザがYESの操作ボタンを押す等して変更確認がとれれば、計測精度最適化部(1422)は、移送先決定部(122)に対して、新たな計測パラメータを通知する。
計測精度最適化部(1422)の動作フローを図19に示す。
まず、ステップ1901において、ストレージディア(113)に蓄積された計測負荷(1431)から平均の計測負荷を算出する。
次に、ステップ1902において、ストレージディア(113)に蓄積された予測処理性能(132)と実処理性能(133)から平均の計測誤差を算出する。
ステップ1903にて、ステップ1901で算出した平均の計測負荷が、計測ポリシー(1432)の上限計測負荷(1602)フィールドで指定された上限値以上であるか否かを判定する。上限以上であればステップ1904に、上限より小さいならステップ1905にジャンプする。
ステップ1904にて、計測パラメータ(1801)の計測間隔の調整を行う。計測間隔と計測負荷は逆比例の関係にあると想定し、目標の上限計測負荷(1602)を達成できる計測間隔(1802)の新たな値を算出する。
ステップ1905にて、ステップ1902で算出した平均の計測誤差が、計測ポリシー(1432)の上限計測誤差(1601)フィールドで指定された上限値以上であるか否かを判定する。上限以上であればステップ1906にジャンプし、上限より小さいなら処理を終了する。
ステップ1906にて、計測パラメータ(1801)の計測対象I/O履歴量(1802)の調整を行う。計測対象I/O履歴量と計測誤差は逆比例の関係にあると想定し、目標の上限計測誤差(1601)を達成できる計測対象I/O履歴量(1802)の新たな値を算出する。但し、計測対象I/O履歴量(1802)に比例して計測負荷も増えると想定し、計測負荷を変えないように、計測間隔(1803)も同様に増大させる。
このようなステップを経ることで、新たな計測パラメータ(1801)の値と、計測誤差、計測負荷の予想値を算出できる。この値を計測精度最適化部ユーザインタフェース(1421)に受け渡し、計測精度状況表示画面(1502)に表示させる。
111…アプリケーションノード、112…ストレージノード、121…移送先決定部UI、122…移送先決定部、123…データ処理性能予測部、124…I/O履歴記録部、125…プログラム、131…I/O履歴、132…予測処理性能、133…実処理性能、134…移送ポリシー

Claims (10)

  1. プログラムを実行できるアプリケーションノードを、複数の拠点のサイトに設け、データを格納するストレージノードを前記複数の拠点に設けておき、各拠点間をネットワークを介して接続したデータ処理システムにおいて、
    前記複数のアプリケーションノードのうち一つのアプリケーションノードである第一のアプリケーションノードは、
    前記プログラムを実行することでストレージノードに発行するI/Oの履歴を保存し、
    前記プログラムの実行における実データ処理性能を計測し、
    前記プログラムの移送先候補となる前記アプリケーションノードのリストを受付け、
    前記アプリケーションノードのリストに含まれる第二のアプリケーションノードに前記I/Oの履歴を含むI/Oの履歴再現要求をし、
    前記I/Oの履歴再現要求を受取った前記第二のアプリケーションノードは、
    前記I/Oの履歴再現要求に含まれる前記I/Oの履歴に従って、前記プログラムが発行したI/Oを再現する再現I/Oを発行し、前記再現I/Oの性能をI/Oの予測性能として求め、
    前記第一のアプリケーションノードは、
    前記第二のアプリケーションノードで求めた前記I/Oの予測性能に基づいて、前記第二のアプリケーションノードに前記プログラムを移送するか否かを決める
    ことを特徴とするデータ処理システム。
  2. 請求項1記載のデータ処理システムおいて、
    前記ストレージノードは、前記プログラムを実行することで発行するI/Oと、前記再現I/Oとを振り分けて、前記プログラムが発行するI/Oの場合には、前記ストレージノードにおける記録媒体に対してI/Oを実行し、前記再現I/Oの場合には、
    前記記録媒体に対するI/Oに対応する時間を待ちあわす
    ことを特徴とするデータ処理システム。
  3. 請求項2記載のデータ処理システムにおいて、
    前記第一のアプリケーションノードのCPU使用率が、閾値より低い場合には、
    前記第二のアプリケーションノードの予測スループットが、前記第一のアプリケーションノードの実データ処理スループットより大きい場合には、前記第二のアプリケーションノードに前記プログラムを移送する
    ことを特徴とするデータ処理システム。
  4. 請求項2記載のデータ処理システムにおいて、
    前記第一のアプリケーションノードのCPU使用率が、閾値以上の場合には、
    前記第一のアプリケーションノードの実データ処理性能と前記I/O予測性能とから、前記プログラムを前記第二のアプリケーションノードに移送するかどうかを決める
    ことを特徴とするデータ処理システム。
  5. 請求項1記載のデータ処理システムにおいて、
    前記第一のアプリケーションノードは、
    前記I/Oの履歴再現要求の実行に要する計測負荷の上限値と、前記I/Oの予測性能の予測誤差の上限値を受付け、前記上限値に基づいて、前記I/Oの履歴再現要求の発行間隔と、前記I/Oの履歴再現要求に含めるI/O履歴の量を調整する
    ことを特徴とするデータ処理システム。
  6. プログラムを実行できるアプリケーションノードを、複数の拠点のサイトに設け、データを格納するストレージノードを前記複数の拠点に設けておき、各拠点間をネットワークを介して接続したデータ処理システムにおけるデータ処理方法であって、
    前記複数のアプリケーションノードのうち一つのアプリケーションノードである第一のアプリケーションノードは、
    前記プログラムを実行することでストレージノードに発行するI/Oの履歴を保存し、
    前記プログラムの実行における実データ処理性能を計測し、
    前記プログラムを移送先候補となる前記アプリケーションノードのリストを受付け、
    前記アプリケーションノードのリストに含まれる第二のアプリケーションノードに前記I/Oの履歴を含むI/Oの履歴再現要求をし、
    前記I/Oの履歴再現要求を受取った前記第二のアプリケーションノードは、
    前記I/Oの履歴再現要求に含まれる前記I/Oの履歴に従って、前記プログラムが発行したI/Oを再現する再現I/Oを発行し、前記再現I/Oの性能をI/Oの予測性能として求め、
    前記第一のアプリケーションノードは、
    前記第二のアプリケーションノードで求めた前記I/Oの予測性能に基づいて、前記第二のアプリケーションノードに前記プログラムを移送するか否かを決める
    ことを特徴とするデータ処理方法。
  7. 請求項6記載のデータ処理方法おいて、
    前記ストレージノードは、前記プログラムを実行することで発行するI/Oと、前記再現I/Oとを振り分けて、前記プログラムが発行するI/Oの場合には、前記ストレージノードにおける記録媒体に対してI/Oを実行し、前記再現I/Oの場合には、
    前記記録媒体に対するI/Oに対応する時間を待ちあわす
    ことを特徴とするデータ処理方法。
  8. 請求項7記載のデータ処理方法において、
    前記第一のアプリケーションノードのCPU使用率が、閾値より低い場合には、
    前記第二のアプリケーションノードの予測スループットが、前記第一のアプリケーションノードの実データ処理スループットより大きい場合には、前記第二のアプリケーションノードに前記プログラムを移送する
    ことを特徴とするデータ処理方法。
  9. 請求項7記載のデータ処理方法において、
    前記第一のアプリケーションノードのCPU使用率が、閾値以上の場合には、
    前記第一のアプリケーションノードの実データ処理性能と前記I/O予測性能とから、前記プログラムを前記第二のアプリケーションノードに移送するかどうかを決める
    ことを特徴とするデータ処理方法。
  10. 請求項6記載のデータ処理方法において、
    前記第一のアプリケーションノードは、
    前記I/Oの履歴再現要求の実行に要する計測負荷の上限値と、前記I/O予測性能の予測誤差の上限値を受付け、前記上限値に基づいて、前記I/Oの履歴再現要求の発行間隔と、前記I/Oの履歴再現要求に含めるI/O履歴の量を調整する
    ことを特徴とするデータ処理方法。
JP2017511807A 2016-02-17 2016-02-17 データ処理システム及びデータ処理方法 Expired - Fee Related JP6227841B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/054495 WO2017141363A1 (ja) 2016-02-17 2016-02-17 データ処理システム及びデータ処理方法

Publications (2)

Publication Number Publication Date
JP6227841B1 true JP6227841B1 (ja) 2017-11-08
JPWO2017141363A1 JPWO2017141363A1 (ja) 2018-02-22

Family

ID=59624909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017511807A Expired - Fee Related JP6227841B1 (ja) 2016-02-17 2016-02-17 データ処理システム及びデータ処理方法

Country Status (3)

Country Link
US (1) US20180217875A1 (ja)
JP (1) JP6227841B1 (ja)
WO (1) WO2017141363A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151537A (ja) * 2017-03-14 2018-09-27 オムロン株式会社 画面作成装置および画面作成プログラム
US11843656B2 (en) * 2017-09-27 2023-12-12 Iguazio Systems Ltd. Dynamic application mobilization
US20210390197A1 (en) * 2019-09-25 2021-12-16 Hitachi, Ltd. Computer System, Data Control Method, and Storage Medium
JP7287499B2 (ja) * 2019-12-16 2023-06-06 富士通株式会社 ジョブ予測プログラム、システム、及び方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116380A (ja) * 2007-11-01 2009-05-28 Nec Corp 仮想サーバ移動制御装置、仮想サーバ移動制御方法およびプログラム
JP2009134687A (ja) * 2007-11-29 2009-06-18 Hitachi Ltd アプリケーションマイグレーションのための候補データセンタを見つける方法および装置[0001]
WO2012120664A1 (ja) * 2011-03-09 2012-09-13 株式会社日立製作所 仮想計算機のマイグレーション評価方法及び仮想計算機システム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6374336B1 (en) * 1997-12-24 2002-04-16 Avid Technology, Inc. Computer system and process for transferring multiple high bandwidth streams of data between multiple storage units and multiple applications in a scalable and reliable manner
AU2001273079A1 (en) * 2000-06-26 2002-01-08 Kpmg Consulting, Inc. Using a pseudo-clec to test operational support systems of an incumbent local exchange carrier
US20030149762A1 (en) * 2001-10-05 2003-08-07 Knight Gregory John Storage area network methods and apparatus with history maintenance and removal
US9245241B2 (en) * 2003-11-07 2016-01-26 At&T Intellectual Property I, L.P. Methods, systems and computer program products for planning resources based on primary and alternate location relief strategies
US7676508B2 (en) * 2004-11-10 2010-03-09 Microsoft Corporation Method and system for recording and replaying input-output requests issued by a user-mode program
US8180731B2 (en) * 2005-08-01 2012-05-15 Sony Corporation Apparatus and method for computing evaluation values of content data stored for reproduction
JP2007041722A (ja) * 2005-08-01 2007-02-15 Sony Corp 情報処理装置,コンテンツ再生装置,情報処理方法,イベントログ記録方法,およびコンピュータプログラム
US20080052539A1 (en) * 2006-07-29 2008-02-28 Macmillan David M Inline storage protection and key devices
JP4905086B2 (ja) * 2006-11-29 2012-03-28 富士通株式会社 イベント種類推定システム、イベント種類推定方法およびイベント種類推定プログラム
WO2009096519A1 (ja) * 2008-01-31 2009-08-06 Nec Corporation フィードフォーワード制御方法、サービス提供品質制御装置、システム、プログラム及びその記録媒体
US8219582B2 (en) * 2008-04-25 2012-07-10 International Business Machines Corporation System, method, and computer readable media for identifying a user-initiated log file record in a log file
JP5338555B2 (ja) * 2009-08-11 2013-11-13 富士通株式会社 負荷分散装置、負荷分散方法および負荷分散プログラム
JP4801761B2 (ja) * 2009-08-12 2011-10-26 株式会社日立製作所 データベース管理方法およびシステム並びにその処理プログラム
US8589625B2 (en) * 2010-09-15 2013-11-19 Pure Storage, Inc. Scheduling of reconstructive I/O read operations in a storage environment
EP2798791A1 (en) * 2011-12-29 2014-11-05 British Telecommunications PLC Distributed system management
US10162687B2 (en) * 2012-12-28 2018-12-25 Intel Corporation Selective migration of workloads between heterogeneous compute elements based on evaluation of migration performance benefit and available energy and thermal budgets
US20150200833A1 (en) * 2014-01-10 2015-07-16 Seagate Technology Llc Adaptive Data Migration Using Available System Bandwidth
US9760408B2 (en) * 2014-03-26 2017-09-12 Unisys Corporation Distributed I/O operations performed in a continuous computing fabric environment
CN104951396B (zh) * 2014-03-31 2018-01-30 国际商业机器公司 基于虚拟机创建软件性能测试环境的方法和装置
US9553997B2 (en) * 2014-11-01 2017-01-24 Somos, Inc. Toll-free telecommunications management platform
US10397324B2 (en) * 2015-07-22 2019-08-27 Netapp, Inc. Methods and systems for managing a resource in a networked storage environment
US10992739B2 (en) * 2016-01-25 2021-04-27 Vmware, Inc. Integrated application-aware load balancer incorporated within a distributed-service-application-controlled distributed computer system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116380A (ja) * 2007-11-01 2009-05-28 Nec Corp 仮想サーバ移動制御装置、仮想サーバ移動制御方法およびプログラム
JP2009134687A (ja) * 2007-11-29 2009-06-18 Hitachi Ltd アプリケーションマイグレーションのための候補データセンタを見つける方法および装置[0001]
WO2012120664A1 (ja) * 2011-03-09 2012-09-13 株式会社日立製作所 仮想計算機のマイグレーション評価方法及び仮想計算機システム

Also Published As

Publication number Publication date
JPWO2017141363A1 (ja) 2018-02-22
US20180217875A1 (en) 2018-08-02
WO2017141363A1 (ja) 2017-08-24

Similar Documents

Publication Publication Date Title
JP7138126B2 (ja) リソース配置を最適化するための適時性リソース移行
US8214661B2 (en) Using a control policy to implement power saving features
US10055252B2 (en) Apparatus, system and method for estimating data transfer periods for job scheduling in parallel computing
US20100250746A1 (en) Information technology source migration
JP6227841B1 (ja) データ処理システム及びデータ処理方法
KR101764085B1 (ko) 개별 데이터 볼륨들에 대한 내구성 특성들을 동적으로 수정하기
US10168953B1 (en) Dynamic scheduling of distributed storage management tasks using predicted system characteristics
US20160357443A1 (en) Method and apparatus for big data cloud storage resource management
JP5324657B2 (ja) ストレージシステム、及びその制御方法
JP6372074B2 (ja) 情報処理システム,制御プログラム及び制御方法
JP2014191752A (ja) マイグレーション処理プログラム,マイグレーション方法及びクラウドシステム
JP5577453B2 (ja) 仮想計算機のマイグレーション評価方法及び仮想計算機システム
CN108475201A (zh) 一种虚拟机启动过程中的数据获取方法和云计算系统
US11354163B2 (en) Virtual machine placement method and virtual machine placement device implementing the same
McCullough et al. Stout: An adaptive interface to scalable cloud storage
JP6209863B2 (ja) ストレージ制御装置、ストレージ制御方法およびストレージ制御プログラム
JP5515889B2 (ja) 仮想マシンシステム、自動マイグレーション方法および自動マイグレーションプログラム
JP6582721B2 (ja) 制御装置、ストレージシステム、及び制御プログラム
JP7176633B2 (ja) 仮想化基盤制御装置、仮想化基盤制御方法および仮想化基盤制御プログラム
US11973839B1 (en) Microservice throttling based on learned demand predictions
WO2017122263A1 (ja) 管理計算機及び管理方法
US11288070B2 (en) Optimization of low-level memory operations in a NUMA environment
JP2014206805A (ja) 制御装置
JP2014139845A (ja) データ処理システム、そのコンピュータプログラムおよびデータ処理方法
KR102013579B1 (ko) 스트리밍 서비스의 성능 확장 방법 및 이를 위한 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171011

R150 Certificate of patent or registration of utility model

Ref document number: 6227841

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees