JP5745445B2 - 管理装置およびプログラム - Google Patents

管理装置およびプログラム Download PDF

Info

Publication number
JP5745445B2
JP5745445B2 JP2012047725A JP2012047725A JP5745445B2 JP 5745445 B2 JP5745445 B2 JP 5745445B2 JP 2012047725 A JP2012047725 A JP 2012047725A JP 2012047725 A JP2012047725 A JP 2012047725A JP 5745445 B2 JP5745445 B2 JP 5745445B2
Authority
JP
Japan
Prior art keywords
server
space
data
region
servers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012047725A
Other languages
English (en)
Other versions
JP2013182553A (ja
Inventor
絵里子 岩佐
絵里子 岩佐
近藤 悟
悟 近藤
道生 入江
道生 入江
雅志 金子
雅志 金子
健 福元
健 福元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012047725A priority Critical patent/JP5745445B2/ja
Publication of JP2013182553A publication Critical patent/JP2013182553A/ja
Application granted granted Critical
Publication of JP5745445B2 publication Critical patent/JP5745445B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Description

本発明は、協調してデータ処理を行うクラスタを構成する複数のサーバを管理する管理装置に関する。
近年、クラウドコンピューティングの隆盛に伴い、多量のデータの処理や保持を効率的に行うことが求められている。そこで、複数のサーバを協調動作させることにより効率的な処理を実現する分散処理技術が発展している。
分散処理を行う際には、処理対象(管理対象)のデータを、クラスタを構成する各サーバ(以下、「クラスタメンバ」または「メンバ」とも称する。)に振り分けておく必要がある。このとき、クラスタ全体での処理能力を高めるためには、各クラスタメンバが担当するデータ数(データ量)は平均化されていることが望ましい。
代表的なデータの振り分け手法として、各データのkeyをハッシュ関数にかけた値(以下、「hash(key)」と称する。)をクラスタメンバ数Nで割った余り、すなわち「hash(key) mod N」を番号として持つクラスタメンバにデータを振り分ける手法がある。この場合、各クラスタメンバに事前に「0」から「N−1」までの番号を割り当てていることが前提となる。このような振り分け手法を用いた場合、クラスタメンバを追加すると、Nの値が変化して、多くのデータについて、担当するクラスタメンバが変更になるため、担当するデータの再配置が必要になる。
そこで、クラスタメンバの追加に伴い担当するクラスタメンバが変更になるデータ数を約1/Nに抑える方法として、コンシステント・ハッシュ法[Consistent Hashing](非特許文献1参照)を用いた振り分け手法がある。このコンシステント・ハッシュ法は、Amazon Dynamo(非特許文献2参照)等で用いられている。
このコンシステント・ハッシュ法を用いたデータ振り分け手法では、クラスタメンバとデータの双方にID(IDentifier)を割り当て、データのIDからID空間を時計回りに辿った場合に最初に出合ったクラスタメンバをそのデータの担当とする。
また、多量のデータの管理をクラスタ構成の分散処理システムで行う場合、あるクラスタメンバに障害が発生した場合でも他のクラスタメンバで処理を継続できるように、データの複製を保持することでデータ冗長化を実現する必要がある。これは、コンシステント・ハッシュ法によるデータ管理手法を用いた分散処理システムにおいても同様である。
図7に示すように、コンシステント・ハッシュ法では、クラスタメンバ(メンバ1〜4)とデータ(データA〜D。黒丸(●)で表示)の双方にIDを割り当て、データのIDからID空間を時計回りに辿り最初に出合ったクラスタメンバをそのデータの担当として決定する。そして、担当するクラスタメンバのさらに右隣(時計回りに次)のクラスタメンバに複製データを担当させる。
例えば、図7においては、データAはID空間上を時計回りに辿り最初に出合ったメンバ1が担当となり、その複製データはID空間上でメンバ1の右隣にあたるメンバ2に担当させる。このように原本データ・複製データを担当するクラスタメンバを決定することで、クラスタメンバに離脱があった場合でも複製データを所持しているクラスタメンバが新しくデータを担当するクラスタメンバとなることで対応できるという利点がある。なお、複製データを複数個とる場合には、さらに右隣のクラスタメンバに2個目の複製データを担当させるようにすることもできる。
David Karger et al., "Consistent Hashing and Random Trees: Distributed Caching Protocols for Relieving Hot Spots on the World Wide Web", [online], 1997, ACM, [平成24年2月20日検索], インターネット<URL:http://www.akamai.com/dl/technical_publications/ConsistenHashingandRandomTreesDistributedCachingprotocolsforrelievingHotSpotsontheworldwideweb.pdf> Giuseppe DeCandia et al., "Dynamo: Amazon’s Highly Available Key-value Store", [online], 2007, ACM, [平成24年2月20日検索], インターネット<URL:http://www.allthingsdistributed.com/files/amazon-dynamo-sosp2007.pdf>
前記したように、コンシステント・ハッシュ法によるデータ管理手法では、データを担当するクラスタメンバの右隣に複製データを配置する方法を採用する。ここで、図8に示すように、クラスタを構成するメンバは、地理的に離れたK個(ここでは5個)のデータセンタエリア(サーバを管理するデータセンタが管轄するエリア)内から選択されているとする。
このとき、通常、コンシステント・ハッシュ法のID空間上では、サーバについて物理位置(物理的な位置)を考慮せずにランダムに配置しているため、ID空間上で隣り合うクラスタメンバ同士が物理的に遠く離れていることがある。そうなると、ID空間上で右隣のクラスタメンバに複製データを作成する際のネットワークコストが膨大になり、処理遅延を発生させる懸念がある。なお、クラスタメンバ間の物理的距離とは、サーバ間通信に要するNW(ネットワーク)のコストを表しており、具体例としては、物理的な距離だけでなく、トポロジー、NW帯域等を考慮して決定することが可能である。
そこで、本発明は、前記した事情に鑑みてなされたものであり、分散処理システムにおける管理装置が、クライアントマシンからのリクエストを複数のサーバのいずれに振り分けるかを決定する際に、サーバの物理位置を考慮したサーバ選択を行うことで、データ複製時に発生する処理負荷を低減することを課題とする。
前記課題を解決するために、本発明は、環状のID空間に、管理対象の複数のデータ、および、前記データを管理しクラスタを構成する複数のサーバ、が割り振られ、それぞれの前記サーバが、前記ID空間において自身から所定方向回りに次の前記サーバまでの間に位置する前記データを管理するとともに、当該次の前記サーバから前記所定方向回りにさらに次の前記サーバまでの間に位置する前記データの複製を記憶する分散処理システムにおいて、クライアントマシンからのリクエストを前記複数のサーバのいずれに振り分けるかを決定する管理装置であって、前記ID空間における前記データの管理を担当するサーバを管理するID空間管理情報、前記ID空間が所定の複数の物理的な地域の数に分割されており、前記地域と前記分割されたID空間との対応付けを管理するID・地域割当情報、および、前記地域ごとに、当該地域に物理的に存在する前記複数のサーバおよび待機中のサーバとの対応付けを管理するサーバ管理情報、を記憶する記憶部と、前記クラスタに対して前記待機中のサーバを増設する場合、当該増設するサーバについての前記ID空間における挿入位置に基づき、前記ID・地域割当情報を参照して当該挿入位置に対応する前記地域を特定し、前記サーバ管理情報を参照して当該特定した地域に物理的に存在するサーバを選択し、当該選択したサーバと当該挿入位置の情報を用いて前記ID空間管理情報を更新する処理部と、を有することを特徴とする。
これによれば、クラスタに対して待機中のサーバを増設する場合、ID空間における挿入位置に対応する地域に物理的に存在するサーバを選択することで、データ複製時に発生する処理負荷を低減することができる。
また、本発明は、環状のID空間に、管理対象の複数のデータ、および、前記データを管理しクラスタを構成する複数のサーバ、が割り振られ、それぞれの前記サーバが、前記ID空間において自身から所定方向回りに次の前記サーバまでの間に位置する前記データを管理するとともに、当該次の前記サーバから前記所定方向回りにさらに次の前記サーバまでの間に位置する前記データの複製を記憶する分散処理システムにおいて 、クライアントマシンからのリクエストを前記複数のサーバのいずれに振り分けるかを決定する管理装置であって、前記ID空間における前記データの管理を担当するサーバを管理するID空間管理情報、前記ID空間が所定の複数の物理的な地域の数に分割されており、前記地域と前記分割されたID空間との対応付けを管理するID・地域割当情報、および、前記地域ごとに、当該地域に物理的に存在する前記複数のサーバおよび待機中のサーバとの対応付けを管理するサーバ管理情報、を記憶する記憶部と、前記クラスタに対して前記待機中のサーバを増設する場合、前記ID空間管理情報を参照して前記ID空間において前記サーバ同士の間が最も広い箇所を特定し、前記ID・地域割当情報を参照して前記ID空間における当該箇所の中央の位置に対応する前記地域を特定し、前記サーバ管理情報を参照して当該特定した地域に物理的に存在するサーバを選択し、当該選択したサーバと当該中央の位置の情報を用いて前記ID空間管理情報を更新する処理部と、を有することを特徴とする。
これによれば、複数のサーバに対して待機中のサーバを増設する場合、ID空間においてサーバ同士の間が最も広い箇所の中央の位置に対応する地域に物理的に存在するサーバを選択することで、データ複製時に発生する処理負荷を低減するとともに、各サーバにおける処理負荷をより平均化することができる。なお、本明細書および特許請求の範囲において、「中央の位置」とは、厳密な中央の位置だけでなく、中央付近の位置も含む。
また、本発明は、前記地域が、前記サーバを管理するデータセンタが管轄するデータセンタエリアであることを特徴とする。
これによれば、地域としてデータセンタエリアを採用することで、クラスタや管理装置の運用がより容易になる。
また、本発明は、コンピュータを前記管理装置として機能させるためのプログラムである。
これによれば、このようなプログラムを実装したコンピュータを管理装置として機能させることができる。
本発明によれば、分散処理システムにおける管理装置が、クライアントマシンからのリクエストを複数のサーバのいずれに振り分けるかを決定する際に、サーバの物理位置を考慮したサーバ選択を行うことで、データ複製時に発生する処理負荷を低減することができる。
本発明の概要の説明図である。 本実施形態の管理装置等の構成図である。 本実施形態のID空間管理情報を示す図である。 本実施形態のID・地域割当情報を示す図である。 本実施形態のサーバ管理情報を示す図である。 本実施形態の管理装置による処理の流れを示すフローチャートである。 従来のコンシステント・ハッシュ法の説明図である。 従来のコンシステント・ハッシュ法におけるクラスタメンバの物理位置の説明図である。
以下、本発明を実施するための形態(以下、実施形態と称する。)について、図面を参照(言及図以外の図も適宜参照)しながら説明する。なお、理解を容易にするために、まず、図1を参照して本実施形態の概要について説明し、その後、実施形態について説明する。
(本実施形態の概要)
図1に示すように、データセンタエリアの数(ここでは5個)に応じて、ID空間を事前に分割しておく。そして、クラスタにサーバを追加する場合には、ID空間における新たなクラスタメンバの挿入先(「挿入位置」と同義。ID)を決定する(図1の(1))。
ID空間における新たなクラスタメンバの挿入先を決定した(図1の(1))後に、その挿入先に対応するデータセンタエリアを特定し、そのデータセンタエリアに物理的に存在するサーバを選択し(図1の(2))、クラスタメンバに組み込む。このようなアルゴリズムにより、サーバの物理位置を考慮したサーバ選択を行うことができ、データ複製時に発生する処理負荷を低減することができるとともに、各サーバにおける処理負荷をより平均化することができる。
(実施形態)
次に、本実施形態について説明する。図2に示すように、本実施形態の分散処理システム1000は、負荷分散装置3、管理装置4、クラスタ100を構成する複数のサーバ5を備えている。負荷分散装置3は、インターネット等のネットワーク2を介して、複数のクライアントマシン1と接続されている。
全体の主な動作について説明すると、クライアントマシン1からのデータ処理リクエストを、ネットワーク2経由で負荷分散装置3が受け取る。負荷分散装置3は、データのID空間上のサーバ割当表(ID空間管理情報)に基づいて、そのリクエストを、データ処理を行う複数のサーバ5のいずれかに振り分ける。振り分けられたサーバ5は、そのリクエストの処理を行う。管理装置4は、ID空間管理情報を管理する。
次に、負荷分散装置3と管理装置4の構成について説明する。
負荷分散装置3は、記憶部31、処理部32、通信部33を備える。
記憶部31は、情報を記憶する手段であり、RAM(Random Access Memory)やROM(Read Only Memory)などのメモリ、HDD(Hard Disk Drive)などによって構成される。記憶部31には、管理装置4から受信したID空間管理情報411が、ID空間管理情報311として格納されている。なお、記憶部31には、処理部32の動作プログラムなども格納されている(図示を省略)。
処理部32は、記憶部31に格納された情報に基づいて演算処理を行う手段であり、例えばCPU(Central Processing Unit)によって構成される。
通信部33は、外部装置との通信に用いられる通信インタフェースである。
なお、負荷分散装置3は、ほかに、負荷分散装置3のユーザが情報を入力する入力部や、情報を表示する表示部などを備えていてもよい。
管理装置4は、コンシステント・ハッシュ法に基づいて、クライアントマシン1からのリクエストを複数のサーバ5のいずれに振り分けるかを決定するコンピュータ装置である。なお、前記したように、このコンシステント・ハッシュ法では、環状のID空間に、管理対象の複数のデータ、および、データを管理しクラスタ100を構成する複数のサーバ5(クラスタメンバ)、が割り振られ、それぞれのサーバ5が、ID空間において自身から時計回り(所定方向回り)に次のサーバ5までの間に位置するデータを管理(担当)するとともに、当該次のサーバ5から時計回りにさらに次のサーバ5までの間に位置するデータの複製を記憶することを前提とする。
管理装置4は、記憶部41、処理部42、入力部43、表示部44、通信部45を備える。
記憶部41は、情報を記憶する手段であり、RAMやROMなどのメモリ、HDDなどによって構成される。記憶部41には、ID空間管理情報411、ID・地域割当情報412、サーバ管理情報413が格納されている。なお、記憶部41には、処理部42の動作プログラムなども格納されている(図示を省略)。
ID空間管理情報411は、管理対象のデータについて所定のハッシュ値変換を行って算出されたIDを用いて、そのデータを担当するサーバ5を管理する情報である(図3で後記)。
ID・地域割当情報412は、ID空間が所定の複数の物理的な地域の数に分割されているという前提の下、その地域と分割されたID空間との対応付けを管理する情報である(図4で後記)。
サーバ管理情報413は、地域ごとに、当該地域に物理的に存在する複数のサーバ5との対応付けを管理する情報である(図5で後記)。
処理部42は、記憶部41に格納された情報に基づいて演算処理を行う手段であり、例えばCPUによって構成される。処理部42は、クラスタ100に対して新たな(待機中の)サーバ5を増設する場合、まず、当該新たなサーバ5についてID空間における挿入位置を決定する。次に、処理部42は、ID・地域割当情報412を参照して当該挿入位置に対応する地域を特定する。次に、処理部42は、サーバ管理情報413を参照して当該特定した地域に物理的に存在するサーバ5を選択する。次に、処理部42は、当該選択したサーバと当該挿入位置の情報を用いてID空間管理情報411を更新する。詳細は図6の説明で後記する。
また、処理部42は、クラスタ100に対して新たなサーバ5を増設する場合、一例として、ID空間管理情報411を参照してID空間においてサーバ5同士の間が最も広い箇所を特定する、次に、処理部42は、ID・地域割当情報412を参照してID空間における当該箇所の中央の位置に対応する地域を特定する。次に、処理部42は、サーバ管理情報413を参照して当該特定した地域に物理的に存在するサーバ5を選択する。次に、処理部42は、当該選択したサーバと当該中央の位置の情報を用いてID空間管理情報411を更新する。詳細は図6の説明で後記する。
入力部43は、管理装置4のユーザが情報を入力する手段であり、例えば、キーボードやマウスによって実現される。
表示部44は、情報を表示する手段であり、例えば、LCD(Liquid Crystal Display)によって実現される。
通信部45は、外部装置との通信に用いられる通信インタフェースである。
次に、ID空間管理情報411について説明する。図3に示すように、ID空間管理情報411は、ID、サーバの各カラムから構成され、IDの値の大きさでソートされている。
IDは、ID空間におけるIDであり、サーバ5が管理を担当するデータの領域を特定するために格納される。
サーバは、クラスタ100を構成するサーバ5の識別子を表す。
例えば、図3に示す、第1行目のIDの値が「0056」の場合は、識別子が「0000」〜「0056」の領域に属するデータを「サーバA」が担当することを示す。また、第2行目のIDの値が「0172」の場合は、1つ前の行のIDの値に1をプラスした「0057」〜「0172」の識別子に属するデータを「サーバB」が担当することを示す。
次に、ID・地域割当情報412について説明する。図4に示すように、ID・地域割当情報412は、地域ID、IDの各カラムから構成される。
地域IDは、所定の複数の物理的な地域の識別子を表す。
IDは、その行の地域IDの地域に対応するID空間におけるIDの範囲を表す。
次に、サーバ管理情報413について説明する。図5に示すように、サーバ管理情報413は、地域ID、サーバの各カラムから構成される。
地域IDは、所定の複数の物理的な地域の識別子を表す。
サーバは、対応する地域IDの地域に物理的に存在するサーバ5の識別子を表す。なお、このサーバ5には、まだクラスタ100として使用されていないものも含まれている。
次に、管理装置4による処理について説明する。
図6に示すように、ステップS1において、管理装置4の処理部42は、クラスタ構成変更要求があるか否かを判定し、Yesの場合はステップS2に進み、Noの場合はステップS1に戻る。なお、ここでのクラスタ構成変更要求は、例えば、管理装置4のユーザによるその旨の入力や、他の装置からのその旨のリクエストの受信などが考えられる。
ステップS2において、処理部42は、そのクラスタ構成変更要求がクラスタメンバの追加か否かを判定し、Yesの場合はステップS3に進み、Noの場合はステップS7に進む。
ステップS3において、処理部42は、ID空間において、追加するクラスタメンバの挿入先(ID)を決定する。
どこに挿入するかは、入力部43を通じて保守者から指定を受けてもよいし、あるいは、処理部42が任意の方法で算出することもできる。なお、ID空間において選択する位置は任意でよく、必須事項は、そのID空間において選択した位置に対応するデータセンタエリア(地域)に物理的に存在するサーバ5を選択することである。これにより、サーバ5の物理位置を考慮したサーバ選択を行うことができ、データ複製時に発生する処理負荷を低減することができる。
例えば、処理部42が、記憶部41のID空間管理情報411を参照して、ID空間の中でクラスタメンバ間の距離(ID空間上の距離)が最も広い個所を検索(特定)し、そのクラスタメンバ間の中央の位置を新たなクラスタメンバのIDの挿入先として決定する。なお、このような位置を選択する理由は、クラスタ構成の分散処理システムでは、クラスタメンバ間で負荷がなるべく平均化されていることが望ましく、統計的に、データ数がクラスタメンバ数よりも格段に多い場合には、各クラスタメンバが担当するデータ数はID空間上のクラスタメンバ間の距離にほぼ比例するためである。
続いて、ステップS4において、処理部42は、記憶部41のID・地域割当情報412を参照して、決定したIDを担当するデータセンタエリア(地域ID)を特定する。
続いて、ステップS5において、処理部42は、記憶部41のサーバ管理情報413を参照して、そのデータセンタエリアに物理的に存在する(つまり、ステップS4で特定した地域IDに対応する)サーバ5を選択する。
ステップS6において、処理部42は、ID空間管理情報411を更新して、処理を終了する。具体的には、ステップS3〜S5を経由した場合は、ID空間管理情報411において、新たな行を挿入し、該当するIDおよび追加するサーバ5の識別子を書き込む。また、例えば、ステップS3〜S5を経由せず、障害等によりクラスタメンバの一部を削除する場合は、ID空間管理情報411において、該当する行を削除する。
なお、この後、負荷分散装置3は、管理装置4から最新のID空間管理情報411を受信して記憶部31にID空間管理情報311として保存する。そして、負荷分散装置3は、そのID空間管理情報311に基づいて、コンシステント・ハッシュ法によって、クライアントマシン1から受け取ったリクエストを、複数のサーバ5のいずれかに振り分ける。
また、複数のサーバ5は、管理装置4から最新のID空間管理情報411を受信して記憶部(不図示)に保存し、コンシステント・ハッシュ法に基づく前記したデータの複製を行う。
このようにして、本実施形態の管理装置4によれば、クラスタ100を構成するサーバ5を増設する場合、増設するサーバ5について決定したID空間における位置に対応する地域に物理的に存在するサーバ5を選択することで、データ複製時に発生する処理負荷(ネットワークコスト)を低減し、高速な処理を実現することができる。なお、この手法は、特に、データの更新や複製の頻度が高い場合や、複製対象のデータサイズが大きい場合等に、大きく奏効する。
また、増設するサーバ5についてID空間における位置を決定する際、ID空間においてサーバ5同士の間が最も広い箇所の中央の位置を選択することで、データ複製時に発生する処理負荷を低減するとともに、各サーバ5における負荷をより平均化することができる。
また、地域としてデータセンタエリアを採用することで、クラスタ100や管理装置4の運用がより容易になる。
以上で本実施形態の説明を終えるが、本発明の態様はこれらに限定されるものではない。
例えば、管理装置4と負荷分散装置3を同一のハードウエアに並存させる構成としてもよい。
また、本実施形態ではコンシステント・ハッシュ法を前提としたが、他の手法を前提としてもよい。
また、負荷分散装置3を使用せず、それぞれのクライアントマシン1が管理装置4から受信したID空間管理情報411を保持して、ネットワーク2経由で複数のサーバ5のいずれかに直接アクセスするようにしてもよい。
また、地域として、データセンタエリアを単位とする場合を例にとって説明したが、データセンタエリアをさらに分割したものや都道府県等の別の単位を採用してもよい。
また、本発明は、コンピュータを管理装置4として機能させるためのプログラムとしても具現化可能である。
その他、具体的な構成について、本発明の主旨を逸脱しない範囲で適宜変更が可能である。
1 クライアントマシン
2 ネットワーク
3 負荷分散装置
4 管理装置
5 サーバ
31 記憶部
32 処理部
33 通信部
41 記憶部
42 処理部
43 入力部
44 表示部
45 通信部
100 クラスタ
311 ID空間管理情報
411 ID空間管理情報
412 ID・地域割当情報
413 サーバ管理情報
1000 分散処理システム

Claims (4)

  1. 環状のID(IDentifier)空間に、管理対象の複数のデータ、および、前記データを管理しクラスタを構成する複数のサーバ、が割り振られ、それぞれの前記サーバが、前記ID空間において自身から所定方向回りに次の前記サーバまでの間に位置する前記データを管理するとともに、当該次の前記サーバから前記所定方向回りにさらに次の前記サーバまでの間に位置する前記データの複製を記憶する分散処理システムにおいて、クライアントマシンからのリクエストを前記複数のサーバのいずれに振り分けるかを決定する管理装置であって、
    前記ID空間における前記データの管理を担当するサーバを管理するID空間管理情報、
    前記ID空間が所定の複数の物理的な地域の数に分割されており、前記地域と前記分割されたID空間との対応付けを管理するID・地域割当情報、および、
    前記地域ごとに、当該地域に物理的に存在する前記複数のサーバおよび待機中のサーバとの対応付けを管理するサーバ管理情報、を記憶する記憶部と、
    前記クラスタに対して前記待機中のサーバを増設する場合、当該増設するサーバについての前記ID空間における挿入位置に基づき、前記ID・地域割当情報を参照して当該挿入位置に対応する前記地域を特定し、前記サーバ管理情報を参照して当該特定した地域に物理的に存在するサーバを選択し、当該選択したサーバと当該挿入位置の情報を用いて前記ID空間管理情報を更新する処理部と、
    を有することを特徴とする管理装置。
  2. 環状のID(IDentifier)空間に、管理対象の複数のデータ、および、前記データを管理しクラスタを構成する複数のサーバ、が割り振られ、それぞれの前記サーバが、前記ID空間において自身から所定方向回りに次の前記サーバまでの間に位置する前記データを管理するとともに、当該次の前記サーバから前記所定方向回りにさらに次の前記サーバまでの間に位置する前記データの複製を記憶する分散処理システムにおいて、クライアントマシンからのリクエストを前記複数のサーバのいずれに振り分けるかを決定する管理装置であって、
    前記ID空間における前記データの管理を担当するサーバを管理するID空間管理情報、
    前記ID空間が所定の複数の物理的な地域の数に分割されており、前記地域と前記分割されたID空間との対応付けを管理するID・地域割当情報、および、
    前記地域ごとに、当該地域に物理的に存在する前記複数のサーバおよび待機中のサーバとの対応付けを管理するサーバ管理情報、を記憶する記憶部と、
    前記クラスタに対して前記待機中のサーバを増設する場合、前記ID空間管理情報を参照して前記ID空間において前記サーバ同士の間が最も広い箇所を特定し、前記ID・地域割当情報を参照して前記ID空間における当該箇所の中央の位置に対応する前記地域を特定し、前記サーバ管理情報を参照して当該特定した地域に物理的に存在するサーバを選択し、当該選択したサーバと当該中央の位置の情報を用いて前記ID空間管理情報を更新する処理部と、
    を有することを特徴とする管理装置。
  3. 前記地域は、前記サーバを管理するデータセンタが管轄するデータセンタエリアであることを特徴とする請求項1または請求項2に記載の管理装置。
  4. コンピュータを請求項1から請求項3までのいずれか一項に記載の管理装置として機能させるためのプログラム。
JP2012047725A 2012-03-05 2012-03-05 管理装置およびプログラム Expired - Fee Related JP5745445B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012047725A JP5745445B2 (ja) 2012-03-05 2012-03-05 管理装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012047725A JP5745445B2 (ja) 2012-03-05 2012-03-05 管理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2013182553A JP2013182553A (ja) 2013-09-12
JP5745445B2 true JP5745445B2 (ja) 2015-07-08

Family

ID=49273136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012047725A Expired - Fee Related JP5745445B2 (ja) 2012-03-05 2012-03-05 管理装置およびプログラム

Country Status (1)

Country Link
JP (1) JP5745445B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6383336B2 (ja) * 2015-08-10 2018-08-29 日本電信電話株式会社 サーバ管理装置およびサーバ管理方法
US11863371B2 (en) 2019-08-05 2024-01-02 Nippon Telegraph And Telephone Corporation IoT device management apparatus, IoT device management method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7143170B2 (en) * 2003-04-30 2006-11-28 Akamai Technologies, Inc. Automatic migration of data via a distributed computer network
JP5314646B2 (ja) * 2010-08-20 2013-10-16 日本電信電話株式会社 ネットワーク設計システム、ネットワーク設計方法およびネットワーク設計装置

Also Published As

Publication number Publication date
JP2013182553A (ja) 2013-09-12

Similar Documents

Publication Publication Date Title
JP6073246B2 (ja) 大規模記憶システム
JP5701398B2 (ja) 計算機システム、データ管理方法及びプログラム
CN106888245B (zh) 一种数据处理方法、装置及系统
JP5629281B2 (ja) 管理装置およびプログラム
CN101984632A (zh) 一种分布式缓存系统中负荷分配方法、装置及服务器
JP5544523B2 (ja) 分散処理システム、分散処理方法、負荷分散装置、負荷分散方法、及び、負荷分散プログラム
JP5723309B2 (ja) サーバおよびプログラム
Rajalakshmi et al. An improved dynamic data replica selection and placement in cloud
JP5745445B2 (ja) 管理装置およびプログラム
JP6055197B2 (ja) データベースシステム
JP6085266B2 (ja) サーバリソース管理装置
KR20130038517A (ko) 분산된 컨테이너들을 사용하여 데이터를 관리하는 시스템 및 방법
KR101654969B1 (ko) 가상화 클러스터 환경에서 네임 노드를 할당하는 방법 및 장치
JP5690296B2 (ja) 負荷分散プログラムおよび負荷分散装置
JP5544524B2 (ja) 分散処理システム、分散処理方法、負荷分散装置、負荷分散方法、及び、負荷分散プログラム
JP2024514467A (ja) 地理的に分散されたハイブリッドクラウドクラスタ
JP6093320B2 (ja) 分散処理システム
JP6053712B2 (ja) 管理装置およびプログラム
WO2015072025A1 (ja) 計算機システム、計算機システム管理方法及びプログラム
CN104537081A (zh) 文件管理系统和方法
JP5711771B2 (ja) ノード離脱処理システム
JP6387333B2 (ja) ノードおよびスロット最適化方法
JP6506156B2 (ja) ノードおよびグラビテーション抑止方法
CN108153484A (zh) 一种虚拟化环境下的共享式存储系统及其管理方法
Lin et al. A job-oriented load-distribution scheme for cost-effective NameNode service in HDFS

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140305

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140502

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150501

R150 Certificate of patent or registration of utility model

Ref document number: 5745445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees