JP2022180956A - 情報処理装置,プログラム及び情報処理方法 - Google Patents

情報処理装置,プログラム及び情報処理方法 Download PDF

Info

Publication number
JP2022180956A
JP2022180956A JP2021087751A JP2021087751A JP2022180956A JP 2022180956 A JP2022180956 A JP 2022180956A JP 2021087751 A JP2021087751 A JP 2021087751A JP 2021087751 A JP2021087751 A JP 2021087751A JP 2022180956 A JP2022180956 A JP 2022180956A
Authority
JP
Japan
Prior art keywords
leader
storage nodes
proxies
network
proxy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021087751A
Other languages
English (en)
Inventor
宗則 前田
Munenori Maeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2021087751A priority Critical patent/JP2022180956A/ja
Priority to US17/592,902 priority patent/US20220385726A1/en
Publication of JP2022180956A publication Critical patent/JP2022180956A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/30Decision processes by autonomous network management units using voting and bidding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • H04L41/0816Configuration setting characterised by the conditions triggering a change of settings the condition being an adaptation, e.g. in response to network events
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0823Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0823Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
    • H04L41/0826Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability for reduction of network costs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0866Checking the configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/10Active monitoring, e.g. heartbeat, ping or trace-route
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/12Network monitoring probes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/289Intermediate processing functionally located close to the data consumer application, e.g. in same machine, in same home or in same sub-network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/562Brokering proxy services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS
    • H04L41/5009Determining service level performance parameters or violations of service level contracts, e.g. violations of agreed response time or mean time between failures [MTBF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0852Delays
    • H04L43/0864Round trip delays

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer And Data Communications (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】分散データストアの性能を向上させる。【解決手段】複数のストレージノード101と1以上のプロキシ102と1以上のクライアント103とが接続されるネットワークにおいて、アクセス経路に1以上のプロキシ102を挟んで最も実行されている1以上のクライアント103のアクセス情報を収集し、アクセス情報に基づいて、複数のストレージノード101と1以上のプロキシ102との間のそれぞれのネットワーク距離とを算出し、ネットワーク距離に基づき、複数のストレージノード101の中から、最もアクセス頻度が高いプロキシ102に近いストレージノード101をリーダとして決定する、プロセッサを備える。【選択図】図3

Description

本発明は、情報処理装置,プログラム及び情報処理方法に関する。
クラウド上においてサーバレスコンピューティングが利用されることがある。サーバレスコンピューティングは、ノード貸しのような従来のクラウドコンピューティングの枠を脱し、ファンクションと呼ばれる処理単位がハードウェアリソースを意識することなく自在に動作するものである。これによってクラウド側はハードウェアを余すところなく使えるようになり、また、ユーザはファンクションへのリクエスト数で従量課金されるため、スモールスタートしやすくなる。
サーバレスコンピューティングでは、永続化したいデータの取り扱いが課題となる場合がある。ファンクションはどこで動作するか本質的に指定できないため、従来は世界中のどこからでも接続できるパブリッククラウドストレージサービスを使うことが一般的である。パブリッククラウドストレージは永続性、可用性は優れているが、安価なストレージは応答時間(別言すれば、レイテンシ)が長かったり、クラウドのDatabase(DB)は費用が高くスケールアップは即応性がなかったりする。
そこで、サーバレスコンピューティング向け永続化データのストレージとして、近年、分散データストアが登場してきた。分散データストアはDBの機能(原子性(Atomicity)、一貫性(Consistency)、独立性(Isolation)、永続性(Durability)=ACID)をマルチクラウド、マルチクラスタ環境のような広域に渡る計算環境で実現するものである。
一般的な分散データストアは、N台(N>2)のサーバから構成されており、各サーバは離れた拠点(例えば、データセンタ)に置かれていて、一部のサーバやネットワークが故障しても、残りのサーバでサービスを継続できる。サーバレスコンピューティング向けの分散データストアでは、ファンクションの実行場所が変化するため、ファンクションの実行場所からの応答時間が短くなるような構成変更(別言すれば、サーバ配置拠点)が実施される。
米国特許公開公報第2016/0098225号 特開2009-151403号公報 国際公開第2014/188682号
分散データストアでは構成変更は可能だが、構成変更している最中に、複数のサーバがリーダ役を自任することでDBの一貫性が壊れるスプリットブレインという状況が生じるおそれがある。スプリットブレインを避けるためサービスを一時停止させてから構成変更を行うことが想定されるが、サービスを一時停止させると可用性の問題を引き起こす。また、コンセンサスアルゴリズムを用いてスプリットブレイン回避と可用性とを両立させることも想定されるが、リーダは常にサーバ間の選挙で決まるため、ファンクションの実行場所から近い保証がない。
1つの側面では、分散データストアの性能を向上させることを目的とする。
1つの側面では、情報処理装置は、複数のストレージノードと1以上のプロキシと1以上のクライアントとが接続されるネットワークにおいて、アクセス経路に前記1以上のプロキシを挟んで最も実行されている前記1以上のクライアントのアクセス情報を収集し、前記アクセス情報に基づいて、前記複数のストレージノードと前記1以上のプロキシとの間のそれぞれのネットワーク距離とを算出し、前記ネットワーク距離に基づき、前記複数のストレージノードの中から、最もアクセス頻度が高いプロキシに近いストレージノードをリーダとして決定するプロセッサを備える。
1つの側面では、分散データストアの性能を向上できる。
実施形態におけるコンピュータ装置のハードウェア構成例を模式的に示すブロック図である。 実施形態における分散データストアシステムの構成例を模式的に示すブロック図である。 図2に示した分散データストアシステムの構成例を簡単に示す図である。 図3に示した分散データストアシステムにおけるSパラメータのうちラウンドトリップタイムを例示するテーブルである。 図3に示した分散データストアシステムにおけるSパラメータのうちアップロード帯域幅を例示するテーブルである。 図3に示した分散データストアシステムにおけるSパラメータのうちダウンロード帯域幅を例示するテーブルである。 図3に示した分散データストアシステムにおけるSパラメータのうちメッセージレートを例示するテーブルである。 図3に示した分散データストアシステムにおけるSパラメータのうち上り下り帯域幅を例示するテーブルである。 図3に示した分散データストアシステムにおけるDパラメータのダウンロード(下り)の帯域幅を示すテーブルである。 図3に示した分散データストアシステムにおけるDパラメータのうち転送データ量を示すテーブルである。 図3に示した分散データストアシステムにおいてリーダノードを決定するためのテーブルである。 図3に示した分散データストアシステムにおいてストレージノードの構成を決定するためのテーブルである。 図3に示した分散データストアシステムにおいてネットワーク距離を算出するためのテーブルである。 実施形態におけるクライアントサイドの性能監視処理の第1の例を説明するフローチャートである。 実施形態における管理装置のリーダ見直し処理の第1の例を説明するフローチャートである。 実施形態におけるストレージノードのリーダ見直し処理の第1の例を説明するフローチャートである。 実施形態におけるストレージノードのリーダ見直し処理の第2の例を説明するフローチャートである。 実施形態におけるクライアントサイドの性能監視処理の第2の例を説明するフローチャートである。 実施形態における管理装置のリーダ見直し処理の第2の例を説明するフローチャートである。
〔A〕実施形態
以下、図面を参照して一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
以下、図中において、同一の各符号は同様の部分を示しているので、その説明は省略する。
〔A-1〕構成例
図1は、実施形態におけるコンピュータ装置1のハードウェア構成例を模式的に示すブロック図である。
コンピュータ装置1は、情報処理装置10,表示装置15及びドライブ装置16を備える。
情報処理装置10は、プロセッサ11,メモリ12,ストレージデバイス13及びネットワークデバイス14を備える。
プロセッサ11は、例示的に、種々の制御や演算を行なう処理装置であり、メモリ12に格納されたOperating System(OS)やプログラムを実行することにより、種々の機能を実現する。
なお、プロセッサ11の機能を実現するためのプログラムは、例えばフレキシブルディスク、CD(CD-ROM、CD-R、CD-RW等)、DVD(DVD-ROM、DVD-RAM、DVD-R、DVD+R、DVD-RW、DVD+RW、HD DVD等)、ブルーレイディスク、磁気ディスク、光ディスク、光磁気ディスク等の、コンピュータ読取可能な記録媒体に記録された形態で提供されてよい。そして、コンピュータ(本実施形態ではプロセッサ11)は上述した記録媒体から図示しない読取装置を介してプログラムを読み取って内部記録装置または外部記録装置に転送し格納して用いてよい。また、プログラムを、例えば磁気ディスク,光ディスク,光磁気ディスク等の記憶装置(記録媒体)に記録しておき、記憶装置から通信経路を介してコンピュータに提供してもよい。
プロセッサ11の機能を実現する際には、内部記憶装置(本実施形態ではメモリ12)に格納されたプログラムがコンピュータ(本実施形態ではプロセッサ11)によって実行されてよい。また、記録媒体に記録されたプログラムをコンピュータが読み取って実行してもよい。
プロセッサ11は、情報処理装置10全体の動作を制御する。プロセッサ11は、マルチプロセッサであってもよい。プロセッサ11は、例えばCentral Processing Unit(CPU)やMicro Processing Unit(MPU),Digital Signal Processor(DSP),Application Specific Integrated Circuit(ASIC),Programmable Logic Device(PLD),Field Programmable Gate Array(FPGA)のいずれか一つであってもよい。また、プロセッサ11は、CPU,MPU,DSP,ASIC,PLD,FPGAのうちの2種類以上の要素の組み合わせであってもよい。
メモリ12は、例示的に、Read Only Memory(ROM)及びRandom Access Memory(RAM)を含む記憶装置である。RAMは、例えばDynamic RAM(DRAM)であってよい。メモリ12のROMには、Basic Input/Output System(BIOS)等のプログラムが書き込まれてよい。メモリ12のソフトウェアプログラムは、プロセッサ11に適宜に読み込まれて実行されてよい。また、メモリ12のRAMは、一次記録メモリあるいはワーキングメモリとして利用されてよい。
ストレージデバイス13は、例示的に、データを読み書き可能に記憶する装置であり、例えば、Solid State Drive(SSD)131やSerial Attached SCSI-Hard Disk Drive(SAS-HDD)132,不図示のStorage Class Memory(SCM)が用いられてよい。
ネットワークデバイス14は、情報処理装置10をインターコネクトによってネットワークスイッチ2と接続し、このネットワークスイッチ2を介してインターネット3(図2等を用いて後述)等のネットワークと通信を行なうためのインタフェース装置である。ネットワークデバイス14としては、例えば、有線Local Area Network(LAN)や無線LAN,Wireless Wide Area Network(WWAN)のネットワークの規格に対応する各種インタフェースカードを用いることができる。
表示装置15は、液晶ディスプレイやOrganic Light-Emitting Diode(OLED)ディスプレイ,Cathode Ray Tube(CRT),電子ペーパーディスプレイ等であり、オペレータ等に対する各種情報を表示する。
ドライブ装置16は、記録媒体が装着可能に構成される。ドライブ装置16は、記録媒体が装着された状態において、記録媒体に記録されている情報を読み取り可能に構成される。本例では、記録媒体は可搬性を有する。例えば、記録媒体は、フレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、又は、半導体メモリ等である。
図2は、実施形態における分散データストアシステム100の構成例を模式的に示すブロック図である。
分散データストアシステム100は、複数(図2に示す例では9つ)のコンピュータ装置1(別言すれば、コンピュータ装置#1~#9)を備える。
コンピュータ装置#1,#2は、それぞれ別のデータセンタに設置され、いずれもストレージノード101(図3等を用いて後述)として機能してよい。コンピュータ装置#3,#4は1つのデータセンタに設置され、コンピュータ装置#3,#4も1つのデータセンタに設置されると共に、コンピュータ装置#3~#6はいずれもプロキシ102(図3等を用いて後述)として機能してよい。コンピュータ装置#7~#9はクライアント103(図3等を用いて後述)として機能し、具体的には、コンピュータ装置#7はオンプレミスとして機能し、コンピュータ装置#8はエッジとして機能し、コンピュータ装置#9はRemote Office Branch Office(ROBO)として機能してよい。
ストレージノードとしてのコンピュータ装置1間、及び、ストレージノードとしてのコンピュータ装置1とプロキシとしてのコンピュータ装置1との間は、専用線を介して接続される。また、プロキシとしてのコンピュータ装置1とクライアントとしてのコンピュータ装置1との間は、インターネット3を介して接続される。なお、インターネット3は、
Wide Area Network(WAN)等の他の種類のネットワークであってもよい。
図3は、図2に示した分散データストアシステム100の構成例を簡単に示す図である。
図3に示す例において、n個のストレージノード101は、拠点#1,・・・,拠点#m,・・・,拠点#nのそれぞれに設置されている。また、各ストレージノード101には、3つのプロキシ102(別言すれば、代表URL)が接続されている。更に、各プロキシ102には、インターネット3を介して、3つのクライアント103がそれぞれ接続されている。
図3に示すように、ストレージノード101に対しては、管理装置104が接続される。管理装置104は、ストレージノード101の中のリーダ(図1に示す例では拠点#1のストレージノード101)の定期的な見直しと、クライアント通信の監視と、クライアント103からの要請の処理とを実行する。
ストレージノード101とプロキシ102とクライアント103とは、別の拠点にあってよい。なお、同一拠点で運用することもできるが、その場合はフォールトドメインを意識して配置する。フォールトドメインとは単一障害点を共有するハードウェアセットのことである。
プロキシ102は、複数存在し、クライアント103とストレージノード101との間を接続し中継する。プロキシ102は、広域に分散しており、かつ、URLはクライアント103に公開されている。1つのURLは、少なくとも1つのノードに対応する。ただし、負荷分散のため、同一拠点内の複数ノードが構成されてもよい。その場合は、DNSで複数のIPアドレスのどれかに解決されてよい。プロキシ102ごとに、ストレージノード101へのレイテンシや帯域幅は異なる。プロキシ102が複数ノードで構成されている場合でも、その傾向(平均値等)は大きくは変わらない。プロキシ102ごとに、アクセスカウンタ又は上り下り転送データサイズがモニタリングされ、直近のΔ期間の値がプロキシ102へのアクセスにより取得されてよい。
クライアント103は、広域に分散し、予めプロキシ102とのラウンドトリップや上り下り帯域幅が測定され、自分から近いプロキシ102(別言すれば、URL)を選んで接続する。
管理装置104としての機能は、プロキシ102又はストレージノード101のいずれかが有してもよい。管理装置104は、プロキシ102とストレージノード101の両方にアクセス可能であり、RaftアルゴリズムやPaxosアルゴリズムを用いてマルチノードを多数決ベースで使用することもできる。
管理装置104は、リーダとしてのストレージノード101の選挙の開始にあたり、クライアント103のサービスレベルアグリーメント(SLA)に基づく監視又は定期実行に基づき、リーダ見直し処理の実行を行う。
管理装置104は、リーダ見直し処理において、Sパラメータ(図4~図8等を用いて後述)を取得し、Dパラメータ(図9及び図10等を用いて後述)を取得する。次に、管理装置104は、ネットワーク(NW)距離を計算してLeader_newを求め、自分の知るリーダにTriggerElectionRPCを送信する。TriggerElectionRPCは、Leader_newの情報をデータとして持つ。
TriggerElectionRPCを受け取ったストレージノード101は、自分がリーダである場合は、了承=ACK(true)を返答する。一方、TriggerElectionRPCを受け取ったストレージノード101は、自分がリーダでない場合には、拒否=NACK(false)及び自分が知るリーダ情報を返答する。
管理装置104は、ストレージノード101から拒否が返信された場合には、返信データにあるリーダを管理装置104の知るリーダに設定し、再度、当該ストレージノード101にTriggerElectionRPCを送信する。
TriggerElectionRPCを受信したリーダとしてのストレージノード101は、Leader_newとなるfollowerに対するハートビート(AppendEntryRPC)の送信を、ハートビート受信のタイムアウト時間+マージン分まで一時停止する。なお、ストレージノード101は、AppendEntryRPCがタイムアウト時間まで未配になることで、自律的にリーダに立候補する。
ここで、AppendEntryRPCとは、Raftアルゴリズムで使用されるRPCの1つであり、リーダからfollowerへのハートビートメッセージであるとともに、データレプリケーションのメッセージである。
リーダ見直し処理は、以下の方法で実行されてもよい。
各ストレージノード101は、タイマを用いて定期的にリーダ見直し処理を開始する。
各ストレージノード101は、自分がleader又はノード状態がcandidateならば処理を終了する。
一方、各ストレージノード101は、自分がleaderでなく、且つ、ノード状態がcandidateでないならば、Sパラメータを取得し、Dパラメータを取得する。次に、各ストレージノード101は、NW距離を計算し、Leader_newを求める。各ストレージノード101は、自分がLeader_newでないならば、自分はfollowerかつ候補ノードであるためcandidateに状態変更する。以降は、上述したRaftアルゴリズムによるリーダ選挙と同じ処理が実行される。すなわち、RequestVoteRPCが全ストレージノード101に送信され、全体の過半数のノードから承認が得られれば、新リーダが選出される。
ここで、RequestVoteRPCとは、Raftアルゴリズムで使用されるRPCの1つであり、RPC送信ノードsが受信ノードrにリーダ選挙で送信ノードsに投票することを依頼するものである。
管理装置104は、各ストレージノード101の拠点割り当てを変更する構成管理サーバとして機能してもよい。構成管理サーバとしての機能は、いずれかのストレージノード101に割り当てられてもよい。構成管理サーバは、プロキシ102とストレージノード101との両方にアクセスできる。構成管理サーバは、信頼性を高めるため、RaftアルゴリズムやPaxosアルゴリズムを用いて、マルチノードを多数決ベースで使用することもできる。
管理装置104は、構成管理サーバとして機能する際に、クライアント103のサービスレベルアグリーメント(SLA)に基づく監視、又は、定期実行に基づき、以下の拠点割り当て変更の実行を行う。
管理装置104は、Sパラメータを取得し、Dパラメータを取得する。次に、管理装置104は、NW距離を計算し、ストレージノードセットとLeader_newとを決定する。ストレージノードセットが現在のストレージノードセットと同じなら、拠点割り当ての変更は不要なので、終了する。なお、Leader_newが現在のリーダと異なるなら、上述したリーダ見直し処理が実行さる。
管理装置104は、Raftアルゴリズムのjointコンセンサス手続きを実行する。具体的には、古い(切り替え前)ノードセットをC1、新しい(切り替え後)ノードセットをC2、新旧ノードセットの和集合をC1UC2とするとき、C1から、C1UC2の構成を経て、C2の構成に遷移する。そして、管理装置104は、新構成に変化後、リーダ見直し処理を実行し、Leader_newを選択する。
別言すれば、情報処理装置10は、アクセス経路に1以上のプロキシ102を挟んで最も実行されている1以上のクライアント103のアクセス情報を収集する。情報処理装置10は、アクセス情報に基づいて、複数のストレージノード101と1以上のプロキシ102との間のそれぞれのネットワーク距離とを算出する。情報処理装置10は、ネットワーク距離に基づき、複数のストレージノード101の中から、最もアクセス頻度が高いプロキシに近いストレージノード101をリーダとして決定する。
アクセス情報は、ネットワーク距離を算出するための、複数のストレージノード101と1以上のプロキシ102との間における静的なパラメータ及び動的なパラメータを含んでよい。
情報処理装置10は、クライアント103によってアクセス性能値が要件を満たさないと判定された場合に、リーダを決定してよい。また、情報処理装置10は、クライアント103によって複数のストレージノード101の拠点変更のための要件が満たされると判定された場合に、リーダを決定してよい。
図4は、図3に示した分散データストアシステム100におけるSパラメータのうちラウンドトリップタイム(RTT)を例示するテーブルである。
ここで、Sパラメータとは、ほぼ静的なパラメータである。Sパラメータは、事前又は適宜測定して求められてよい。Sパラメータは、完全な定数ではなく、見直し頻度が後述するDパラメータよりも非常に低いパラメータである。
図4に示すラウンドトリップタイムには、各ストレージノード101(SN#1~#n)から各プロキシ102(プロキシ#1~#3)に対するラウンドトリップタイムが登録されている。
例えば、SN#1において、プロキシ#1に対するラウンドトリップタイムは10ミリ秒であり、プロキシ#2に対するラウンドトリップタイムは100ミリ秒であり、プロキシ#3に対するラウンドトリップタイムは180ミリ秒である。
図5は、図3に示した分散データストアシステム100におけるSパラメータのうちアップロード(上り)帯域幅を例示するテーブルである。
図5に示すアップロード帯域幅には、各プロキシ102(プロキシ#1~#3)から各ストレージノード101(SN#1~#n)に対するアップロード帯域幅が登録されている。
例えば、SN#1において、プロキシ#1からのアップロード帯域幅は500MB/sであり、プロキシ#2からのアップロード帯域幅は600MB/sであり、プロキシ#3からのアップロード帯域幅は900MB/sである。
図6は、図3に示した分散データストアシステム100におけるSパラメータのうちダウンロード(下り)帯域幅を例示するテーブルである。
図6に示すダウンロード帯域幅には、各ストレージノード101(SN#1~#n)から各プロキシ102(プロキシ#1~#3)に対するダウンロード帯域幅が登録されている。
例えば、SN#1において、プロキシ#1に対するダウンロード帯域幅は550MB/sであり、プロキシ#2に対するダウンロード帯域幅は650MB/sであり、プロキシ#3に対するダウンロード帯域幅は950MB/sである。
図7は、図3に示した分散データストアシステム100におけるSパラメータのうちメッセージレート(MR)を例示するテーブルである。
図7に示すメッセージレートには、各ストレージノード101(SN#1~#n)間において、毎秒、固定長のメッセージがいくつ処理可能であるかを示すメッセージレートが登録されている。
例えば、SN#1において、SN#2との間のメッセージレートはm1,2であり、SN#nとの間のメッセージレートはm1,nである。
図8は、図3に示した分散データストアシステム100におけるSパラメータのうち上り下り帯域幅を例示するテーブルである。
図8に示す上り下り帯域幅には、各ストレージノード101(SN#1~#n)間における上り下り帯域幅が登録されている。
例えば、SN#1において、SN#2との間の上り下り帯域幅はu1,2であり、SN#nとの間の上り下り帯域幅はu1,nである。
図9は、図3に示した分散データストアシステム100におけるDパラメータのうちのダウンロード(下り)の帯域幅を示すテーブルである。
Dパラメータは、動的に変化するパラメータである。
図9に示すダウンロードの帯域幅には、各プロキシ102(プロキシ#1~#3)における読み込み割合(R_ratio),書き込み割合(W_ratio)及び読み書き割合(RW_ratio)が登録されている。
図9に示す例において、例えば、プロキシ#1に対するRead回数は10であり、Write回数は20であり、RW(読み書き)回数は30である。また、プロキシ#1~#3の合計のRead回数は130であり、Write回数は125であり、RW回数は255である。そこで、プロキシ#1について、R_ratio=10/130,W_ratio=20/125及びRW_ratio=30/255が算出される。
図10は、図3に示した分散データストアシステム100におけるDパラメータのうち転送データ量を示すテーブルである。
図10に示す転送データ量には、各プロキシ102(プロキシ#1~#3)における期間Δについての読み込み割合(R_ratio),書き込み割合(W_ratio)及び読み書き割合(RW_ratio)が登録されている。
図10に示す例において、例えば、プロキシ#1に対するReadデータ量は100MBであり、Writeデータ量は220MBであり、RW(読み書き)データ量は320MBである。また、プロキシ#1~#3の合計のReadデータ量は310であり、Writeデータ量は1900であり、RWデータ量は2210である。そこで、プロキシ#1について、R_ratio=100/310,W_ratio=220/1900及びRW_ratio=320/2210が算出される。
図11は、図3に示した分散データストアシステム100においてリーダノードを決定するためのテーブルである。
ネットワーク距離が計算されることにより、ストレージノード101の拠点を固定した場合に、プロキシ102のアクセス状況からリーダノードが決定されると共に、現在のネットワークの混雑状況とプロキシ102のアクセス状況とからストレージノード101の構成が決定されてよい。
リーダノードは、例えば、図9に示したダウンロードの帯域幅のRW_ratioと図4に示したラウンドトリップタイムとに基づいて算出されてよい。別言すれば、全クライアント103のRWリクエストの平均RTTをストレージノード101毎に計算するため、SパラメータのRTTとDパラメータのRW_ratioとが使用される。
図11に示すように、プロキシ#PにおけるRW_ratioをuPとして、SN#Qとプロキシ#Pとの間のRTTをrQPとした場合に、下記のc1, c2, c3の中で0よりも大きい最小のものが次のリーダノードとして決定されてよい。
c1 = r11*u1+r12*u2+r13*u3
c2 = r21*u1+r22*u2+r23*u3
c3 = r31*u1+r32*u2+r33*u3
図12は、図3に示した分散データストアシステム100においてストレージノード101の構成を決定するためのテーブルである。
ネットワークの混み状況を反映させるため、Sパラメータは直前に測定されてよい。3拠点、4拠点、…、N拠点のそれぞれについて、割り当てと距離が求められてよい。
以下では、総拠点数(N=4)で3拠点が選択される場合について説明する。
ストレージノード101はSN#1~#4の4つであり、3拠点の選び方は(1,2,3)、(1,2,4)、(1,3,4)、(2,3,4)の4通りである。
(1,2,3)について、T個のレプリカメッセージの送信時間は、リーダをSN#1にすると、(T/m12+T/m13)である。Tを1とすると、図12に示すテーブルにおいてf1=(1/m12+1/m13)が算出される。また、プロキシ102とのネットワーク距離は、c1 = (r11*u1+r12*u2+r13*u3)と求まる。なお、図12は、図7に示したメッセージレートを例示するテーブルに対応する。
また、リーダをSN#2にすると、図12に示すテーブルにおいてf2=(1/m21+1/m23)、プロキシ102とのネットワーク距離c2は、c2 = (r21*u1+r22*u2+r23*u3)と求まる。
同様に、リーダをSN#3とした場合のネットワーク距離c3も求まる。
図13は、図3に示した分散データストアシステム100においてネットワーク距離を算出するためのテーブルである。
図13において、関数B(距離B)は、F距離とC距離とをパラメータとして、適切な定数で重みづけして加算したものである。
関数Bに対する重み付けとしては、例えば、多項式回帰を用いることにより、B(x,y) = a0*x+a1*y+a2*x*x+a3*y*y+a4*x*yが使用されてよい。平均Bは、同じ拠点集合の関数Bの平均値を示す。
4拠点以上の場合には、3拠点の場合よりも平均Bは大きくなるが、信頼性が上がる。従って、信頼性を含めて、重み付けを適用することにより、距離(平均Bと信頼性との組)が最小になる拠点の組み合わせが存在する。この組み合わせが拠点割り当ての解となる。
〔A-2〕動作例
実施形態におけるクライアント103サイドの性能監視処理の第1の例を、図14に示すフローチャート(ステップS1~S4)に従って説明する。
性能監視処理は、クライアント103自身又はエージェントが行う。エージェントは、クライアント103と同一のサーバ上に存在して動作する、独立したプロセスである。
性能監視処理は、一定のインターバル(1分に1回等)の経過や、クライアント103の性能指標(応答時間など)の悪化を契機として開始されてよい。性能値が性能要件を満たさない場合、管理装置104にリーダ見直しリクエストが送信されてよい。
クライアント103は、IO性能値vを読み出す(ステップS1)。
クライアント103は、IO性能値vが性能要件(SLA)を満たすかを判断する(ステップS2)。
IO性能値vが性能要件を満たす場合には(ステップS2のYESルート参照)、処理はステップS4へ進む。
一方、IO性能値vが性能要件を満たさない場合には(ステップS2のNOルート参照)、クライアント103は、管理装置104へリーダ見直しリクエストを送信する(ステップS3)。
クライアント103は、一定の時間待ち、又は、次の監視契機を待ち(ステップS4)、処理はステップS1へ戻る。
次に、実施形態における管理装置104のリーダ見直し処理の第1の例を、図15に示すフローチャート(ステップS11~S20)に従って説明する。
管理装置104は、クライアント103からリーダ見直しリクエストを受信する(ステップS11)。
管理装置104は、Sパラメータを取得する(ステップS12)。
管理装置104は、Dパラメータを取得する(ステップS13)。
管理装置104は、取得したSパラメータ及びDパラメータに基づき、ネットワーク(NW)距離を計算する(ステップS14)。
管理装置104は、計算したネットワーク距離に基づき、新しいリーダノードであるLeader_newを決定する(ステップS15)。
管理装置104は、現在のリーダノードであるLeader_currを設定する(ステップS16)。
管理装置104は、Leader_newを示すTriggerElectionRPCをLeader_currのストレージノード101へ送信する(ステップS17)。
管理装置104は、Leader_currのストレージノード101からの応答受信待ちを行う(ステップS18)。
管理装置104は、応答結果=ACKであるかを判定する(ステップS19)。
応答結果=ACKである場合には(ステップS19のYESルート参照)、リーダ見直し処理は終了する。
一方、応答結果=ACKでない場合には(ステップS19のNOルート参照)、管理装置104は、応答結果に含まれている現在のリーダノードをLeader_currに設定して(ステップS20)、処理はステップS17へ戻る。
次に、実施形態におけるストレージノード101のリーダ見直し処理の第1の例を、図16に示すフローチャート(ステップS21~S26)に従って説明する。
ストレージノード101は、Leader_newを示すTriggerElectionRPCリクエストを管理装置104から受信する(ステップS21)。
ストレージノード101は、自分が現在リーダノードであるかを判定する(ステップS22)。
自分が現在リーダノードでない場合には(ステップS22のNOルート参照)、ストレージノード101は、NACK及び現在のリーダを示す情報を管理装置104へ応答する(ステップS23)。そして、リーダ見直し処理は終了する。
一方、自分が現在リーダである場合には(ステップS22のYESルート参照)、ストレージノード101は、ACK及び現在のリーダを示す情報を管理装置104へ応答する(ステップS24)。
ストレージノード101は、自分がLeader_newであるかを判定する(ステップS25)。
自分がLeader_newである場合には(ステップS25のYESルート参照)、リーダ見直し処理は終了する。
一方、自分がLeader_newでない場合には(ステップS25のNOルート参照)、Leader_newについてAppendEntryRPCの一時停止設定を行う(ステップS26)。そして、リーダ見直し処理は終了する。
次に、実施形態におけるストレージノード101のリーダ見直し処理の第2の例を、図17に示すフローチャート(ステップS31~S39)に従って説明する。
ストレージノード101は、自分がリーダノードであるかを判定する(ステップS31)。
自分がリーダノードである場合には(ステップS31のYESルート参照)、リーダ見直し処理は終了する。
一方、自分がリーダノードでない場合には(ステップS31のNOルート参照)、ストレージノード101は、状態がCandidateであるかを判定する(ステップS32)。
状態がCandidateである場合には(ステップS32のYESルート参照)、リーダ見直し処理は終了する。
一方、状態がCandidateでない場合には(ステップS32のNOルート参照)、ストレージノード101は、Sパラメータを取得する(ステップS33)。
ストレージノード101は、Dパラメータを取得する(ステップS34)。
ストレージノード101は、取得したSパラメータ及びDパラメータに基づき、ネットワーク(NW)距離を計算する(ステップS35)。
ストレージノード101は、計算したネットワーク距離に基づき、新しいリーダノードであるLeader_newを決定する(ステップS36)。
ストレージノード101は、自分がLeader_newであるかを判定する(ステップS37)。
自分がLeader_newでない場合には(ステップS37のNOルート参照)、リーダ見直し処理は終了する。
一方、自分がLeader_newである場合には(ステップS37のYESルート参照)、ストレージノード101は、状態をCandidateに変更する(ステップS38)。
ストレージノード101は、各ストレージノード101によるリーダノードの選挙を開始する(ステップS39)。そして、リーダ見直し処理は終了する。
次に、実施形態におけるクライアント103サイドの拠点変更リクエストのための性能監視処理を、図18に示すフローチャート(ステップS41~S45)に従って説明する。
クライアント103は、IO性能値vを読み出す(ステップS41)。
クライアント103は、IO性能値vが性能要件(SLA)を満たすかを判断する(ステップS42)。
IO性能値vが性能要件を満たす場合には(ステップS42のYESルート参照)、処理はステップS45へ進む。
一方、IO性能値vが性能要件を満たさない場合には(ステップS42のNOルート参照)、クライアント103は、IO性能値vが構成変更条件を満たすかを判定する(ステップS43)。
IO性能値vが構成変更条件を満たさない場合には(ステップS43のNOルート参照)、処理はステップS45へ進む。
一方、IO性能値vが構成変更条件を満たす場合には(ステップS43のYESルート参照)、クライアント103は、管理装置104へ拠点変更リクエストを送信する(ステップS44)。
クライアント103は、一定の時間待ち、又は、次の監視契機を待ち(ステップS45)、処理はステップS41へ戻る。
次に、実施形態における管理装置104の拠点変更リクエストに伴うリーダ見直し処理を、図19に示すフローチャート(ステップS51~S63)に従って説明する。
管理装置104は、クライアント103から拠点変更リクエストを受信する(ステップS51)。
管理装置104は、Sパラメータを取得する(ステップS52)。
管理装置104は、Dパラメータを取得する(ステップS53)。
管理装置104は、取得したSパラメータ及びDパラメータに基づき、ネットワーク(NW)距離を計算する(ステップS54)。
管理装置104は、計算したネットワーク距離に基づき、ストレージノード101の集合SNS_new及び新しいリーダノードであるLeader_newを決定する(ステップS55)。
管理装置104は、現在のストレージノード101の集合であるSNS_Currを設定する(ステップS56)。
管理装置104は、SNS_currとSNS_newとが同一であるかを判定する(ステップS57)。
SNS_currとSNS_newとが同一である場合には(ステップS57のYESルート参照)、処理はステップS63へ進む。
一方、SNS_currとSNS_newとが同一でない場合には(ステップS57のNOルート参照)、管理装置104は、追加集合SNS_addにSNS_new -SNS_currの値を設定する(ステップS58)。
管理装置104は、削除集合SNS_dellにSNS_curr- SNS_new の値を設定する(ステップS59)。
管理装置104は、追加集合SNS_addの値に基づき、新規ノードを確保する(ステップS60)。
管理装置104は、SNS_currとSNS_newとでジョイントコンセンサスを行う(ステップS61)。
管理装置104は、削除集合SNS_dellの値に基づき、不要ノードを解放する(ステップS62)。
管理装置104は、リーダ見直し処理を実行する(ステップS63)。そして、拠点変更リクエストに伴うリーダ見直し処理は終了する。
〔B〕効果
上述した実施形態の一例における情報処理装置10,プログラム及び情報処理方法によれば、例えば、以下の作用効果を奏することができる。
情報処理装置10は、アクセス経路に1以上のプロキシ102を挟んで最も実行されている1以上のクライアント103のアクセス情報を収集する。情報処理装置10は、アクセス情報に基づいて、複数のストレージノード101と1以上のプロキシ102との間のそれぞれのネットワーク距離とを算出する。情報処理装置10は、ネットワーク距離に基づき、複数のストレージノード101の中から、最もアクセス頻度が高いプロキシ102に近いストレージノード101をリーダとして決定する。
これにより、分散データストアの性能を向上できる。具体的には、クライアント103からの読み書き処理速度やスループット、レイテンシを向上できる。
アクセス情報は、ネットワーク距離を算出するための、複数のストレージノード101と1以上のプロキシ102との間における静的なパラメータ及び動的なパラメータを含んでよい。これにより、リーダの決定をネットワーク距離に基づいて正確に実施できる。
情報処理装置10は、クライアント103によってアクセス性能値が要件を満たさないと判定された場合に、リーダを決定してよい。また、情報処理装置10は、クライアント103によって複数のストレージノード101の拠点変更のための要件が満たされると判定された場合に、リーダを決定してよい。これにより、リーダの決定を適切なタイミングで実施できる。
〔C〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
〔D〕付記
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
複数のストレージノードと1以上のプロキシと1以上のクライアントとが接続されるネットワークにおいて、
アクセス経路に前記1以上のプロキシを挟んで最も実行されている前記1以上のクライアントのアクセス情報を収集し、
前記アクセス情報に基づいて、前記複数のストレージノードと前記1以上のプロキシとの間のそれぞれのネットワーク距離とを算出し、
前記ネットワーク距離に基づき、前記複数のストレージノードの中から、最もアクセス頻度が高いプロキシに近いストレージノードをリーダとして決定する、
プロセッサを備える、情報処理装置。
(付記2)
前記アクセス情報は、前記ネットワーク距離を算出するための、前記複数のストレージノードと前記1以上のプロキシとの間における静的なパラメータ及び動的なパラメータを含む、
付記1に記載の情報処理装置。
(付記3)
前記プロセッサは、前記クライアントによってアクセス性能値が要件を満たさないと判定された場合に、前記リーダを決定する、
付記1又は2に記載の情報処理装置。
(付記4)
前記プロセッサは、前記クライアントによって前記複数のストレージノードの拠点変更のための要件が満たされると判定された場合に、前記リーダを決定する、
付記1~3のいずれか一項に記載の情報処理装置。
(付記5)
複数のストレージノードと1以上のプロキシと1以上のクライアントとが接続されるネットワークにおいて、
アクセス経路に前記1以上のプロキシを挟んで最も実行されている前記1以上のクライアントのアクセス情報を収集し、
前記アクセス情報に基づいて、前記複数のストレージノードと前記1以上のプロキシとの間のそれぞれのネットワーク距離とを算出し、
前記ネットワーク距離に基づき、前記複数のストレージノードの中から、最もアクセス頻度が高いプロキシに近いストレージノードをリーダとして決定する、
処理をコンピュータに実行させる、プログラム。
(付記6)
前記アクセス情報は、前記ネットワーク距離を算出するための、前記複数のストレージノードと前記1以上のプロキシとの間における静的なパラメータ及び動的なパラメータを含む、
付記5に記載のプログラム。
(付記7)
前記クライアントによってアクセス性能値が要件を満たさないと判定された場合に、前記リーダを決定する、
処理を前記コンピュータに実行させる、付記5又は6に記載のプログラム。
(付記8)
前記クライアントによって前記複数のストレージノードの拠点変更のための要件が満たされると判定された場合に、前記リーダを決定する、
処理を前記コンピュータに実行させる、付記5~7のいずれか一項に記載のプログラム。
(付記9)
複数のストレージノードと1以上のプロキシと1以上のクライアントとが接続されるネットワークにおいて、
アクセス経路に前記1以上のプロキシを挟んで最も実行されている前記の1以上のクライアントのアクセス情報を収集し、
前記アクセス情報に基づいて、前記複数のストレージノードと前記1以上のプロキシとの間のそれぞれのネットワーク距離とを算出し、
前記ネットワーク距離に基づき、前記複数のストレージノードの中から、最もアクセス頻度が高いプロキシに近いストレージノードをリーダとして決定する、
処理をコンピュータが実行する、情報処理方法。
(付記10)
前記アクセス情報は、前記ネットワーク距離を算出するための、前記複数のストレージノードと前記1以上のプロキシとの間における静的なパラメータ及び動的なパラメータを含む、
付記9に記載の情報処理方法。
(付記11)
前記クライアントによってアクセス性能値が要件を満たさないと判定された場合に、前記リーダを決定する、
処理を前記コンピュータが実行する、付記9又は10に記載の情報処理方法。
(付記12)
前記クライアントによって前記複数のストレージノードの拠点変更のための要件が満たされると判定された場合に、前記リーダを決定する、
処理を前記コンピュータが実行する、付記9~11のいずれか一項に記載の情報処理方法。
1 :コンピュータ装置
2 :ネットワークスイッチ
3 :インターネット
10 :情報処理装置
11 :プロセッサ
12 :メモリ
13 :ストレージデバイス
14 :ネットワークデバイス
15 :表示装置
16 :ドライブ装置
100 :分散データストアシステム
101 :ストレージノード
102 :プロキシ
103 :クライアント
104 :管理装置

Claims (6)

  1. 複数のストレージノードと1以上のプロキシと1以上のクライアントとが接続されるネットワークにおいて、
    アクセス経路に前記1以上のプロキシを挟んで最も実行されている前記1以上のクライアントのアクセス情報を収集し、
    前記アクセス情報に基づいて、前記複数のストレージノードと前記1以上のプロキシとの間のそれぞれのネットワーク距離とを算出し、
    前記ネットワーク距離に基づき、前記複数のストレージノードの中から、最もアクセス頻度が高いプロキシに近いストレージノードをリーダとして決定する、
    プロセッサを備える、情報処理装置。
  2. 前記アクセス情報は、前記ネットワーク距離を算出するための、前記複数のストレージノードと前記1以上のプロキシとの間における静的なパラメータ及び動的なパラメータを含む、
    請求項1に記載の情報処理装置。
  3. 前記プロセッサは、前記クライアントによってアクセス性能値が要件を満たさないと判定された場合に、前記リーダを決定する、
    請求項1又は2に記載の情報処理装置。
  4. 前記プロセッサは、前記クライアントによって前記複数のストレージノードの拠点変更のための要件が満たされると判定された場合に、前記リーダを決定する、
    請求項1~3のいずれか一項に記載の情報処理装置。
  5. 複数のストレージノードと1以上のプロキシと1以上のクライアントとが接続されるネットワークにおいて、
    アクセス経路に前記1以上のプロキシを挟んで最も実行されている前記1以上のクライアントのアクセス情報を収集し、
    前記アクセス情報に基づいて、前記複数のストレージノードと前記1以上のプロキシとの間のそれぞれのネットワーク距離とを算出し、
    前記ネットワーク距離に基づき、前記複数のストレージノードの中から、最もアクセス頻度が高いプロキシに近いストレージノードをリーダとして決定する、
    処理をコンピュータに実行させる、プログラム。
  6. 複数のストレージノードと1以上のプロキシと1以上のクライアントとが接続されるネットワークにおいて、
    アクセス経路に前記1以上のプロキシを挟んで最も実行されている前記1以上のクライアントのアクセス情報を収集し、
    前記アクセス情報に基づいて、前記複数のストレージノードと前記1以上のプロキシとの間のそれぞれのネットワーク距離とを算出し、
    前記ネットワーク距離に基づき、前記複数のストレージノードの中から、最もアクセス頻度が高いプロキシに近いストレージノードをリーダとして決定する、
    処理をコンピュータが実行する、情報処理方法。
JP2021087751A 2021-05-25 2021-05-25 情報処理装置,プログラム及び情報処理方法 Pending JP2022180956A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021087751A JP2022180956A (ja) 2021-05-25 2021-05-25 情報処理装置,プログラム及び情報処理方法
US17/592,902 US20220385726A1 (en) 2021-05-25 2022-02-04 Information processing apparatus, computer-readable recording medium storing program, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021087751A JP2022180956A (ja) 2021-05-25 2021-05-25 情報処理装置,プログラム及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2022180956A true JP2022180956A (ja) 2022-12-07

Family

ID=84193454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021087751A Pending JP2022180956A (ja) 2021-05-25 2021-05-25 情報処理装置,プログラム及び情報処理方法

Country Status (2)

Country Link
US (1) US20220385726A1 (ja)
JP (1) JP2022180956A (ja)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8473566B1 (en) * 2006-06-30 2013-06-25 Emc Corporation Methods systems, and computer program products for managing quality-of-service associated with storage shared by computing grids and clusters with a plurality of nodes
WO2009032710A2 (en) * 2007-08-29 2009-03-12 Nirvanix, Inc. Filing system and method for data files stored in a distributed communications network
WO2012011450A1 (ja) * 2010-07-20 2012-01-26 シャープ株式会社 コンテンツ配信装置、コンテンツ再生装置、コンテンツ配信システム、コンテンツ配信装置の制御方法、制御プログラム、および、記録媒体
CN105739909A (zh) * 2014-12-11 2016-07-06 国际商业机器公司 分布式存储系统中基于时间的数据放置方法和装置
US9756117B2 (en) * 2015-09-01 2017-09-05 International Business Machines Corporation Retrieval of a file from multiple storage nodes
US9804940B2 (en) * 2015-10-30 2017-10-31 Netapp, Inc. Techniques for maintaining device coordination in a storage cluster system
CN107526530B (zh) * 2016-06-21 2021-02-19 伊姆西Ip控股有限责任公司 数据处理方法和设备
US10521311B1 (en) * 2016-06-30 2019-12-31 Amazon Technologies, Inc. Prioritized leadership for data replication groups
US10749954B2 (en) * 2016-12-20 2020-08-18 Futurewei Technologies, Inc. Cross-data center hierarchical consensus scheme with geo-aware leader election
CN109729129B (zh) * 2017-10-31 2021-10-26 华为技术有限公司 存储集群系统的配置修改方法、存储集群及计算机系统
US10498812B1 (en) * 2019-05-29 2019-12-03 Cloudflare, Inc. State management and object storage in a distributed cloud computing network
US11327688B2 (en) * 2020-01-13 2022-05-10 Cisco Technology, Inc. Master data placement in distributed storage systems
US11593210B2 (en) * 2020-12-29 2023-02-28 Hewlett Packard Enterprise Development Lp Leader election in a distributed system based on node weight and leadership priority based on network performance

Also Published As

Publication number Publication date
US20220385726A1 (en) 2022-12-01

Similar Documents

Publication Publication Date Title
US20230291674A1 (en) Network health data aggregation service
US9660890B2 (en) Service provider optimization of content management
US10255148B2 (en) Primary role reporting service for resource groups
CN111181849B (zh) 回源路径确定方法、确定装置、计算机设备和存储介质
US10911263B2 (en) Programmatic interfaces for network health information
US20170353535A1 (en) Latency-based routing and load balancing in a network
US7949893B1 (en) Virtual user interface failover
US20150244563A1 (en) Differentiated service-based graceful degradation error
US20070088703A1 (en) Peer-to-peer auction based data distribution
US20060190602A1 (en) Monitoring for replica placement and request distribution
US9075660B2 (en) Apparatus and method for providing service availability to a user via selection of data centers for the user
US20130007253A1 (en) Method, system and corresponding device for load balancing
CN106411629B (zh) 一种用于监控cdn节点的状态的方法和设备
US20210168056A1 (en) Configuration and management of scalable global private networks
CN110519395A (zh) 服务请求处理方法、装置、计算机设备及存储介质
CN111769997A (zh) 网络监测的方法、服务器、设备和计算机可读介质
AU2013201256B2 (en) Differentiated service-based graceful degradation layer
US20080276002A1 (en) Traffic routing based on client intelligence
US12015665B2 (en) Network optimization system using server latency measurements
US10999169B1 (en) Configuration and management of scalable global private networks
JP2022180956A (ja) 情報処理装置,プログラム及び情報処理方法
US7254638B2 (en) Method and apparatus for identifying slow links and for providing application-based responses to slow links in a distributed computer network
JP2000112908A (ja) 負荷分散dnsシステム
WO2007100413A2 (en) Carrier interoperability for critical services
US11979312B2 (en) Network path selection for communication devices