JP6572574B2 - ストレージ制御システム、ストレージ制御システムのノード、およびストレージ制御方法 - Google Patents

ストレージ制御システム、ストレージ制御システムのノード、およびストレージ制御方法 Download PDF

Info

Publication number
JP6572574B2
JP6572574B2 JP2015058847A JP2015058847A JP6572574B2 JP 6572574 B2 JP6572574 B2 JP 6572574B2 JP 2015058847 A JP2015058847 A JP 2015058847A JP 2015058847 A JP2015058847 A JP 2015058847A JP 6572574 B2 JP6572574 B2 JP 6572574B2
Authority
JP
Japan
Prior art keywords
distribution destination
request
node
fragment
destination node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015058847A
Other languages
English (en)
Other versions
JP2016177714A (ja
Inventor
健吾 高橋
健吾 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2015058847A priority Critical patent/JP6572574B2/ja
Publication of JP2016177714A publication Critical patent/JP2016177714A/ja
Application granted granted Critical
Publication of JP6572574B2 publication Critical patent/JP6572574B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ストレージ制御システムおよびストレージ制御方法に係り、特に通信性能劣化を防止するストレージ制御システムおよびストレージ制御方法に関する。
CAS(Content Addressable Storage)は、コンテンツオブジェクトでアクセスするストレージである。例えば、画像データと画像データの属性(撮影日時、フォーマット、画像サイズ)などをパッケージ化したものに、ファイル名の代わりに、固有のコンテンツID(Identification)を付与することで、コンテンツの物理的な格納場所を管理する。コンテンツは、コンテンツIDからアクセスされることで、簡単な管理で、コンテンツの長期間に渡る安全な保存、容易な参照を実現することができる。
ノード(サーバ)単位の拡張性および冗長性を持つCASにおけるデータの格納方式は、データをフラグメントと呼ばれる小さい単位に分割し、データに対してパリティを付加した上で、各ノードに分散格納する手段が一般的である。しかし、この手段の課題として、一部のノードの性能劣化が、システム全体の性能に直接影響を与えてしまう事が挙げられる。このような場合の解決策として、性能劣化を引き起こしたノードをシステムから切り離す方式が採用されている。しかし、一部のノードと他のノードの間で通信性能の不安定な劣化が発生する場合においては、ノードが完全に使用できなくなっているわけではないため、システムの機能性を損なう事なく、ノードを切り離さずに使い続けたいというニーズがある。
上記に関連する技術として、特許文献1には、ストレージシステムにおいて、フラグメントデータのデータ配置状況を記憶するデータ配置監視手段と、記憶手段がダウンした場合にフラグメントデータを、他の記憶手段に記憶されている他のフラグメントデータに基づいて再生成して当該他の記憶手段に記憶するデータ復元手段とを備える技術が開示されている。さらに、ダウンした記憶手段が復旧した場合に、データ配置監視手段にて記憶されたデータ配置情報にて表わされたデータ配置状況となるよう、復旧した記憶手段に記憶されているフラグメントデータを用いて当該フラグメントデータのデータ配置を復帰させるデータ配置復帰手段を備える技術が開示されている。
さらに、特許文献2には、先読みしたWEB情報を転送する際に、TCPプロトコルとUDPプロトコルを適宜選択して伝送効率を高める技術が開示されている。すなわち、定期的に情報蓄積サーバとの間で伝送遅延時間を測定し、測定された伝送遅延時間が一定時間以下の場合にTCPプロトコルを用い、一定時間を超えている場合にUDPプロトコルを用いて先読みされたWEB情報を情報蓄積サーバへ送信する技術が開示されている。
特開2010−191558号公報 特開2013−127719号公報
しかしながら、特許文献1は、予めストレージシステムがダウンした時に備えて、データ配置を記憶しておく必要があるため、データ監視手段、データ記憶手段、データ復元手段という構成要素が必要になるという課題があった。
また、特許文献2は、TCPプロトコルとUDPプロトコルを使い分けているが、UDPプロトコルを使用する場合は、データ受信の順序の逆転に対しては、受信順序制御処理が必要となるという課題があった。
本発明の目的は、この点を鑑みたものであり、データ配置を記憶する手段やデータ受信順序制御処理手段を必要とせずに、通信障害が発生しても通信性能の劣化を最小限に抑えられるストレージ制御システムを提供することにある。
本発明では、上記課題を解決するために、外部から書込み要求を受取った要求元ノードが対象データを所定容量に分割して記憶装置に格納するストレージ制御システムにおいて、要求元ノードは、対象データを分配先ノードに分配後、分配先ノードの一部から結果が連絡されない場合でも書込みの成功情報を外部に連絡し、所定の分配先ノードに対し、結果が連絡されなかったデータの後処理を委託する要求処理部を有することを特徴としている。
また、本発明では、上記課題を解決するために、外部から書込み要求を受取った要求元ノードが対象データを所定容量に分割して記憶装置に格納するストレージ制御方法において、要求元ノードは、対象データを分配先ノードに分配後、分配先ノードの一部から結果が連絡されない場合でも書込みの成功情報を外部に連絡し、所定の分配先ノードに対し、結果が連絡されなかったデータの後処理を委託するステップを有することを特徴としている。
本発明によれば、データ配置を記憶する手段やデータ受信順序制御処理手段を必要とせずに、通信障害が発生しても通信性能の劣化を最小限に抑えられるストレージ制御システムを提供することができる。
本発明の実施の形態におけるストレージ制御システムの構成を示すブロック図である。 本発明の実施の形態における通信制御部の動作を示すフローチャートである。 本発明の実施の形態におけるノード100の要求処理部が利用者から書き込み要求を受け取ったときの各ノードの動作を表すイメージ図である。 本発明の実施の形態におけるノード100の要求処理部が利用者から読み込み要求を受け取ったときの各ノードの動作を表すイメージ図である。
以下、本発明の実施の形態について図面を参照して詳細に説明する。
(実施の形態)
図1は、本発明の実施の形態におけるストレージ制御システムの構成を示すブロック図である。
図1において、CAS1000は、複数のノードを有し、ノード単位の拡張性および冗長性を持つCASである。
ノード100は、要求処理部1、通信制御部2、主記憶装置3、補助記憶装置4、TCP(Transmission Control Protocol)制御部5、UDP(User Datagram Protocol)制御部6、通信装置7を有している。他のノードも、すべて同じ構成を有している。
要求処理部1は、CAS1000の外部の利用者2000からの要求(データの書き込み要求および読み込み要求)を受け付け、通信装置7を経由して他のノードに要求を送る。要求を受け取った各ノードの要求処理部1は、要求に応じた処理を行う。例えば、書き込み処理の場合、データを分割したフラグメントを補助記憶装置4に書き込み、要求元に書き込みの完了通知を送る。また、読込処理の場合、フラグメントを補助記憶装置4から読み込み、要求元にフラグメントを送る。要求元のノード100の要求処理部1は、利用者2000に要求に対する応答(書き込み要求の場合は完了通知、読み込み要求の場合はフラグメントから復元したデータ)を返却する。
通信制御部2は、各ノード間の通信状況を監視し、TCP制御部5とUDP制御部6のどちらを通信に使用するかを選択する。要求処理部1からの通信要求に応じて、TCP制御部5またはUDP制御部6を経由して通信装置7にアクセスし、ノード間の通信を実現する。主記憶装置3は、要求に伴うデータ、フラグメント、パリティを一時的に記憶するために使用される。補助記憶装置4は、フラグメント、パリティの恒久的な記憶に使用される。TCP制御部5およびUDP制御部6は、TCPによる通信およびUDPによる通信を動的に切り替えるため、通信制御部2によって制御される。
図1、図2、図3、図4を用いて、本実施形態の動作を説明する。
図2は、本実施形態における通信制御部の動作を示すフローチャートである。図3は、ノード100の要求処理部1が、CAS1000の外部の利用者2000から書き込み要求を受け取ったときの各ノードの動作を表すイメージ図である。図4は、ノード100の要求処理部1が利用者2000から読み込み要求を受け取ったときの各ノードの動作を表すイメージ図である。
図2において、通信制御部2は、通信装置7から通信性能(帯域および平均応答時間)を示す統計情報を定期的に受け取る(S101)。通信制御部2は、通信装置7から受け取った帯域および平均応答時間を元に、通信性能の劣化状況を判断する(S102)。通信制御部2は、帯域に対して平均応答時間が正常値であるかを判断するための閾値Aを持ち、帯域に対して平均応答時間が閾値Aを上回った場合、通信障害が発生していると判断するものとする。通信制御部2は、要求処理部1が他のノード100と通信する際に使用するプロトコル(TCPまたはUDP)を選択する。TCP制御部5は、他のノード100とTCP通信を行う機能を有し、UDP制御部6は、他のノード100とUDP通信を行う機能を有する。
通信制御部2は、通信障害が発生していないと判断している場合(S102のYes)、要求処理部1とTCP制御部5をリンクする。その結果、要求処理部1はTCPを用いて他のノード100と通信を行う(S103)。
通信制御部2が、通信障害が発生していると判断している場合は(S102のNo)、通信障害が発生している間、要求処理部1のリンク先をTCP制御部5からUDP制御部6に切り替える。その結果、要求処理部1はUDPを用いて他のノード100と通信を行う(S104)。また、UDPを使用しても、なおシステムが使用に耐えない状況であれば、障害のあるノードをシステムから切り離す。
CASは、データのハッシュ値によってデータの格納先が決まるという特性上、データの順序性が重要ではない。また、応答確認や再送制御が無い事による信頼性の低下は、冗長性によってカバーされる。以上より、CASとUDPを組み合わせた場合に、TCPと同等の機能を補完する必要は無い。
上記の手法を最大限に生かすため、要求処理部1は、利用者2000から受け取った要求を各ノードに分配したあと、要求を分配した全てのノードからノードでのフラグメントに対する処理の結果を受け取るのを待たない。データを分割したフラグメントの数をN、1つのデータに対して付与されたパリティの数をMとすると、ノードの数が十分に多いCASの場合、要求を分配するノードの数は、最大で、N+M−1となる(−1は要求元のノード100が自分で処理する分となる)(MとNは無関係で、MとNは2以上の整数)。これは、分割されたフラグメントと付与されたパリティを個別にノードに分配することを意味している。要求元のノード100は、要求を分配したノードから、N−1個の結果を受け取った時点で、利用者2000に結果を返す。
図3を用いて、ノード100の要求処理部1が、利用者2000から書き込み要求を受け取ったときの各ノードの動作について説明する。図3において、101〜105は、ノード100から分配を受けるノードである。
S201:利用者2000からの書き込み要求の受諾
利用者2000から書き込み要求を受け取った要求処理部1は、主記憶装置3上でデータをフラグメントに分割し、パリティを作成する。
S202:要求元のノード100から各ノードへの要求分配
利用者2000から書き込み要求を受け取った要求処理部1は、TCP制御部5またはUDP制御部6を経由して、他のノード101〜105に要求を分配する。この時、一部のノード(ノード105)に対する通信は、通信障害のため失敗する可能性があるとする。
S203:ノード101〜105における処理
要求元のノード100および要求分配先のノード101〜105において、主記憶装置3上に記憶されたフラグメントとパリティを、補助記憶装置4に格納する。補助記憶装置4への格納が完了した要求分配先のノード101〜105は、要求元のノード100に、TCP制御部5またはUDP制御部6を経由して、結果(成功または失敗)を返却する。
S204:利用者2000への結果返却
要求元のノード100は、必要数のノード(要求元のノード100を含んで、フラグメント数N個分)から成功を受け取った時点で、利用者2000に結果(成功)を返却する。逆に、パリティ数Mを超えた数の失敗を受け取った場合は、利用者2000に結果(失敗)を返却するか、結果(失敗)を返却せずにリトライを行う。失敗が、パリティ数を超えるとデータ復旧ができなくなるためである。通信障害のため、一定時間を経過しても利用者2000に結果を返却できない状況の場合も、リトライを行う。これは、要求分配先のノード101〜105の一部から結果が返却されなかったとしても、それがパリティ数Mを超えなければ、書き込み要求に対して遅延なく結果を利用者2000に渡せることを意味する。なお、利用者に結果を返却した時点で、要求元のノード100の主記憶装置3からは、結果(成功)を受け取ったフラグメントとパリティを削除する。
S205:遅延した書き込み処理の後処理の委託
要求元のノード100は、要求分配先のノード101〜105から結果(成功)を受け取らなかったフラグメントとパリティにおいて、後処理を行うためのノードを選択する。後処理を行うためのノードは、結果(成功)を受け取ったノードの中で、現在処理しているフラグメントやパリティが少ないものの中から任意に選ばれる(例えばノード102)。要求元のノード100は、選択されたノード102に対して、対象となるフラグメント・パリティを送り、後処理の委託を行う。
要求元のノード100は、要求分配先のノード101〜105から、すべて成功の結果を受け取った場合は、後処理の委託は行わない。
S206:後処理の委託に対する応答
後処理を委託されたノード102は、要求元のノード100に対して、応答(受理または拒否)を返却する。受理された場合、要求元のノード100の主記憶装置3は、後処理を委託したフラグメントとパリティを削除する。
S207:後処理
後処理を委託されたノード102は、対象となるフラグメントとパリティが本来格納されているべきノード105に対して、定期的にTCP制御部5またはUDP制御部6を経由して通信を行う。まず最初に、対象となるフラグメントとパリティが本来格納されているべきノード105に対して、対象となるフラグメントとパリティが格納されているか否かを確認する。
格納されていることを確認した場合、後処理は不要となるため、後処理を委託されたノード102の主記憶装置3は、対象となるフラグメントとパリティを削除する。その後、ノード105からフラグメントの処理結果が来るのを待つ。
一方格納されていないことを確認した場合、後処理を委託されたノード102は、対象となるフラグメントとパリティが本来格納されているべきノード105に対して、書き込みを試みる。書き込みに失敗した場合は、定期的にリトライを行う。これらの通信は、利用者2000からの他の要求を遅延させすぎないよう、帯域を抑えて行われる。
次に図4を用いて、ノード100の要求処理部1が、利用者2000から読み込み要求を受け取ったときの各ノードの動作について説明する。図4において、101〜105は、ノード100から分配を受けるノードである。
S208:要求元のノード100からノード101〜105への要求分配
利用者2000から読み込み要求を受け取った要求処理部1は、TCP制御部5またはUDP制御部6を経由して、他のノード101〜105に要求を分配する。この時、一部のノードに対する通信は、通信障害のため失敗する可能性があるとする(例えば、105)。
S209:ノード101〜105における処理
要求元のノード100および要求分配先のノード101〜105において、補助記憶装置4上に記憶されたフラグメントとパリティを、主記憶装置3に読み出す。主記憶装置3への読み出しが完了した要求分配先のノード101〜105は、要求元のノード100に、TCP制御部5またはUDP制御部6を経由して、読み出したフラグメントとパリティを送信する。
S210:利用者2000への結果返却
要求元のノード100は、必要数のノード(要求元のノード100を含んで、フラグメント数N個分)から成功を受け取った時点で、受け取ったフラグメントとパリティからデータを復元し、利用者2000に返却する。
逆に、失敗をパリティ数Mを超えて受け取った場合は、利用者2000に結果(失敗)を返却するか、リトライを行う。一定時間を経過しても利用者2000に結果を返却できない状況の場合も、リトライを行う。これは、要求分配先のノード101〜105の一部から結果が返却されなかったとしても、それがパリティ数Mを超えなければ、読み込み要求に対して遅延なく結果を利用者2000に渡せることを意味する。なお、利用者に結果を返却した後、要求元のノード100の主記憶装置3上にある復元されたデータ、および各ノード100の主記憶装置3上にある、読み出されたフラグメントとパリティは、任意のタイミングで削除される。
以上のように本実施形態は、書込み要求を受取った要求元ノードは、書込み要求に対するデータを分割し要求分配先のノードに分配し、要求元ノードは、要求分配先のノードの一部から結果が返却されない場合でも書込みの成功を返却し、選択されたノードに対し、結果が返却されなかったデータの後処理を委託する。また、後処理を委託されたノードは、対象となるデータが本来格納されているべきノードに対し、書込み処理を行うことにより、通信性能が不安定になるような通信障害の場合、通信制御方式を切り替えて通信する。
このように本実施形態によれば、データ配置を記憶する手段やデータ受信順序制御処理手段を必要とせずに、通信障害が発生しても通信性能の劣化を最小限に抑えられるストレージ制御システムを提供できる。
尚、本願発明は、上述の実施の形態に限定されるものではなく、本願発明の要旨を逸脱しない範囲で種々変更、変形して実施することが出来る。例えば、通信制御部は、TCP制御部とUDP制御部のどちらを使用するかを判断するのに、別の情報を使用してもよい。ある一つのノードの通信制御部が、全てのノードの通信装置から統計情報を収集し、CAS全体の通信状況を元に判断を行うということも可能である。
本発明は、通信障害が発生しても通信性能の劣化を最小限に抑えられるストレージ制御システムとして利用できる。
1 要求処理部
2 通信制御部
3 主記憶装置
4 補助記憶装置
5 TCP制御部
6 UDP制御部
7 通信装置
100 ノード
101 ノード
102 ノード
103 ノード
104 ノード
105 ノード
1000 CAS
2000 利用者

Claims (7)

  1. 対象データの書き込みを要求するための書き込み要求を受け付けた場合に、
    前記対象データを所定容量のフラグメントに分割し、
    分割された前記フラグメントの書き込みの要求を複数の分配先ノードへ送信し、
    前記フラグメントの書き込みの要求に対して前記フラグメントの書き込みが成功したことを表す結果を複数の前記分配先ノードから受信する
    要求処理手段を備え、
    前記要求処理手段は、前記フラグメントの書き込みが成功したことを表す結果を複数の前記分配先ノードのうち第1の分配先ノードから受信しない場合に、前記第1の分配先ノードに対して、前記第1の分配先ノードへ送信された前記フラグメントが格納されているか否かを確認し、格納されていなければ、書き込みが成功するまで、該フラグメントの書き込みを試みる要求を、前記フラグメントの書き込みが成功したことを表す結果を送信した複数の前記分配先ノードのうち第2の分配先ノードへ送信す
    ード。
  2. 前記要求処理手段は、複数の前記分配先ノードのうち、書き込まれた前記フラグメントの処理数がより少ない第3の分配先ノードを前記第2の分配先ノードとして選択する
    請求項1に記載のノード。
  3. 前記要求処理手段は、前記第2の分配先ノードへ送信した前記フラグメントの書き込みの要求について、前記第1の分配先ノードへの該要求の送信を前記第2の分配先ノードへ委託する
    請求項1または2に記載のノード。
  4. 複数の前記分配先ノードのうち第4の分配先ノードとの間で通信障害が発生した場合に、前記第4の分配先ノードとの間における通信制御方式を第1の通信制御方式から第2の通信制御方式へ切り替える通信制御手段を更に備える
    請求項1から3のうち1項に記載のノード。
  5. 前記第1の通信制御方式はTCP(Transmission Control Protocol)であり、前記第2の通信制御方式はUDP(User Datagram Protocol)である
    請求項4に記載のノード。
  6. 対象データの書き込みを要求するための書き込み要求を受け付けた場合に、
    前記対象データを所定容量のフラグメントに分割し、
    分割された前記フラグメントの書き込みの要求を複数の分配先ノードへ送信し、
    前記フラグメントの書き込みの要求に対して前記フラグメントの書き込みが成功したことを表す結果を複数の前記分配先ノードから受信する
    要求処理手順を含むストレージ制御方法であって
    前記要求処理手順において、前記フラグメントの書き込みが成功したことを表す結果を複数の前記分配先ノードのうち第1の分配先ノードから受信しない場合に、前記第1の分配先ノードに対して、前記第1の分配先ノードへ送信された前記フラグメントが格納されているか否かを確認し、格納されていなければ、書き込みが成功するまで、該フラグメントの書き込みを試みる要求を、前記フラグメントの書き込みが成功したことを表す結果を送信した複数の前記分配先ノードのうち第2の分配先ノードへ送信する
    ストレージ制御方法。
  7. 請求項1乃至5の何れか1項に記載のノードと、
    複数の前記分配先ノードと
    を備えるストレージ制御システム。
JP2015058847A 2015-03-23 2015-03-23 ストレージ制御システム、ストレージ制御システムのノード、およびストレージ制御方法 Active JP6572574B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015058847A JP6572574B2 (ja) 2015-03-23 2015-03-23 ストレージ制御システム、ストレージ制御システムのノード、およびストレージ制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015058847A JP6572574B2 (ja) 2015-03-23 2015-03-23 ストレージ制御システム、ストレージ制御システムのノード、およびストレージ制御方法

Publications (2)

Publication Number Publication Date
JP2016177714A JP2016177714A (ja) 2016-10-06
JP6572574B2 true JP6572574B2 (ja) 2019-09-11

Family

ID=57071408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015058847A Active JP6572574B2 (ja) 2015-03-23 2015-03-23 ストレージ制御システム、ストレージ制御システムのノード、およびストレージ制御方法

Country Status (1)

Country Link
JP (1) JP6572574B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113010119B (zh) * 2021-04-27 2022-09-30 宏图智能物流股份有限公司 一种通过主备方式实现语音数据分布式存储的方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193502A (ja) * 2008-02-18 2009-08-27 Hitachi Ltd 計算機システム、ストレージ装置、及び、処理代替方法
JP5413948B2 (ja) * 2009-01-27 2014-02-12 日本電気株式会社 ストレージシステム
JP2012088955A (ja) * 2010-10-20 2012-05-10 Nec Corp データ複製システム、データ複製サーバ、データ複製方法、及び、データ複製プログラム
JP5900094B2 (ja) * 2012-03-28 2016-04-06 日本電気株式会社 データ整合システム、データ整合方法およびデータ整合プログラム

Also Published As

Publication number Publication date
JP2016177714A (ja) 2016-10-06

Similar Documents

Publication Publication Date Title
JP6282293B2 (ja) ネットワーク・パラメータに基づく、完全性点検および選択的な重複排除を実施する方法、コンピュータ・システムおよびコンピュータ・プログラム
US7974186B2 (en) Connection recovery device, method and computer-readable medium storing therein processing program
JP5935940B2 (ja) 通信方法、通信装置、および、通信プログラム
US10067719B1 (en) Methods and systems for storing and accessing data in a distributed data storage system
CN113515531B (zh) 数据访问方法、装置、客户端及存储介质
JP5255035B2 (ja) フェイルオーバシステム、記憶処理装置及びフェイルオーバ制御方法
KR101768365B1 (ko) M2M/IoT 시스템의 구독-통지에서 통지 실패 관리 방법 및 시스템
JP2019106697A (ja) 相互接続ネットワークでのメッセージ再送遅延を動的に管理するための方法及びデバイス
US10154079B2 (en) Pre-boot file transfer system
JP2010213150A (ja) 送信装置、大容量ファイル配信システム、同システムにおけるファィル再送制御方法、再送制御プログラム
US9891992B2 (en) Information processing apparatus, information processing method, storage system and non-transitory computer readable storage media
CN113411363A (zh) 一种镜像文件的上传方法、相关设备及计算机存储介质
JP6572574B2 (ja) ストレージ制御システム、ストレージ制御システムのノード、およびストレージ制御方法
CN113391759B (zh) 一种通信方法和设备
JP2010171557A (ja) 同報送信装置及び受信ノード及び同報送信プログラム及び記録媒体
EP3346671B1 (en) Service processing method and equipment
JP6151365B2 (ja) 情報処理システム、情報処理方法及びプログラム
KR101486546B1 (ko) 장애 대비를 위한 복제 시스템 및 그 방법
CN110784775A (zh) 一种视频分片缓存方法、装置及视频点播系统
US20190155510A1 (en) Expanding a dispersed storage network (dsn)
US20120296970A1 (en) File managing apparatus for managing access to an online storage service
US20180018222A1 (en) Router-based routing selection
US10270705B1 (en) Transmission of stateful data over a stateless communications channel
JP7332660B2 (ja) 中継装置、プログラム、システム、通信端末及び方法
CN113228568B (zh) 对云存储服务进行网络优化的方法和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190729

R150 Certificate of patent or registration of utility model

Ref document number: 6572574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150