JP2003167813A - Stream data storing and distributing method and system - Google Patents

Stream data storing and distributing method and system

Info

Publication number
JP2003167813A
JP2003167813A JP2001365463A JP2001365463A JP2003167813A JP 2003167813 A JP2003167813 A JP 2003167813A JP 2001365463 A JP2001365463 A JP 2001365463A JP 2001365463 A JP2001365463 A JP 2001365463A JP 2003167813 A JP2003167813 A JP 2003167813A
Authority
JP
Japan
Prior art keywords
server
data
stream data
stage
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001365463A
Other languages
Japanese (ja)
Inventor
Kanji Hiraoka
冠二 平岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2001365463A priority Critical patent/JP2003167813A/en
Publication of JP2003167813A publication Critical patent/JP2003167813A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide the stream data storing distributing method and system capable of shortening a waiting time for a user while inhibiting the lowering of the storage capacity required to a server. <P>SOLUTION: When a part of the stream data S is stored in a downstream server 20 of a second stage or lower, a process [1A] for dividing the i stream data into a leading part data and the remaining part data by a server of the i stage, a process [1B] for transmitting the leading part data of the i stream data to a server of the (i+1) stage by the server of the i stage, and a process [1C] for holding the received leading part data by the server of the (i+1) stage as the (i+1) stream data, are performed. In the process [1A], P<SB>i</SB>H≥T<SB>i</SB>T is satisfied when a replay time by a client, of the leading part data of the i stream data is P<SB>i</SB>H, and a time necessary for transmitting the remaining part data of the i stream data from the server of the i stage to the server of the (i+1) stage is T<SB>i</SB>T. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、動画データや音声
データ等のような時系列データ(以下「ストリームデー
タ」という。)を複数のサーバに分散配置(「蓄積」又
は「キャッシュ」ともいう。)し、ネットワークを介し
てクライアントに配信するストリームデータの蓄積・配
信方法及びストリームデータの蓄積・配信システムに関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention distributes time series data (hereinafter referred to as "stream data") such as moving image data and audio data to a plurality of servers (also referred to as "storage" or "cache"). The present invention relates to a stream data storage / delivery method and a stream data storage / delivery system that are delivered to clients via a network.

【0002】[0002]

【従来の技術】近年、MPEG等のデータ圧縮技術によ
って圧縮された動画データや音声データをサーバの蓄積
装置(記憶装置)内に蓄積し、ネットワークを介してク
ライアント(ユーザ)に配信するコンテンツ配信サービ
スが利用可能となっている。また、ユーザが利用するネ
ットワークもブロードバンド化が進み、常時接続環境が
整備されてきた。このため、今後も、映画やライブ映像
等の大容量コンテンツの配信によりネットワークのトラ
フィック量の増加が予想される。
2. Description of the Related Art Recently, a content distribution service in which moving image data and audio data compressed by a data compression technique such as MPEG are stored in a storage device (storage device) of a server and delivered to a client (user) via a network. Are available. In addition, the networks used by users have become more broadband, and a constant connection environment has been established. Therefore, it is expected that network traffic will continue to increase due to the distribution of large-capacity contents such as movies and live images.

【0003】ネットワークのバックボーンはトラフィッ
ク量の増加に伴って増強されているが、ネットワークの
伝送能力には限界がある。このため、ユーザの要求を満
たす転送品質を維持するにはコンテンツデータをネット
ワーク上の複数のサーバに分散配置し、バックボーンネ
ットワークにおけるトラフィック量を軽減させる必要が
ある。このような技術は、インターネットを利用したコ
ンテンツ配信サービスにおいて既に採用されており、例
えば、米国特許第6,108,703号公報に開示され
ている。
Although the backbone of the network is being enhanced with the increase in traffic volume, the transmission capacity of the network is limited. Therefore, in order to maintain the transfer quality satisfying the user's request, it is necessary to distribute the content data to a plurality of servers on the network to reduce the traffic amount in the backbone network. Such a technique has already been adopted in a content distribution service using the Internet, and is disclosed in, for example, US Pat. No. 6,108,703.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、ストリ
ームデータをユーザに近い多数のキャッシュサーバ(ネ
ットワークのエッジ)に蓄積(キャッシュ)しておくこ
とにより、ユーザへの応答を速くし、バックボーンのト
ラフィック量を軽減するためには、大容量の蓄積装置を
各キャッシュサーバ内に設置しなければならず各キャッ
シュサーバの価格(その結果、蓄積・配信システム全体
の設備コスト)が非常に高くなってしまう。逆に、各キ
ャッシュサーバの蓄積装置の蓄積容量を小さくした場合
には、各キャッシュサーバの価格(その結果、蓄積・配
信システム全体の設備コスト)を軽減できるが、ユーザ
からのリクエストに対するキャッシュサーバにおけるヒ
ット率(以下「キャッシュヒット率」ともいう。)が低
下し、上流サーバからストリームデータの送信を受ける
頻度が増加するため、バックボーンのトラフィック量が
増加し、ユーザへの応答が遅くなる。要約すれば、ヒッ
ト率の向上及び待ち時間の短縮のためにキャッシュサー
バの蓄積容量を大きくすれば設備コストが増大し、逆
に、設備コスト削減のためにキャッンュサーバの蓄積容
量を小さくすればトラフィック量が増加し、ユーザの待
ち時間が長くなってしまうという問題があった。
However, by accumulating (caching) the stream data in a large number of cache servers (edges of the network) close to the user, the response to the user is speeded up and the amount of backbone traffic is reduced. In order to reduce it, a large-capacity storage device must be installed in each cache server, and the price of each cache server (as a result, the facility cost of the entire storage / delivery system) becomes very high. On the contrary, if the storage capacity of the storage device of each cache server is reduced, the price of each cache server (as a result, the facility cost of the entire storage / delivery system) can be reduced. The hit rate (hereinafter also referred to as “cache hit rate”) decreases, and the frequency of receiving stream data from an upstream server increases, which increases the backbone traffic volume and delays the response to the user. In summary, if the storage capacity of the cache server is increased in order to improve the hit rate and the waiting time, the equipment cost increases, and conversely, if the storage capacity of the cache server is decreased to reduce the equipment cost. There is a problem that the amount of traffic increases and the waiting time of the user becomes long.

【0005】そこで、本発明は上記したような従来技術
の課題を解決するためになされたものであり、その目的
とするところは、キャッシュサーバの蓄積容量を低く抑
えつつ、ユーザの待ち時間を短縮できるストリームデー
タの蓄積・配信方法及びストリームデータの蓄積・配信
システムを提供することにある。
Therefore, the present invention has been made in order to solve the above-mentioned problems of the prior art, and an object of the present invention is to reduce the waiting time of the user while keeping the storage capacity of the cache server low. An object of the present invention is to provide a stream data storage / delivery method and a stream data storage / delivery system.

【0006】[0006]

【課題を解決するための手段】本発明に係るストリーム
データの蓄積・配信方法は、ネットワーク上に階層的に
配置された第1段から第m(mは2以上の整数)段まで
のサーバにストリームデータを蓄積し、ネットワークを
介してクライアントに配信する方法であって、第1段サ
ーバが保持する第1ストリームデータの一部を第2段以
下の下流サーバに蓄積する蓄積工程を有し、前記蓄積工
程が、i=1,2,…,m−1のそれぞれについて行わ
れる、[1A] 第i段サーバの下流に第(i+1)段
サーバが存在する場合に、第i段サーバが、自らが保持
する第iストリームデータを先頭部分データと残り部分
データに分割する処理、[1B] 第i段サーバが、第
iストリームデータの先頭部分データを第(i+1)段
サーバに送信する処理、及び、[1C] 第(i+1)
段サーバが、受信した第iストリームデータの先頭部分
データを第(i+1)ストリームデータとして保持する
処理を含み、前記処理[1A]において、第iストリー
ムデータの先頭部分データのクライアントによる再生時
間をPiHとし、第iストリームデータの残り部分デー
タを第i段サーバから第(i+1)段サーバまで転送す
るのに要する時間をTiTとした場合に、PiH≧T
iTを満たすことを特徴としている。
A method for accumulating / delivering stream data according to the present invention is applied to servers from the first stage to the m-th stage (m is an integer of 2 or more) arranged hierarchically on a network. A method of accumulating stream data and delivering it to a client via a network, comprising a step of accumulating a part of the first stream data held by the first stage server in a downstream server of the second stage and below, The accumulation step is performed for each of i = 1, 2, ..., M−1. [1A] When the (i + 1) th stage server exists downstream of the i-th stage server, the i-th stage server A process of dividing the i-th stream data held by itself into the head partial data and the remaining partial data, [1B] a process in which the i-th stage server transmits the head partial data of the i-th stream data to the (i + 1) -th stage server And, [1C] (i + 1) th
The stage server includes a process of holding the head part data of the received i-th stream data as the (i + 1) th stream data, and in the process [1A], the reproduction time by the client of the head part data of the i-th stream data is set to P If iH and the time required to transfer the remaining part of the i-th stream data from the i-th stage server to the (i + 1) -th stage server is T iT , then P iH ≧ T
It is characterized by satisfying iT .

【0007】また、クライアントから第j(jは2以上
m以下の整数)段サーバに第1ストリームデータの再生
用配信要求があったときに、要求元クライアントに第1
ストリームデータを配信する再生工程を有し、前記再生
工程が、[2A] 第j段サーバが、自らが保持してい
る第jストリームデータを要求元クライアントに配信す
る処理、[2B] 第j段サーバが、第(j−1)段以
上の上流サーバに第(j-1)から第1までのストリー
ムデータのそれぞれの残り部分データを要求して受け取
る処理、及び、[2C] 前記処理[2A]に続いて、
第j段サーバが、受け取った第(j-1)から第1まで
のストリームデータのそれぞれの残り部分データを第1
ストリームデータの時系列に従った順に要求元クライア
ントに配信する処理を含むようにすることができる。
Further, when the client makes a reproduction distribution request for reproducing the first stream data to the j-th (j is an integer of 2 or more and m or less) stage server, the requesting client makes the first request.
[2A] j-th stage, in which the j-th stream data [2A] the server itself distributes to the requesting client, A process in which the server requests and receives the remaining part data of each of the stream data from the (j-1) th to the first (j-1) th upstream servers, and [2C] the process [2A ]Followed by,
The j-th stage server receives the remaining part of each of the received (j-1) to 1st stream data as the first
It is possible to include a process of delivering the stream data to the request source client in order according to the time series.

【0008】また、他の発明に係るストリームデータの
蓄積・配信方法は、ネットワーク上に階層的に配置され
た第1段から第m(mは2以上の整数)段までのサーバ
にストリームデータを蓄積し、ネットワークを介してク
ライアントに配信する方法であって、第1段サーバが保
持する第1ストリームデータの一部を第2段以下の下流
サーバに蓄積する蓄積工程を有し、前記蓄積工程が、i
=1,2,…,m−1のそれぞれについて行われる、
[3A] 第i段サーバの下流に第(i+1)段サーバ
が存在する場合に、第iストリームデータを複数個に分
割して複数個の断片ファイルデータとする処理、[3
B] 前記処理[3A]において分割された複数個の断
片ファイルデータのそれぞれを先頭部分データと残り部
分データに分割する処理、[3C] 前記処理[3B]
において分割された複数個の断片ファイルデータの先頭
部分データを第(i+1)段サーバに送信する処理、及
び、[3D] 第(i+1)段サーバが、受信した複数
個の断片ファイルデータの先頭部分データを、複数個の
第(i+1)ストリームデータとして蓄積する処理を含
み、前記処理[3B]において、第iストリームデータ
を分割して得られた複数個の断片ファイルデータの先頭
部分データのクライアントによる再生時間をそれぞれP
iH1,PiH2,…,PiHnとし、第iストリーム
データを分割して得られた複数個の断片ファイルデータ
の残り部分データを第i段サーバから第(i+1)段サ
ーバまで転送するのに要する時間をそれぞれTiT1
iT2,…,TiTnとした場合に、PiH1≧T
iT1、PiH2≧TiT2、…、PiHn≧TiTn
を満たすことを特徴としている。
Further, according to another aspect of the present invention, there is provided a method for storing / delivering stream data, wherein the stream data is stored in a server arranged hierarchically on the network from the first stage to the m-th stage (m is an integer of 2 or more). A method of accumulating and delivering to a client via a network, comprising: an accumulating step of accumulating a part of the first stream data held by the first stage server in a downstream server of the second stage and below. But i
= 1, 2, ..., M−1,
[3A] A process of dividing the i-th stream data into a plurality of fragment file data when a (i + 1) th stage server exists downstream of the i-th stage server, [3A]
B] A process of dividing each of the plurality of fragment file data divided in the process [3A] into a head part data and a remaining part data, [3C] the process [3B]
For transmitting to the (i + 1) th stage server the leading part data of a plurality of fragmented file data divided in [1], and [3D] the (i + 1) th stage server received the leading part of the plurality of fragmented file data A process of accumulating data as a plurality of (i + 1) th stream data is performed by the client of the leading part data of the plurality of fragment file data obtained by dividing the i-th stream data in the process [3B]. Playback time is P
iH1 , P iH2 , ..., P iHn, and it is necessary to transfer the remaining partial data of the plurality of fragment file data obtained by dividing the i-th stream data from the i-th stage server to the (i + 1) -th stage server. The time is Ti T1 ,
T iT2, ..., in the case of the T iTn, P iH1T
iT1 , P iH2 ≧ T iT2 , ..., P iHn ≧ T iTn
It is characterized by satisfying.

【0009】また、クライアントから第j(jは2以上
m以下の整数)段サーバに第1ストリームデータの通常
再生用配信要求があったときに、要求元クライアントに
第1ストリームデータを配信する通常再生工程を有し、
前記通常再生工程が、[4A] 第j段サーバが、自ら
が保持している複数個の断片ファイルデータの先頭部分
データのうち時間的に最先の断片ファイルデータの先頭
部分データを要求元クライアントに配信する処理、[4
B] 第j段サーバが、第(j−1)段以上の上流サー
バに、複数個の断片ファイルデータの残り部分データを
要求して受け取る処理、及び、[4C] 前記処理[4
A]に続いて、第j段サーバが、複数個の断片ファイル
データの残り部分データと、第j段サーバが自らが保持
している複数個の断片ファイルデータの先頭部分データ
とを、第1ストリームデータの時系列に従った順に要求
元クライアントに配信する処理を含むことができる。
When the client makes a normal reproduction distribution request for the first stream data to the j-th (j is an integer of 2 or more and m or less) stage server, the first stream data is normally distributed to the requesting client. Has a regeneration process,
In the normal reproduction step, [4A] The j-th stage server requests the leading part data of the temporally earliest fragment file data among the leading part data of the plurality of fragment file data held by the request source client. Process to deliver to [4
B] A process in which the j-th stage server requests and receives the remaining part data of the plurality of fragment file data from the upstream servers in the (j-1) -th stage and above, and [4C] the process [4]
[A], the j-th stage server sets the remaining part data of the plurality of fragment file data, and the first part data of the plurality of fragment file data which the j-th stage server holds by itself. It may include a process of delivering the stream data to the requesting client in order according to the time series.

【0010】さらに、クライアントから第j(jは2以
上m以下の整数)段サーバに第1ストリームデータの指
定位置からの再生開始要求であるジャンプ再生用配信要
求があったときに、要求元クライアントに第1ストリー
ムデータを配信する第1の特殊再生工程を有し、前記第
1の特殊再生工程が、[5A] 第j段サーバが、自ら
が保持している複数個の断片ファイルデータの先頭部分
データのうち前記指定位置に時間的に最も近い断片ファ
イルデータを選択して、この選択された断片ファイルデ
ータの先頭部分データを要求元クライアントに配信する
処理、[5B] 第j段サーバが、第(j−1)段以上
の上流サーバに前記選択された断片ファイルデータの残
り部分データ及び前記選択された断片ファイルデータよ
り時間的に後の断片ファイルデータの残り部分データを
要求して受け取る処理、及び、[5C] 前記処理[5
A]に続いて、第j段サーバが、受け取った断片ファイ
ルデータの残り部分データと、第j段サーバが自らが保
持している複数個の断片ファイルデータの先頭部分デー
タとを、第1ストリームデータの時系列に従った順に要
求元ライアントに配信する処理を含むことができる。
Further, when the client makes a jump reproduction distribution request which is a reproduction start request from the specified position of the first stream data to the j-th (j is an integer of 2 or more and m or less) stage server, the request source client Has a first trick play step of delivering the first stream data to the first trick play step, and the first trick play step [5A] is the beginning of a plurality of fragment file data held by the j-th stage server. A process of selecting the fragment file data that is temporally closest to the specified position among the partial data and delivering the head partial data of the selected fragment file data to the requesting client, [5B] the j-th stage server, The remaining part data of the selected fragment file data and the fragment which is later in time than the selected fragment file data in the upstream server of the (j-1) th stage or higher. Requesting receiving processing remainder data Airudeta, and, [5C] The process [5
[A], the j-th stage server receives the remaining partial data of the received fragment file data and the first partial data of the plurality of fragment file data held by the j-th server itself in the first stream. It may include a process of delivering the data to the requesting client in order according to the time series of the data.

【0011】さらにまた、クライアントから第j(jは
2以上m以下の整数)段サーバに早送り再生用配信要求
があったときに、要求元クライアントに第1ストリーム
データを配信する第2の特殊再生工程を有し、前記第2
の特殊再生工程が、第j段サーバが、自らが保持してい
る複数個の断片ファイルデータの先頭部分データを時間
的に先のものから順に要求元クライアントに配信する処
理を含むことができる。
Furthermore, when there is a fast-forward reproduction distribution request from the client to the j-th (j is an integer of 2 or more and m or less) stage server, the second special reproduction for distributing the first stream data to the requesting client. And a second step
The trick play process may include a process in which the j-th stage server sequentially distributes the head part data of the plurality of fragment file data held by itself to the requesting client in order from the temporally earlier one.

【0012】また、クライアントから第j(jは2以上
m以下の整数)段サーバに早戻し再生用配信要求があっ
たときに、要求元クライアントに第1ストリームデータ
を配信する第3の特殊再生工程を有し、前記第3の特殊
再生工程が、第j段サーバが、自らが保持している複数
個の断片ファイルデータの先頭部分データを時間的に後
のものから時間の流れの逆順に要求元クライアントに配
信する処理を含むことができる。
Further, when a jth (j is an integer of 2 or more and m or less) stage request from the client to the fast-reverse reproduction distribution request, the third special reproduction for distributing the first stream data to the requesting client. In the third trick play step, the j-th stage server sequentially reverses the temporal flow of the first partial data of the plurality of fragment file data held by itself from the later one. It may include a process of delivering to the requesting client.

【0013】さらにまた、[8A] クライアントから
の配信要求に応じてサーバが要求元クライアントにスト
リームデータの配信を行ったときには、配信を行ったサ
ーバは該当ストリームデータの利用頻度を逐次上流サー
バに通知し、[8B] この上流サーバは通知された利
用頻度に基づいて自身が持つ該当ストリームデータの利
用頻度を更新し、[8C] 更新された利用頻度はさら
に上流のサーバに通知され、[8D] 前記処理[8
B]及び[8C]を上流にサーバがなくなるまで繰り返
し、[8E] いずれかのサーバが持つ利用頻度が、自
身が持っている閾値に達したときに、閾値に達した該当
ストリームデータに関して、上流サーバにはあるが、下
流サーバにはない部分のデータを下流サーバに蓄積させ
ることもできる。
[8A] When the server delivers the stream data to the requesting client in response to the delivery request from the client, the delivering server sequentially notifies the upstream server of the usage frequency of the stream data. Then, [8B] this upstream server updates the usage frequency of the corresponding stream data that it has based on the notified usage frequency, and [8C] the updated usage frequency is notified to the upstream server, and [8D]. The processing [8
[B] and [8C] are repeated until there is no upstream server, and [8E] When the usage frequency of any of the servers reaches the threshold value of its own, the upstream of the corresponding stream data that has reached the threshold value is reached. It is also possible to store data in the downstream server that is in the server but not in the downstream server.

【0014】また、前記処理[8E]と並行して、前記
一つ下流の以外の他のサーバにも該当ストリームデータ
を蓄積させることもできる。
Further, in parallel with the process [8E], the corresponding stream data can be accumulated in other servers than the one downstream.

【0015】また、[10A] クライアントからの配
信要求に応じてサーバが要求元クライアントにストリー
ムデータの配信を行ったときには、配信を行ったサーバ
は該当ストリームデータの利用頻度を逐次上流サーバに
通知し、[10B] この上流サーバは通知された利用
頻度に基づいて自身が持つ該当ストリームデータの利用
頻度を更新し、[10C] 更新された利用頻度はさら
に上流のサーバに通知され、[10D] 前記処理[1
0B]及び[10C]を上流にサーバがなくなるまで繰
り返し、[10E] それぞれのサーバが複数の閾値
と、これら複数の閾値のそれぞれに対応する複数の断片
ファイルデータ情報を持っており、前記上流サーバが持
つ利用頻度が、前記上流サーバが予め持っている複数の
閾値のいずれかに達するたびに、上流サーバにはある
が、下流サーバにはない断片ファイルデータを、到達し
た閾値により決定される量だけ下流サーバに蓄積させる
こともできる。
[10A] When the server delivers the stream data to the requesting client in response to the delivery request from the client, the delivering server sequentially notifies the upstream server of the usage frequency of the stream data. [10B] The upstream server updates the usage frequency of the stream data of its own based on the notified usage frequency, and [10C] the updated usage frequency is further notified to the upstream server, and [10D] Processing [1
0B] and [10C] are repeated until there are no upstream servers, and [10E] each server has a plurality of thresholds and a plurality of fragment file data information corresponding to each of the plurality of thresholds. Amount of fragment file data that exists in the upstream server but does not exist in the downstream server is determined by the reached threshold value each time the usage frequency of It can also be stored in the downstream server only.

【0016】また、前記処理[10E]と並行して、前
記一つ下流のサーバ以外の他のサーバにも該当ストリー
ムデータを蓄積させることもできる。
Further, in parallel with the process [10E], the corresponding stream data can be stored in a server other than the one downstream server.

【0017】[0017]

【発明の実施の形態】〈1〉第1の実施形態 〈1−1〉第1の実施形態の構成 図1は、本発明の第1の実施形態に係るストリームデー
タの蓄積・配信システム(第1の実施形態に係るストリ
ームデータの蓄積・配信方法を実施するためのシステ
ム)を概略的に示す構成図である。
BEST MODE FOR CARRYING OUT THE INVENTION <1> First Embodiment <1-1> Configuration of First Embodiment FIG. 1 shows a stream data storage / delivery system (first embodiment) according to a first embodiment of the present invention. FIG. 1 is a configuration diagram schematically showing a system for implementing a method of storing / delivering stream data according to an embodiment of the present invention.

【0018】図1に示されるように、第1の実施形態に
係るストリームデータの蓄積・配信システムは、配信用
の全てのコンテンツデータ(動画データや音声データ等
のようなストリームデータを含む。)を蓄積しているル
ートサーバ(Root Server)10と、ルート
サーバ10とクライアント(Client)30との間
に階層的に配置された複数台のキャッシュサーバ(Ca
che Server)20とを有する。クライアント
30は、コンテンツを閲覧するユーザ端末、例えば、パ
ーソナルコンピュータである。ルートサーバ10、キャ
ッシュサーバ20、及びクライアント30は、ネットワ
ークにより接続されている。キャッシュサーバ20は、
ルートサーバ10が持つコンテンツデータをキャッシュ
(蓄積)し、クライアント30に配信する。なお、以下
の説明において、ルートサーバ10及びキャッシュサー
バ20を総称して、「サーバ」と言う。また、図1にお
いては、ルートサーバ10が1台の場合を図示している
が、ルートサーバ10の台数は複数台であってもよい。
さらに、図1においては、キャッシュサーバ20が上流
側(ルートサーバ10に近い側)と下流側(クライアン
ト30に近い側)の2段の階層を構成する場合を図示し
ているが、階層数は1段以上であれば何段であってもよ
い。さらにまた、図1においては、1台のサーバがその
下流の2台のサーバに接続されている構成を図示してい
るが、下流サーバの台数は1台又は3台以上であっても
よい。
As shown in FIG. 1, the stream data storage / delivery system according to the first embodiment includes all content data for delivery (including stream data such as moving image data and audio data). Root server (Root Server) 10 that stores the caches, and a plurality of cache servers (Ca) that are hierarchically arranged between the root server 10 and the client (Client) 30.
che Server) 20. The client 30 is a user terminal that browses content, for example, a personal computer. The route server 10, cache server 20, and client 30 are connected by a network. The cache server 20
The content data held by the route server 10 is cached (stored) and delivered to the client 30. In the following description, the route server 10 and the cache server 20 are collectively referred to as "server". Further, although FIG. 1 illustrates the case where the number of route servers 10 is one, the number of route servers 10 may be plural.
Further, although FIG. 1 illustrates a case where the cache server 20 constitutes a two-tiered hierarchy of an upstream side (a side closer to the root server 10) and a downstream side (a side closer to the client 30), the number of layers is Any number of stages may be used as long as it is one or more. Furthermore, although FIG. 1 illustrates a configuration in which one server is connected to two downstream servers, the number of downstream servers may be one or three or more.

【0019】図2は、第1の実施形態におけるサーバを
概略的に示す構成図である。
FIG. 2 is a block diagram schematically showing the server according to the first embodiment.

【0020】図2に示されるように、キャッシュサーバ
20は、コンテンツデータを蓄積する蓄積装置21と、
この蓄積装置21に蓄積される蓄積データを管理する蓄
積管理装置22とを有する。また、ルートサーバ10も
キャッシュサーバ20と同様に、コンテンツデータを蓄
積する蓄積装置11と、この蓄積装置11に蓄積される
蓄積データを管理する蓄積管理装置12とを有する。た
だし、第1の実施形態に係るストリームデータの蓄積・
配信システムにおいては、キャッシュサーバ20の蓄積
装置21の容量を、ルートサーバ10の蓄積装置11の
容量より小さくできる。また、第1の実施形態に係るス
トリームデータの蓄積・配信システムにおいては、キャ
ッシュサーバ20の蓄積装置21の容量を、下流のキャ
ッシュサーバほど、小さくできる。
As shown in FIG. 2, the cache server 20 includes a storage device 21 for storing content data,
It has a storage management device 22 that manages the storage data stored in the storage device 21. Similarly to the cache server 20, the route server 10 also has a storage device 11 that stores content data and a storage management device 12 that manages the storage data stored in the storage device 11. However, accumulation of stream data according to the first embodiment
In the distribution system, the capacity of the storage device 21 of the cache server 20 can be made smaller than the capacity of the storage device 11 of the route server 10. Further, in the stream data storage / delivery system according to the first embodiment, the capacity of the storage device 21 of the cache server 20 can be made smaller as the downstream cache server.

【0021】〈1−2〉第1の実施形態の動作 図3は、第1の実施形態に係るストリームデータの蓄積
・配信システムの各サーバにおけるストリームデータの
分散配置動作(蓄積工程)を示すフローチャートであ
る。
<1-2> Operation of the First Embodiment FIG. 3 is a flowchart showing the distributed arrangement operation (accumulation step) of stream data in each server of the stream data accumulation / distribution system according to the first embodiment. Is.

【0022】図3に示されるように、各サーバ10又は
20は、新規のストリームデータを受信すると(ステッ
プ101)、サーバの蓄積装置11又は21に保存し
(ステップ102)、下流サーバの有無を判断し(ステ
ップ103)、下流サーバが存在すれば受信したストリ
ームデータをこの下流サーバに送信済か否かを判断する
(ステップ104)。ここで、送信済でなければ、サー
バの蓄積管理装置12又は22は、後述する所定の処理
方法に従ってストリームデータを先頭部分データと残り
部分データとに分割して先頭部分データを下流サーバに
送信する(ステップ105)。各サーバ10及び20
が、図3に示される処理を実行することによって、スト
リームデータの一部(先頭部分データ)が、キャッシュ
サーバ20の蓄積装置21に分散配置(即ち、キャッシ
ュ)される。
As shown in FIG. 3, when each server 10 or 20 receives new stream data (step 101), it stores it in the storage device 11 or 21 of the server (step 102), and checks whether or not there is a downstream server. It is determined (step 103), and if a downstream server exists, it is determined whether the received stream data has been transmitted to this downstream server (step 104). If not transmitted, the storage management device 12 or 22 of the server divides the stream data into the head partial data and the remaining partial data according to a predetermined processing method described later, and transmits the head partial data to the downstream server. (Step 105). Each server 10 and 20
However, by executing the processing shown in FIG. 3, a part (head portion data) of the stream data is distributed and arranged (that is, cached) in the storage devices 21 of the cache server 20.

【0023】図4は、第1の実施形態に係るストリーム
データの蓄積・配信システムにおけるストリームデータ
の分散配置時の動作を示す説明図である。
FIG. 4 is an explanatory diagram showing an operation when the stream data is distributed and arranged in the stream data storage / delivery system according to the first embodiment.

【0024】図4に示されるように、ルートサーバ10
はストリームデータ(例えば、動画データ)Sを蓄積し
ている。次に、ルートサーバ10は、蓄積管理装置12
による所定の処理方法に従って、蓄積されたストリーム
データSを、先頭部分データSと、残り部分データ
(即ち、後方部分データ)Sに分割し、先頭部分デー
タSを下流のキャッシュサーバ20に送信する。スト
リームデータSを、先頭部分データSと残り部分デー
タSに分割する処理は、次のように実施される。クラ
イアント30によりストリームデータSの先頭部分デー
タSを再生した場合の再生時間をPとし、ルートサ
ーバ10から下流のキャッシュサーバ20にストリーム
データSの残り部分データSを転送する(キャッシュ
させる)のに必要な時間をTとした場合に、P≧T
が成立するようにストリームデータSを先頭部分デー
タSと残り部分データSに分割する。サーバは、再
生時間Pを、データの圧縮方式、データの大きさ等に
基づいて求める。また、サーバは、転送に必要な時間T
を、データの大きさ、サーバの転送能力、サーバを繋
ぐネットワークの伝送容量等の各種要因に基づいて求め
る。このようにストリームデータSを分割し、ストリー
ムデータSの先頭部分データSをキャッシュサーバ2
0に蓄積すれば、キャッシュサーバ20から先頭部分デ
ータSをクライアント30に送信し、クライアント3
0により先頭部分データSの画像を再生している間
に、ルートサーバ10からキャッシュサーバ20にスト
リームデータSの残り部分データSを送信することが
できる。
As shown in FIG. 4, the route server 10
Stores stream data (for example, moving image data) S. Next, the route server 10 uses the storage management device 12
In accordance with a predetermined processing method according to, the accumulated stream data S is divided into head partial data S H and remaining partial data (that is, rear partial data) S T , and the head partial data S H is stored in the downstream cache server 20. Send. The process of dividing the stream data S into the head partial data S H and the remaining partial data S T is performed as follows. When the reproduction time when the head part data S H of the stream data S is reproduced by the client 30 is set to P H , the remaining part data S T of the stream data S is transferred (cached) from the route server 10 to the downstream cache server 20. the time required for the case of a T T, P H ≧ T
The stream data S is divided into head partial data S H and remaining partial data S T so that T is satisfied. Server, the playback time P H, obtained based compression method of the data, the data size, and the like. In addition, the server is required to transfer the time T
T is calculated based on various factors such as the size of data, the transfer capability of the server, and the transmission capacity of the network connecting the servers. Thus by dividing the stream data S, the head partial data S H cache server 2 stream data S
If stored in 0, transmitted from the cache server 20 the head portion data S H to the client 30, the client 3
With 0, the remaining partial data S T of the stream data S can be transmitted from the route server 10 to the cache server 20 while reproducing the image of the leading partial data S H.

【0025】ルートサーバ10からストリームデータS
の先頭部分データSを受け取ったキャッシュサーバ2
0の蓄積管理装置22は、そのデータを自身が持つ蓄積
装置21に蓄積する。ここで、ストリームデータSの先
頭部分データSを受け取ったキャッシュサーバ20よ
りさらに下流に他のキャッシュサーバが存在する場合に
は、上流から受信したストリームデータSの先頭部分デ
ータSを、ルートサーバ10による分散配置動作と同
様の手法により、先頭部分データSHHと残り部分デー
タSHTに分割し、その先頭部分データSHHをさらに
下流のキャッシュサーバに送信する。
Stream data S from the route server 10
Cache server 2 which has received the first partial data S H
The storage management device 22 of 0 stores the data in the storage device 21 of its own. Here, the beginning portion data S H of the top portion data S if the H is other cache server further downstream than the cache server 20 having received the present, stream data S received from the upstream of the stream data S, the route server By a method similar to the distributed arrangement operation by 10, the head part data S HH and the remaining part data S HT are divided, and the head part data S HH is transmitted to the cache server further downstream.

【0026】各キャッシュサーバ20は、自分自身より
も下流に他のキャッシュサーバが存在しなくなるまで、
同様の手法により、蓄積したストーリムデータを分割し
て下流のキャッシュサーバに分散配置する動作を繰り返
す。以上の分散配置動作により、各キャッシュサーバ2
0の蓄積装置21内にはルートサーバ10の持つストリ
ームデータSの一部分だけが配置される。ネットワーク
の転送速度にも依存するが、キャッシュサーバ20に保
存されるデータ量はルートサーバ10のそれに比べ数分
の1〜数十分の1にすることができる。また、キャッシ
ュサーバ20の階層が深いほど保存されるデータ量は小
さくなる。
Each cache server 20 continues until there is no other cache server downstream from itself.
By the same method, the operation of dividing the accumulated stream data and distributing and distributing it to the downstream cache servers is repeated. By the above distributed arrangement operation, each cache server 2
In the storage device 21 of 0, only a part of the stream data S held by the route server 10 is arranged. Although depending on the transfer rate of the network, the amount of data stored in the cache server 20 can be set to a fraction of one to several tenths of that of the route server 10. Further, the deeper the hierarchy of the cache server 20, the smaller the amount of data stored.

【0027】図5は、第1の実施形態に係るストリーム
データの蓄積・配信システムにおけるストリームデータ
の配信動作を示すフローチャートである。
FIG. 5 is a flowchart showing the distribution operation of stream data in the stream data storage / distribution system according to the first embodiment.

【0028】図5に示されるように、クライアント30
は一番近い位置にあるキャッシュサーバ20に対し閲覧
したいストリームデータを要求する(ステップ11
1)。要求を受けたキャッシュサーバ20は、自身の蓄
積装置21に該当ストリームデータの先頭部分データが
蓄積されているか否かを判断し(ステップ112)、蓄
積されていれば要求元クライアントに即座に先頭部分デ
ータを送信し(ステップ114)、蓄積されていなけれ
ば上流サーバから先頭部分データを取得してから(ステ
ップ113)データを送信する(ステップ114)。先
頭部分データの送信と並行して、ストリームデータの残
り部分データが要求を受けたキャッシュサーバ20自身
の蓄積装置21にあるか否かを判断し(ステップ11
5)、残り部分データがなければ上流サーバから残り部
分データを取得して(ステップ116)、要求元クライ
アントに送信する(ステップ117)。これらの処理
を、要求されたデータを要求元クライアントに送信完了
するまで繰り返す。
As shown in FIG. 5, the client 30
Requests the stream data to be browsed from the cache server 20 at the closest position (step 11).
1). Upon receiving the request, the cache server 20 determines whether or not the head portion data of the corresponding stream data is stored in its own storage device 21 (step 112), and if it is stored, the head portion is immediately sent to the requesting client. The data is transmitted (step 114), and if it is not accumulated, the head part data is acquired from the upstream server (step 113) and the data is transmitted (step 114). In parallel with the transmission of the head portion data, it is judged whether or not the remaining portion data of the stream data is in the storage device 21 of the cache server 20 itself that has received the request (step 11).
5) If there is no remaining partial data, the remaining partial data is acquired from the upstream server (step 116) and transmitted to the request source client (step 117). These processes are repeated until the transmission of the requested data to the requesting client is completed.

【0029】図6は、第1の実施形態に係るストリーム
データの蓄積・配信システム(ルートサーバから1台の
キャッシュサーバを経由してクライアントにストリーム
データを配信するシステム)におけるストリームデータ
の配信動作を示す説明図である。図6の蓄積・配信シス
テムは、本発明の理解を容易にするために簡略化された
システムである。
FIG. 6 shows the distribution operation of stream data in the stream data storage / distribution system (system for distributing stream data from a root server to a client via one cache server) according to the first embodiment. It is an explanatory view shown. The storage / delivery system of FIG. 6 is a simplified system to facilitate understanding of the present invention.

【0030】図6に示されるように、第1の実施形態に
係るストリームデータの蓄積・配信システムにおいて
は、クライアント30からの配信要求待ちの状態におい
ては、ルートサーバ10がストリームデータSを蓄積
し、キャッシュサーバ20がストリームデータSの先頭
部分データSを蓄積している(分散配置後の欄)。ク
ライアント30からの要求があると、キャッシュサーバ
20は、クライアント30に対して先頭部分データS
の配信を開始し、ルートサーバ10から残り部分データ
の入手を開始する(配信開始時の欄)。クライアン
ト30において先頭部分データSの再生が終了したと
きには、ルートサーバ10からキャッシュサーバ20へ
の残り部分データSの送信が完了しており、クライア
ント30に対する配信は、ストリームデータSの残り部
分データSの配信に切り替わる(配信中(S配信終
了時)の欄)。その後、ストリームデータSの残り部分
データSの配信が終了する(配信終了時の欄)。な
お、図6の例においては、キャッシュサーバ20の蓄積
装置に蓄積される先頭部分データSのデータ量は、少
なくともルートサーバ10からの残り部分データS
転送時間の間は、再生し続けることができるデータ量と
している。このように、要求元クライアント30へのス
トリームデータSの配信を要求後即座に開始でき、か
つ、途切れることなく実行できる。
As shown in FIG. 6, in the stream data storage / delivery system according to the first embodiment, the route server 10 stores the stream data S while waiting for a delivery request from the client 30. , the cache server 20 is storing the first partial data S H stream data S (column after distributed). When there is a request from the client 30, the cache server 20 sends to the client 30 the head partial data SH.
Is started, and acquisition of the remaining partial data S T from the route server 10 is started (column at start of distribution). When the reproduction of the beginning portion data S H is completed at the client 30 has completed the transmission of the remainder data S T from the route server 10 to the cache server 20, distributed to the client 30, the remaining partial data of the stream data S It switched to the delivery of S T (column in the delivery (S H delivered at the end)). After that, the distribution of the remaining part data S T of the stream data S ends (column at the end of distribution). In the example of FIG. 6, the data amount of the head partial data S H stored in the storage device of the cache server 20 continues to be reproduced at least during the transfer time of the remaining partial data S T from the root server 10. The amount of data that can be used. In this way, the distribution of the stream data S to the request source client 30 can be started immediately after the request and can be executed without interruption.

【0031】図7は、第1の実施形態に係るストリーム
データの蓄積・配信システム(ルートサーバから2台の
キャッシュサーバを経由してクライアントにストリーム
データを配信するシステム)におけるストリームデータ
の配信動作を示す説明図である。図7の蓄積・配信シス
テムは、本発明の理解を容易にするために簡略化された
システムである。
FIG. 7 shows the distribution operation of stream data in the stream data storage / distribution system (system for distributing stream data from a root server to two clients via two cache servers) according to the first embodiment. It is an explanatory view shown. The storage / delivery system of FIG. 7 is a simplified system for easy understanding of the present invention.

【0032】図7に示されるように、第1の実施形態に
係るストリームデータの蓄積・配信システムにおいて
は、クライアントからの配信要求待ちの状態において
は、ルートサーバ10がストリームデータSを蓄積し、
キャッシュサーバ20はストリームデータSの先頭部分
データSを蓄積し、その下流のキャッシュサーバ20
はデータSの先頭部分データSHHを蓄積ている(分
散配置後の欄)。クライアント30からの要求により配
信を開始したときには、下流のキャッシュサーバ20
は、要求元クライアント30に対して先頭部分データS
HHの配信を開始すると共に、上流のキャッシュサーバ
20から残り部分データSHTの入手を開始する(配信
開始時の欄)。また、上流のキャッシュサーバ20は、
ルートサーバ10からデータSの入手を開始すると共
に、下流のキャッシュサーバ20に対してデータS
送信を開始する(配信開始時の欄)。先頭部分データS
HHの再生が終了した時点では、下流のキャッシュサー
バ20に残り部分データSHTの転送が完了しており、
クライアント30に対する配信は、残り部分データS
HTの配信に切り替わる(配信中(SHH配信終了時)
の欄)。残り部分データS の再生が終了した時点で
は、下流のキャッシュサーバ20に残り部分データS
の転送が完了しており、クライアント30に対する配信
は、残り部分データS の配信に切り替わる(配信中
(SHT配信終了時)の欄)。その後、残り部分データ
の配信が終了する(配信終了時の欄)。なお、キャ
ッシュサーバが3段以上の階層構造の場合のデータ転送
方法も同様に行われる。なお、図7の例においても、下
流のキャッシュサーバ20の蓄積装置に蓄積される先頭
部分データSHHのデータ量は、少なくとも上流のキャ
ッシュサーバ20からの残り部分データSHTの転送時
間の間は、再生し続けることができるデータ量としてい
る。また、先頭部分データSのデータ量(即ち、デー
タSHHとデータSHTのデータ量の合計)は、ルート
サーバ10の残り部分データSをキャッシュサーバ2
0に転送するのに要する間は、再生し続けることができ
るデータ量としている。このように、クライアント30
へのストリームデータSの配信を要求後即座に開始で
き、かつ、途切れることなく実行できる。
As shown in FIG. 7, in the first embodiment,
In the storage / distribution system of such stream data
Is waiting for the delivery request from the client
Means that the route server 10 stores the stream data S,
The cache server 20 is the head part of the stream data S.
Data SHCache server 20 that accumulates
Is the data SHHead part data S ofHHIs accumulating (minutes
Column after scattered placement). Distributed by request from client 30
When the communication is started, the downstream cache server 20
Is the head partial data S for the requesting client 30.
HHStarts the distribution of the upstream cache server
Remaining data S from 20HTStart to get (delivery
Column at the beginning). In addition, the upstream cache server 20
Data S from the route server 10TWhen you start to get
The data S for the downstream cache server 20.Tof
Start sending (column at the time of delivery start). First part data S
HHWhen the playback of the
Remaining data S in the bus 20HTHas been transferred,
The remaining data S is delivered to the client 30.
HTSwitch to delivery (During delivery (SHH(At the end of delivery)
Column). Remaining part data SH TWhen the playback of
Is the remaining partial data S in the downstream cache server 20. T
Has been transferred and is delivered to the client 30.
Is the remaining data S TSwitch to the delivery of
(SHTAt the end of delivery) column). Then the remaining data
STThe delivery of is finished (column at the time of delivery end). In addition,
Data transfer when the cache server has a hierarchical structure with three or more stages
The method is performed similarly. Note that in the example of FIG.
The top stored in the storage device of the current cache server 20
Partial data SHHData volume of at least the upstream
Remaining data S from the cache server 20HTWhen transferring
The amount of data that can be continuously played during the period
It In addition, the head portion data SHData volume (ie
Ta SHHAnd data SHTTotal amount of data)
Remaining data S of server 10TCache server 2
You can keep playing for the entire time it takes to transfer to 0.
Data amount. In this way, the client 30
Can be started immediately after requesting delivery of stream data S to
It can be executed without interruption.

【0033】〈1−3〉第1の実施形態の効果 以上に説明した第1の実施形態に係るストリームデータ
の蓄積・配信システム及び蓄積・配信方法においては、
キャッシュサーバ20がストリームデータの先頭部分デ
ータ(又は、分割された先頭部分データを1本のストリ
ームデータとみなした場合の先頭部分データ)のみを蓄
積しているだけであるので、キャッシュサーバ20の蓄
積装置21の記憶容量を小さくしてもよく、蓄積・配信
システムに要する設備コストを抑制することができる。
<1-3> Effects of First Embodiment In the stream data storage / delivery system and storage / delivery method according to the first embodiment described above,
Since the cache server 20 is only accumulating only the head part data of the stream data (or the head part data when the divided head part data is regarded as one stream data), the accumulation of the cache server 20 The storage capacity of the device 21 may be reduced, and the facility cost required for the storage / delivery system can be suppressed.

【0034】また、クライアント30が要求するストリ
ームデータの先頭部分データがクライアントに一番近い
キャッシュサーバ20にキャッシュされているため、ク
ライアント30からの配信要求が送信されてから再生開
始までの時間を大幅に短縮できる。
Further, since the head portion data of the stream data requested by the client 30 is cached in the cache server 20 closest to the client, the time from the transmission of the distribution request from the client 30 to the start of reproduction is greatly increased. Can be shortened to

【0035】さらに、キャッシュサーバ20の蓄積装置
21に蓄積される先頭部分データのデータ量を、少なく
とも上流サーバからの転送時間の間は、再生し続けるこ
とができるデータ量としているので、クライアント30
へのストリームデータの配信を途切れることなく実行で
きる。
Further, the data amount of the head portion data stored in the storage device 21 of the cache server 20 is set to be the data amount that can be continuously reproduced at least during the transfer time from the upstream server, so the client 30
Stream data can be delivered to the stream without interruption.

【0036】〈2〉第2の実施形態 第1の実施形態においては、蓄積装置の蓄積容量が小さ
いキャッシュサーバを用いて、ほとんど(又は全て)の
ストリームデータに対して高速に再生を開始できるスト
リームデータの蓄積・配信方システム及び蓄積・配信方
法について説明した。しかし、第1の実施形態において
は、特殊再生(早送り、巻き戻し、ジャンプ等)を考慮
していない。つまり、第1の実施形態に係るストリーム
データの蓄積・配信システムは、ストリームデータの先
頭部分データをクライアントに送信している間に、残り
部分データを上流サーバから入手する方法であるため、
クライアントが早送り再生やジャンプ再生といった要求
を出した場合に、キャッシュサーバ20は、その要求に
即座に対応できない(即ち、上流サーバからのストリー
ムデータの残り部分データの転送が間に合わない)。第
2の実施形態に係るストリームデータの蓄積・配信シス
テム及び蓄積・配信方法は、クライアントからの特殊再
生用配信要求に対して即座に応答可能としたものであ
る。
<2> Second Embodiment In the first embodiment, a stream in which almost all (or all) stream data can be reproduced at high speed by using a cache server having a small storage capacity of the storage device. The data storage / delivery system and storage / delivery method were explained. However, in the first embodiment, special reproduction (fast forward, rewind, jump, etc.) is not considered. That is, the stream data storage / delivery system according to the first embodiment is a method of obtaining the remaining partial data from the upstream server while transmitting the first partial data of the stream data to the client.
When the client issues a request such as fast-forward reproduction or jump reproduction, the cache server 20 cannot immediately respond to the request (that is, the transfer of the remaining part of the stream data from the upstream server is not in time). The stream data storage / delivery system and storage / delivery method according to the second embodiment enable immediate response to a trick play delivery request from a client.

【0037】〈2−1〉第2の実施形態の構成 図8は、第2の実施形態におけるサーバを概略的に示す
構成図である。第2の実施形態のネットワーク構成は図
1と同様であるが、その中に含まれるサーバは、図8に
示すように、第1の実施形態のものとは異なる構成を持
っている。
<2-1> Configuration of the Second Embodiment FIG. 8 is a configuration diagram schematically showing a server in the second embodiment. The network configuration of the second embodiment is similar to that of FIG. 1, but the server included therein has a configuration different from that of the first embodiment, as shown in FIG.

【0038】図8に示されるように、キャッシュサーバ
40は、コンテンツデータを蓄積する蓄積装置41と、
この蓄積装置41に蓄積される蓄積データを管理する蓄
積管理装置42と、ストリームデータを断片ファイルデ
ータに分割するストリーム分割装置43とを有する。ま
た、第2の実施形態においては、ルートサーバ10もキ
ャッシュサーバ40と同様に、蓄積装置11と、蓄積管
理装置12と、ストリーム分割装置13とを有してい
る。ただし、第2の実施形態に係るストリームデータの
蓄積・配信システムにおいては、キャッシュサーバ40
の蓄積装置41の容量を、ルートサーバ10の蓄積装置
11の容量より小さくできる。また、第2の実施形態に
係る蓄積・配信システムにおいては、キャッシュサーバ
40の蓄積装置41の容量を、下流のキャッシュサーバ
ほど、小さくできる。
As shown in FIG. 8, the cache server 40 includes a storage device 41 for storing content data,
The storage management device 42 manages the storage data stored in the storage device 41, and the stream dividing device 43 divides the stream data into fragment file data. In addition, in the second embodiment, the route server 10 also has a storage device 11, a storage management device 12, and a stream division device 13 as with the cache server 40. However, in the stream data storage / delivery system according to the second embodiment, the cache server 40
The capacity of the storage device 41 of the above can be made smaller than the capacity of the storage device 11 of the route server 10. Further, in the storage / delivery system according to the second embodiment, the capacity of the storage device 41 of the cache server 40 can be made smaller as the downstream cache server.

【0039】〈2−2〉第2の実施形態の動作 図9は、第2の実施形態に係るストリームデータの蓄積
・配信システムにおけるストリームデータの分散配置時
(蓄積工程)の動作を示すフローチャートチャーチであ
る。また、図10は、第2の実施形態に係るストリーム
データの蓄積・配信システムにおけるストリームデータ
の分散配置時の動作を示す説明図である。
<2-2> Operation of the Second Embodiment FIG. 9 is a flowchart church showing the operation of the stream data storage / delivery system according to the second embodiment when the stream data is distributed (stored). Is. Further, FIG. 10 is an explanatory diagram showing an operation at the time of distributed arrangement of stream data in the stream data storage / distribution system according to the second embodiment.

【0040】各サーバ10又は40は、新規のストリー
ムデータを受信すると(ステップ201)、サーバの蓄
積装置11又は41に保存し(ステップ202)、下流
サーバの有無を判断し(ステップ203)、下流サーバ
が存在すれば受信したストリームデータをこの下流サー
バに送信済か否かを判断する(ステップ204)。ここ
で、送信済でなければ、サーバのストリーム分散装置1
3又は43は、ストリームデータSをn個(nは、2以
上の整数)の断片ファイルデータにし(ステップ20
5)、断片ファイルデータS,S,…,Sを所定
の処理方法(第1の実施形態における処理方法と同様)
に従って分割し(ステップ206)て、断片ファイルデ
ータS,S,…,Sの先頭部分データS1H,S
2H,…,SnHを下流サーバに送信する(ステップ2
07)。各サーバが、図9及び図10に示される処理を
実行することによって、ストリームデータSのn個の断
片ファイルデータS,S,…,Sの各先頭部分デ
ータS1H,S2H,…,S nHが、キャッシュサーバ
40の蓄積装置41に分散配置(即ち、キャッシュ)さ
れる。
Each server 10 or 40 has a new stream.
When the system data is received (step 201), the server stores it.
Stored in the stacking device 11 or 41 (step 202), downstream
The presence or absence of a server is determined (step 203), and the downstream server
Stream exists, the received stream data is sent to this downstream server.
(Step 204). here
If not, the stream distribution device 1 of the server
3 or 43 n stream data S (n is 2 or more)
Fragment file data of the upper integer) (step 20)
5), fragment file data S1, STwo,…, SnPredetermined
Processing method (similar to the processing method in the first embodiment)
It is divided according to (step 206) and the fragment file data is
Data S1, STwo,…, SnHead part data S of1H, S
2H,…, SnHTo the downstream server (step 2
07). Each server executes the processing shown in FIG. 9 and FIG.
By executing the stream data S
Single file data S1, STwo,…, SnEach head part of
Data S1H, S2H,…, S nHBut the cache server
40 storage devices 41 are distributed (that is, cached)
Be done.

【0041】なお、サーバの蓄積管理装置42は、第1
の実施形態の場合と同様に、断片ファイルデータS
(k=1,2,…,n)を1本のストリームデータと
みなして断片ファイルデータSを先頭部分データS
kHと残り部分データ(後方部分データ)SkTに分割
する。また、先頭部分データSkHのクライアント30
における再生時間をPkHとし、先頭部分データS
下流のサーバに転送する(キャッシュさせる)のに必要
な時間をTkTで表すとき、PkH≧TkTが成立する
ように各断片ファイルデータSを先頭部分データS
kHと残り部分データS kTに分割する。
The storage management device 42 of the server is
As in the case of the above embodiment, the fragment file data S
k(K = 1, 2, ..., N) as one stream data
Deemed fragment file data SkIs the head part data S
kHAnd the remaining part data (rear part data) SkTSplit into
To do. In addition, the head portion data SkHThe client 30
Play time in PkHAnd the head part data SkTo
Required to transfer (cache) to downstream server
A good time TkTWhen expressed as PkH≧ TkTHolds
Each fragment file data SkIs the head part data S
kHAnd the remaining data S kTSplit into.

【0042】以上の処理により、キャッシュサーバ40
の蓄積装置41内にはルートサーバ10の持つストリー
ムデータSの一部分(各断片ファイルデータの先頭部分
データ)だけが配置される。キャッシュサーバ40に保
存されるデータ量は第1の実施形態と同じであり、ルー
トサーバ10のそれに比べ非常に小さい。
By the above processing, the cache server 40
In the storage device 41, only part of the stream data S held by the route server 10 (the head part data of each fragment file data) is arranged. The amount of data stored in the cache server 40 is the same as in the first embodiment, and is much smaller than that of the route server 10.

【0043】次に、第2の実施形態によるストリームデ
ータの配信動作を説明する。なお、通常再生時の動作は
第1の実施形態の場合と同様に、各断片ファイルデータ
の先頭部分データSkHを再生している間に、キャ
ッシュサーバが上流から残り部分データSkTを入手す
る。断片ファイルデータSの先頭部分データSkH
再生に続いて、サーバが、複数個の断片ファイルデータ
の残り部分データと、サーバが自らが保持している複数
個の断片ファイルデータの先頭部分データとを、ストリ
ームデータSの時系列に従った順に要求元クライアント
30に配信する。第2の実施形態における通常再生動作
は、既に説明した第1の実施形態の動作と同様である。
Next, the distribution operation of stream data according to the second embodiment will be described. The operation during normal reproduction is the same as in the case of the first embodiment, while the first partial data S kH of each fragment file data S k is reproduced, the cache server reads the remaining partial data S kT from the upstream. Obtain. Following reproduction of the head portion data S kH of the fragment file data S k , the server stores the remaining portion data of the plurality of fragment file data and the head portion data of the plurality of fragment file data held by the server itself. And are distributed to the request source client 30 in the order of the time series of the stream data S. The normal reproduction operation in the second embodiment is similar to the operation in the first embodiment already described.

【0044】図11は、第2の実施形態に係るストリー
ムデータの蓄積・配信システムにおける特殊再生時にお
けるストリームデータの配信動作を示すフローチャート
である。
FIG. 11 is a flow chart showing the distribution operation of stream data during special reproduction in the stream data storage / distribution system according to the second embodiment.

【0045】図11に示されるように、クライアント3
0は一番近い位置にあるキャッシュサーバ40に対し特
殊再生を要求する(ステップ211)。特殊再生の要求
を受けたキャッシュサーバ40の蓄積管理装置42は、
その時点で通常再生用配信動作を停止し、クライアント
30の要求に従って以下の処理を実行する。
As shown in FIG. 11, the client 3
0 requests trick play to the cache server 40 at the closest position (step 211). The storage management device 42 of the cache server 40, which has received the special reproduction request,
At that point, the normal reproduction distribution operation is stopped, and the following processing is executed according to the request from the client 30.

【0046】種別判定において指定位置から再生を開始
するジャンプ再生用配信要求があった場合(ステップ2
12)、キャッシュサーバ40の蓄積管理装置42は、
要求されたストリームデータS上の指定位置(ジャンプ
先)に時間的に最も近いストリームデータの断片ファイ
ルデータSの先頭部分データSkHをクライアント3
0に送信し(ステップ213)、その位置を起点に通常
再生動作を実行する(ステップ214)。通常再生動作
は、先頭部分データSkHを再生している間に残り部分
データSkTを上流サーバから入出する方法によって行
われる。
When there is a jump reproduction distribution request for starting reproduction from a designated position in the type determination (step 2)
12), the storage management device 42 of the cache server 40
The client 3 receives the head part data S kH of the fragment file data S k of the stream data that is temporally closest to the specified position (jump destination) on the requested stream data S.
0 (step 213), and the normal reproduction operation is executed starting from that position (step 214). The normal reproducing operation is performed by a method of inputting / removing the remaining partial data S kT from the upstream server while reproducing the leading partial data S kH .

【0047】種別判定において高速再生用配信要求又は
高速逆再生(巻戻し)用配信要求があった場合(ステッ
プ212)、キャッシュサーバ40の蓄積管理装置42
は、現在送信しているストリームデータSの断片ファイ
ルデータSの次の断片ファイルデータSk+1(高速
巻戻し再生の場合には、一つ前の断片ファイルデータS
k−1)の先頭部分データを蓄積装置内から順次取り出
し(ステップ215)、クライアント30に送信し(ス
テップ216)、このステップを高速再生等の指示が継
続する限り維持する(ステップ217)。
If there is a high speed reproduction distribution request or a high speed reverse reproduction (rewind) distribution request in the type determination (step 212), the storage management device 42 of the cache server 40.
, If the current transmission to which stream data S segment file data S next fragment file data S k k + 1 of the (fast rewind playback, the previous fragment file data S
The leading part data of ( k-1 ) is sequentially taken out from the storage device (step 215) and transmitted to the client 30 (step 216), and this step is maintained as long as an instruction such as high speed reproduction is continued (step 217).

【0048】〈2−3〉第2の実施形態の効果 以上に説明した第2の実施形態のストリームデータの蓄
積・配信システム及び蓄積・配信方法によれば、第1の
実施形態の場合の効果に加え、ルートサーバ10、キャ
ッシュサーバ30にリソースを追加することなく、ユー
ザに対し特殊再生(早送り再生、巻戻し再生、ジャンプ
再生等)を待ち時間なく提供できる。
<2-3> Effects of the Second Embodiment According to the stream data storage / distribution system and storage / distribution method of the second embodiment described above, the effects of the first embodiment are obtained. In addition, special playback (fast forward playback, rewind playback, jump playback, etc.) can be provided to the user without waiting, without adding resources to the route server 10 and the cache server 30.

【0049】また、ストリームデータSを断片ファイル
データSに分割する場合の分割数は、各サーバに必要
な蓄積装置の容量や、各サーバ間の通信量等に影響を与
えず、第1の実施形態と全く同じであるので、1の実施
形態と同じコストで実現可能である。
The number of divisions when the stream data S is divided into fragment file data S k does not affect the capacity of the storage device required for each server, the communication volume between each server, etc. Since it is exactly the same as the embodiment, it can be realized at the same cost as the one embodiment.

【0050】〈3〉第3の実施形態 第1又は第2の実施形態に係るストリームデータの蓄積
・配信システム(及び蓄積・配信方法)は、事前にスト
リームデータを先頭部分データと残り部分データに分割
してキャッシュサーバに先頭部分データを分散配置して
おくことにより、ユーザは動画データ等を配信要求後に
迅速に再生開始でき、かつ、再生が途中で中断すること
のないスムーズな再生を可能とする。第3の実施形態に
係るストリームデータの蓄積・配信システム(及び蓄積
・配信方法)は、第1又は第2の実施形態に係るストリ
ームデータの蓄積・配信システム(及び蓄積・配信方
法)の改良である。改良点は、ストリームデータが利用
(クライアントに配信)される頻度(利用頻度)に応じ
て動的にストリームデータの配置(どのキャッシュサー
バにどれだけのデータを蓄積させておくか)を変化させ
る機能を有する点である。第3の実施形態に係るストリ
ームデータの蓄積・配信システムにおいては、利用頻度
が高いストリームデータSほど、クライアント(ユー
ザ)に近い位置にあるキャッシュサーバに配置すること
により、末端のキャッシュサーバ(即ち、クライアント
に近いキャッシュサーバ)におけるキャッシュヒット率
を上げ、バックボーンネットワークへの通信量を軽減し
ている。なお、以下の説明において、上流サーバの利用
頻度がある閾値に達したときに、上流サーバが、自身が
蓄積するストリームデータを下流サーバにキャッシュさ
せることを「プッシュする」と表現する。
<3> Third Embodiment The stream data storage / delivery system (and storage / delivery method) according to the first or second embodiment converts stream data into head data and remaining data in advance. By dividing and allocating the leading part data to the cache server in a distributed manner, the user can quickly start playing the video data etc. after a distribution request, and it is possible to perform smooth playback without interruption in the middle of the playback. To do. The stream data storage / delivery system (and storage / delivery method) according to the third embodiment is an improvement of the stream data storage / delivery system (and storage / delivery method) according to the first or second embodiment. is there. The improvement is a function that dynamically changes the arrangement of stream data (how much data is stored in which cache server) according to the frequency (frequency of use) when stream data is used (delivered to clients). Is a point having. In the stream data storage / delivery system according to the third embodiment, the more frequently used stream data S are arranged in the cache server closer to the client (user), the end cache server (that is, The cache hit rate in the cache server close to the client) is increased to reduce the amount of communication to the backbone network. In the following description, when the usage frequency of the upstream server reaches a certain threshold value, the upstream server causes the downstream server to cache the stream data accumulated by itself, which is referred to as “push”.

【0051】〈3−1〉第3の実施形態の構成 第3の実施形態に係るストリームデータの蓄積・配信シ
ステム(第3の実施形態に係るストリームデータの蓄積
・配信方法を実施するためのシステム)の構成は、図1
に示すとおりである。第3の実施形態におけるサーバ
は、図12に示されるように、第1及び第2の実施形態
のものとは異なる構成を持つ。第3の実施形態における
サーバ50は、図12に示されるように、コンテンツデ
ータを蓄積する蓄積装置51、その蓄積データを管理す
る蓄積管理装置52、ストリームデータを分割するスト
リーム分割装置53に加え、キャッシュデータの利用頻
度(ヒット率)を管理する利用頻度管理装置54をその
内部に持っている。また、ルートサーバ10も、キャッ
シュサーバ50と同様の構成を持っている。第3の実施
形態に係るストリームデータの蓄積・配信システムにお
いては、第1又は第2の実施形態と同様の手法でルート
サーバ10のストリームデータSが下流のキャッシュサ
ーバ50に分散配置(即ち、キャッシュ)される。
<3-1> Configuration of Third Embodiment Stream Data Storage / Distribution System According to Third Embodiment (System for Implementing Stream Data Storage / Distribution Method According to Third Embodiment ) Is configured as shown in FIG.
As shown in. The server in the third embodiment has a configuration different from that in the first and second embodiments, as shown in FIG. As shown in FIG. 12, the server 50 according to the third embodiment includes a storage device 51 that stores content data, a storage management device 52 that manages the storage data, and a stream division device 53 that divides stream data. A usage frequency management device 54 that manages the usage frequency (hit rate) of the cache data is provided therein. The route server 10 also has the same configuration as the cache server 50. In the stream data storage / delivery system according to the third embodiment, the stream data S of the route server 10 is distributed to the downstream cache servers 50 (that is, cache) by the same method as in the first or second embodiment. ) Will be done.

【0052】〈3−2〉第3の実施形態の動作 キャッシュサーバ50の利用頻度管理装置54は自身の
蓄積装置51内にある該当ストリームデータの利用頻度
(時間あたりの送信回数)を記録しており、その値を逐
次上流サーバの利用頻度管理装置54(又は14)に通
知する。下流のサーバから該当ストリームデータの利用
頻度情報を得た上流のサーバは、その値を自身が持つ利
用頻度情報に加算し、さらに上流のサーバがある場合は
その値を逐次上流サーバの利用頻度管理装置54に通知
する。ここで、あるサーバにストリームデータがあり、
その利用頻度をFsとすると、このサーバは利用頻度F
sの値に従って以下の動作を行う。サーバはある閾値T
sを用意し、Fs>Tsとなったときに、サーバは下流
サーバの蓄積管理装置に対して利用頻度Fsが閾値Ts
を越えたことを通知する。
<3-2> Operation of the third embodiment The usage frequency management device 54 of the cache server 50 records the usage frequency (the number of transmissions per hour) of the corresponding stream data in its own storage device 51. The value is sequentially notified to the usage frequency management device 54 (or 14) of the upstream server. The upstream server, which has obtained the usage frequency information of the corresponding stream data from the downstream server, adds the value to its own usage frequency information, and if there is an upstream server, manages the value sequentially by the upstream server usage frequency. Notify the device 54. Here, a server has stream data,
If the frequency of use is Fs, then this server will have a frequency of use F
The following operation is performed according to the value of s. The server has a certain threshold T
s is prepared, and when Fs> Ts, the server determines that the usage frequency Fs is the threshold Ts for the storage management device of the downstream server.
Notify you have exceeded.

【0053】利用頻度Fsが閾値Tsを越えたことの通
知を受信した下流サーバは、自身の蓄積装置内に該当ス
トリームデータが蓄積されているかどうかを確認し、該
当ストリームデータの全てが蓄積されていない場合に
は、上流サーバに対して該当ストリームデータのうちの
持っていない部分をプッシュするよう要求する。この要
求を受けた上流サーバは、要求されたデータを下流サー
バにプッシュする。上流サーバからストリームデータを
受け取った下流サーバは自身の蓄積装置内にそのデータ
を保存(キャッシュ)する。なお、ストリームデータの
利用頻度に対する閾値の値は、変更可能である。
Upon receiving the notification that the usage frequency Fs has exceeded the threshold Ts, the downstream server checks whether or not the corresponding stream data is stored in its own storage device, and all of the corresponding stream data is stored. If not, it requests the upstream server to push the part of the stream data that it does not have. Upon receiving this request, the upstream server pushes the requested data to the downstream server. The downstream server receiving the stream data from the upstream server stores (caches) the data in its own storage device. The threshold value for the usage frequency of stream data can be changed.

【0054】図13は、第3の実施形態に係るストリー
ムデータの蓄積・配信システムにおけるストリームデー
タの分散配置動作を示すフローチャートである。
FIG. 13 is a flow chart showing the distributed arrangement operation of stream data in the stream data storage / delivery system according to the third embodiment.

【0055】図13に示されるように、サーバが要求の
受信待ちにあるときに(ステップ301)、下流サーバ
からプッシュの要求があると(ステップ302)、サー
バは該当ストリームデータを下流サーバに送信する(ス
テップ303)。
As shown in FIG. 13, when the server is waiting to receive a request (step 301) and there is a push request from the downstream server (step 302), the server sends the corresponding stream data to the downstream server. (Step 303).

【0056】また、図13に示されるように、サーバが
要求の受信待ちにあるときに(ステップ301)、下流
サーバから利用頻度通知があると(ステップ302)、
通知を受けたサーバの利用頻度管理装置54は自身の蓄
積装置51内にある該当ストリームデータの利用頻度を
更新(複数の下流サーバがある場合には、上流サーバは
複数の下流サーバから通知された利用頻度を加算して自
己の利用頻度として記録)し(ステップ304)、通知
を受けたサーバの利用頻度Fsが閾値Tsに達したとき
に(ステップ305)、下流サーバに閾値交差を通知す
る(ステップ306)。
Further, as shown in FIG. 13, when the server waits for a request (step 301) and a downstream server gives a usage frequency notification (step 302),
The usage frequency management device 54 of the server that has received the notification updates the usage frequency of the corresponding stream data in its own storage device 51 (if there are multiple downstream servers, the upstream server is notified by the multiple downstream servers). The usage frequency is added and recorded as its own usage frequency (step 304), and when the usage frequency Fs of the notified server reaches the threshold Ts (step 305), the downstream server is notified of the threshold crossing (step 305). Step 306).

【0057】また、図13に示されるように、サーバが
要求の受信待ちにあるときに(ステップ301)、上流
サーバから閾値交差の通知があると(ステップ30
2)、通知を受けた下流サーバは該当ストリームデータ
を蓄積済か否かを判断し(ステップ307)、蓄積済で
なければ上流サーバにプッシュ要求をして上流サーバが
蓄積するストリームデータを取得し(ステップ30
8)、このストリームデータを蓄積する(ステップ30
9)。
Further, as shown in FIG. 13, when the server is waiting for a request (step 301), a notification of threshold crossing is received from the upstream server (step 30).
2) The downstream server that has received the notification determines whether or not the corresponding stream data has been accumulated (step 307). If not, a push request is sent to the upstream server to obtain the stream data accumulated by the upstream server. (Step 30
8) The stream data is accumulated (step 30)
9).

【0058】なお、下流サーバの蓄積装置に、上流サー
バから送信されて来るデータを保存する空き容量がない
場合には、下流サーバは事前に蓄積装置内にあるストリ
ームデータを削除しておく必要がある。削除するストリ
ームデータの選定方法は、例えば、利用頻度が低い順に
削除するストリームを選定する、保存した時刻が古い順
に削除するストリームデータを選定する、最後に利用さ
れた時刻が古い順に削除する等の方法があるが、削除方
法はこれらに限定されない。また、第3の実施形態に係
るストリームデータの蓄積・配信システムは、「多くの
ユーザは同時期に同一タイトルを閲覧する傾向がある
(例えば、人気のある映像コンテンツに対し配信要求が
集中する傾向がある。)」という仮定が成立する場合
に、効果が期待できる。
If the storage device of the downstream server has no free space to store the data sent from the upstream server, the downstream server must delete the stream data in the storage device in advance. is there. The selection method of the stream data to be deleted is, for example, selecting a stream to be deleted in the order of low usage frequency, selecting stream data to be deleted in the order of the oldest saved time, or deleting the stream in the order of oldest used time. However, the deletion method is not limited to these. Further, the stream data storage / delivery system according to the third embodiment states that "many users tend to browse the same title at the same time (for example, delivery requests tend to be concentrated on popular video contents. The effect can be expected if the assumption "."

【0059】〈3−3〉第3実施形態の効果 以上に説明した第3の実施形態に係るストリームデータ
の蓄積・配信システム及び蓄積・配信方法によれば、利
用頻度が高いストリームデータほどクライアント30に
近い位置にあるキャッシュサーバにプッシュされること
になり、非常に効率のよい(即ち、キャッシュサーバに
おけるキャッシュヒット率が高い)ストリームデータの
配置となる。このため、クライアントからの配信要求に
対して迅速に配信を開始でき、かつ、途切れることのな
い安定した配信を提供できる。
<3-3> Effects of Third Embodiment According to the stream data storage / delivery system and storage / delivery method according to the third embodiment described above, the client 30 is assigned to stream data that is used more frequently. Will be pushed to the cache server in a position close to, and the stream data will be arranged very efficiently (that is, the cache hit rate in the cache server will be high). Therefore, it is possible to promptly start the delivery in response to the delivery request from the client, and to provide stable delivery without interruption.

【0060】また、キャッシュサーバにおけるキャッシ
ュヒット率が高く、バックボーンネットワークへの通信
量を軽減できる。
Further, the cache server has a high cache hit rate, and the amount of communication to the backbone network can be reduced.

【0061】さらに、ある特定の地区(例えば、東京地
区に配置されたキャッシュサーバ)において人気の高か
ったストリームデータを、今後利用頻度の増加が予想さ
れる他の地区のキャッシュサーバ(例えば、大阪地区に
配置されたキャッシュサーバ)にプッシュしておくとい
うことも可能である。即ち、上流サーバの利用頻度が高
い場合に、その下流サーバにストリームデータをプッシ
ュするだけではなく、全く離れた位置にある他のサーバ
に対し、何らかの共通要素(例えば、大都市部という共
通要素や、英語圏という共通要素や、同じ国であるとい
う共通要素、これらの組み合わせ、並びに、これら及び
他の共通要素の組み合わせ等)に基づいて選ばれた他の
サーバに対してプッシュすることも可能である。なお、
第3の実施形態において、上記以外の点は、上記第1及
び第2の実施形態と同じである。
Furthermore, stream data that was popular in a certain area (for example, a cache server located in the Tokyo area) can be used for cache servers in other areas where the frequency of use is expected to increase in the future (for example, the Osaka area). It is also possible to push it to the cache server located at. That is, when the frequency of use of the upstream server is high, not only is stream data pushed to the downstream server, but some common element (for example, a common element such as a large city area , English-speaking common elements, common country being common elements, combinations of these, and combinations of these and other common elements, etc.). is there. In addition,
The third embodiment is the same as the first and second embodiments except the above.

【0062】〈4〉第4の実施形態 〈4−1〉第4の実施形態の構成 第3の実施形態では「利用頻度に応じて動的にストリー
ムデータの配置を変化させる機能」について説明した。
その中で、各サーバは該当ストリームデータの利用頻度
を集計し、その値に従って下流サーバに配置(キャッシ
ュ)するストリームデータを選定している。
<4> Fourth Embodiment <4-1> Configuration of Fourth Embodiment In the third embodiment, the “function of dynamically changing the arrangement of stream data according to the frequency of use” has been described. .
Among them, each server aggregates the usage frequency of the corresponding stream data and selects the stream data to be arranged (cached) in the downstream server according to the value.

【0063】しかし、第3の実施形態においては、上流
サーバにあるストリームデータを下流のサーバに送信す
る(キャッシュさせる)場合、例えば、映画などのスト
リームデータを下流にある複数のサーバに送信すると場
合に、通信回線に与える負荷は無視できないものとな
る。この対策としてマルチキャストやエニーキャストと
いった通信方法を用いて通信量の総和を抑える手法も考
えられるが、巨大なファイルを短時間で送信しなければ
ならないという要求は依然として存在する。また、サー
バがキャッシュしているファイルを、「利用頻度が低い
順に削除する」又は「最後に利用された時刻が古いスト
リームデータの順に削除する」といった削除方法を採用
すると、十分な記憶容量を確保できないキャッシュサー
バにおいてはストリームデータの削除と再キャッシュが
頻発するおそれがある。
However, in the third embodiment, when the stream data in the upstream server is transmitted (cached) to the downstream server, for example, when the stream data such as a movie is transmitted to a plurality of downstream servers. Moreover, the load on the communication line cannot be ignored. As a countermeasure for this, a method of suppressing the total amount of communication by using a communication method such as multicast or anycast can be considered, but there is still a demand for transmitting a huge file in a short time. In addition, if you use a deletion method such as “delete files in the order of low usage frequency” or “delete the last used stream data in the order of stream data”, you can secure sufficient storage capacity. There is a possibility that stream data may be deleted and re-cached frequently in a cache server that cannot.

【0064】そのため、第3の実施形態においてはプッ
シュ(又は削除)するデータの単位が「ストリーム単
位」であったが、第4の実施形態においては利用頻度に
応じたデータ量の段階的なストリームデータのプッシュ
及び削除を実現することとした。
Therefore, in the third embodiment, the unit of data to be pushed (or deleted) is the "stream unit", but in the fourth embodiment, the stepwise stream of the data amount according to the usage frequency is used. It was decided to push and delete data.

【0065】第4の実施形態に係るストリームデータの
蓄積・配信システムは、図1と同様であるが、その中に
含まれるサーバは、図14に示されるように、第1から
第3までの実施形態のものとは異なる構成を持つ。
The stream data storage / delivery system according to the fourth embodiment is the same as that shown in FIG. 1, but the servers included therein are from the first to the third as shown in FIG. It has a configuration different from that of the embodiment.

【0066】図14に示されるように、第4の実施形態
におけるサーバは、コンテンツデータを蓄積する蓄積装
置61、その蓄積データを管理する分割蓄積管理装置6
2、ストリームデータを分割するストリーム分割装置6
3、キャッシュデータの利用頻度を管理する利用頻度管
理装置64に加え、下流サーバにプッシュするデータ量
を管理するプッシュ量管理装置65をその内部に持って
いる。また、ルートサーバ10も、キャッシュサーバ6
0と同様の構成を持っている。第4の実施形態に係るス
トリームデータの蓄積・配信システムにおいては、第2
の実施形態と同様の手法でルートサーバ10のストリー
ムデータSが下流のキャッシュサーバに分散配置(即
ち、キャッシュ)されている。
As shown in FIG. 14, the server in the fourth embodiment includes a storage device 61 for storing content data and a divided storage management device 6 for managing the storage data.
2. Stream division device 6 for dividing stream data
3. In addition to the usage frequency management device 64 that manages the usage frequency of cache data, a push amount management device 65 that manages the amount of data to be pushed to the downstream server is provided inside. Further, the route server 10 is also the cache server 6
It has the same configuration as 0. In the stream data storage / delivery system according to the fourth embodiment,
The stream data S of the route server 10 is distributed (that is, cached) to the downstream cache servers by the same method as in the above embodiment.

【0067】〈4−2〉第4の実施形態の動作 以上のような構成において、第4の実施形態に係るスト
リームデータの蓄積・配信システムにおいては、第2の
実施形態と同様の手法で、ルートサーバのストリームデ
ータが下流のキャッシュサーバに分散配置(キャッシ
ュ)されており、第3の実施形態と同様の手法で、該当
ストリームデータの利用頻度が逐次上流サーバの利用頻
度管理装置に通知されている。
<4-2> Operation of Fourth Embodiment In the above-described configuration, the stream data storage / delivery system according to the fourth embodiment uses the same method as that of the second embodiment. The stream data of the route server is distributed (cached) to the downstream cache servers, and the usage frequency of the stream data is sequentially notified to the usage frequency management device of the upstream server by the same method as in the third embodiment. There is.

【0068】ここで、あるサーバにストリームデータが
あり、その利用頻度をFsと表す。第3の実施形態と同
様に、このサーバでは、ある閾値Tsを用意するが、第
4の実施形態においては、これに加えて、Fsを引数と
する単調増加関数f(Fs)を用意する。なお、単調増
加関数f(Fs)は、あらゆる引数Fsに対して 0=f(0)≦f(Fs)≦f(Ts)=1 が成立する関数とする。即ち、単調増加関数f(Fs)
は、0以上1以下の値を取り、利用頻度Fsが0のとき
に値0となり、利用頻度Fsが最大の閾値Tsに達した
とに値1となる単調増加関数である。
Here, there is stream data in a certain server, and its usage frequency is represented by Fs. Similar to the third embodiment, this server prepares a certain threshold value Ts, but in the fourth embodiment, in addition to this, a monotonically increasing function f (Fs) with Fs as an argument is prepared. Note that the monotonically increasing function f (Fs) is a function that satisfies 0 = f (0) ≦ f (Fs) ≦ f (Ts) = 1 for all arguments Fs. That is, the monotonically increasing function f (Fs)
Is a monotonically increasing function that takes a value of 0 or more and 1 or less, becomes 0 when the usage frequency Fs is 0, and becomes 1 when the usage frequency Fs reaches the maximum threshold value Ts.

【0069】各サーバは単調増加関数f(Fs)の値に
従い以下の動作を行う。
Each server performs the following operation according to the value of the monotonically increasing function f (Fs).

【0070】サーバは、単調増加関数f(Fs)の値が
ある閾値(閾値は、例えば、0.1,0.2,0.3,
…,1.0というように複数用意する。)を越える度
に、下流サーバの蓄積管理装置に対して、単調増加関数
f(Fs)の値を通知する。
The server has a threshold value having a monotonically increasing function f (Fs) (threshold values are, for example, 0.1, 0.2, 0.3,
..., prepare multiple such as 1.0. ), The value of the monotonically increasing function f (Fs) is notified to the storage management device of the downstream server.

【0071】単調増加関数f(Fs)の値を受信した下
流サーバは、自身の蓄積装置内に該当ストリームデータ
が蓄積されているか否かを確認し、該当ストリームデー
タの全てが蓄積されていない場合は、上流サーバに、持
っていないデータをプッシュするよう要求する。ただ
し、このとき、下流サーバのプッシュ量管理装置65は
該当ストリームデータの全データを要求するのではな
く、単調増加関数f(Fs)の値に応じたデータ量を上
流サーバに要求する。例えば、該当ストリームデータの
総データ量をWSとし、下流サーバに既に蓄積されてい
るデータ量をWCとしたときに、下流サーバが上流サー
バに配信を要求するデータ量WRは、WR=WS×f
(Fs)−WCにより得られる。ただし、配信を要求す
るデータ量WRは、WS×f(Fs)−WCに完全に一
致させる必要はなく、これに近い量としてもよい。
The downstream server, which has received the value of the monotonically increasing function f (Fs), confirms whether or not the corresponding stream data is stored in its own storage device, and when all of the corresponding stream data is not stored. Requests the upstream server to push the data it does not have. However, at this time, the push amount management device 65 of the downstream server does not request all the data of the corresponding stream data, but requests the upstream server for a data amount corresponding to the value of the monotonically increasing function f (Fs). For example, when the total data amount of the corresponding stream data is WS and the data amount already accumulated in the downstream server is WC, the data amount WR that the downstream server requests the upstream server to deliver is WR = WS × f
(Fs) -WC. However, the data amount WR requested to be distributed does not need to be exactly the same as WS × f (Fs) −WC, and may be an amount close to this.

【0072】要求するデータの単位は、例えば、該当ス
トリームデータを均等に分割した断片ファイルデータで
あり、この場合には、下流に配信される断片ファイルデ
ータが等間隔になるようにすることが望ましい。
The unit of the requested data is, for example, fragment file data obtained by evenly dividing the corresponding stream data. In this case, it is desirable that the fragment file data distributed downstream have equal intervals. .

【0073】以上の処理内容の具体例で示すと以下のよ
うになる。上流サーバからf(Fs)=0.5が通知さ
れたとする。このとき、自身の蓄積装置内に該当ストリ
ームデータが30%分蓄積されていたとするとき、上流
サーバに対してf(Fs)−30%=0.5−0.3=
0.2(=20%)分のストリームデータの断片ファイ
ルデータ(既に持っているデータを除く)を要求する。
なお、ストリームデータの断片ファイルデータが時間系
列の順にS,S,…で表わされる場合には、要求す
るストリームデータの断片ファイルデータはできるだけ
等間隔となるように(例えば、5個の断片ファイルデー
タを飛ばすように断片ファイルデータS ,S,S
11,…,S,Sk+5,…となるように)調節す
る。
A concrete example of the above processing contents is as follows.
Growls F (Fs) = 0.5 is notified from the upstream server
Suppose At this time, the corresponding stream is stored in its own storage device.
If 30% of the system data is accumulated,
F (Fs) -30% = 0.5-0.3 = for the server
Fragment file of 0.2 (= 20%) stream data
Request data (excluding data that you already have).
The fragment file data of the stream data is time-based.
S in column order1, STwo,, ...
Stream data fragment File data can be
Be evenly spaced (for example, 5 fragment file data
Fragment file data S to skip data 1, S6, S
11,…, Sk, Sk + 5, ...)
It

【0074】上記したように上流サーバは、要求された
該当ストリームデータの断片ファイルデータを、利用頻
度に応じたデータ量だけ下流サーバにプッシュする。
As described above, the upstream server pushes the fragment file data of the requested corresponding stream data to the downstream server by the data amount according to the usage frequency.

【0075】上流サーバからストリームデータの断片フ
ァイルデータを受け取った下流サーバは、自身の蓄積装
置内に、その断片ファイルデータを保存(キャッシュ)
する。
The downstream server receiving the fragment file data of the stream data from the upstream server stores (caches) the fragment file data in its own storage device.
To do.

【0076】図15は、第4の実施形態に係るストリー
ムデータの蓄積・配信システムにおけるストリームデー
タの分散配置動作を示すフローチャートである。
FIG. 15 is a flow chart showing the distributed arrangement operation of stream data in the stream data storage / delivery system according to the fourth embodiment.

【0077】図15に示されるように、サーバが要求の
受信待ちにあるときに(ステップ401)、下流サーバ
からプッシュの要求があると(ステップ402)、サー
バは該当ストリームデータを下流サーバに送信する(ス
テップ403)。
As shown in FIG. 15, when the server is waiting to receive a request (step 401) and there is a push request from the downstream server (step 402), the server sends the corresponding stream data to the downstream server. (Step 403).

【0078】また、図15に示されるように、サーバが
要求の受信待ちにあるときに(ステップ401)、下流
サーバから利用頻度通知があると(ステップ402)、
通知を受けたサーバの利用頻度管理装置64は自身の蓄
積装置61内にある該当ストリームデータの利用頻度を
更新(下流サーバが複数ある場合には、上流サーバは複
数の下流サーバから通知された利用頻度を加算して自己
の利用頻度として記録)し(ステップ404)、通知を
受けたサーバの利用頻度Fsに基づく単調増加関数f
(Fs)が複数の閾値のいずれかに達する度に(ステッ
プ405)、下流サーバに閾値交差を通知する(ステッ
プ406)。
Further, as shown in FIG. 15, when the server waits for a request (step 401) and a downstream server gives a usage frequency notification (step 402),
The usage frequency management device 64 of the server that has received the notification updates the usage frequency of the corresponding stream data in its own storage device 61 (when there are multiple downstream servers, the upstream server uses the usage data notified by the multiple downstream servers). The frequency is added and recorded as its own use frequency) (step 404), and a monotonically increasing function f based on the notified use frequency Fs of the server.
Each time (Fs) reaches any of the plurality of thresholds (step 405), the downstream server is notified of the threshold crossing (step 406).

【0079】また、図15に示されるように、サーバが
要求の受信待ちにあるときに(ステップ401)、上流
サーバから閾値交差の通知があると(ステップ40
2)、通知を受けた下流サーバは該当ストリームデータ
を蓄積済みか否かを判断し(ステップ407)、蓄積済
でなければ上流サーバにプッシュ要求をする該当ストリ
ームデータの断片ファイルデータの列(断片列)を閾値
に基づいて選定し(ステップ408)、下流サーバが断
片列を取得し(ステップ409)、該当ストリームデー
タの断片列を蓄積する(ステップ410)。
Further, as shown in FIG. 15, when the server is waiting to receive a request (step 401), there is a threshold crossing notification from the upstream server (step 40).
2) The notified downstream server judges whether or not the corresponding stream data has been accumulated (step 407), and if not, a fragment of the relevant stream data for which a push request is made to the upstream server. The column) is selected based on the threshold (step 408), the downstream server acquires the fragment sequence (step 409), and accumulates the fragment sequence of the corresponding stream data (step 410).

【0080】なお、下流サーバの蓄積装置に上流サーバ
から送信されて来るデータを保存する空き容量がない場
合、下流サーバは事前に蓄積装置内にあるストリームデ
ータを削除しておく必要がある。削除するストリームデ
ータの選定方法としては、第3の実施形態で挙げた方法
以外に、最も利用頻度が低い順にストリームデータの断
片を削除する方法がある。ただし、削除するストリーム
断片の量は利用頻度に応じて決定する。また、保存した
時刻が古い順に削除するストリームデータの断片を削除
する方法もある。ただし、削除するストリーム断片の量
は利用頻度に応じて決定する。さらに、最後に利用され
た時刻が古い順に削除するストリームデータの断片を選
定する方法もある。どの方法を選択するかは運用上の問
題であり、また、他の方法を選択することもできる。
When the storage device of the downstream server has no free space for storing the data transmitted from the upstream server, the downstream server needs to delete the stream data in the storage device in advance. As a method of selecting stream data to be deleted, there is a method of deleting stream data fragments in the order of least-used frequency other than the method described in the third embodiment. However, the amount of stream fragments to be deleted is determined according to the frequency of use. There is also a method of deleting stream data fragments that are deleted in order of oldest stored time. However, the amount of stream fragments to be deleted is determined according to the frequency of use. Furthermore, there is also a method of selecting a stream data fragment to be deleted in order of oldest used time. Which method to choose is an operational issue, and other methods can be chosen.

【0081】〈4−3〉第4の実施形態の効果 以上に説明した第4の実施形態に係るストリームデータ
の蓄積・配信システム及び蓄積・配信方法によれば、利
用頻度に応じて段階的にストリームデータがプッシュ
(及び削除)されることにより、一時期に大量のデータ
がプッシュされるような方式に比べネットワークに対す
る負荷が軽減できる。また、容量の小さいキャッシュサ
ーバであってもデータの移動(プッシュや削除)が断片
単位であるため、削除と再キャッシュが頻発するような
事態を回避することができる。
<4-3> Effects of the Fourth Embodiment According to the stream data storage / delivery system and storage / delivery method according to the fourth embodiment described above, the stream data is gradually changed in accordance with the frequency of use. By pushing (and deleting) the stream data, it is possible to reduce the load on the network as compared with the method in which a large amount of data is pushed at one time. Further, even with a cache server having a small capacity, data movement (push or deletion) is performed in fragment units, so it is possible to avoid a situation where deletion and re-caching occur frequently.

【0082】なお、第4の実施形態において、上記以外
の点は、上記第2及び第3の実施形態と同じである。
The fourth embodiment is the same as the second and third embodiments except for the points described above.

【0083】[0083]

【発明の効果】以上に説明したように、請求項1から2
2までの発明によれば、下流サーバがストリームデータ
の先頭部分データのみを蓄積しているだけであるので、
下流サーバの記憶容量を小さくしてもよく、蓄積・配信
システムに要する設備コストを抑制することができる。
また、クライアントが要求するストリームデータの先頭
部分データがクライアントに一番近いサーバにキャッシ
ュされているので、クライアントからの配信要求が送信
されてから再生開始までの時間を大幅に短縮できる。さ
らに、下流サーバに蓄積される先頭部分データのデータ
量を、少なくとも上流サーバからの転送時間の間は、再
生し続けることができるデータ量としているので、クラ
イアントへのストリームデータの配信を途切れることな
く実行できる。
As described above, according to claims 1 to 2.
According to the inventions up to 2, since the downstream server stores only the head part data of the stream data,
The storage capacity of the downstream server may be reduced, and the facility cost required for the storage / delivery system can be suppressed.
Also, since the head portion data of the stream data requested by the client is cached in the server closest to the client, the time from the transmission of the delivery request from the client to the start of reproduction can be greatly reduced. Furthermore, since the amount of data of the first part data accumulated in the downstream server is set to the amount of data that can be continuously reproduced at least during the transfer time from the upstream server, the stream data distribution to the client can be performed without interruption. I can do it.

【0084】また、請求項3から11まで、及び、請求
項14から22までの発明によれば、早送り再生、巻戻
し再生、ジャンプ再生等の特殊再生を待ち時間なく提供
できる。
According to the inventions of claims 3 to 11 and claims 14 to 22, special reproduction such as fast-forward reproduction, rewind reproduction, jump reproduction and the like can be provided without waiting time.

【0085】さらに、請求項8から11まで、及び請求
項19から22までの発明によれば、利用頻度が高いス
トリームデータほどクライアントに近い位置にあるサー
バにプッシュされることになり、非常に効率のよい(即
ち、キャッシュサーバでのキャッシュヒット率が高い)
ストリームデータの配置となる。このため、サーバにお
けるキャッシュヒット率が高く、バックボーンネットワ
ークへの通信量を軽減できる。
Further, according to the inventions of claims 8 to 11 and claims 19 to 22, the stream data having a higher frequency of use is pushed to the server closer to the client, which is very efficient. Good (that is, the cache hit rate on the cache server is high)
Arrangement of stream data. Therefore, the cache hit rate in the server is high, and the amount of communication to the backbone network can be reduced.

【0086】さらにまた、請求項10,11,21,及
び22の発明によれば、利用頻度に応じて段階的にスト
リームデータがプッシュ(及び削除)されることによ
り、ネットワークに対する負荷が軽減できる。また、デ
ータの移動(プッシュや削除)が断片単位であるため、
削除と再キャッシュが頻発するような事態を回避するこ
とができる。
Further, according to the inventions of claims 10, 11, 21 and 22, the load on the network can be reduced by pushing (and deleting) the stream data stepwise according to the frequency of use. Also, because data movement (push or delete) is in units of fragments,
It is possible to avoid a situation where deletion and re-caching frequently occur.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の第1から第4の実施形態に係るスト
リームデータの蓄積・配信システムを概略的に示す構成
図である。
FIG. 1 is a configuration diagram schematically showing a stream data storage / distribution system according to first to fourth embodiments of the present invention.

【図2】 第1の実施形態に係るストリームデータの蓄
積・配信システムにおけるサーバを概略的に示す構成図
である。
FIG. 2 is a configuration diagram schematically showing a server in the stream data storage / delivery system according to the first embodiment.

【図3】 第1の実施形態に係るストリームデータの蓄
積・配信システムにおけるストリームデータの分散配置
時の動作を示すフローチャートチャーチである。
FIG. 3 is a flowchart church showing an operation of distributed arrangement of stream data in the stream data storage / delivery system according to the first embodiment.

【図4】 第1の実施形態に係るストリームデータの蓄
積・配信システムにおけるストリームデータの分散配置
時の動作を示す説明図である。
FIG. 4 is an explanatory diagram showing an operation when stream data is distributed and arranged in the stream data storage / distribution system according to the first embodiment.

【図5】 第1の実施形態に係るストリームデータの蓄
積・配信システムにおけるストリームデータの配信時の
動作を示す説明図である。
FIG. 5 is an explanatory diagram showing an operation during delivery of stream data in the stream data storage / delivery system according to the first embodiment.

【図6】 第1の実施形態に係るストリームデータの蓄
積・配信システム(ルートサーバの下流のキャッシュサ
ーバが1段であるシステム)におけるストリームデータ
の配信動作を示す説明図である。
FIG. 6 is an explanatory diagram showing a distribution operation of stream data in a stream data storage / distribution system (a system in which a cache server downstream of a root server is a single stage) according to the first embodiment.

【図7】 第1の実施形態に係るストリームデータの蓄
積・配信システム(ルートサーバの下流のキャッシュサ
ーバが2段であるシステム)におけるストリームデータ
の配信動作を示す説明図である。
FIG. 7 is an explanatory diagram showing a distribution operation of stream data in the stream data storage / distribution system (system in which the cache server downstream of the root server has two stages) according to the first embodiment.

【図8】 本発明の第2の実施形態に係るストリームデ
ータの蓄積・配信システムにおけるサーバを概略的に示
す構成図である。
FIG. 8 is a configuration diagram schematically showing a server in a stream data storage / delivery system according to a second embodiment of the present invention.

【図9】 第2の実施形態に係るストリームデータの蓄
積・配信システムにおけるストリームデータの分散配置
時の動作を示すフローチャートチャーチである。
FIG. 9 is a flowchart church showing an operation of distributed arrangement of stream data in the stream data storage / delivery system according to the second embodiment.

【図10】 第2の実施形態に係るストリームデータの
蓄積・配信システムにおけるストリームデータの分散配
置時の動作を示す説明図である。
FIG. 10 is an explanatory diagram showing an operation when stream data is distributed and arranged in the stream data storage / delivery system according to the second embodiment.

【図11】 第2の実施形態に係るストリームデータの
蓄積・配信システムにおける特殊再生時の動作を示すフ
ローチャートチャーチである。
FIG. 11 is a flowchart church showing operations during trick play in the stream data storage / distribution system according to the second embodiment.

【図12】 本発明の第3の実施形態に係るストリーム
データの蓄積・配信システムにおけるサーバを概略的に
示す構成図である。
FIG. 12 is a configuration diagram schematically showing a server in a stream data storage / delivery system according to a third embodiment of the present invention.

【図13】 第3の実施形態に係るストリームデータの
蓄積・配信システムにおける利用頻度によるストリーム
データの配置の変更動作を示すフローチャートチャーチ
である。
FIG. 13 is a flowchart church showing an operation of changing the arrangement of stream data according to the usage frequency in the stream data storage / delivery system according to the third embodiment.

【図14】 本発明の第4の実施形態に係るストリーム
データの蓄積・配信システムにおけるサーバを概略的に
示す構成図である。
FIG. 14 is a configuration diagram schematically showing a server in a stream data storage / delivery system according to a fourth embodiment of the present invention.

【図15】 第4の実施形態に係るストリームデータの
蓄積・配信システムにおける利用頻度によるストリーム
データの配置の変更動作を示すフローチャートチャーチ
である。
FIG. 15 is a flowchart church showing an operation of changing the arrangement of stream data according to the frequency of use in the stream data storage / delivery system according to the fourth embodiment.

【符号の説明】[Explanation of symbols]

10 ルートサーバ 20,40,50,60 キャッシュサーバ 21,41,51,61 蓄積装置 22,42,52,62 蓄積管理装置 30 クライアント 43,63 ストリーム分割装置 54,64 利用頻度管理装置 65 プッシュ量管理装置 S ストリームデータ S ストリームデータの先頭部分データ S ストリームデータの残り部分データ SHH データSの先頭部分データ SHT データSの残り部分データ S,S,…,S ストリームデータの断片ファイ
ルデータ S1H,S2H,…,SnH 断片ファイルデータの先
頭部分データ
10 route server 20, 40, 50, 60 cache server 21, 41, 51, 61 storage device 22, 42, 52, 62 storage management device 30 client 43, 63 stream division device 54, 64 usage frequency management device 65 push amount management Device S Stream data S H Stream data beginning part data S T Stream data remaining part data S HH Data S H beginning part data S HT data S H remaining part data S 1 , S 2 , ..., S n stream data Fragment file data S 1H , S 2H , ..., Sn Hn fragment file data beginning part data

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】 ネットワーク上に階層的に配置された第
1段から第m(mは2以上の整数)段までのサーバにス
トリームデータを蓄積し、ネットワークを介してクライ
アントに配信するストリームデータの蓄積・配信方法に
おいて、 第1段サーバが保持する第1ストリームデータの一部を
第2段以下の下流サーバに蓄積する蓄積工程を有し、 前記蓄積工程が、 i=1,2,…,m−1のそれぞれについて行われる [1A] 第i段サーバの下流に第(i+1)段サーバ
が存在する場合に、第i段サーバが、自らが保持する第
iストリームデータを先頭部分データと残り部分データ
に分割する処理、 [1B] 第i段サーバが、第iストリームデータの先
頭部分データを第(i+1)段サーバに送信する処理、
及び、 [1C] 第(i+1)段サーバが、受信した第iスト
リームデータの先頭部分データを第(i+1)ストリー
ムデータとして保持する処理を含み、 前記処理[1A]において、第iストリームデータの先
頭部分データのクライアントによる再生時間をPiH
し、第iストリームデータの残り部分データを第i段サ
ーバから第(i+1)段サーバまで転送するのに要する
時間をTiTとした場合に、PiH≧TiTを満たすこ
とを特徴とするストリームデータの蓄積・配信方法。
1. A stream data to be stored in a server from a first stage to a m-th stage (m is an integer of 2 or more) hierarchically arranged on a network and distributed to a client via the network. In the storage / delivery method, there is a storage step of storing a part of the first stream data held by the first stage server in a downstream server of the second stage and below, wherein the storage step is i = 1, 2, ..., [1A] performed for each of m−1, when the (i + 1) th stage server exists downstream of the i-th stage server, the i-th stage server retains the i-th stream data held by itself as the leading partial data A process of dividing into partial data, [1B] a process in which the i-th stage server transmits the head partial data of the i-th stream data to the (i + 1) -th stage server,
And [1C] the (i + 1) th stage server includes a process of holding the head partial data of the received i-th stream data as the (i + 1) th stream data, and in the process [1A], the head of the i-th stream data is included. When the playback time of the partial data by the client is P iH and the time required to transfer the remaining partial data of the i-th stream data from the i-th stage server to the (i + 1) -th stage server is T iT , P iH ≧ A method for accumulating / delivering stream data, characterized by satisfying TiT .
【請求項2】 クライアントから第j(jは2以上m以
下の整数)段サーバに第1ストリームデータの再生用配
信要求があったときに、要求元クライアントに第1スト
リームデータを配信する再生工程を有し、 前記再生工程が、 [2A] 第j段サーバが、自らが保持している第jス
トリームデータを要求元クライアントに配信する処理、 [2B] 第j段サーバが、第(j−1)段以上の上流
サーバに第(j-1)から第1までのストリームデータ
のそれぞれの残り部分データを要求して受け取る処理、
及び、 [2C] 前記処理[2A]に続いて、第j段サーバ
が、受け取った第(j-1)から第1までのストリーム
データのそれぞれの残り部分データを第1ストリームデ
ータの時系列に従った順に要求元クライアントに配信す
る処理を含むことを特徴とする請求項1に記載のストリ
ームデータの蓄積・配信方法。
2. A reproducing step of distributing the first stream data to the requesting client when the client makes a distribution request for reproducing the first stream data to the j-th (j is an integer of 2 or more and m or less) stage server. [2A] the j-th stage server distributes the j-th stream data held by itself to the request source client, [2B] the j-th stage server 1) A process of requesting and receiving the remaining part data of each of the (j-1) th to the first stream data to the upstream server of the stage or more,
And [2C] Subsequent to the processing [2A], the j-th stage server sets the remaining partial data of each of the received (j-1) to 1st stream data in time series of the first stream data. The method for storing / delivering stream data according to claim 1, further comprising a process of delivering the request to the request source client in a compliant order.
【請求項3】 ネットワーク上に階層的に配置された第
1段から第m(mは2以上の整数)段までのサーバにス
トリームデータを蓄積し、ネットワークを介してクライ
アントに配信するストリームデータの蓄積・配信方法に
おいて、 第1段サーバが保持する第1ストリームデータの一部を
第2段以下の下流サーバに蓄積する蓄積工程を有し、 前記蓄積工程が、 i=1,2,…,m−1のそれぞれについて行われる、 [3A] 第i段サーバの下流に第(i+1)段サーバ
が存在する場合に、第iストリームデータを複数個に分
割して複数個の断片ファイルデータとする処理、 [3B] 前記処理[3A]において分割された複数個
の断片ファイルデータのそれぞれを先頭部分データと残
り部分データに分割する処理、 [3C] 前記処理[3B]において分割された複数個
の断片ファイルデータの先頭部分データを第(i+1)
段サーバに送信する処理、及び、 [3D] 第(i+1)段サーバが、受信した複数個の
断片ファイルデータの先頭部分データを、複数個の第
(i+1)ストリームデータとして蓄積する処理を含
み、 前記処理[3B]において、第iストリームデータを分
割して得られた複数個の断片ファイルデータの先頭部分
データのクライアントによる再生時間をそれぞれP
iH1,PiH2,…,PiHnとし、第iストリーム
データを分割して得られた複数個の断片ファイルデータ
の残り部分データを第i段サーバから第(i+1)段サ
ーバまで転送するのに要する時間をそれぞれTiT1
iT2,…,TiTnとした場合に、PiH1≧T
iT1、PiH2≧TiT2、…、PiHn≧TiTn
を満たすことを特徴とするストリームデータの蓄積・配
信方法。
3. A stream data is stored in a server from a first stage to an m-th stage (m is an integer of 2 or more) hierarchically arranged on a network and is distributed to a client via the network. In the storage / delivery method, there is a storage step of storing a part of the first stream data held by the first stage server in a downstream server of the second stage and below, wherein the storage step is i = 1, 2, ..., [3A] When the (i + 1) th stage server exists downstream of the i-th stage server, the i-th stream data is divided into a plurality of pieces to obtain a plurality of fragment file data. Processing, [3B] processing for dividing each of the plurality of fragment file data divided in the processing [3A] into head partial data and remaining partial data, [3C] the processing [3B ], The head part data of a plurality of fragment file data divided in
And (3D) the (i + 1) th stage server stores the head part data of the plurality of received fragment file data as a plurality of (i + 1) th stream data, In the process [3B], the playback time by the client of the head part data of the plurality of fragment file data obtained by dividing the i-th stream data is P respectively.
iH1 , P iH2 , ..., P iHn, and it is necessary to transfer the remaining partial data of the plurality of fragment file data obtained by dividing the i-th stream data from the i-th stage server to the (i + 1) -th stage server. The time is Ti T1 ,
T iT2, ..., in the case of the T iTn, P iH1T
iT1 , P iH2 ≧ T iT2 , ..., P iHn ≧ T iTn
A method for accumulating and delivering stream data characterized by satisfying the following conditions.
【請求項4】 クライアントから第j(jは2以上m以
下の整数)段サーバに第1ストリームデータの通常再生
用配信要求があったときに、要求元クライアントに第1
ストリームデータを配信する通常再生工程を有し、 前記通常再生工程が、 [4A] 第j段サーバが、自らが保持している複数個
の断片ファイルデータの先頭部分データのうち時間的に
最先の断片ファイルデータの先頭部分データを要求元ク
ライアントに配信する処理、 [4B] 第j段サーバが、第(j−1)段以上の上流
サーバに、複数個の断片ファイルデータの残り部分デー
タを要求して受け取る処理、及び、 [4C] 前記処理[4A]に続いて、第j段サーバ
が、複数個の断片ファイルデータの残り部分データと、
第j段サーバが自らが保持している複数個の断片ファイ
ルデータの先頭部分データとを、第1ストリームデータ
の時系列に従った順に要求元クライアントに配信する処
理を含むことを特徴とする請求項3に記載のストリーム
データの蓄積・配信方法。
4. When the client makes a distribution request for normal reproduction of the first stream data to the j-th (j is an integer of 2 or more and m or less) stage server, the requesting client makes the first request.
A normal reproduction step of delivering stream data, wherein the normal reproduction step is [4A] in which the j-th stage server is temporally earliest among the head part data of a plurality of fragment file data held by itself. Delivering the first partial data of the fragment file data to the requesting client, [4B] The j-th stage server sends the remaining partial data of the plurality of fragment file data to the upstream servers of the (j-1) th stage and above. Process of requesting and receiving, and [4C] Subsequent to the process [4A], the j-th stage server stores the remaining part data of a plurality of fragment file data,
The j-th stage server includes a process of delivering, to the requesting client, the head part data of the plurality of fragment file data held by the j-th stage server in the order of the time series of the first stream data. A method for storing and delivering stream data according to item 3.
【請求項5】 クライアントから第j(jは2以上m以
下の整数)段サーバに第1ストリームデータの指定位置
からの再生開始要求であるジャンプ再生用配信要求があ
ったときに、要求元クライアントに第1ストリームデー
タを配信する第1の特殊再生工程を有し、 前記第1の特殊再生工程が、 [5A] 第j段サーバが、自らが保持している複数個
の断片ファイルデータの先頭部分データのうち前記指定
位置に時間的に最も近い断片ファイルデータを選択し
て、この選択された断片ファイルデータの先頭部分デー
タを要求元クライアントに配信する処理、 [5B] 第j段サーバが、第(j−1)段以上の上流
サーバに前記選択された断片ファイルデータの残り部分
データ及び前記選択された断片ファイルデータより時間
的に後の断片ファイルデータの残り部分データを要求し
て受け取る処理、及び、 [5C] 前記処理[5A]に続いて、第j段サーバ
が、受け取った断片ファイルデータの残り部分データ
と、第j段サーバが自らが保持している複数個の断片フ
ァイルデータの先頭部分データとを、第1ストリームデ
ータの時系列に従った順に要求元ライアントに配信する
処理を含むことを特徴とする請求項3又は4のいずれか
に記載のストリームデータの蓄積・配信方法。
5. The request source client when the client issues a jump reproduction distribution request, which is a reproduction start request from the specified position of the first stream data, to the j-th (j is an integer of 2 or more and m or less) stage server. Has a first trick play process for delivering the first stream data to the first trick play process, and the first trick play process includes: [5A] The jth stage server starts a plurality of fragment file data held by itself. A process of selecting fragment file data that is temporally closest to the specified position among the partial data and delivering the leading partial data of the selected fragment file data to the request source client. [5B] The j-th stage server, The remaining part data of the selected fragment file data and the fragment file that is later than the selected fragment file data in the upstream servers of the (j-1) th stage and above. Processing for requesting and receiving the remaining portion data of the data, and [5C] Subsequent to the processing [5A], the j-th stage server receives the remaining portion data of the fragment file data received and the j-th stage server itself. 5. The method according to claim 3, further comprising a process of delivering the head portion data of the plurality of fragment file data held therein to the requesting client in the order of the time series of the first stream data. The method for storing and delivering stream data described in.
【請求項6】 クライアントから第j(jは2以上m以
下の整数)段サーバに早送り再生用配信要求があったと
きに、要求元クライアントに第1ストリームデータを配
信する第2の特殊再生工程を有し、 前記第2の特殊再生工程が、 第j段サーバが、自らが保持している複数個の断片ファ
イルデータの先頭部分データを時間的に先のものから順
に要求元クライアントに配信する処理を含むことを特徴
とする請求項3から5までのいずれかに記載のストリー
ムデータの蓄積・配信方法。
6. A second special reproduction step for distributing the first stream data to the requesting client when the client makes a fast forward reproduction distribution request to the j-th (j is an integer of 2 or more and m or less) stage server. In the second special reproduction step, the j-th stage server distributes the leading part data of the plurality of fragment file data held by itself to the request source client in order from the earliest one in time. The method for accumulating / delivering stream data according to any one of claims 3 to 5, further comprising processing.
【請求項7】 クライアントから第j(jは2以上m以
下の整数)段サーバに早戻し再生用配信要求があったと
きに、要求元クライアントに第1ストリームデータを配
信する第3の特殊再生工程を有し、 前記第3の特殊再生工程が、 第j段サーバが、自らが保持している複数個の断片ファ
イルデータの先頭部分データを時間的に後のものから時
間の流れの逆順に要求元クライアントに配信する処理を
含むことを特徴とする請求項3から6までのいずれかに
記載のストリームデータの蓄積・配信方法。
7. A third special reproduction for distributing the first stream data to the requesting client when the client requests the j-th (j is an integer of 2 or more and m or less) stage server for the fast-reverse reproduction. In the third trick play step, the j-th stage server sequentially reverses the temporal flow of the first partial data of the plurality of fragment file data held by itself from the later one. 7. The method of storing / delivering stream data according to claim 3, further comprising a process of delivering to the requesting client.
【請求項8】 [8A] クライアントからの配信要求
に応じてサーバが要求元クライアントにストリームデー
タの配信を行ったときには、配信を行ったサーバは該当
ストリームデータの利用頻度を逐次上流サーバに通知
し、 [8B] この上流サーバは通知された利用頻度に基づ
いて自身が持つ該当ストリームデータの利用頻度を更新
し、 [8C] 更新された利用頻度はさらに上流のサーバに
通知され、 [8D] 前記処理[8B]及び[8C]を上流にサー
バがなくなるまで繰り返し、 [8E] いずれかのサーバが持つ利用頻度が、自身が
持っている閾値に達したときに、閾値に達した該当スト
リームデータに関して、上流サーバにはあるが、下流サ
ーバにはない部分のデータを下流サーバに蓄積させるこ
とを特徴とする請求項1から7までのいずれかに記載の
ストリームデータの蓄積・配信方法。
[8A] When the server delivers the stream data to the requesting client in response to the delivery request from the client, the delivering server sequentially notifies the upstream server of the usage frequency of the stream data. [8B] The upstream server updates the usage frequency of the stream data of its own based on the notified usage frequency, [8C] the updated usage frequency is further notified to the upstream server, [8D] The processes [8B] and [8C] are repeated until there are no upstream servers, and [8E] When the usage frequency of any server reaches its own threshold value, for the corresponding stream data that has reached the threshold value. The data stored in the upstream server but not in the downstream server is stored in the downstream server. The method for storing / delivering stream data described in any of the above.
【請求項9】 前記処理[8E]と並行して、前記一つ
下流のサーバ以外の他のサーバにも該当ストリームデー
タを蓄積させることを特徴とする請求項8に記載のスト
リームデータの蓄積・配信方法。
9. The stream data storage / storage according to claim 8, wherein the stream data is stored in a server other than the one downstream server in parallel with the processing [8E]. Delivery method.
【請求項10】 [10A] クライアントからの配信
要求に応じてサーバが要求元クライアントにストリーム
データの配信を行ったときには、配信を行ったサーバは
該当ストリームデータの利用頻度を逐次上流サーバに通
知し、 [10B] この上流サーバは通知された利用頻度に基
づいて自身が持つ該当ストリームデータの利用頻度を更
新し、 [10C] 更新された利用頻度はさらに上流のサーバ
に通知され、 [10D] 前記処理[10B]及び[10C]を上流
にサーバがなくなるまで繰り返し、 [10E] それぞれのサーバが複数の閾値と、これら
複数の閾値のそれぞれに対応する複数の断片ファイルデ
ータ情報を持っており、前記上流サーバが持つ利用頻度
が、前記上流サーバが予め持っている複数の閾値のいず
れかに達するたびに、上流サーバにはあるが、下流サー
バにはない断片ファイルデータを、到達した閾値により
決定される量だけ下流サーバに蓄積させることを特徴と
する請求項3から7までのいずれかに記載のストリーム
データの蓄積・配信方法。
[10A] When a server delivers stream data to a requesting client in response to a delivery request from a client, the delivering server sequentially notifies the upstream server of the usage frequency of the stream data. [10B] This upstream server updates the usage frequency of the stream data of its own based on the notified usage frequency, [10C] the updated usage frequency is further notified to the upstream server, [10D] The processes [10B] and [10C] are repeated until there are no more upstream servers, and [10E] each server has a plurality of thresholds and a plurality of fragment file data information corresponding to each of the plurality of thresholds. Each time the usage frequency of the upstream server reaches any of a plurality of thresholds that the upstream server has in advance 8. The fragment file data which is in the upstream server but is not in the downstream server is accumulated in the downstream server in an amount determined by the reached threshold value, according to any one of claims 3 to 7. How to store and distribute stream data.
【請求項11】 前記処理[10E]と並行して、前記
一つ下流のサーバ以外の他のサーバにも該当ストリーム
データを蓄積させることを特徴とする請求項10に記載
のストリームデータの蓄積・配信方法。
11. The stream data storage / storage of claim 10, wherein the stream data is stored in a server other than the one downstream server in parallel with the processing [10E]. Delivery method.
【請求項12】 ネットワーク上に階層的に配置された
第1段から第m(mは2以上の整数)段までのサーバを
有し、 第1段から第m段までのサーバにストリームデータを蓄
積し、ネットワークを介してクライアントに配信するス
トリームデータの蓄積・配信システムにおいて、 第1段から第m段までのサーバのそれぞれが、 第1段サーバが保持する第1ストリームデータの一部を
第2段以降の下流サーバに蓄積する際に、 i=1,2,…,m−1のそれぞれについて行われる、 [12A] 第i段サーバの下流に第(i+1)段サー
バが存在する場合に、第i段サーバが、自らが保持する
第iストリームデータを先頭部分データと残り部分デー
タに分割し、 [12B] 第i段サーバが、第iストリームデータの
先頭部分データを第(i+1)段サーバに送信し、 [12C] 第(i+1)段サーバが、受信した第iス
トリームデータの先頭部分データを第(i+1)ストリ
ームデータとして保持し、 第1段から第m段までのサーバのそれぞれが、前記処理
[12A]において、第iストリームデータの先頭部分
データのクライアントによる再生時間をPiHとし、第
iストリームデータの残り部分データを第i段サーバか
ら第(i+1)段サーバまで転送するのに要する時間を
iTとした場合に、PiH≧TiTを満たすように構
成されたことを特徴とするストリームデータの蓄積・配
信システム。
12. The server has first to m-th (m is an integer of 2 or more) stages hierarchically arranged on a network, and stream data is sent to the first-stage to m-th servers. In a stream data storage / delivery system that stores and delivers to a client via a network, each of the servers from the first stage to the m-th stage stores a part of the first stream data held by the first stage server. When accumulating in the downstream servers after the second tier: i = 1, 2, ..., M−1, respectively, [12A] When the (i + 1) th tier server exists downstream of the i th tier server , The i-th stage server divides the i-th stream data held by itself into the head part data and the remaining part data, and [12B] the i-th stage server converts the i-th stream data to the (i +) th part of the head part data. [12C] The (i + 1) th stage server holds the head part data of the received i-th stream data as the (i + 1) th stream data, and stores the data in the servers from the 1st stage to the m-th stage. In each of the above processes [12A], the playback time by the client of the head part data of the i-th stream data is set to P iH, and the remaining part data of the i-th stream data is transferred from the i-th stage server to the (i + 1) -th stage server. A stream data storage / distribution system configured to satisfy P iH ≧ T iT , where T iT is the time required to perform .
【請求項13】 クライアントから第j(jは2以上m
以下の整数)段サーバに第1ストリームデータの再生用
配信要求があったときに、 [13A] 第j段サーバが、自らが保持している第j
ストリームデータを要求元クライアントに配信し、 [13B] 第j段サーバが、第(j−1)段以上の上
流サーバに第(j-1)から第1までのストリームデー
タのそれぞれの残り部分データを要求して受け取り、 [13C] 前記処理[13A]に続いて、第j段サー
バが、受け取った第(j-1)から第1までのストリー
ムデータのそれぞれの残り部分データを第1ストリーム
データの時系列に従った順に要求元クライアントに配信
することを特徴とする請求項12に記載のストリームデ
ータの蓄積・配信システム。
13. The j-th (j is 2 or more m from the client)
[13A] The j-th stage server that the j-th stage server holds when the j-th stage server makes a reproduction distribution request for reproduction of the first stream data.
[13B] The j-th stage server distributes the stream data to the request source client, and the j-th stage or higher upstream servers deliver the remaining partial data of each of the (j-1) to the first stream data. [13C] Subsequent to the processing [13A], the j-th stage server receives the remaining partial data of each of the received (j-1) to 1st stream data as the first stream data. 13. The stream data storage / delivery system according to claim 12, wherein the stream data is delivered to the request source client in order according to the time series.
【請求項14】 ネットワーク上に階層的に配置された
第1段から第m(mは2以上の整数)段までのサーバを
有し、 第1段から第m段までのサーバにストリームデータを蓄
積し、ネットワークを介してクライアントに配信するス
トリームデータの蓄積・配信システムにおいて、 第1段から第m段までのサーバのそれぞれが、 第1段サーバが保持する第1ストリームデータの一部を
第2段以下の下流サーバに蓄積する際に、 i=1,2,…,m−1のそれぞれについて行われる、 [14A] 第i段サーバの下流に第(i+1)段サー
バが存在する場合に、第iストリームデータを複数個に
分割して複数個の断片ファイルデータとし、 [14B] 前記処理[14A]において分割された複
数個の断片ファイルデータのそれぞれを先頭部分データ
と残り部分データに分割し、 [14C] 前記処理[14B]において分割された複
数個の断片ファイルデータの先頭部分データを第(i+
1)段サーバに送信し、 [14D] 第(i+1)段サーバが、受信した複数個
の断片ファイルデータの先頭部分データを、複数個の第
(i+1)ストリームデータとして蓄積し、 第1段から第m段までのサーバのそれぞれが、 前記処理[14B]において、第iストリームデータを
分割して得られた複数個の断片ファイルデータの先頭部
分データのクライアントによる再生時間をそれぞれP
iH1,…,PiHnとし、第iストリームデータを分
割して得られた複数個の断片ファイルデータの残り部分
データを第i段サーバから第(i+1)段サーバまで転
送するのに要する時間をそれぞれTiT1,…,T
iTnとした場合に、PiH1≧TiT1、PiH2
iT2、…、PiHn≧TiTnを満たすように構成
されたことを特徴とするストリームデータの蓄積・配信
システム。
14. A server having first to m-th (m is an integer of 2 or more) stages hierarchically arranged on a network, and stream data is transmitted to the servers from the first-stage to the m-th stage. In a stream data storage / delivery system that stores and delivers to a client via a network, each of the servers from the first stage to the m-th stage stores a part of the first stream data held by the first stage server. When accumulating in the downstream servers of two stages or less, i = 1, 2, ..., M−1, respectively, [14A] When the (i + 1) th stage server exists downstream of the i-th stage server. , The i-th stream data is divided into a plurality of pieces of fragment file data, and [14B] each of the plurality of pieces of fragment file data divided in the process [14A] is a head partial data. Divided into data and remainder data, first the head portion data of a plurality of fragmented files data divided in [14C] the process [14B] (i +
1) It is transmitted to the stage server, and [14D] The (i + 1) th stage server accumulates the head part data of the plurality of received fragment file data as a plurality of (i + 1) th stream data, and from the first stage Each of the servers up to the m-th stage sets the playback time by the client of the first partial data of the plurality of fragment file data obtained by dividing the i-th stream data in the process [14B], respectively.
iH1 , ..., P iHn, and the time required to transfer the remaining partial data of the plurality of fragment file data obtained by dividing the i-th stream data from the i-th stage server to the (i + 1) -th stage server respectively. T iT1 , ..., T
In the case of iTn , P iH1 ≧ T iT1 and P iH2
A stream data storage / distribution system configured to satisfy T iT2 , ..., P iHn ≧ T iTn .
【請求項15】 クライアントから第j(jは2以上m
以下の整数)段サーバに第1ストリームデータの通常再
生用配信要求があったときに、 [15A] 第j段サーバが、自らが保持している複数
個の断片ファイルデータの先頭部分データのうち時間的
に最先の断片ファイルデータの先頭部分データを要求元
クライアントに配信し、 [15B] 第j段サーバが、第(j−1)段以上の上
流サーバに、複数個の断片ファイルデータの残り部分デ
ータを要求して受け取り、 [15C] 前記処理[15A]に続いて、第j段サー
バが、複数個の断片ファイルデータの残り部分データ
と、第j段サーバが自らが保持している複数個の断片フ
ァイルデータの先頭部分データとを、第1ストリームデ
ータの時系列に従った順に要求元クライアントに配信す
ることを特徴とする請求項14に記載のストリームデー
タの蓄積・配信システム。
15. The j-th (j is 2 or more m from the client)
(The following integer) When a normal-stream delivery request for the first stream data is made to the stage server, [15A] The j-th stage server holds the head part data of the plurality of fragment file data held by itself. The head part data of the fragment file data which is the earliest in time is delivered to the requesting client, and [15B] the j-th stage server transfers the plurality of fragment file data to the (j-1) -th and higher upstream servers. Requesting and receiving the remaining part data, [15C] Subsequent to the processing [15A], the j-th stage server holds the remaining part data of a plurality of fragment file data and the j-th stage server itself. 15. The stream according to claim 14, wherein the head part data of the plurality of fragment file data is distributed to the requesting client in the order of the time series of the first stream data. Over data storage and delivery system.
【請求項16】 クライアントから第j(jは2以上m
以下の整数)段サーバに第1ストリームデータの指定位
置からの再生開始要求であるジャンプ再生用配信要求が
あったときに、 [16A] 第j段サーバが、自らが保持している複数
個の断片ファイルデータの先頭部分データのうち前記指
定位置に時間的に最も近い断片ファイルデータを選択し
て、この選択された断片ファイルデータの先頭部分デー
タを要求元クライアントに配信し、 [16B] 第j段サーバが、第(j−1)段以上の上
流サーバに前記選択された断片ファイルデータの残り部
分データ及び前記選択された断片ファイルデータより時
間的に後の断片ファイルデータの残り部分データを要求
して受け取り、 [16C] 前記処理[16A]に続いて、第j段サー
バが、受け取った断片ファイルデータの残り部分データ
と、第j段サーバが自らが保持している複数個の断片フ
ァイルデータの先頭部分データとを、第1ストリームデ
ータの時系列に従った順に要求元ライアントに配信する
ことを特徴とする請求項14又は15のいずれかに記載
のストリームデータの蓄積・配信システム。
16. The j-th (j is 2 or more m from the client)
[16A] When the j-th server has a jump reproduction distribution request, which is a reproduction start request from the designated position of the first stream data, [16A] Of the head part data of the fragment file data, the fragment file data that is closest in time to the specified position is selected, and the head part data of the selected fragment file data is delivered to the requesting client, [16B] j. The stage server requests the remaining part data of the selected fragment file data and the remaining part data of the fragment file data temporally later than the selected fragment file data to the upstream servers of the (j-1) th stage and above. [16C] Subsequent to the processing [16A], the j-th stage server receives the remaining partial data of the received fragment file data and the j-th stage. 16. The server distributes the head part data of the plurality of fragment file data held by itself to the requesting client in the order of the time series of the first stream data. A stream data storage / distribution system described in Kani.
【請求項17】 クライアントから第j(jは2以上m
以下の整数)段サーバに早送り再生用配信要求があった
ときに、 第j段サーバが、自らが保持している複数個の断片ファ
イルデータの先頭部分データを時間的に先のものから順
に要求元クライアントに配信することを特徴とする請求
項14から16までのいずれかに記載のストリームデー
タの蓄積・配信システム。
17. The j-th (j is 2 or more m from the client)
(The following integer) When a fast-forward playback distribution request is made to the stage server, the j-th stage server sequentially requests the first partial data of the plurality of fragment file data held by itself from the temporally earlier one. The stream data storage / delivery system according to any one of claims 14 to 16, wherein the stream data is delivered to the original client.
【請求項18】 クライアントから第j(jは2以上m
以下の整数)段サーバに早戻し再生用配信要求があった
ときに、 第j段サーバが、自らが保持している複数個の断片ファ
イルデータの先頭部分データを時間的に後のものから時
間の流れの逆順に要求元クライアントに配信することを
特徴とする請求項14から17までのいずれかに記載の
ストリームデータの蓄積・配信システム。
18. The client receives the j-th (j is 2 or more m
(Integral number below) When the junior server makes a request for delivery for fast-reverse reproduction, the j-th server indicates that the head part data of the plurality of fragment file data held by the j-th server is the time after the first one. 18. The stream data storage / delivery system according to any one of claims 14 to 17, wherein the stream data is delivered to the request source client in the reverse order of the flow.
【請求項19】 [19A] クライアントからの配信
要求に応じてサーバが要求元クライアントにストリーム
データの配信を行ったときには、配信を行ったサーバは
該当ストリームデータの利用頻度を逐次上流サーバに通
知し、 [19B] この上流サーバは通知された利用頻度に基
づいて自身が持つ該当ストリームデータの利用頻度を更
新し、 [19C] 更新された利用頻度はさらに上流のサーバ
に通知され、 [19D] 前記処理[19B]及び[19C]を上流
にサーバがなくなるまで繰り返し、 [19E] いずれかのサーバが持つ利用頻度が、自身
が持っている閾値に達したときに、閾値に達した該当ス
トリームデータに関して、上流サーバにはあるが、下流
サーバにはない部分のデータを下流サーバに蓄積させる
ことを特徴とする請求項12から18までのいずれかに
記載のストリームデータの蓄積・配信システム。
[19A] When the server delivers the stream data to the requesting client in response to the delivery request from the client, the delivering server sequentially notifies the upstream server of the usage frequency of the stream data. [19B] This upstream server updates the usage frequency of the stream data of its own based on the notified usage frequency, [19C] the updated usage frequency is further notified to the upstream server, [19D] The processes [19B] and [19C] are repeated until there are no more upstream servers, and [19E] When the usage frequency of one of the servers reaches its own threshold value, regarding the corresponding stream data that has reached the threshold value. , It is characterized by accumulating data in the downstream server that is in the upstream server but not in the downstream server A storage / delivery system for stream data according to any one of claims 12 to 18.
【請求項20】 前記処理[19E]と並行して、前記
一つ下流のサーバ以外の他のサーバにも該当ストリーム
データを蓄積させることを特徴とする請求項19に記載
のストリームデータの蓄積・配信システム。
20. The stream data storage / storage of claim 19, wherein the stream data is stored in a server other than the one downstream server in parallel with the processing [19E]. Delivery system.
【請求項21】 [21A] クライアントからの配信
要求に応じてサーバが要求元クライアントにストリーム
データの配信を行ったときには、配信を行ったサーバは
該当ストリームデータの利用頻度を逐次上流サーバに通
知し、 [21B] この上流サーバは通知された利用頻度に基
づいて自身が持つ該当ストリームデータの利用頻度を更
新し、 [21C] 更新された利用頻度はさらに上流のサーバ
に通知され、 [21D] 前記処理[21B]及び[21C]を上流
にサーバがなくなるまで繰り返し、 [21E] それぞれのサーバが複数の閾値と、これら
複数の閾値のそれぞれに対応する複数の断片ファイルデ
ータ情報を持っており、前記上流サーバが持つ利用頻度
が、前記上流サーバが予め持っている複数の閾値のいず
れかに達するたびに、上流サーバにはあるが、下流サー
バにはない断片ファイルデータを、到達した閾値により
決定される量だけ下流サーバに蓄積させることを特徴と
する請求項14から18までのいずれかに記載のストリ
ームデータの蓄積・配信システム。
[21A] When a server delivers stream data to a requesting client in response to a delivery request from a client, the delivering server sequentially notifies the upstream server of the usage frequency of the stream data. [21B] This upstream server updates the usage frequency of the stream data of its own based on the notified usage frequency, [21C] the updated usage frequency is further notified to the upstream server, [21D] The processes [21B] and [21C] are repeated until there are no more upstream servers, and [21E] each server has a plurality of thresholds and a plurality of fragment file data information corresponding to each of the plurality of thresholds. Each time the usage frequency of the upstream server reaches any of a plurality of thresholds that the upstream server has in advance 19. The fragment file data which is in the upstream server but is not in the downstream server is accumulated in the downstream server in an amount determined by the reached threshold value. Stream data storage / distribution system.
【請求項22】 前記処理[21E]と並行して、前記
一つ下流のサーバ以外の他のサーバにも該当ストリーム
データを蓄積させることを特徴とする請求項21に記載
のストリームデータの蓄積・配信システム。
22. The stream data storage / storage of claim 21, wherein the stream data is stored in a server other than the one downstream server in parallel with the processing [21E]. Delivery system.
JP2001365463A 2001-11-30 2001-11-30 Stream data storing and distributing method and system Withdrawn JP2003167813A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001365463A JP2003167813A (en) 2001-11-30 2001-11-30 Stream data storing and distributing method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001365463A JP2003167813A (en) 2001-11-30 2001-11-30 Stream data storing and distributing method and system

Publications (1)

Publication Number Publication Date
JP2003167813A true JP2003167813A (en) 2003-06-13

Family

ID=19175483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001365463A Withdrawn JP2003167813A (en) 2001-11-30 2001-11-30 Stream data storing and distributing method and system

Country Status (1)

Country Link
JP (1) JP2003167813A (en)

Cited By (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080161A (en) * 2005-09-16 2007-03-29 Nec Personal Products Co Ltd Data distribution system, partial content storing server, method and program for increasing response speed
JP2010034871A (en) * 2008-07-29 2010-02-12 Oki Electric Ind Co Ltd Content distribution system
JP2011519447A (en) * 2008-03-31 2011-07-07 アマゾン テクノロジーズ インコーポレーテッド Method and system for cache optimization
JP2012186577A (en) * 2011-03-04 2012-09-27 Fujitsu Ltd Data distribution system, node and data distribution method
JP2014042124A (en) * 2012-08-21 2014-03-06 Nippon Telegr & Teleph Corp <Ntt> Content distribution system and content distribution method
US8782236B1 (en) 2009-06-16 2014-07-15 Amazon Technologies, Inc. Managing resources using resource expiration data
US8788671B2 (en) 2008-11-17 2014-07-22 Amazon Technologies, Inc. Managing content delivery network service providers by a content broker
US8819283B2 (en) 2010-09-28 2014-08-26 Amazon Technologies, Inc. Request routing in a networked environment
US8924528B1 (en) 2010-09-28 2014-12-30 Amazon Technologies, Inc. Latency measurement in resource requests
US8930544B2 (en) 2008-03-31 2015-01-06 Amazon Technologies, Inc. Network resource identification
US8930513B1 (en) 2010-09-28 2015-01-06 Amazon Technologies, Inc. Latency measurement in resource requests
US8938526B1 (en) 2010-09-28 2015-01-20 Amazon Technologies, Inc. Request routing management based on network components
US8996664B2 (en) 2009-03-27 2015-03-31 Amazon Technologies, Inc. Translation of resource identifiers using popularity information upon client request
US9003040B2 (en) 2010-11-22 2015-04-07 Amazon Technologies, Inc. Request routing processing
US9003035B1 (en) 2010-09-28 2015-04-07 Amazon Technologies, Inc. Point of presence management in request routing
US9009286B2 (en) 2008-03-31 2015-04-14 Amazon Technologies, Inc. Locality based content distribution
US9021129B2 (en) 2007-06-29 2015-04-28 Amazon Technologies, Inc. Request routing utilizing client location information
US9021128B2 (en) 2008-06-30 2015-04-28 Amazon Technologies, Inc. Request routing using network computing components
US9021127B2 (en) 2007-06-29 2015-04-28 Amazon Technologies, Inc. Updating routing information based on client location
US9026616B2 (en) 2008-03-31 2015-05-05 Amazon Technologies, Inc. Content delivery reconciliation
US9083743B1 (en) 2012-03-21 2015-07-14 Amazon Technologies, Inc. Managing request routing information utilizing performance information
US9106701B2 (en) 2010-09-28 2015-08-11 Amazon Technologies, Inc. Request routing management based on network components
US9130756B2 (en) 2009-09-04 2015-09-08 Amazon Technologies, Inc. Managing secure content in a content delivery network
US9135048B2 (en) 2012-09-20 2015-09-15 Amazon Technologies, Inc. Automated profiling of resource usage
US9154551B1 (en) 2012-06-11 2015-10-06 Amazon Technologies, Inc. Processing DNS queries to identify pre-processing information
US9191458B2 (en) 2009-03-27 2015-11-17 Amazon Technologies, Inc. Request routing using a popularity identifier at a DNS nameserver
US9210235B2 (en) 2008-03-31 2015-12-08 Amazon Technologies, Inc. Client side cache management
US9237114B2 (en) 2009-03-27 2016-01-12 Amazon Technologies, Inc. Managing resources in resource cache components
US9246776B2 (en) 2009-10-02 2016-01-26 Amazon Technologies, Inc. Forward-based resource delivery network management techniques
US9251112B2 (en) 2008-11-17 2016-02-02 Amazon Technologies, Inc. Managing content delivery network service providers
US9288153B2 (en) 2010-08-26 2016-03-15 Amazon Technologies, Inc. Processing encoded content
US9294391B1 (en) 2013-06-04 2016-03-22 Amazon Technologies, Inc. Managing network computing components utilizing request routing
US9323577B2 (en) 2012-09-20 2016-04-26 Amazon Technologies, Inc. Automated profiling of resource usage
US9391949B1 (en) 2010-12-03 2016-07-12 Amazon Technologies, Inc. Request routing processing
US9407699B2 (en) 2008-03-31 2016-08-02 Amazon Technologies, Inc. Content management
US9407681B1 (en) 2010-09-28 2016-08-02 Amazon Technologies, Inc. Latency measurement in resource requests
US9444759B2 (en) 2008-11-17 2016-09-13 Amazon Technologies, Inc. Service provider registration by a content broker
US9451046B2 (en) 2008-11-17 2016-09-20 Amazon Technologies, Inc. Managing CDN registration by a storage provider
US9479476B2 (en) 2008-03-31 2016-10-25 Amazon Technologies, Inc. Processing of DNS queries
US9495338B1 (en) 2010-01-28 2016-11-15 Amazon Technologies, Inc. Content distribution network
US9497259B1 (en) 2010-09-28 2016-11-15 Amazon Technologies, Inc. Point of presence management in request routing
US9515949B2 (en) 2008-11-17 2016-12-06 Amazon Technologies, Inc. Managing content delivery network service providers
US9525659B1 (en) 2012-09-04 2016-12-20 Amazon Technologies, Inc. Request routing utilizing point of presence load information
US9571389B2 (en) 2008-03-31 2017-02-14 Amazon Technologies, Inc. Request routing based on class
JP2017069708A (en) * 2015-09-29 2017-04-06 富士通株式会社 Moving image reproduction device, moving image distribution server, moving image reproduction method, moving image distribution method, moving image reproduction program and moving image distribution program
US9628554B2 (en) 2012-02-10 2017-04-18 Amazon Technologies, Inc. Dynamic content delivery
US9712484B1 (en) 2010-09-28 2017-07-18 Amazon Technologies, Inc. Managing request routing information utilizing client identifiers
US9734472B2 (en) 2008-11-17 2017-08-15 Amazon Technologies, Inc. Request routing utilizing cost information
US9742795B1 (en) 2015-09-24 2017-08-22 Amazon Technologies, Inc. Mitigating network attacks
US9774619B1 (en) 2015-09-24 2017-09-26 Amazon Technologies, Inc. Mitigating network attacks
US9787775B1 (en) 2010-09-28 2017-10-10 Amazon Technologies, Inc. Point of presence management in request routing
US9794281B1 (en) 2015-09-24 2017-10-17 Amazon Technologies, Inc. Identifying sources of network attacks
US9819567B1 (en) 2015-03-30 2017-11-14 Amazon Technologies, Inc. Traffic surge management for points of presence
US9832141B1 (en) 2015-05-13 2017-11-28 Amazon Technologies, Inc. Routing based request correlation
US9887932B1 (en) 2015-03-30 2018-02-06 Amazon Technologies, Inc. Traffic surge management for points of presence
US9887931B1 (en) 2015-03-30 2018-02-06 Amazon Technologies, Inc. Traffic surge management for points of presence
US9912740B2 (en) 2008-06-30 2018-03-06 Amazon Technologies, Inc. Latency measurement in resource requests
US9992086B1 (en) 2016-08-23 2018-06-05 Amazon Technologies, Inc. External health checking of virtual private cloud network environments
US10021179B1 (en) 2012-02-21 2018-07-10 Amazon Technologies, Inc. Local resource delivery network
US10033691B1 (en) 2016-08-24 2018-07-24 Amazon Technologies, Inc. Adaptive resolution of domain name requests in virtual private cloud network environments
US10033627B1 (en) 2014-12-18 2018-07-24 Amazon Technologies, Inc. Routing mode and point-of-presence selection service
US10049051B1 (en) 2015-12-11 2018-08-14 Amazon Technologies, Inc. Reserved cache space in content delivery networks
US10075551B1 (en) 2016-06-06 2018-09-11 Amazon Technologies, Inc. Request management for hierarchical cache
US10091096B1 (en) 2014-12-18 2018-10-02 Amazon Technologies, Inc. Routing mode and point-of-presence selection service
US10097448B1 (en) 2014-12-18 2018-10-09 Amazon Technologies, Inc. Routing mode and point-of-presence selection service
US10097566B1 (en) 2015-07-31 2018-10-09 Amazon Technologies, Inc. Identifying targets of network attacks
US10110694B1 (en) 2016-06-29 2018-10-23 Amazon Technologies, Inc. Adaptive transfer rate for retrieving content from a server
US10205698B1 (en) 2012-12-19 2019-02-12 Amazon Technologies, Inc. Source-dependent address resolution
US10225326B1 (en) 2015-03-23 2019-03-05 Amazon Technologies, Inc. Point of presence based data uploading
US10257307B1 (en) 2015-12-11 2019-04-09 Amazon Technologies, Inc. Reserved cache space in content delivery networks
US10270878B1 (en) 2015-11-10 2019-04-23 Amazon Technologies, Inc. Routing for origin-facing points of presence
US10348639B2 (en) 2015-12-18 2019-07-09 Amazon Technologies, Inc. Use of virtual endpoints to improve data transmission rates
US10372499B1 (en) 2016-12-27 2019-08-06 Amazon Technologies, Inc. Efficient region selection system for executing request-driven code
US10447648B2 (en) 2017-06-19 2019-10-15 Amazon Technologies, Inc. Assignment of a POP to a DNS resolver based on volume of communications over a link between client devices and the POP
US10469513B2 (en) 2016-10-05 2019-11-05 Amazon Technologies, Inc. Encrypted network addresses
US10503613B1 (en) 2017-04-21 2019-12-10 Amazon Technologies, Inc. Efficient serving of resources during server unavailability
US10592578B1 (en) 2018-03-07 2020-03-17 Amazon Technologies, Inc. Predictive content push-enabled content delivery network
US10601767B2 (en) 2009-03-27 2020-03-24 Amazon Technologies, Inc. DNS query processing based on application information
US10616179B1 (en) 2015-06-25 2020-04-07 Amazon Technologies, Inc. Selective routing of domain name system (DNS) requests
US10623408B1 (en) 2012-04-02 2020-04-14 Amazon Technologies, Inc. Context sensitive object management
US10831549B1 (en) 2016-12-27 2020-11-10 Amazon Technologies, Inc. Multi-region request-driven code execution system
US10862852B1 (en) 2018-11-16 2020-12-08 Amazon Technologies, Inc. Resolution of domain name requests in heterogeneous network environments
US10938884B1 (en) 2017-01-30 2021-03-02 Amazon Technologies, Inc. Origin server cloaking using virtual private cloud network environments
US10958501B1 (en) 2010-09-28 2021-03-23 Amazon Technologies, Inc. Request routing information based on client IP groupings
US11025747B1 (en) 2018-12-12 2021-06-01 Amazon Technologies, Inc. Content request pattern-based routing system
US11075987B1 (en) 2017-06-12 2021-07-27 Amazon Technologies, Inc. Load estimating content delivery network
CN113612832A (en) * 2021-07-29 2021-11-05 上海哔哩哔哩科技有限公司 Streaming data distribution method and system
CN113825015A (en) * 2021-09-17 2021-12-21 吴修文 Large-scale concurrent video plug flow acceleration and management method
US11290418B2 (en) 2017-09-25 2022-03-29 Amazon Technologies, Inc. Hybrid content request routing system
US11604667B2 (en) 2011-04-27 2023-03-14 Amazon Technologies, Inc. Optimized deployment based upon customer locality

Cited By (188)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080161A (en) * 2005-09-16 2007-03-29 Nec Personal Products Co Ltd Data distribution system, partial content storing server, method and program for increasing response speed
US9021129B2 (en) 2007-06-29 2015-04-28 Amazon Technologies, Inc. Request routing utilizing client location information
US9992303B2 (en) 2007-06-29 2018-06-05 Amazon Technologies, Inc. Request routing utilizing client location information
US10027582B2 (en) 2007-06-29 2018-07-17 Amazon Technologies, Inc. Updating routing information based on client location
US9021127B2 (en) 2007-06-29 2015-04-28 Amazon Technologies, Inc. Updating routing information based on client location
US11909639B2 (en) 2008-03-31 2024-02-20 Amazon Technologies, Inc. Request routing based on class
US10797995B2 (en) 2008-03-31 2020-10-06 Amazon Technologies, Inc. Request routing based on class
US9894168B2 (en) 2008-03-31 2018-02-13 Amazon Technologies, Inc. Locality based content distribution
US11245770B2 (en) 2008-03-31 2022-02-08 Amazon Technologies, Inc. Locality based content distribution
US9888089B2 (en) 2008-03-31 2018-02-06 Amazon Technologies, Inc. Client side cache management
US10158729B2 (en) 2008-03-31 2018-12-18 Amazon Technologies, Inc. Locality based content distribution
US10554748B2 (en) 2008-03-31 2020-02-04 Amazon Technologies, Inc. Content management
US9887915B2 (en) 2008-03-31 2018-02-06 Amazon Technologies, Inc. Request routing based on class
US9954934B2 (en) 2008-03-31 2018-04-24 Amazon Technologies, Inc. Content delivery reconciliation
US11451472B2 (en) 2008-03-31 2022-09-20 Amazon Technologies, Inc. Request routing based on class
US9009286B2 (en) 2008-03-31 2015-04-14 Amazon Technologies, Inc. Locality based content distribution
US11194719B2 (en) 2008-03-31 2021-12-07 Amazon Technologies, Inc. Cache optimization
JP2011519447A (en) * 2008-03-31 2011-07-07 アマゾン テクノロジーズ インコーポレーテッド Method and system for cache optimization
US9621660B2 (en) 2008-03-31 2017-04-11 Amazon Technologies, Inc. Locality based content distribution
US9026616B2 (en) 2008-03-31 2015-05-05 Amazon Technologies, Inc. Content delivery reconciliation
US9571389B2 (en) 2008-03-31 2017-02-14 Amazon Technologies, Inc. Request routing based on class
US10305797B2 (en) 2008-03-31 2019-05-28 Amazon Technologies, Inc. Request routing based on class
US9544394B2 (en) 2008-03-31 2017-01-10 Amazon Technologies, Inc. Network resource identification
US9479476B2 (en) 2008-03-31 2016-10-25 Amazon Technologies, Inc. Processing of DNS queries
US10511567B2 (en) 2008-03-31 2019-12-17 Amazon Technologies, Inc. Network resource identification
US9407699B2 (en) 2008-03-31 2016-08-02 Amazon Technologies, Inc. Content management
US10645149B2 (en) 2008-03-31 2020-05-05 Amazon Technologies, Inc. Content delivery reconciliation
US8930544B2 (en) 2008-03-31 2015-01-06 Amazon Technologies, Inc. Network resource identification
US10530874B2 (en) 2008-03-31 2020-01-07 Amazon Technologies, Inc. Locality based content distribution
US9332078B2 (en) 2008-03-31 2016-05-03 Amazon Technologies, Inc. Locality based content distribution
US10157135B2 (en) 2008-03-31 2018-12-18 Amazon Technologies, Inc. Cache optimization
US10771552B2 (en) 2008-03-31 2020-09-08 Amazon Technologies, Inc. Content management
US9210235B2 (en) 2008-03-31 2015-12-08 Amazon Technologies, Inc. Client side cache management
US9208097B2 (en) 2008-03-31 2015-12-08 Amazon Technologies, Inc. Cache optimization
US9608957B2 (en) 2008-06-30 2017-03-28 Amazon Technologies, Inc. Request routing using network computing components
US9912740B2 (en) 2008-06-30 2018-03-06 Amazon Technologies, Inc. Latency measurement in resource requests
US9021128B2 (en) 2008-06-30 2015-04-28 Amazon Technologies, Inc. Request routing using network computing components
JP2010034871A (en) * 2008-07-29 2010-02-12 Oki Electric Ind Co Ltd Content distribution system
US9251112B2 (en) 2008-11-17 2016-02-02 Amazon Technologies, Inc. Managing content delivery network service providers
US10742550B2 (en) 2008-11-17 2020-08-11 Amazon Technologies, Inc. Updating routing information based on client location
US11811657B2 (en) 2008-11-17 2023-11-07 Amazon Technologies, Inc. Updating routing information based on client location
US11283715B2 (en) 2008-11-17 2022-03-22 Amazon Technologies, Inc. Updating routing information based on client location
US9734472B2 (en) 2008-11-17 2017-08-15 Amazon Technologies, Inc. Request routing utilizing cost information
US9787599B2 (en) 2008-11-17 2017-10-10 Amazon Technologies, Inc. Managing content delivery network service providers
US10116584B2 (en) 2008-11-17 2018-10-30 Amazon Technologies, Inc. Managing content delivery network service providers
US9590946B2 (en) 2008-11-17 2017-03-07 Amazon Technologies, Inc. Managing content delivery network service providers
US9451046B2 (en) 2008-11-17 2016-09-20 Amazon Technologies, Inc. Managing CDN registration by a storage provider
US9985927B2 (en) 2008-11-17 2018-05-29 Amazon Technologies, Inc. Managing content delivery network service providers by a content broker
US10523783B2 (en) 2008-11-17 2019-12-31 Amazon Technologies, Inc. Request routing utilizing client location information
US11115500B2 (en) 2008-11-17 2021-09-07 Amazon Technologies, Inc. Request routing utilizing client location information
US9515949B2 (en) 2008-11-17 2016-12-06 Amazon Technologies, Inc. Managing content delivery network service providers
US8788671B2 (en) 2008-11-17 2014-07-22 Amazon Technologies, Inc. Managing content delivery network service providers by a content broker
US9444759B2 (en) 2008-11-17 2016-09-13 Amazon Technologies, Inc. Service provider registration by a content broker
US10230819B2 (en) 2009-03-27 2019-03-12 Amazon Technologies, Inc. Translation of resource identifiers using popularity information upon client request
US9237114B2 (en) 2009-03-27 2016-01-12 Amazon Technologies, Inc. Managing resources in resource cache components
US10264062B2 (en) 2009-03-27 2019-04-16 Amazon Technologies, Inc. Request routing using a popularity identifier to identify a cache component
US10601767B2 (en) 2009-03-27 2020-03-24 Amazon Technologies, Inc. DNS query processing based on application information
US8996664B2 (en) 2009-03-27 2015-03-31 Amazon Technologies, Inc. Translation of resource identifiers using popularity information upon client request
US10574787B2 (en) 2009-03-27 2020-02-25 Amazon Technologies, Inc. Translation of resource identifiers using popularity information upon client request
US9083675B2 (en) 2009-03-27 2015-07-14 Amazon Technologies, Inc. Translation of resource identifiers using popularity information upon client request
US9191458B2 (en) 2009-03-27 2015-11-17 Amazon Technologies, Inc. Request routing using a popularity identifier at a DNS nameserver
US10491534B2 (en) 2009-03-27 2019-11-26 Amazon Technologies, Inc. Managing resources and entries in tracking information in resource cache components
US8782236B1 (en) 2009-06-16 2014-07-15 Amazon Technologies, Inc. Managing resources using resource expiration data
US9176894B2 (en) 2009-06-16 2015-11-03 Amazon Technologies, Inc. Managing resources using resource expiration data
US10783077B2 (en) 2009-06-16 2020-09-22 Amazon Technologies, Inc. Managing resources using resource expiration data
US10521348B2 (en) 2009-06-16 2019-12-31 Amazon Technologies, Inc. Managing resources using resource expiration data
US10135620B2 (en) 2009-09-04 2018-11-20 Amazon Technologis, Inc. Managing secure content in a content delivery network
US10785037B2 (en) 2009-09-04 2020-09-22 Amazon Technologies, Inc. Managing secure content in a content delivery network
US9130756B2 (en) 2009-09-04 2015-09-08 Amazon Technologies, Inc. Managing secure content in a content delivery network
US9712325B2 (en) 2009-09-04 2017-07-18 Amazon Technologies, Inc. Managing secure content in a content delivery network
US9246776B2 (en) 2009-10-02 2016-01-26 Amazon Technologies, Inc. Forward-based resource delivery network management techniques
US10218584B2 (en) 2009-10-02 2019-02-26 Amazon Technologies, Inc. Forward-based resource delivery network management techniques
US9893957B2 (en) 2009-10-02 2018-02-13 Amazon Technologies, Inc. Forward-based resource delivery network management techniques
US11205037B2 (en) 2010-01-28 2021-12-21 Amazon Technologies, Inc. Content distribution network
US9495338B1 (en) 2010-01-28 2016-11-15 Amazon Technologies, Inc. Content distribution network
US10506029B2 (en) 2010-01-28 2019-12-10 Amazon Technologies, Inc. Content distribution network
US9288153B2 (en) 2010-08-26 2016-03-15 Amazon Technologies, Inc. Processing encoded content
US10079742B1 (en) 2010-09-28 2018-09-18 Amazon Technologies, Inc. Latency measurement in resource requests
US9185012B2 (en) 2010-09-28 2015-11-10 Amazon Technologies, Inc. Latency measurement in resource requests
US9106701B2 (en) 2010-09-28 2015-08-11 Amazon Technologies, Inc. Request routing management based on network components
US9407681B1 (en) 2010-09-28 2016-08-02 Amazon Technologies, Inc. Latency measurement in resource requests
US9800539B2 (en) 2010-09-28 2017-10-24 Amazon Technologies, Inc. Request routing management based on network components
US9794216B2 (en) 2010-09-28 2017-10-17 Amazon Technologies, Inc. Request routing in a networked environment
US9787775B1 (en) 2010-09-28 2017-10-10 Amazon Technologies, Inc. Point of presence management in request routing
US9003035B1 (en) 2010-09-28 2015-04-07 Amazon Technologies, Inc. Point of presence management in request routing
US10015237B2 (en) 2010-09-28 2018-07-03 Amazon Technologies, Inc. Point of presence management in request routing
US10225322B2 (en) 2010-09-28 2019-03-05 Amazon Technologies, Inc. Point of presence management in request routing
US8938526B1 (en) 2010-09-28 2015-01-20 Amazon Technologies, Inc. Request routing management based on network components
US8924528B1 (en) 2010-09-28 2014-12-30 Amazon Technologies, Inc. Latency measurement in resource requests
US11108729B2 (en) 2010-09-28 2021-08-31 Amazon Technologies, Inc. Managing request routing information utilizing client identifiers
US10958501B1 (en) 2010-09-28 2021-03-23 Amazon Technologies, Inc. Request routing information based on client IP groupings
US9160703B2 (en) 2010-09-28 2015-10-13 Amazon Technologies, Inc. Request routing management based on network components
US9191338B2 (en) 2010-09-28 2015-11-17 Amazon Technologies, Inc. Request routing in a networked environment
US10931738B2 (en) 2010-09-28 2021-02-23 Amazon Technologies, Inc. Point of presence management in request routing
US10778554B2 (en) 2010-09-28 2020-09-15 Amazon Technologies, Inc. Latency measurement in resource requests
US8930513B1 (en) 2010-09-28 2015-01-06 Amazon Technologies, Inc. Latency measurement in resource requests
US10097398B1 (en) 2010-09-28 2018-10-09 Amazon Technologies, Inc. Point of presence management in request routing
US8819283B2 (en) 2010-09-28 2014-08-26 Amazon Technologies, Inc. Request routing in a networked environment
US11336712B2 (en) 2010-09-28 2022-05-17 Amazon Technologies, Inc. Point of presence management in request routing
US9712484B1 (en) 2010-09-28 2017-07-18 Amazon Technologies, Inc. Managing request routing information utilizing client identifiers
US9497259B1 (en) 2010-09-28 2016-11-15 Amazon Technologies, Inc. Point of presence management in request routing
US9253065B2 (en) 2010-09-28 2016-02-02 Amazon Technologies, Inc. Latency measurement in resource requests
US10200492B2 (en) 2010-11-22 2019-02-05 Amazon Technologies, Inc. Request routing processing
US10951725B2 (en) 2010-11-22 2021-03-16 Amazon Technologies, Inc. Request routing processing
US9003040B2 (en) 2010-11-22 2015-04-07 Amazon Technologies, Inc. Request routing processing
US9930131B2 (en) 2010-11-22 2018-03-27 Amazon Technologies, Inc. Request routing processing
US9391949B1 (en) 2010-12-03 2016-07-12 Amazon Technologies, Inc. Request routing processing
JP2012186577A (en) * 2011-03-04 2012-09-27 Fujitsu Ltd Data distribution system, node and data distribution method
US11604667B2 (en) 2011-04-27 2023-03-14 Amazon Technologies, Inc. Optimized deployment based upon customer locality
US9628554B2 (en) 2012-02-10 2017-04-18 Amazon Technologies, Inc. Dynamic content delivery
US10021179B1 (en) 2012-02-21 2018-07-10 Amazon Technologies, Inc. Local resource delivery network
US9083743B1 (en) 2012-03-21 2015-07-14 Amazon Technologies, Inc. Managing request routing information utilizing performance information
US9172674B1 (en) 2012-03-21 2015-10-27 Amazon Technologies, Inc. Managing request routing information utilizing performance information
US10623408B1 (en) 2012-04-02 2020-04-14 Amazon Technologies, Inc. Context sensitive object management
US11729294B2 (en) 2012-06-11 2023-08-15 Amazon Technologies, Inc. Processing DNS queries to identify pre-processing information
US9154551B1 (en) 2012-06-11 2015-10-06 Amazon Technologies, Inc. Processing DNS queries to identify pre-processing information
US10225362B2 (en) 2012-06-11 2019-03-05 Amazon Technologies, Inc. Processing DNS queries to identify pre-processing information
US11303717B2 (en) 2012-06-11 2022-04-12 Amazon Technologies, Inc. Processing DNS queries to identify pre-processing information
JP2014042124A (en) * 2012-08-21 2014-03-06 Nippon Telegr & Teleph Corp <Ntt> Content distribution system and content distribution method
US9525659B1 (en) 2012-09-04 2016-12-20 Amazon Technologies, Inc. Request routing utilizing point of presence load information
US9323577B2 (en) 2012-09-20 2016-04-26 Amazon Technologies, Inc. Automated profiling of resource usage
US10542079B2 (en) 2012-09-20 2020-01-21 Amazon Technologies, Inc. Automated profiling of resource usage
US9135048B2 (en) 2012-09-20 2015-09-15 Amazon Technologies, Inc. Automated profiling of resource usage
US10015241B2 (en) 2012-09-20 2018-07-03 Amazon Technologies, Inc. Automated profiling of resource usage
US10645056B2 (en) 2012-12-19 2020-05-05 Amazon Technologies, Inc. Source-dependent address resolution
US10205698B1 (en) 2012-12-19 2019-02-12 Amazon Technologies, Inc. Source-dependent address resolution
US9294391B1 (en) 2013-06-04 2016-03-22 Amazon Technologies, Inc. Managing network computing components utilizing request routing
US9929959B2 (en) 2013-06-04 2018-03-27 Amazon Technologies, Inc. Managing network computing components utilizing request routing
US10374955B2 (en) 2013-06-04 2019-08-06 Amazon Technologies, Inc. Managing network computing components utilizing request routing
US10033627B1 (en) 2014-12-18 2018-07-24 Amazon Technologies, Inc. Routing mode and point-of-presence selection service
US11863417B2 (en) 2014-12-18 2024-01-02 Amazon Technologies, Inc. Routing mode and point-of-presence selection service
US10091096B1 (en) 2014-12-18 2018-10-02 Amazon Technologies, Inc. Routing mode and point-of-presence selection service
US10097448B1 (en) 2014-12-18 2018-10-09 Amazon Technologies, Inc. Routing mode and point-of-presence selection service
US10728133B2 (en) 2014-12-18 2020-07-28 Amazon Technologies, Inc. Routing mode and point-of-presence selection service
US11381487B2 (en) 2014-12-18 2022-07-05 Amazon Technologies, Inc. Routing mode and point-of-presence selection service
US10225326B1 (en) 2015-03-23 2019-03-05 Amazon Technologies, Inc. Point of presence based data uploading
US11297140B2 (en) 2015-03-23 2022-04-05 Amazon Technologies, Inc. Point of presence based data uploading
US9819567B1 (en) 2015-03-30 2017-11-14 Amazon Technologies, Inc. Traffic surge management for points of presence
US10469355B2 (en) 2015-03-30 2019-11-05 Amazon Technologies, Inc. Traffic surge management for points of presence
US9887932B1 (en) 2015-03-30 2018-02-06 Amazon Technologies, Inc. Traffic surge management for points of presence
US9887931B1 (en) 2015-03-30 2018-02-06 Amazon Technologies, Inc. Traffic surge management for points of presence
US11461402B2 (en) 2015-05-13 2022-10-04 Amazon Technologies, Inc. Routing based request correlation
US9832141B1 (en) 2015-05-13 2017-11-28 Amazon Technologies, Inc. Routing based request correlation
US10691752B2 (en) 2015-05-13 2020-06-23 Amazon Technologies, Inc. Routing based request correlation
US10180993B2 (en) 2015-05-13 2019-01-15 Amazon Technologies, Inc. Routing based request correlation
US10616179B1 (en) 2015-06-25 2020-04-07 Amazon Technologies, Inc. Selective routing of domain name system (DNS) requests
US10097566B1 (en) 2015-07-31 2018-10-09 Amazon Technologies, Inc. Identifying targets of network attacks
US9794281B1 (en) 2015-09-24 2017-10-17 Amazon Technologies, Inc. Identifying sources of network attacks
US9774619B1 (en) 2015-09-24 2017-09-26 Amazon Technologies, Inc. Mitigating network attacks
US10200402B2 (en) 2015-09-24 2019-02-05 Amazon Technologies, Inc. Mitigating network attacks
US9742795B1 (en) 2015-09-24 2017-08-22 Amazon Technologies, Inc. Mitigating network attacks
US10631060B2 (en) 2015-09-29 2020-04-21 Run.Edge Limited Video image reproduction device, video image distribution server, method of reproducing video image and method of distributing video image
JP2017069708A (en) * 2015-09-29 2017-04-06 富士通株式会社 Moving image reproduction device, moving image distribution server, moving image reproduction method, moving image distribution method, moving image reproduction program and moving image distribution program
US10631058B2 (en) 2015-09-29 2020-04-21 Run.Edge Limited Video image reproduction device, video image distribution server, method of reproducing video image and method of distributing video image
US11134134B2 (en) 2015-11-10 2021-09-28 Amazon Technologies, Inc. Routing for origin-facing points of presence
US10270878B1 (en) 2015-11-10 2019-04-23 Amazon Technologies, Inc. Routing for origin-facing points of presence
US10049051B1 (en) 2015-12-11 2018-08-14 Amazon Technologies, Inc. Reserved cache space in content delivery networks
US10257307B1 (en) 2015-12-11 2019-04-09 Amazon Technologies, Inc. Reserved cache space in content delivery networks
US10348639B2 (en) 2015-12-18 2019-07-09 Amazon Technologies, Inc. Use of virtual endpoints to improve data transmission rates
US11463550B2 (en) 2016-06-06 2022-10-04 Amazon Technologies, Inc. Request management for hierarchical cache
US10075551B1 (en) 2016-06-06 2018-09-11 Amazon Technologies, Inc. Request management for hierarchical cache
US10666756B2 (en) 2016-06-06 2020-05-26 Amazon Technologies, Inc. Request management for hierarchical cache
US11457088B2 (en) 2016-06-29 2022-09-27 Amazon Technologies, Inc. Adaptive transfer rate for retrieving content from a server
US10110694B1 (en) 2016-06-29 2018-10-23 Amazon Technologies, Inc. Adaptive transfer rate for retrieving content from a server
US9992086B1 (en) 2016-08-23 2018-06-05 Amazon Technologies, Inc. External health checking of virtual private cloud network environments
US10516590B2 (en) 2016-08-23 2019-12-24 Amazon Technologies, Inc. External health checking of virtual private cloud network environments
US10469442B2 (en) 2016-08-24 2019-11-05 Amazon Technologies, Inc. Adaptive resolution of domain name requests in virtual private cloud network environments
US10033691B1 (en) 2016-08-24 2018-07-24 Amazon Technologies, Inc. Adaptive resolution of domain name requests in virtual private cloud network environments
US10505961B2 (en) 2016-10-05 2019-12-10 Amazon Technologies, Inc. Digitally signed network address
US10616250B2 (en) 2016-10-05 2020-04-07 Amazon Technologies, Inc. Network addresses with encoded DNS-level information
US11330008B2 (en) 2016-10-05 2022-05-10 Amazon Technologies, Inc. Network addresses with encoded DNS-level information
US10469513B2 (en) 2016-10-05 2019-11-05 Amazon Technologies, Inc. Encrypted network addresses
US11762703B2 (en) 2016-12-27 2023-09-19 Amazon Technologies, Inc. Multi-region request-driven code execution system
US10831549B1 (en) 2016-12-27 2020-11-10 Amazon Technologies, Inc. Multi-region request-driven code execution system
US10372499B1 (en) 2016-12-27 2019-08-06 Amazon Technologies, Inc. Efficient region selection system for executing request-driven code
US12052310B2 (en) 2017-01-30 2024-07-30 Amazon Technologies, Inc. Origin server cloaking using virtual private cloud network environments
US10938884B1 (en) 2017-01-30 2021-03-02 Amazon Technologies, Inc. Origin server cloaking using virtual private cloud network environments
US10503613B1 (en) 2017-04-21 2019-12-10 Amazon Technologies, Inc. Efficient serving of resources during server unavailability
US11075987B1 (en) 2017-06-12 2021-07-27 Amazon Technologies, Inc. Load estimating content delivery network
US10447648B2 (en) 2017-06-19 2019-10-15 Amazon Technologies, Inc. Assignment of a POP to a DNS resolver based on volume of communications over a link between client devices and the POP
US11290418B2 (en) 2017-09-25 2022-03-29 Amazon Technologies, Inc. Hybrid content request routing system
US10592578B1 (en) 2018-03-07 2020-03-17 Amazon Technologies, Inc. Predictive content push-enabled content delivery network
US11362986B2 (en) 2018-11-16 2022-06-14 Amazon Technologies, Inc. Resolution of domain name requests in heterogeneous network environments
US10862852B1 (en) 2018-11-16 2020-12-08 Amazon Technologies, Inc. Resolution of domain name requests in heterogeneous network environments
US11025747B1 (en) 2018-12-12 2021-06-01 Amazon Technologies, Inc. Content request pattern-based routing system
CN113612832A (en) * 2021-07-29 2021-11-05 上海哔哩哔哩科技有限公司 Streaming data distribution method and system
CN113825015A (en) * 2021-09-17 2021-12-21 吴修文 Large-scale concurrent video plug flow acceleration and management method
CN113825015B (en) * 2021-09-17 2024-02-13 吴修文 Large-scale concurrent video push accelerating and managing method

Similar Documents

Publication Publication Date Title
JP2003167813A (en) Stream data storing and distributing method and system
US9615125B2 (en) Method of data management for efficiently storing and retrieving data to respond to user access requests
JP4884460B2 (en) Instant media on demand
JP4818562B2 (en) Method and computer network for obtaining progressively higher quality versions of audio and / or video programs
US6708213B1 (en) Method for streaming multimedia information over public networks
JP5894220B2 (en) Video distribution system including progressive playback
US7278153B1 (en) Content propagation in interactive television
US9118814B2 (en) Set-top box peer-assisted video-on-demand
JP3617089B2 (en) Video storage / delivery device and video storage / delivery system
KR100584323B1 (en) Method for streaming multimedia content
CN102546711B (en) Storage adjustment method, device and system for contents in streaming media system
US20060005224A1 (en) Technique for cooperative distribution of video content
JP5699619B2 (en) Cache device, data management method, program, and cache system
JPH09265429A (en) Data distribution device, storage device, their controlling method and data transfer system
WO2011137681A1 (en) Method and apparatus for filing time shift slicing files and playing programs in an interactive personality television system
JP3560556B2 (en) Delivery method of video contents by multicast video on demand
JP5560545B2 (en) Distribution system and distribution method
CN101436946B (en) Method for scheduling data request in peer-to-peer sharing network
JP4052931B2 (en) Stream data transfer method and stream data transfer program
CN114124971B (en) Content copy placement method of CDN-P2P network based on edge cache
JP2009206743A (en) Terminal device, content distribution system and content distributing method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050201