JP6551107B2 - Server apparatus, server program, terminal program, moving image transmission method, moving image display method, communication system - Google Patents

Server apparatus, server program, terminal program, moving image transmission method, moving image display method, communication system Download PDF

Info

Publication number
JP6551107B2
JP6551107B2 JP2015187012A JP2015187012A JP6551107B2 JP 6551107 B2 JP6551107 B2 JP 6551107B2 JP 2015187012 A JP2015187012 A JP 2015187012A JP 2015187012 A JP2015187012 A JP 2015187012A JP 6551107 B2 JP6551107 B2 JP 6551107B2
Authority
JP
Japan
Prior art keywords
moving image
divided
display
terminal device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015187012A
Other languages
Japanese (ja)
Other versions
JP2017063282A (en
Inventor
亮 佐橋
亮 佐橋
哲司 西尾
哲司 西尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2015187012A priority Critical patent/JP6551107B2/en
Publication of JP2017063282A publication Critical patent/JP2017063282A/en
Application granted granted Critical
Publication of JP6551107B2 publication Critical patent/JP6551107B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、動画を複数の表示領域に分割した複数の分割動画のデータを、クライアント端末からのリクエストに応じてネットワークを介して配信するシステム等の技術分野に関する。   The present invention relates to a technical field such as a system for distributing data of a plurality of divided moving images obtained by dividing a moving image into a plurality of display areas through a network in response to a request from a client terminal.

従来、例えば特許文献1に開示されるように、撮影範囲全体を表示する動画を複数の表示領域に分割した複数の分割動画のデータを、クライアント端末からのリクエストに応じて、固定のセグメント単位(時間単位)の動画ブロック(動画データブロック)毎にクライアント端末へネットワークを介して配信するシステムが知られている。つまり、動画ブロックは、クライアント端末からリクエストがある毎に配信される。   Conventionally, as disclosed in, for example, Patent Document 1, data of a plurality of divided moving images obtained by dividing a moving image that displays the entire shooting range into a plurality of display areas are received in fixed segment units (in response to requests from client terminals). 2. Description of the Related Art A system that distributes a moving image block (moving image data block) in time units to a client terminal via a network is known. That is, the moving image block is distributed every time a request is made from the client terminal.

特開2015−50572号公報Japanese Patent Laying-Open No. 2015-50572

しかしながら、例えばスポーツのように視聴範囲(表示範囲)が短時間に広範囲で変動する動画の場合、比較的長いセグメント単位(例えば、10秒)の動画ブロックを配信すると、例えば10秒の動画ブロックの数秒しか表示されない動画ブロックが存在し得るため、データ伝送量に無駄が生じる。一方、上記セグメント単位を短くすると、データ伝送量の無駄は低減されるが、クライアント端末からのリクエストの数が増えるため、動画ブロックを配信するサーバやネットワークにかかる負荷が必要以上に大きくなってしまう。   However, in the case of a moving image in which the viewing range (display range) fluctuates in a short time, such as sports, for example, delivering a moving image block of relatively long segment units (for example, 10 seconds) Since there may be moving image blocks that are displayed for only a few seconds, the amount of data transmission is wasted. On the other hand, if the segment unit is shortened, the waste of the data transmission amount is reduced, but the number of requests from the client terminal increases, so the load on the server or network that distributes the video block becomes larger than necessary. .

本発明は、以上の点等に鑑みてなされたものであり、分割動画のデータを、より適切なセグメント単位の動画ブロック毎に送信することが可能なサーバ装置、サーバプログラム、端末プログラム、動画送信方法、動画表示方法、通信システムを提供する。   The present invention has been made in view of the above points and the like, and is a server device, a server program, a terminal program, and a moving image transmission capable of transmitting divided moving image data for each more appropriate moving image block in segment units. A method, a moving image display method, and a communication system are provided.

上記課題を解決するために、請求項1に記載の発明は、動画を複数の表示領域に分割した複数の分割動画のデータを、端末装置からのリクエストに応じて、可変の時間単位であるセグメント単位の動画ブロック毎に前記端末装置へ送信するサーバ装置であって、前記端末装置において表示された前記分割動画の表示時間に応じた前記セグメント単位、または前記端末装置からの前記分割動画のリクエストの数に応じた前記セグメント単位を取得する取得手段と、前記端末装置からリクエストされた前記分割動画のデータを、前記取得手段により取得された前記セグメント単位の動画ブロック毎に前記端末装置へ送信する送信手段と、を備えることを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 1 is a segment in which data of a plurality of divided videos obtained by dividing a video into a plurality of display areas is a variable time unit according to a request from a terminal device. A server device that transmits to the terminal device for each unit video block, the segment unit corresponding to a display time of the divided video displayed on the terminal device, or a request for the divided video from the terminal device An acquisition unit for acquiring the segment unit according to the number, and transmission to the terminal device of data of the divided moving image requested by the terminal device for each segment moving image block acquired by the acquisition unit And means.

請求項2に記載の発明は、請求項1に記載のサーバ装置において、前記取得手段は、前記端末装置において前記分割動画の少なくとも一部の表示領域が同時に表示された前記複数の分割動画のうち、表示割合が最も大きいか、2番目に大きい前記表示領域を含む分割動画の表示時間に比例した時間を、前記セグメント単位として前記端末装置から取得することを特徴とする。 According to a second aspect of the present invention, in the server device according to the first aspect, the acquisition unit includes the plurality of divided moving images in which at least some display areas of the divided moving images are simultaneously displayed on the terminal device. A time proportional to the display time of the divided moving image including the display area having the largest display ratio or the second largest display area is acquired from the terminal device as the segment unit.

請求項3に記載の発明は、請求項1に記載のサーバ装置において、前記端末装置において前記分割動画の少なくとも一部の表示領域が同時に表示された表示画面における表示範囲を特定の時間毎に示す表示範囲データを前記端末装置から受信する受信手段を更に備え、前記取得手段は、前記受信手段により受信された表示範囲データに基づいて、それぞれの前記分割動画の表示時間を算出し、前記複数の分割動画のうち、表示割合が最も大きいか、2番目に大きい前記表示領域を含む分割動画の前記表示時間に比例した時間を、前記セグメント単位として取得することを特徴とする。 According to a third aspect of the present invention, in the server device according to the first aspect, the display range on the display screen in which at least a part of the display area of the divided moving image is simultaneously displayed on the terminal device is indicated for each specific time. Receiving means for receiving display range data from the terminal device, wherein the obtaining means calculates a display time of each of the divided videos based on the display range data received by the receiving means; Of the divided moving images, a time proportional to the display time of the divided moving images including the display area having the largest display ratio or the second largest display area is acquired as the segment unit.

請求項4に記載の発明は、請求項1乃至3の何れか一項に記載のサーバ装置において、前記取得手段は、前記分割動画の少なくとも一部の表示領域が表示された時間の累積値を前記表示時間として取得することを特徴とする。   According to a fourth aspect of the present invention, in the server device according to any one of the first to third aspects, the acquisition unit calculates a cumulative value of a time during which at least a part of the display area of the divided video is displayed. The display time is acquired.

請求項5に記載の発明は、請求項1乃至4の何れか一項に記載のサーバ装置において、前記取得手段は、複数の前記端末装置において表示された同一内容の前記分割動画の表示時間をそれぞれ取得し、取得した前記表示時間を集計して前記セグメント単位を取得することを特徴とする。   The invention according to claim 5 is the server apparatus according to any one of claims 1 to 4, wherein the acquiring unit displays the display time of the divided moving image of the same content displayed on a plurality of the terminal devices. The present invention is characterized in that the segment units are acquired by aggregating each acquired and acquired display time.

請求項6に記載の発明は、請求項1に記載のサーバ装置において、前記取得手段は、複数の前記端末装置それぞれからの前記分割動画のリクエストの数を取得し、取得した前記リクエストの数を集計して前記セグメント単位を取得することを特徴とする。   According to a sixth aspect of the present invention, in the server device according to the first aspect, the acquisition unit acquires the number of requests for the divided video from each of the plurality of terminal devices, and calculates the number of the acquired requests. The segment unit is obtained by aggregation.

請求項7に記載の発明は、請求項1乃至6の何れか一項に記載のサーバ装置において、前記端末装置からリクエストされた前記分割動画のデータを、前記取得手段により取得された前記セグメント単位で区切ることで複数の動画ブロックを生成する生成手段を更に備え、前記送信手段は、前記端末装置からリクエストされた前記分割動画のデータを、前記生成手段により生成された動画ブロック毎に前記端末装置へ送信することを特徴とする。   A seventh aspect of the present invention is the server device according to any one of the first to sixth aspects, wherein the segment unit obtained by acquiring the divided video data requested from the terminal device by the acquisition unit. Further comprising generating means for generating a plurality of moving picture blocks by dividing the terminal apparatus by the transmission means for each moving picture block generated by the generating means for the divided moving picture data requested from the terminal apparatus. It is characterized by transmitting to.

請求項8に記載の発明は、請求項1乃至6の何れか一項に記載のサーバ装置において、同一内容の前記分割動画のデータを、時間長の互いに異なる複数のセグメント単位毎に記憶する記憶手段を更に備え、前記記憶手段における前記セグメント単位のそれぞれに対応する前記分割動画のデータは、それぞれの前記セグメント単位で区切られた前記動画ブロックから構成されており、前記送信手段は、前記端末装置からリクエストされた前記分割動画のデータを構成する動画ブロックであって、前記取得手段により取得された前記セグメント単位の動画ブロックを前記記憶手段から取得して前記端末装置へ送信することを特徴とする。   The invention according to claim 8 is the server device according to any one of claims 1 to 6, wherein the divided moving image data having the same content is stored for each of a plurality of segment units having different time lengths. Data of the divided moving image corresponding to each of the segment units in the storage unit is composed of the moving image blocks divided in each of the segment units, and the transmitting unit is the terminal device The moving image block constituting the data of the divided moving image requested from the moving image, and the moving image block in the unit of segment acquired by the acquiring unit is acquired from the storage unit and transmitted to the terminal device .

請求項9に記載の発明は、動画を複数の表示領域に分割した複数の分割動画のデータを、端末装置からのリクエストに応じて、可変の時間単位であるセグメント単位の動画ブロック毎に前記端末装置へ送信するサーバ装置に含まれるコンピュータに、前記端末装置において表示された前記分割動画の表示時間に応じた前記セグメント単位、または前記端末装置からの前記分割動画のリクエストの数に応じた前記セグメント単位を取得する取得ステップと、前記端末装置からリクエストされた前記分割動画のデータを、前記取得ステップにより取得された前記セグメント単位の動画ブロック毎に前記端末装置へ送信する送信ステップと、を実行させることを特徴とする。   According to the ninth aspect of the present invention, the data of a plurality of divided videos obtained by dividing a video into a plurality of display areas is received for each video block in segment units, which are variable time units, in response to a request from a terminal device. In the computer included in the server device to be transmitted to the device, the segment unit according to the display time of the divided video displayed on the terminal device, or the segment according to the number of requests of the divided video from the terminal device Execute an acquiring step of acquiring a unit, and a transmitting step of transmitting data of the divided moving image requested from the terminal device to the terminal device for each moving image block of the segment unit acquired by the acquiring step It is characterized by

請求項10に記載の発明は、動画を複数の表示領域に分割した複数の分割動画のデータを、ユーザ操作に応じてサーバ装置へリクエストする端末装置に含まれるコンピュータに、前記端末装置において表示された前記分割動画の表示時間を算出する算出ステップと、可変の時間単位であるセグメント単位であって、前記算出ステップにより算出された表示時間に応じたセグメント単位を決定する決定ステップと、前記決定ステップにより決定されたセグメント単位を前記サーバ装置へ通知する通知ステップと、前記リクエストした前記分割動画のデータを、前記通知ステップにより通知されたセグメント単位の動画ブロック毎に前記サーバ装置から受信する受信ステップと、前記受信ステップにより受信された動画ブロックを用いて前記分割動画を表示させる表示ステップと、を実行させることを特徴とする。   The invention according to claim 10 is that the terminal device displays the data of a plurality of divided moving images obtained by dividing the moving image into a plurality of display areas on a terminal device that requests the server device according to a user operation. A calculation step for calculating the display time of the divided video, a determination unit for determining a segment unit that is a variable time unit and that corresponds to the display time calculated by the calculation step, and the determination step A notification step of notifying the server device of the segment unit determined by the step, and a receiving step of receiving the requested divided video data from the server device for each video block of the segment unit notified by the notification step; , Using the moving image block received by the receiving step Characterized in that to execute a display step of displaying the image, a.

請求項11に記載の発明は、請求項10に記載の端末プログラムにおいて、前記算出ステップは、前記端末装置において前記分割動画の少なくとも一部の表示領域が同時に表示された前記複数の分割動画のそれぞれの表示時間を算出し、前記決定ステップは、前記少なくとも一部の表示領域が同時に表示された前記複数の分割動画のうち、表示割合が最も大きいか、2番目に大きい前記表示領域を含む分割動画を特定し、特定した分割動画の表示時間に比例する時間を前記セグメント単位として決定することを特徴とする。 According to an eleventh aspect of the present invention, in the terminal program according to the tenth aspect, in the calculation step, each of the plurality of divided moving images in which at least some display areas of the divided moving images are simultaneously displayed on the terminal device. The display time is calculated, and the determining step includes the divided moving image including the display region having the largest display ratio or the second largest display region among the plurality of divided moving images in which the at least some display regions are simultaneously displayed. And a time proportional to the display time of the specified divided moving image is determined as the segment unit.

請求項12に記載の発明は、動画を複数の表示領域に分割した複数の分割動画のデータを、端末装置からのリクエストに応じて、可変の時間単位であるセグメント単位の動画ブロック毎に前記端末装置へ送信するコンピュータにより実行される動画送信方法であって、前記端末装置において表示された前記分割動画の表示時間に応じた前記セグメント単位、または前記端末装置からの前記分割動画のリクエストの数に応じた前記セグメント単位を取得する取得ステップと、前記端末装置からリクエストされた前記分割動画のデータを、前記取得ステップにより取得された前記セグメント単位の動画ブロック毎に前記端末装置へ送信する送信ステップと、を含むことを特徴とする。   According to a twelfth aspect of the present invention, a plurality of divided moving image data obtained by dividing a moving image into a plurality of display areas is converted into the terminal for each segment moving image block that is a variable time unit in response to a request from a terminal device. A video transmission method executed by a computer that transmits to a device, wherein the segment unit according to a display time of the divided video displayed on the terminal device, or the number of requests for the divided video from the terminal device An acquiring step of acquiring the segment unit according to a transmitting step of transmitting data of the divided moving image requested from the terminal device to the terminal device for each moving image block of the segment unit acquired by the acquiring step; , And is characterized.

請求項13に記載の発明は、動画を複数の表示領域に分割した複数の分割動画のデータを、ユーザ操作に応じてサーバ装置へリクエストする端末装置に含まれるコンピュータにより実行される動画表示方法であって、前記端末装置において表示された前記分割動画の表示時間を算出する算出ステップと、可変の時間単位であるセグメント単位であって、前記算出ステップにより算出された表示時間に応じたセグメント単位を決定する決定ステップと、前記決定ステップにより決定されたセグメント単位を前記サーバ装置へ通知する通知ステップと、前記リクエストした前記分割動画のデータを、前記通知ステップにより通知されたセグメント単位の動画ブロック毎に前記サーバ装置から受信する受信ステップと、前記受信ステップにより受信された動画ブロックを用いて前記分割動画を表示させる表示ステップと、を含むことを特徴とする。   The invention according to claim 13 is a moving image display method executed by a computer included in a terminal device that requests data of a plurality of divided moving images obtained by dividing a moving image into a plurality of display areas to a server device in accordance with a user operation. A calculation step of calculating a display time of the divided moving image displayed on the terminal device, a segment unit which is a variable time unit, and a segment unit corresponding to the display time calculated in the calculation step A determining step of determining, a notifying step of notifying the server unit of the segment unit determined by the determining step, data of the requested divided moving image for each segment moving image block notified of by the notifying step Receiving from the server device and receiving by the receiving step Characterized in that it comprises a display step of displaying the divided video with video blocks.

請求項14に記載の発明は、サーバ装置が、動画を複数の表示領域に分割した複数の分割動画のデータを、端末装置からのリクエストに応じて、可変の時間単位であるセグメント単位の動画ブロック毎に前記端末装置へ送信する通信システムであって、前記端末装置は、前記端末装置において表示された前記分割動画の表示時間を算出する算出手段と、可変の時間単位であるセグメント単位であって、前記算出手段により算出された表示時間に応じたセグメント単位を決定する決定手段と、前記決定手段により決定されたセグメント単位を前記サーバ装置へ通知する通知手段と、を備え、前記サーバ装置は、前記端末装置から通知された前記セグメント単位を取得する取得手段と、前記端末装置からリクエストされた前記分割動画のデータを、前記取得手段により取得された前記セグメント単位の動画ブロック毎に前記端末装置へ送信する送信手段と、を備え、前記端末装置は、前記サーバ装置から送信された前記分割動画のデータを、前記動画ブロック毎に受信する受信手段と、前記受信手段により受信された動画ブロックを用いて前記分割動画を表示させる表示手段と、を備えることを特徴とする。   According to the fourteenth aspect of the present invention, the server device converts a plurality of divided moving image data obtained by dividing the moving image into a plurality of display areas, in accordance with a request from the terminal device, a segment unit moving image block that is a variable time unit A communication system that transmits to the terminal device every time, wherein the terminal device is a calculation unit that calculates a display time of the divided video displayed on the terminal device, and a segment unit that is a variable time unit. A determination unit that determines a segment unit according to the display time calculated by the calculation unit; and a notification unit that notifies the server unit of the segment unit determined by the determination unit. Acquisition means for acquiring the segment unit notified from the terminal device, data of the divided moving image requested from the terminal device Transmitting means for transmitting to the terminal device every moving image block of the segment unit acquired by the acquiring means, the terminal device using the moving image block as the divided moving image data transmitted from the server device Receiving means for receiving each time, and display means for displaying the divided moving picture using the moving picture block received by the receiving means.

請求項15に記載の発明は、サーバ装置が、動画を複数の表示領域に分割した複数の分割動画のデータを、端末装置からのリクエストに応じて、可変の時間単位であるセグメント単位の動画ブロック毎に前記端末装置へ送信する通信システムであって、前記端末装置は、前記端末装置において前記分割動画の少なくとも一部の表示領域が同時に表示された表示範囲における表示範囲を特定の時間毎に示す表示範囲データを前記サーバ装置へ送信する第1送信手段を備え、前記サーバ装置は、前記端末装置から送信された表示範囲データを受信する第1受信手段と、前記第1受信手段により受信された表示範囲データに基づいて、それぞれの前記分割動画の表示時間を算出し、前記複数の分割動画のうち、表示割合が最も大きいか、2番目に大きい前記表示領域を含む分割動画の前記表示時間に比例した時間を、可変の時間単位であるセグメント単位として取得する取得手段と、前記端末装置からリクエストされた前記分割動画のデータを、前記取得手段により取得された前記セグメント単位の動画ブロック毎に前記端末装置へ送信する第2送信手段と、を備え、前記端末装置は、前記サーバ装置から送信された前記分割動画のデータを、前記動画ブロック毎に受信する第2受信手段と、前記第2受信手段により受信された動画ブロックを用いて前記分割動画を表示させる表示手段と、を備えることを特徴とする。 The invention according to claim 15 is the moving image block in segment units, which is a variable time unit, in response to a request from the terminal device, the server device divides data of a plurality of divided moving images obtained by dividing the moving image into a plurality of display areas. A communication system for transmitting to the terminal device every time, wherein the terminal device indicates a display range in a display range in which at least a part of the display area of the divided video is simultaneously displayed on the terminal device at specific time intervals. A first transmission means for transmitting display range data to the server device, the server device comprising: a first reception means for receiving the display range data transmitted from the terminal device; and the first reception means received by the first reception means based on the display range data, calculates the display time of each of the divided moving among the plurality of divided moving, the display ratio or the largest, large the second The divided moving the display time proportional to the time, including have the display area, an acquisition means for acquiring a segment unit which is a time unit of the variable, the data of the divided video requested from the terminal device, the obtaining unit And transmitting the divided moving image data transmitted from the server device to each of the moving image blocks. And a display unit for displaying the divided moving image using the moving image block received by the second receiving unit.

請求項1、9、12、14、15に記載の発明によれば、分割動画のデータを、より適切なセグメント単位で送信することができ、その結果、データ伝送量の無駄を低減しつつ、サーバ装置やネットワークにかかる負荷を低減することができる。   According to the first, ninth, twelfth, fourteenth, and fifteenth aspects of the invention, it is possible to transmit the data of the divided moving image in a more appropriate segment unit, and as a result, while reducing waste of the data transmission amount, The load on the server apparatus and the network can be reduced.

請求項2、11に記載の発明によれば、分割動画の表示時間が端末装置側で算出されるので、サーバ装置の負荷を低減することができる。   According to the second and eleventh aspects of the invention, since the display time of the divided moving image is calculated on the terminal device side, the load on the server device can be reduced.

請求項3に記載の発明によれば、分割動画の表示時間がサーバ装置側で算出されるので、端末装置の負荷を低減することができる。   According to the invention described in claim 3, since the display time of the divided moving image is calculated on the server device side, the load on the terminal device can be reduced.

請求項4に記載の発明によれば、分割動画の表示時間の算出処理負荷を軽減することができる。   According to the fourth aspect of the present invention, it is possible to reduce the processing load for calculating the display time of the divided moving image.

請求項5、6に記載の発明によれば、同一の動画の視聴者数が多い場合に、サーバ装置の負荷を低減することができる。   According to the fifth and sixth aspects of the invention, when the number of viewers of the same moving image is large, the load on the server device can be reduced.

請求項7に記載の発明によれば、より柔軟に動画ブロックを生成してこれを送信することができる。   According to the seventh aspect of the present invention, a moving image block can be generated more flexibly and transmitted.

請求項8に記載の発明によれば、サーバ装置の負荷を低減しつつ、分割動画のデータを、より迅速にセグメント単位で送信することができる。   According to the eighth aspect of the present invention, it is possible to transmit the divided moving image data more quickly in units of segments while reducing the load on the server device.

請求項10に記載の発明によれば、分割動画のデータを、より適切なセグメント単位で受信することができ、その結果、データ伝送量の無駄を低減しつつ、サーバ装置やネットワークにかかる負荷を低減することができる。   According to the invention described in claim 10, it is possible to receive the data of the divided moving image in a more appropriate segment unit. As a result, the load on the server device and the network is reduced while reducing waste of the data transmission amount. It can be reduced.

本実施形態に係る配信システムSの概要構成例を示す図である。It is a figure showing an example of outline composition of distribution system S concerning this embodiment. エンコードサーバ1により生成された動画ブロックの一例を示す概念図である。3 is a conceptual diagram illustrating an example of a moving image block generated by an encoding server 1. FIG. (A)は、1つの分割動画DMnから可変のセグメント単位Txで生成された動画ブロックBn-mを再生時間軸tに沿って示す図である。(B)は、時間長の互いに異なる3つのセグメント単位で同一内容の分割動画DMnから生成された動画ブロックBn-mを再生時間軸tに沿って示す図である。(A) is a diagram showing a moving image block Bn-m generated from one divided moving image DMn in variable segment units Tx along a reproduction time axis t. (B) is a diagram showing a moving image block Bn-m generated from a divided moving image DMn of the same content in units of three segments having mutually different time lengths along the reproduction time axis t. 表示範囲における各分割動画DMnの表示割合と表示時間の一例を示す概念図である。It is a conceptual diagram which shows an example of the display ratio and display time of each division | segmentation moving image DMn in a display range. カメラワークデータの内容の一例を示す図である。It is a figure which shows an example of the content of camera work data. (A)は、クライアント端末3aの制御部31により実行されるコンテンツ再生処理の一例を示すフローチャートである。(B)は、クライアント端末3aの制御部31により実行されるセグメント単位通知処理の一例を示すフローチャートである。(C)は、クライアント端末3aの制御部31により実行されるカメラワークデータ送信処理の一例を示すフローチャートである。(A) is a flowchart which shows an example of the content reproduction process performed by the control part 31 of the client terminal 3a. (B) is a flowchart showing an example of a segment unit notification process executed by the control unit 31 of the client terminal 3a. (C) is a flowchart which shows an example of the camera work data transmission process performed by the control part 31 of the client terminal 3a. (A)は、配信サーバ2の制御部21により実行されるセグメント単位取得処理の一例を示すフローチャートである。(B)は、配信サーバ2の制御部21により実行されるカメラワークデータ解析処理の一例を示すフローチャートである。(C)は、エンコードサーバ1の制御部11により実行されるセグメント単位設定処理の一例を示すフローチャートである。(A) is a flowchart illustrating an example of a segment unit acquisition process executed by the control unit 21 of the distribution server 2. (B) is a flowchart showing an example of the camera work data analysis process executed by the control unit 21 of the distribution server 2. (C) is a flowchart showing an example of the segment unit setting process executed by the control unit 11 of the encoding server 1. (A)は、配信サーバ2の制御部21により実行されるコンテンツ配信処理の一例を示すフローチャートである。(B)は、エンコードサーバ1の制御部11により実行されるエンコード処理の一例を示すフローチャートである。(A) is a flowchart showing an example of the content distribution process executed by the control unit 21 of the distribution server 2. FIG. 5B is a flowchart illustrating an example of an encoding process executed by the control unit 11 of the encoding server 1. (A)は、配信サーバ2の制御部21により実行されるセグメント単位取得・設定処理の一例を示すフローチャートである。(B)は、配信サーバ2の制御部21により実行されるカメラワークデータ解析・セグメント単位設定処理の一例を示すフローチャートである。(C)は、配信サーバ2の制御部21により実行されるコンテンツ配信処理の一例を示すフローチャートである。(A) is a flowchart showing an example of segment unit acquisition / setting processing executed by the control unit 21 of the distribution server 2. (B) is a flowchart showing an example of camera work data analysis and segment unit setting processing executed by the control unit 21 of the distribution server 2. (C) is a flowchart showing an example of the content distribution process executed by the control unit 21 of the distribution server 2.

以下、本発明の実施形態を図面に基づいて説明する。なお、以下に説明する実施の形態は、配信システムに対して本発明を適用した場合の実施形態である。   Hereinafter, embodiments of the present invention will be described based on the drawings. The embodiment described below is an embodiment in which the present invention is applied to a distribution system.

[1.配信システムSの構成及び動作概要]
初めに、図1を参照して、本実施形態に係る配信システムSの構成及び動作概要について説明する。図1は、本実施形態に係る配信システムSの概要構成例を示す図である。図1に示すように、配信システムSは、エンコードサーバ1、配信サーバ2、及びクライアント端末3X(X=a,b,c・・・)等を含んで構成される。エンコードサーバ1及び配信サーバ2は、本発明のサーバ装置の一例である。なお、配信サーバ2がエンコードサーバ1の機能を有していてもよく、この場合、エンコードサーバ1は不要となる。エンコードサーバ1、配信サーバ2、及びクライアント端末3Xは、ネットワークNWに接続される。ネットワークNWは、例えば、インターネット等により構成される。
[1. Configuration and Operation of Delivery System S]
First, with reference to FIG. 1, the structure and operation | movement outline | summary of the delivery system S concerning this embodiment are demonstrated. FIG. 1 is a diagram showing an example of a schematic configuration of a distribution system S according to the present embodiment. As shown in FIG. 1, the distribution system S includes an encoding server 1, a distribution server 2, a client terminal 3X (X = a, b, c...) And the like. The encoding server 1 and the distribution server 2 are an example of the server apparatus of the present invention. The distribution server 2 may have the function of the encoding server 1, and in this case, the encoding server 1 becomes unnecessary. The encoding server 1, the distribution server 2, and the client terminal 3X are connected to the network NW. The network NW is configured by, for example, the Internet or the like.

エンコードサーバ1は、ビデオカメラ(図示せず)により撮影された動画のデータと、動画の撮影に同期してマイクロフォン(図示せず)により集音された音声のデータとを外部機器から取得する。例えば、エンコードサーバ1には、有線または無線を介して、ビデオカメラ及びマイクロフォンが接続されており、ビデオカメラから動画のデータを、マイクロフォンから音声のデータをそれぞれ取得する。本実施形態では、ビデオカメラにより撮影された動画を例にとり、撮影範囲全体を表示する動画を、以下、「全体動画」というものとする。なお、ビデオカメラにより撮影された動画以外の、例えばCGやアニメーション等、動作作成ソフトウェアにより作成された動画を全体動画としてもよい。また、複数のビデオカメラのそれぞれにより撮影された動画を合成した動画を全体動画としてもよい。   The encoding server 1 acquires, from an external device, moving image data shot by a video camera (not shown) and audio data collected by a microphone (not shown) in synchronization with moving image shooting. For example, a video camera and a microphone are connected to the encoding server 1 via wired or wireless, and moving image data is acquired from the video camera and audio data is acquired from the microphone. In this embodiment, taking a moving image shot by a video camera as an example, a moving image that displays the entire shooting range is referred to as an “overall moving image”. In addition, a moving image created by motion creation software such as CG or animation other than a moving image shot by a video camera may be used as the entire moving image. A moving image obtained by combining moving images shot by each of a plurality of video cameras may be used as the entire moving image.

エンコードサーバ1は、全体動画Mを複数の表示領域に分割した複数の分割動画DMn(n=1,2,3・・・)のうち、少なくとも何れか1つの分割動画DMnを、後述するセグメント単位Txで区切りつつエンコードすることで、複数の動画ブロックBn-m(m=1,2,3・・・)を生成する。なお、エンコードサーバ1は、分割動画DMn(n=1,2,3・・・)を、セグメント単位Txで区切ることで複数の動画ブロックBn-m(m=1,2,3・・・)を生成しておき、その後に生成した動画ブロックBn-mをエンコードしてもよい。ここで、セグメント単位Txは、クライアント端末3Xにおいて表示された分割動画DMnの表示時間、またはクライアント端末3Xからの分割動画DMnのリクエスト数(つまり、リクエストの数)に応じて変化する可変の時間単位である。また、エンコードとは、一般に、予め定められた規則に従って、データを符号化することをいい、さらに、例えばMPEG等の圧縮方式でデータを圧縮することを含む場合もある。図2は、エンコードサーバ1により生成された動画ブロックの一例を示す概念図である。ここで、図2の例では、全体動画Mが4×4の分割動画DMn(この例では、n=1〜16)に分割され、且つ再生時間軸tにおいてセグメント単位Txでエンコードされることで複数の動画ブロックBn-mが分割動画DMn毎に生成されている。   The encoding server 1 is a segment unit which will describe at least one divided moving image DMn among a plurality of divided moving images DMn (n = 1, 2, 3...) Obtained by dividing the entire moving image M into a plurality of display areas. A plurality of moving image blocks Bn-m (m = 1, 2, 3...) Are generated by encoding while dividing by Tx. Note that the encoding server 1 divides the divided moving image DMn (n = 1, 2, 3...) Into segment units Tx, thereby dividing the plurality of moving image blocks Bn-m (m = 1, 2, 3...) May be generated, and the video block Bn-m generated thereafter may be encoded. Here, the segment unit Tx is a variable time unit that changes according to the display time of the divided moving image DMn displayed on the client terminal 3X or the number of requests of the divided moving image DMn from the client terminal 3X (that is, the number of requests). It is. In addition, encoding generally refers to encoding data according to a predetermined rule, and may also include compressing data by a compression method such as MPEG. FIG. 2 is a conceptual diagram illustrating an example of a moving image block generated by the encoding server 1. Here, in the example of FIG. 2, the entire moving image M is divided into 4 × 4 divided moving images DMn (in this example, n = 1 to 16) and encoded in the segment unit Tx on the playback time axis t. A plurality of moving image blocks Bn-m are generated for each divided moving image DMn.

配信サーバ2は、クライアント端末3Xにおいて表示された分割動画DMnの表示時間に応じたセグメント単位Tx、またはクライアント端末3Xからの分割動画DMnのリクエスト数に応じたセグメント単位Txを取得する。セグメント単位Txの取得方法の詳細は後述する。また、配信サーバ2は、クライアント端末3Xからのリクエストに応じて、1つ以上の分割動画DMnのデータを含むコンテンツを、セグメント単位Txの動画ブロックBn-m毎にクライアント端末3Xへ送信する。つまり、配信サーバ2は、クライアント端末3Xからリクエストされた分割動画DMnの動画ブロックBn-mであってエンコードサーバ1によりセグメント単位Txでエンコードされた動画ブロックBn-mを含むコンテンツをネットワークNWを介してクライアント端末3Xへ送信する。コンテンツの送信は、例えば、ネットワークNWを介してストリーミング配信により行われる。   The distribution server 2 acquires the segment unit Tx corresponding to the display time of the divided video DMn displayed on the client terminal 3X or the segment unit Tx corresponding to the number of requests for the divided video DMn from the client terminal 3X. Details of the method of acquiring the segment unit Tx will be described later. Further, the distribution server 2 transmits content including data of one or more divided moving images DMn to the client terminal 3X for each moving image block Bn-m of the segment unit Tx in response to a request from the client terminal 3X. That is, the distribution server 2 is a moving image block Bn-m of the divided moving image DMn requested from the client terminal 3X, and includes the moving image block Bn-m encoded in the segment unit Tx by the encoding server 1 through the network NW. To the client terminal 3X. The content is transmitted by streaming distribution via the network NW, for example.

クライアント端末3Xは、ユーザ操作に応じて、全体動画Mにおいて表示画面における表示範囲に表示される表示領域(少なくとも一部の表示領域)を含む分割動画DMnに対応する動画ブロックBn-mだけを配信サーバ2へリクエストする。つまり、全体動画Mにおいて表示画面における表示範囲に収まる表示領域を含まない分割動画DMnに対応する動画ブロックBn-mはリクエストされない。クライアント端末3Xは、配信サーバ2から送信されたコンテンツを受信し、受信されたコンテンツに含まれる1つ以上の動画ブロックBn-mをデコードして分割動画DMnを再生する。   The client terminal 3X distributes only the moving image block Bn-m corresponding to the divided moving image DMn including the display area (at least a part of the display area) displayed in the display range on the display screen in the entire moving image M according to the user operation. Request to server 2 That is, the moving image block Bn-m corresponding to the divided moving image DMn which does not include the display area falling within the display range on the display screen in the entire moving image M is not requested. The client terminal 3X receives the content transmitted from the distribution server 2, decodes one or more video blocks Bn-m included in the received content, and reproduces the divided video DMn.

[2.各装置の構成及び機能]
次に、図1を参照して、本実施形態の配信システムSに含まれる各装置の構成について説明する。エンコードサーバ1は、図1に示すように、制御部11、記憶部12、通信部13、及びインターフェース部14等を備えて構成される。これらの構成要素は、バス15に接続されている。インターフェース部14は、例えばビデオカメラ及びマイクロフォンが接続される。通信部13は、ネットワークNWに接続される。記憶部12は、例えばハードディスクドライブ等からなり、OS(オペレーティングシステム)、及びエンコード処理プログラム等を記憶する。エンコード処理プログラムは、コンピュータとしての制御部11に、エンコード処理等を実行させるプログラムである。また、記憶部12には、外部機器から取得された全体動画Mのデータと、全体動画Mを複数の表示領域に分割した複数の分割動画DMnと、音声のデータとが全体動画M毎に対応付けられて記憶される。なお、全体動画Mには、全体動画Mを識別するための全体動画IDが付与されている。また、全体動画Mから分割された各分割動画DMnには、分割動画DMnを識別するための分割動画IDが上記全体動画IDに関連付けられて付与されている。また、分割動画DMnから生成された動画ブロックBn-mには、動画ブロックBn-mを識別するための動画ブロックIDが上記分割動画IDに関連付けられて付与される。
[2. Configuration and function of each device]
Next, the configuration of each device included in the distribution system S of the present embodiment will be described with reference to FIG. As shown in FIG. 1, the encoding server 1 includes a control unit 11, a storage unit 12, a communication unit 13, an interface unit 14, and the like. These components are connected to the bus 15. The interface unit 14 is connected to, for example, a video camera and a microphone. The communication unit 13 is connected to the network NW. The storage unit 12 includes, for example, a hard disk drive and stores an OS (Operating System), an encoding processing program, and the like. The encoding processing program is a program that causes the control unit 11 as a computer to execute encoding processing and the like. In addition, in the storage unit 12, data of the entire moving image M acquired from the external device, a plurality of divided moving images DMn obtained by dividing the entire moving image M into a plurality of display areas, and audio data correspond to each entire moving image M Attached and memorized. Note that the entire moving image M is assigned an entire moving image ID for identifying the entire moving image M. Further, each divided moving image DMn divided from the entire moving image M is provided with a divided moving image ID for identifying the divided moving image DMn in association with the entire moving image ID. In addition, a moving image block ID for identifying the moving image block Bn-m is assigned to the moving image block Bn-m generated from the divided moving image DMn in association with the divided moving image ID.

制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等により構成される。制御部11は、エンコード処理プログラムにしたがって、エンコード処理を実行する。このエンコード処理において、制御部11は、分割動画DMnを、セグメント単位Txで区切りつつエンコードすることで、複数の動画ブロックBn-mを生成する。なお、セグメント単位Txは、例えば、配信サーバ2からの設定指令により設定される。また、動画ブロックBn-mは、生成される度にリアルタイムで配信サーバ2へ送信されてもよいし、後から一括で配信サーバ2へ送信されてもよい。   The control unit 11 is configured by a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), and the like. The control unit 11 executes encoding processing according to the encoding processing program. In this encoding process, the control unit 11 generates a plurality of moving image blocks Bn-m by encoding the divided moving image DMn while dividing the divided moving image into segment units Tx. The segment unit Tx is set by a setting command from the distribution server 2, for example. Also, the moving image block Bn-m may be transmitted to the distribution server 2 in real time each time it is generated, or may be transmitted to the distribution server 2 collectively later.

次に、配信サーバ2は、図1に示すように、制御部21、記憶部22、及び通信部23等を備えて構成される。これらの構成要素は、バス24に接続されている。記憶部22は、本発明における記憶手段の一例である。通信部23は、ネットワークNWに接続される。記憶部22は、例えばハードディスクドライブ等からなり、OS、及びコンテンツ配信処理プログラム等を記憶する。コンテンツ配信処理プログラムは、制御部21に、コンテンツ配信処理等を実行させるプログラムである。コンテンツ配信処理プログラムは、所定のサーバからダウンロードされてもよいし、CD、DVD等の記録媒体に記憶されて提供されてもよい。また、記憶部22には、例えば、エンコードサーバ1によりエンコードされた動画ブロックBn-mと、音声のデータとを含むコンテンツが記憶される。制御部21は、CPU、ROM、及びRAM等により構成される。制御部21は、コンテンツ配信処理プログラムにしたがって、本発明の取得手段、生成手段、送信手段(第2送信手段)、受信手段(第1受信手段)等として機能し、コンテンツ配信処理を実行する。このコンテンツ配信処理において、制御部21は、クライアント端末3Xからのリクエストに応じて、1つ以上の分割動画DMnのデータを含むコンテンツを、セグメント単位Txの動画ブロックBn-m毎にネットワークNWを介してクライアント端末3Xへ送信する。   Next, as shown in FIG. 1, the distribution server 2 includes a control unit 21, a storage unit 22, a communication unit 23, and the like. These components are connected to the bus 24. The storage unit 22 is an example of a storage unit in the present invention. The communication unit 23 is connected to the network NW. The storage unit 22 includes, for example, a hard disk drive and stores an OS, a content distribution processing program, and the like. The content distribution processing program is a program that causes the control unit 21 to execute content distribution processing and the like. The content distribution processing program may be downloaded from a predetermined server, or may be stored and provided in a recording medium such as a CD or a DVD. In addition, the storage unit 22 stores, for example, content including the moving image block Bn-m encoded by the encoding server 1 and audio data. The control unit 21 includes a CPU, a ROM, a RAM, and the like. The control unit 21 functions as an acquisition unit, a generation unit, a transmission unit (second transmission unit), a reception unit (first reception unit), and the like according to the present invention, and executes content distribution processing according to the content distribution processing program. In this content distribution process, the control unit 21 transmits content including data of one or more divided videos DMn for each video block Bn-m of the segment unit Tx via the network NW in response to a request from the client terminal 3X. To the client terminal 3X.

具体的には、制御部21は、クライアント端末3Xから分割動画DMnのリクエストを受信した場合、この分割動画DMnのエンコード指令をネットワークNWを介してエンコードサーバ1へ送信する。これにより、エンコードサーバ1は、配信サーバ2からのエンコード指令された分割動画DMnを、配信サーバ2からの設定指令に応じて設定されているセグメント単位Txで区切りつつエンコードすることで動画ブロックBn-mを生成し、生成した1つ以上の動画ブロックBn-mを含むコンテンツをネットワークNWを介して配信サーバ2へ送信する。そして、制御部21は、エンコードサーバ1から送信されたコンテンツを受信し、受信されたコンテンツをネットワークNWを介してクライアント端末3Xへ送信する。なお、セグメント単位Txは、配信サーバ2からの設定指令に応じて適宜更新される。図3(A)は、1つの分割動画DMnから可変のセグメント単位Txで生成された動画ブロックBn-mを再生時間軸tに沿って示す図である。図3(A)に示すように、動画ブロックBn-mのセグメント単位Txは時間経過にしたがって変化している。特に、動画ブロックBn-5〜Bn-7のセグメント単位Txは3秒と短く、この再生時間帯は、表示範囲の変動が大きい時間帯である。   Specifically, when the control unit 21 receives a request for the divided moving image DMn from the client terminal 3X, the control unit 21 transmits an encoding instruction for the divided moving image DMn to the encoding server 1 via the network NW. Thus, the encoding server 1 divides and encodes the divided moving image DMn, which has been encoded by the distribution server 2, in units of segments Tx set according to the setting instruction from the distribution server 2, thereby encoding the moving image block Bn-. m is generated, and the content including the generated one or more moving image blocks Bn-m is transmitted to the distribution server 2 via the network NW. And the control part 21 receives the content transmitted from the encoding server 1, and transmits the received content to the client terminal 3X via the network NW. The segment unit Tx is appropriately updated according to the setting command from the distribution server 2. FIG. 3A is a diagram showing a moving image block Bn-m generated from one divided moving image DMn in variable segment units Tx along the reproduction time axis t. As shown in FIG. 3A, the segment unit Tx of the moving image block Bn-m changes as time passes. In particular, the segment unit Tx of the moving image blocks Bn-5 to Bn-7 is as short as 3 seconds, and this playback time zone is a time zone in which the display range varies greatly.

或いは、クライアント端末3Xからリクエストが受信される前に、エンコードサーバ1によって、時間長の互いに異なる複数のセグメント単位(固定のセグメント単位)で同一内容の分割動画DMnから生成された動画ブロックBn-mを含むコンテンツが配信サーバ2へ送信されてもよい。この場合、記憶部22には、同一内容の分割動画DMnのデータが、時間長の互いに異なる複数のセグメント単位毎に記憶される。図3(B)は、時間長の互いに異なる3つのセグメント単位(20秒、10秒、5秒)で同一内容の分割動画DMnから生成された動画ブロックBn-mを再生時間軸tに沿って示す図である。なお、図3(B)の例では、3つのセグメント単位T1〜T3毎に同一内容の分割動画DMnから生成された動画ブロックBn-mを示しているが、2つまたは4つ以上のセグメント単位毎に同一内容の分割動画DMnから動画ブロックBn-mが生成されてもよい。また、この場合、制御部21は、例えば、後述するように取得したセグメント単位Txを設定し、その後、セグメント単位Txを取得する度に更新する。そして、制御部21は、クライアント端末3Xから分割動画DMnのリクエストを受信した場合、リクエストされた分割動画DMnについて複数のセグメント単位毎に記憶された動画ブロックBn-m(図3(B)の例では、20秒版、10秒版、及び5秒版の動画ブロックBn-m)のうち、設定されているセグメント単位Txに対応する動画ブロックBn-mを記憶部22から取得してクライアント端末3Xへ送信する。ここで、セグメント単位Txに対応する動画ブロックBn-mとは、例えば、セグメント単位Txとの時間差が最も短いセグメント単位の動画ブロックBn-mを意味する。例えば、セグメント単位Txが6秒であった場合、図3(B)に示す5秒版の動画ブロックBn-mが該当する。   Alternatively, the video block Bn-m generated from the divided video DMn having the same content in a plurality of segment units (fixed segment units) having different time lengths by the encoding server 1 before the request is received from the client terminal 3X. May be transmitted to the distribution server 2. In this case, data of the divided moving image DMn having the same content is stored in the storage unit 22 for each of a plurality of segment units having different time lengths. FIG. 3B shows a video block Bn-m generated from a divided video DMn having the same content in three segment units (20 seconds, 10 seconds, and 5 seconds) having different time lengths along the playback time axis t. FIG. In the example of FIG. 3B, the moving image block Bn-m generated from the divided moving image DMn having the same content every three segment units T1 to T3 is shown, but two or four or more segment units are shown. The moving image block Bn-m may be generated from the divided moving image DMn having the same content every time. In this case, for example, the control unit 21 sets the acquired segment unit Tx as described later, and then updates it every time the segment unit Tx is acquired. Then, when the control unit 21 receives the request for the divided moving image DMn from the client terminal 3X, the control unit 21 stores an example of the moving image block Bn-m (FIG. 3B) stored in units of a plurality of segments for the requested divided moving image DMn. Then, the moving picture block Bn-m corresponding to the set segment unit Tx is acquired from the storage unit 22 among the moving picture blocks Bn-m of 20s version, 10s version and 5s version, and the client terminal 3X is obtained. Send to Here, the moving image block Bn-m corresponding to the segment unit Tx means, for example, the moving image block Bn-m of the segment unit with the shortest time difference from the segment unit Tx. For example, when the segment unit Tx is 6 seconds, the 5-second version moving image block Bn-m shown in FIG. 3B corresponds.

上述したコンテンツ配信処理において、制御部21は、分割動画DMnの表示時間に応じたセグメント単位Tx、または分割動画DMnのリクエスト数に応じたセグメント単位Txを取得する。ここで、先ず、分割動画DMnの表示時間に応じたセグメント単位Txの取得方法例について詳しく説明する。この場合、制御部21は、クライアント端末3Xにおいて分割動画DMnの少なくとも一部の表示領域が同時に表示された複数の分割動画DMnのうち、表示割合が相対的に大きい表示領域を含む分割動画DMnの表示時間に比例した時間を、セグメント単位Txとして取得する。ここで、表示割合とは、表示画面における表示範囲に対する、各分割動画DMnが占める割合を意味する。つまり、表示割合は、各分割動画DMnが表示範囲の何パーセントが表示されたかを示す。また、表示割合が相対的に大きい表示領域として、表示割合が最も大きい表示領域とすることが好ましいが、表示割合が2番目に大きい表示領域であっても構わない。表示時間に比例した時間は、表示時間×1倍の時間であってもよく、この場合、表示時間=セグメント単位Txとなる。   In the content distribution process described above, the control unit 21 acquires a segment unit Tx corresponding to the display time of the divided moving image DMn or a segment unit Tx corresponding to the number of requests of the divided moving image DMn. Here, first, an example of a method for obtaining the segment unit Tx according to the display time of the divided video DMn will be described in detail. In this case, the control unit 21 selects a divided video DMn including a display area having a relatively large display ratio among the plurality of divided videos DMn in which at least a part of the display area of the divided video DMn is simultaneously displayed on the client terminal 3X. A time proportional to the display time is acquired as a segment unit Tx. Here, the display ratio means the ratio of each divided moving image DMn to the display range on the display screen. That is, the display ratio indicates what percentage of the display range each divided moving image DMn is displayed. Further, it is preferable to set the display area having the largest display ratio as the display area having the largest display ratio, but it may be the display area having the second largest display ratio. The time proportional to the display time may be display time × one time, and in this case, display time = segment unit Tx.

図4は、表示範囲における各分割動画DMnの表示割合と表示時間の一例を示す概念図である。図4(A)は、t-1秒(tは、例えば2以上の整数)時点の表示範囲Rt-1を示しており、この時点では、分割動画DM6の表示割合が90%と最も大きくなっている。また、図4(B)は、t秒時点の表示範囲Rtを示しており、この時点では、分割動画DM6とDM10の表示割合が80%と最も大きくなっている。また、図4(C)は、t+1秒時点の表示範囲Rt+1を示しており、この時点では、分割動画DM6とDM7の表示割合が60%と最も大きくなっている。図4(D)は、t-1秒〜t+1秒の時間範囲における平均の表示割合と表示時間を示している。図4(D)の例では、t-1秒〜t+1秒の各時点における表示時間を1秒として、t-1秒〜t+1秒の時間範囲で累積した累積値となっている。例えば、分割動画DM2は、t-1秒とt+1秒の各時点において一部が表示されているため、t-1秒の時点の表示時間を1秒とし、t+1秒の時点の表示時間を1秒として、これらを累積した累積値(2秒)が、t-1秒〜t+1秒の時間範囲における分割動画DM2の表示時間となっている。   FIG. 4 is a conceptual diagram showing an example of display ratio and display time of each divided moving image DMn in the display range. FIG. 4A shows the display range Rt-1 at the time of t-1 seconds (t is an integer of 2 or more, for example), and at this time, the display ratio of the divided moving image DM6 is the largest, 90%. ing. Further, FIG. 4B shows the display range Rt at the time of t seconds, and at this time point, the display ratio of the divided moving images DM6 and DM10 is the largest at 80%. FIG. 4C shows the display range Rt + 1 at time t + 1 seconds, and at this time, the display ratio of the divided moving images DM6 and DM7 is the largest at 60%. FIG. 4D shows an average display ratio and display time in a time range of t-1 seconds to t + 1 seconds. In the example of FIG. 4D, the display time at each time point of t-1 sec to t + 1 sec is 1 sec, and the accumulated value is accumulated in the time range of t-1 sec to t + 1 sec. . For example, since the divided video DM2 is partially displayed at each time point of t-1 seconds and t + 1 seconds, the display time at the time point of t-1 seconds is 1 second, and Assuming that the display time is 1 second, an accumulated value (2 seconds) obtained by accumulating these is the display time of the divided moving image DM2 in the time range of t-1 seconds to t + 1 seconds.

なお、何れかの時点で、全ての表示領域が表示範囲外となった分割動画DMnについてはその時点で累積値がリセットされてもよい。この場合、リセットされる前の累積値は保持される。そして、分割動画DMnが再び表示範囲内に入った場合、表示時間の累積が開始され、t-1秒〜t+1秒の時間範囲において最大の累積値が分割動画DMnの表示時間となる。ただし、上述したリセットしない累積値を分割動画DMnの表示時間とした方が、この表示時間の算出処理負荷を軽減することができる。また、図4(D)の例では、分割動画DM6の表示割合が最も大きいので、t-1秒〜t+1秒の時間範囲では、分割動画DM6の表示時間に比例した時間がセグメント単位Tx(この例では、セグメント単位Tx=「分割動画DM6の表示時間」)として取得されることになる。なお、図4の例では、t-1秒時点、t秒時点、及びt+1秒時点の3つの時点で、各分割動画DMnの表示割合が算出され、t-1秒〜t+1秒の時間範囲における累積値が分割動画DMnの表示時間として算出される例を示したが、この時間範囲は任意に設定可能であり、また、この時間範囲で算出される時点の数も任意に設定可能である。   Note that the cumulative value may be reset at any point in time for the divided video DMn in which all the display areas are out of the display range at any point in time. In this case, the accumulated value before being reset is retained. Then, when the divided moving image DMn enters the display range again, accumulation of the display time is started, and the maximum accumulated value in the time range of t-1 seconds to t + 1 seconds is the display time of the divided moving image DMn. However, the display time calculation processing load can be reduced by using the cumulative value not reset as described above as the display time of the divided video DMn. Further, in the example of FIG. 4D, since the display ratio of the divided moving image DM6 is the largest, in the time range of t-1 seconds to t + 1 seconds, a time proportional to the display time of the divided moving image DM6 is segment unit Tx (In this example, the segment unit Tx = “display time of the divided video DM6”). In the example of FIG. 4, the display ratio of each divided video DMn is calculated at three time points, t-1 second time point, t second time point, and t + 1 second time point, and t-1 second to t + 1 second time. In the example shown, the cumulative value in the time range is calculated as the display time of the divided video DMn, but this time range can be set arbitrarily, and the number of points calculated in this time range can also be set arbitrarily It is possible.

また、各分割動画DMnの表示時間の算出は、クライアント端末3Xにより行われてもよいし、配信サーバ2により行われてもよい。各分割動画DMnの表示時間の算出がクライアント端末3Xにより行われる場合、制御部21は、クライアント端末3Xにより算出された表示時間に応じたセグメント単位Txを、クライアント端末3Xから所定時間間隔で取得する。この場合、1つのクライアント端末3Xにおいて表示された分割動画DMnの上記表示時間に応じたセグメント単位Txが、その後に、そのクライアント端末3Xへ送信する動画ブロックBn-mを生成するために用いられる。分割動画DMnの表示時間がクライアント端末3X側で算出される構成によれば、配信サーバ2の負荷を低減することができる。別の例として、制御部21は、複数のクライアント端末3Xにおいて表示された同一内容の分割動画DMnの表示時間(セグメント単位でもよい)を、上記複数のクライアント端末3Xからそれぞれ取得し、取得した表示時間(セグメント単位でもよい)を集計してセグメント単位Txを取得するとよい。これにより、複数のクライアント端末3X間で共通するセグメント単位Txが、その後に、各クライアント端末3Xへ送信する動画ブロックBn-mを生成するために用いられるので、例えば同一の全体動画Mの視聴者数が多い場合であっても、配信サーバ2及びエンコードサーバ1の負荷を低減することができる。なお、上記集計では、例えば、取得された表示時間の統計処理が行われる。統計処理において、制御部21は、複数の表示時間の平均値または中央値をセグメント単位Txとして算出する。或いは、統計処理において、制御部21は、複数の表示時間をクラスタリングにより複数のクラスタ(例えば、差が近い表示時間をまとめたグループ)に分類し、最も多くの表示時間を含むクラスタにおける表示時間の平均値または中央値をセグメント単位Txを算出する。   The calculation of the display time of each divided moving image DMn may be performed by the client terminal 3X or may be performed by the distribution server 2. When the display time of each divided moving image DMn is calculated by the client terminal 3X, the control unit 21 acquires segment units Tx corresponding to the display time calculated by the client terminal 3X from the client terminal 3X at predetermined time intervals. . In this case, a segment unit Tx corresponding to the display time of the divided moving image DMn displayed on one client terminal 3X is used to generate a moving image block Bn-m to be transmitted to the client terminal 3X. According to the configuration in which the display time of the divided moving image DMn is calculated on the client terminal 3X side, the load on the distribution server 2 can be reduced. As another example, the control unit 21 acquires the display time (may be in segment units) of the divided moving image DMn of the same content displayed in the plurality of client terminals 3X from the plurality of client terminals 3X, and acquires the display The segment unit Tx may be acquired by totaling time (may be segment unit). As a result, the segment unit Tx that is common among the plurality of client terminals 3X is used to generate the moving image block Bn-m to be transmitted to each client terminal 3X thereafter. Even when the number is large, the load on the distribution server 2 and the encoding server 1 can be reduced. Note that, in the above aggregation, for example, statistical processing of the acquired display time is performed. In the statistical processing, the control unit 21 calculates an average value or median value of a plurality of display times as the segment unit Tx. Alternatively, in the statistical processing, the control unit 21 classifies the plurality of display times into a plurality of clusters (for example, groups in which the display times close to each other are grouped) by clustering, and displays the display time in the cluster including the most display time. A segment unit Tx is calculated as an average value or a median value.

一方、各分割動画DMnの表示時間の算出が配信サーバ2により行われる場合、制御部21は、クライアント端末3Xにおいて分割動画DMnの少なくとも一部の表示領域が同時に表示された複数の分割動画DMnのそれぞれの表示範囲を特定の時間毎に示すカメラワークデータ(表示範囲データの一例)をクライアント端末3Xから受信する。そして、制御部21は、受信されたカメラワークデータを解析することで、上記と同様の方法で、それぞれの分割動画DMnの表示時間を算出し、複数の分割動画DMnのうち、表示割合が相対的に大きい表示領域を含む分割動画DMnの表示時間に比例した時間をセグメント単位Txとして所定時間間隔で取得する。分割動画DMnの表示時間が配信サーバ2側で算出される構成によれば、クライアント端末3Xの負荷を低減することができる。この場合も、制御部21は、複数の表示時間を集計してセグメント単位Txを取得するとよい。すなわち、制御部21は、上記カメラワークデータを、上記複数のクライアント端末3Xからそれぞれ受信し、受信したカメラワークデータに基づいて、上記と同様の方法で、複数のクライアント端末3Xにおいて表示された同一内容の分割動画DMnの表示時間をそれぞれ取得し、取得した複数の表示時間を集計してセグメント単位Txを取得する。   On the other hand, when calculation of the display time of each divided video DMn is performed by the distribution server 2, the control unit 21 includes a plurality of divided videos DMn in which at least some display areas of the divided video DMn are simultaneously displayed on the client terminal 3X. Camerawork data (an example of display range data) indicating each display range for each specific time is received from the client terminal 3X. And the control part 21 calculates the display time of each division | segmentation video DMn by the method similar to the above by analyzing the received camera work data, and display ratio is relative among several division | segmentation video DMn. The time proportional to the display time of the divided moving image DMn including the extremely large display area is acquired as the segment unit Tx at predetermined time intervals. According to the configuration in which the display time of the divided moving image DMn is calculated on the distribution server 2 side, the load on the client terminal 3X can be reduced. Also in this case, the control unit 21 may acquire the segment unit Tx by aggregating a plurality of display times. That is, the control unit 21 receives the camera work data from each of the plurality of client terminals 3X, and based on the received camera work data, displays the same data displayed on the plurality of client terminals 3X in the same manner as described above. The display time of the divided moving image DMn of the content is acquired, and the plurality of acquired display times are totaled to acquire the segment unit Tx.

なお、表示割合が相対的に大きい表示領域を含む分割動画DMnの表示時間に比例した時間をセグメント単位Txとして取得する構成に代えて、分割動画DMnの少なくとも一部の表示領域が同時に表示された複数の分割動画DMnそれぞれの表示時間のうち、相対的に長い(例えば、最も長い)表示時間に比例した時間をセグメント単位Txとして取得するように構成してもよい。   It should be noted that instead of the configuration in which the time proportional to the display time of the divided moving image DMn including the display area having a relatively large display ratio is acquired as the segment unit Tx, at least a partial display area of the divided moving image DMn is simultaneously displayed Of the display times of each of the plurality of divided moving images DMn, a time proportional to a relatively long (for example, the longest) display time may be acquired as a segment unit Tx.

次に、分割動画DMnのリクエスト数に応じたセグメント単位Txの取得方法例について詳しく説明する。この場合、単位時間あたりのリクエスト数とセグメント単位Txとを対応付けた対応付けテーブルが予め記憶部22に記憶される。この対応付けテーブルには、例えば、リクエスト数“0〜5”に対してセグメント単位Tx“20秒”が対応付けられており、リクエスト数“6〜10”に対してセグメント単位Tx“10秒”が対応付けられており、リクエスト数“11〜15”に対してセグメント単位Tx“5秒”が対応付けられており、リクエスト数“16〜20”に対してセグメント単位Tx“3秒”が対応付けられている。つまり、単位時間あたりのリクエスト数が多いほど、セグメント単位Txが短くなるように対応付けられる。これは、単位時間あたりのリクエスト数が多いほど、クライアント端末3Xにおいて表示画面に表示される分割動画DMnが切り替わる頻度が高いため、セグメント単位Txを短くすることで不要なデータの送信を低減する趣旨である。なお、対応付けテーブルに代えて、単位時間あたりのリクエスト数からセグメント単位Txを算出する計算式が予め記憶部22に記憶されてもよい。   Next, an example of a method for acquiring the segment unit Tx according to the number of requests for the divided video DMn will be described in detail. In this case, a correspondence table in which the number of requests per unit time is associated with the segment unit Tx is stored in advance in the storage unit 22. In this association table, for example, the segment unit Tx “20 seconds” is associated with the number of requests “0 to 5”, and the segment unit Tx “10 seconds” for the number of requests “6 to 10” Are associated with each other, and the segment unit Tx “5 seconds” is associated with the number of requests “11 to 15”, and the segment unit Tx “3 seconds” corresponds to the number of requests “16 to 20” It is attached. That is, the larger the number of requests per unit time, the shorter the segment unit Tx is associated with. This is because, as the number of requests per unit time increases, the frequency with which the divided moving image DMn displayed on the display screen in the client terminal 3X is switched is high, the purpose of reducing transmission of unnecessary data by shortening the segment unit Tx It is. Instead of the association table, a calculation formula for calculating the segment unit Tx from the number of requests per unit time may be stored in the storage unit 22 in advance.

制御部21は、クライアント端末3Xから分割動画DMnのリクエストを受信する度に、リクエストの受信時刻を時系列で記憶する。そして、制御部21は、記憶された受信時刻から、所定時間間隔で単位時間あたりのリクエスト数を算出し、算出したリクエスト数に対応付けられたセグメント単位Txを対応付けテーブルまたは計算式を用いて取得する。この場合、1つのクライアント端末3Xからの単位時間あたりのリクエスト数に応じたセグメント単位Txが、その後に、そのクライアント端末3Xへ送信する動画ブロックBn-mを生成するために用いられる。別の例として、制御部21は、複数のクライアント端末3Xそれぞれからの分割動画DMnのリクエスト数(単位時間あたりのリクエスト数)を上述したように取得し、取得したリクエスト数を集計してセグメント単位Txを取得するとよい。これにより、複数のクライアント端末3X間で共通するセグメント単位Txが、各クライアント端末3Xへ送信する動画ブロックBn-mを生成するために用いられるので、例えば同一の全体動画Mの視聴者数が多い場合であっても、配信サーバ2及びエンコードサーバ1の負荷を低減することができる。なお、上記集計では、例えば、取得されたリクエスト数の統計処理が行われる。統計処理において、制御部21は、複数のリクエスト数の平均値または中央値に対応付けられたセグメント単位Txを対応付けテーブルまたは計算式を用いて取得する。或いは、統計処理において、制御部21は、複数のリクエスト数をクラスタリングにより複数のクラスタ(例えば、差が近いリクエスト数をまとめたグループ)に分類し、最も多くのリクエスト数を含むクラスタにおけるリクエスト数の平均値または中央値に対応付けられたセグメント単位Txを対応付けテーブルまたは計算式を用いて取得する。   Each time the control unit 21 receives a request for a divided video DMn from the client terminal 3X, the control unit 21 stores the reception time of the request in time series. Then, the control unit 21 calculates the number of requests per unit time at predetermined time intervals from the stored reception time, and uses the segment unit Tx associated with the calculated number of requests using the association table or the formula. get. In this case, the segment unit Tx corresponding to the number of requests per unit time from one client terminal 3X is used to generate a moving image block Bn-m to be transmitted to the client terminal 3X. As another example, the control unit 21 obtains the number of requests (number of requests per unit time) of the divided video DMn from each of the plurality of client terminals 3X as described above, and totals the obtained number of requests for each segment. Get Tx. Thereby, since the segment unit Tx that is common among the plurality of client terminals 3X is used to generate the video block Bn-m to be transmitted to each client terminal 3X, for example, the number of viewers of the same entire video M is large. Even in this case, the load on the distribution server 2 and the encoding server 1 can be reduced. In the above aggregation, for example, statistical processing of the number of acquired requests is performed. In the statistical processing, the control unit 21 acquires the segment unit Tx associated with the average value or median value of the plurality of requests using the association table or the calculation formula. Alternatively, in the statistical processing, the control unit 21 classifies the number of requests into a plurality of clusters (for example, a group in which the number of requests having a close difference is collected) by clustering, and calculates the number of requests in the cluster including the largest number of requests. The segment unit Tx associated with the average value or the median value is acquired using a correspondence table or a calculation formula.

そして、制御部21は、上述したようにセグメント単位Txを取得すると、取得したセグメント単位Txを示す設定指令をネットワークNWを介してエンコードサーバ1に送信する。これにより、エンコードサーバ1の制御部11は、受信した設定指令が示すセグメント単位Txを設定する。或いは、制御部21は、上述したようにセグメント単位Txを取得すると、取得したセグメント単位Txを設定する。なお、既に異なるセグメント単位Txが設定されている場合、新たなセグメント単位Txに変更設定される。   Then, when acquiring the segment unit Tx as described above, the control unit 21 transmits a setting command indicating the acquired segment unit Tx to the encoding server 1 via the network NW. Thereby, the control unit 11 of the encoding server 1 sets the segment unit Tx indicated by the received setting command. Alternatively, when acquiring the segment unit Tx as described above, the control unit 21 sets the acquired segment unit Tx. When a different segment unit Tx is already set, it is changed and set to a new segment unit Tx.

次に、クライアント端末3Xは、図1に示すように、制御部31、記憶部32、ビデオRAM33、映像処理部34、音声処理部35、操作処理部36、及び通信部37等を備えて構成される。これらの構成要素は、バス38に接続されている。映像処理部34には、表示部34aが接続される。表示部34aには表示画面が表示される。音声処理部35には、スピーカ35aが接続される。操作処理部36には、ユーザ操作を受け付ける操作部36aが接続される。操作部36aには、例えば、マウス、キーボード、リモコン等がある。なお、表示部34aと操作部36aとを兼ねるタッチパネルが適用されてもよい。通信部37は、ネットワークNWに接続される。記憶部32は、例えばハードディスクドライブ等からなり、OS、及びコンテンツ再生処理プログラム等を記憶する。コンテンツ再生処理プログラムは、コンテンツ再生処理を制御部31に実行させるプログラムである。制御部31は、CPU、ROM、及びRAM等により構成される。制御部31は、コンテンツ再生処理プログラムにしたがって、本発明の算出手段、決定手段、通知手段、第1送信手段、受信手段(第2受信手段)、及び表示手段等として機能し、コンテンツ再生処理を実行する。   Next, as shown in FIG. 1, the client terminal 3X includes a control unit 31, a storage unit 32, a video RAM 33, a video processing unit 34, an audio processing unit 35, an operation processing unit 36, a communication unit 37, and the like. Be done. These components are connected to the bus 38. A display unit 34 a is connected to the video processing unit 34. A display screen is displayed on the display unit 34a. A speaker 35 a is connected to the sound processing unit 35. An operation unit 36 a that accepts user operations is connected to the operation processing unit 36. Examples of the operation unit 36a include a mouse, a keyboard, and a remote controller. In addition, the touch panel which combines the display part 34a and the operation part 36a may be applied. The communication unit 37 is connected to the network NW. The storage unit 32 includes, for example, a hard disk drive and stores an OS, a content reproduction processing program, and the like. The content reproduction processing program is a program that causes the control unit 31 to execute content reproduction processing. The control unit 31 includes a CPU, a ROM, a RAM, and the like. The control unit 31 functions as a calculation unit, a determination unit, a notification unit, a first transmission unit, a reception unit (second reception unit), a display unit, and the like according to the present invention in accordance with the content reproduction processing program. Run.

このコンテンツ再生処理において、制御部31は、ユーザ操作に応じて全体動画M内で表示される表示範囲を特定し、特定した表示範囲に少なくとも一部の表示領域が含まれる分割動画DMnのリクエストをネットワークNWを介して配信サーバ2へ送信する。これにより、配信サーバ2から送信された動画ブロックBn-mを含むコンテンツが受信され、受信されたコンテンツは、例えばRAMに設けられたバッファメモリに一時的に保持される。そして、制御部31は、バッファメモリに保持されている動画ブロックBn-mをデコードして分割動画DMnを再生し、ビデオRAM33へ出力する。映像処理部34は、制御部31からの制御信号に従って、ビデオRAM33に書き込まれた分割動画DMnのうち表示画面における表示範囲に収まる動画を表示させる。なお、バッファメモリに保持されているコンテンツに音声のデータが含まれる場合、音声処理部35は、制御部31からの制御信号に従って、音声のデータからアナログ音声信号を生成し、生成したアナログ音声信号をスピーカ35aへ出力する。   In this content reproduction process, the control unit 31 specifies a display range to be displayed in the entire moving image M in response to a user operation, and requests a divided moving image DMn that includes at least a part of the display area in the specified display range. It transmits to the distribution server 2 via the network NW. Thereby, the content including the moving image block Bn-m transmitted from the distribution server 2 is received, and the received content is temporarily held, for example, in a buffer memory provided in the RAM. Then, the control unit 31 decodes the moving image block Bn-m held in the buffer memory, reproduces the divided moving image DMn, and outputs it to the video RAM 33. The video processing unit 34 displays a moving image that fits within the display range on the display screen among the divided moving images DMn written to the video RAM 33 according to the control signal from the control unit 31. When audio data is included in the content held in the buffer memory, the audio processing unit 35 generates an analog audio signal from the audio data according to the control signal from the control unit 31, and generates the generated analog audio signal. Is output to the speaker 35a.

全体動画M内で表示される表示範囲は、疑似的なカメラワークの操作(ユーザ操作の一例)により動作する仮想カメラの撮影範囲として特定される。疑似的なカメラワークの操作により、特定される表示範囲が変化し、この変化に追従して動画ブロックBn-mが配信サーバ2へリクエストされることになる。疑似的なカメラワークの操作には、例えば、仮想カメラを左右振りさせるパン操作、仮想カメラを上下振りさせるチルト操作、及び仮想カメラの画角を変化させるズーム操作がある。ここで、仮想カメラとは、二次元平面または三次元仮想空間における仮想スクリーンに投影される動画に対して仮想的に設定された視点をいう。パン及びチルト操作は、例えば、ユーザによるマウスのドラッグ操作や、ユーザによる指やペン等によるフリック操作により実現される。ズーム操作は、例えば、ユーザがマウス等の操作部に設けられたボタン、或いはユーザの指2本で表示画面をピンチするピンチ操作により実現される。   The display range displayed in the entire moving image M is specified as a shooting range of a virtual camera that operates by a pseudo camera work operation (an example of a user operation). By the operation of the pseudo camera work, the specified display range changes, and the moving image block Bn-m is requested to the distribution server 2 following this change. The operation of the pseudo camera work includes, for example, a pan operation to swing the virtual camera left and right, a tilt operation to swing the virtual camera up and down, and a zoom operation to change the angle of view of the virtual camera. Here, the virtual camera refers to a viewpoint virtually set for a moving image projected on a virtual screen in a two-dimensional plane or a three-dimensional virtual space. The pan and tilt operations are realized, for example, by a drag operation of the mouse by the user or a flick operation by a finger or a pen by the user. The zoom operation is realized by, for example, a pinch operation in which the user pinches the display screen with a button provided on an operation unit such as a mouse or with two user fingers.

また、上述したように、各分割動画DMnの表示時間の算出がクライアント端末3Xにより行われる場合、制御部31は、表示画面に表示された分割動画DMnの表示時間を算出し、算出された表示時間に応じたセグメント単位Txを、所定時間間隔で決定する。例えば、制御部31は、クライアント端末3Xにおいて分割動画DMnの少なくとも一部の表示領域が同時に表示された複数の分割動画DMnのそれぞれの表示時間を算出する。そして、制御部31は、少なくとも一部の表示領域が同時に表示された複数の分割動画DMnのうち、図4を用いて説明したように算出した表示割合が相対的に大きい表示領域を含む分割動画DMnを特定し、特定した分割動画DMnの表示時間に比例した時間をセグメント単位Txとして決定する。なお、分割動画DMnの少なくとも一部の表示領域が同時に表示された複数の分割動画DMnそれぞれの表示時間のうち、相対的に長い(例えば、最も長い)表示時間に比例した時間をセグメント単位Txとして決定するように構成してもよい。そして、制御部31は、決定されたセグメント単位Txを配信サーバ2へ所定時間間隔で通知する。つまり、制御部31は、決定されたセグメント単位Txを示す情報をネットワークNWを介して配信サーバ2へ送信する。制御部31は、通知したセグメント単位Txに従って生成された動画ブロックBn-mを配信サーバ2から受信し、受信された動画ブロックBn-mを用いて分割動画DMnを表示画面に表示させる。   Further, as described above, when the display time of each divided moving image DMn is calculated by the client terminal 3X, the control unit 31 calculates the display time of the divided moving image DMn displayed on the display screen, and the calculated display A segment unit Tx corresponding to time is determined at predetermined time intervals. For example, the control unit 31 calculates the display time of each of a plurality of divided moving images DMn in which at least a partial display area of the divided moving image DMn is simultaneously displayed in the client terminal 3X. Then, the control unit 31 is a divided moving image including a display region having a relatively large display ratio calculated as described with reference to FIG. 4 among the plurality of divided moving images DMn in which at least a part of the display region is simultaneously displayed. The DMn is identified, and a time proportional to the display time of the identified divided moving image DMn is determined as the segment unit Tx. Note that a time proportional to a relatively long (for example, the longest) display time among display times of each of the plurality of divided moving pictures DMn in which at least a part of the display area of the divided moving picture DMn is simultaneously displayed is a segment unit Tx You may comprise so that it may determine. Then, the control unit 31 notifies the distribution server 2 of the determined segment unit Tx at predetermined time intervals. That is, the control unit 31 transmits information indicating the determined segment unit Tx to the distribution server 2 via the network NW. The control unit 31 receives the moving image block Bn-m generated according to the notified segment unit Tx from the distribution server 2, and displays the divided moving image DMn on the display screen using the received moving image block Bn-m.

一方、上述したように、各分割動画DMnの表示時間の算出が配信サーバ2により行われる場合、制御部31は、分割動画DMnの再生中に、全体動画M内で表示される表示範囲を特定の時間毎に示すカメラワークデータを記録し、配信サーバ2へ所定時間間隔で送信する。ここで、カメラワークデータは、上記表示範囲を特定の時間毎に示すデータとして、例えば、全体動画Mの画像フレームにおける表示範囲の中心座標(x,y)(例えば画像フレームの上部左端を原点としたときの座標(x,y))、ズーム倍率、及び再生位置(動画の先頭からの再生時間)を含む。図5は、カメラワークデータの内容の一例を示す図である。このようなカメラワークデータによれば、疑似的なカメラワークの操作による中心点の移動や、ズーム倍率の変化が時系列で(つまり、特定の時間毎に)記憶されているので、配信サーバ2は、カメラワークデータを解析することによって、ある時点での中心座標、ズーム倍率が求められるため、クライアント端末3Xにおける表示範囲を特定の時間毎に特定することができる。なお、カメラワークデータは、上記表示範囲を特定の時間毎に示すデータとして、例えば、仮想カメラの左右振りの角度を示すパン(pan)、仮想カメラの上下振りの角度を示すチルト(tilt)、ズーム倍率(表示倍率)を示すズーム(zoom)、及び再生位置を含むように構成してもよい。   On the other hand, as described above, when the distribution server 2 calculates the display time of each divided moving image DMn, the control unit 31 specifies the display range to be displayed in the entire moving image M during reproduction of the divided moving image DMn. The camera work data shown at each time is recorded and transmitted to the distribution server 2 at predetermined time intervals. Here, the camerawork data is data indicating the display range for each specific time, for example, center coordinates (x, y) of the display range in the image frame of the entire moving image M (for example, the upper left end of the image frame is an origin Coordinates (x, y)), zoom magnification, and playback position (playback time from the beginning of the movie). FIG. 5 is a diagram illustrating an example of the contents of camera work data. According to such camera work data, the movement of the center point by the pseudo camera work operation and the change of the zoom magnification are stored in time series (that is, every specific time), so the distribution server 2 Since the central coordinates at a certain point in time and the zoom magnification can be obtained by analyzing the camerawork data, the display range on the client terminal 3X can be specified for each specific time. The camera work data includes, as data indicating the display range at specific time intervals, for example, a pan indicating the angle of the horizontal swing of the virtual camera, a tilt indicating the angle of the vertical swing of the virtual camera, You may comprise so that the zoom (zoom) which shows zoom magnification (display magnification) and the reproduction | regeneration position may be included.

[2.配信システムSの動作]
次に、配信システムSの動作の詳細について、実施例1と実施例2に分けて説明する。なお、以下の説明では、クライアント端末3X(X=a,b,c・・・)のうち、クライアント端末3aを例にとって説明する。
[2. Operation of distribution system S]
Next, the details of the operation of the distribution system S will be described separately for the first and second embodiments. In the following description, among the client terminals 3X (X = a, b, c,...), The client terminal 3a will be described as an example.

(実施例1)
実施例1は、クライアント端末3aからの分割動画DMnのリクエストに応じて、リアルタイムに動画ブロックBn-mが生成されてクライアント端末3aへ配信される例である。
Example 1
The first embodiment is an example in which a moving image block Bn-m is generated and distributed to the client terminal 3a in real time in response to a request for the divided moving image DMn from the client terminal 3a.

(実施例1におけるクライアント端末3aの動作)
先ず、図6を参照して、実施例1におけるクライアント端末3aの動作について説明する。図6(A)は、クライアント端末3aの制御部31により実行されるコンテンツ再生処理の一例を示すフローチャートである。図6(B)は、クライアント端末3aの制御部31により実行されるセグメント単位通知処理の一例を示すフローチャートである。図6(C)は、クライアント端末3aの制御部31により実行されるカメラワークデータ送信処理の一例を示すフローチャートである。なお、コンテンツ再生処理と、セグメント単位通知処理(またはカメラワークデータ送信処理)とは、それぞれ非同期で実行される。また、セグメント単位通知処理は、各分割動画DMnの表示時間の算出がクライアント端末3aにより行われる場合に実行される。一方、カメラワークデータ送信処理は、各分割動画DMnの表示時間の算出が配信サーバ2により行われる場合に実行される。
(Operation of Client Terminal 3a in Embodiment 1)
First, the operation of the client terminal 3a in the first embodiment will be described with reference to FIG. FIG. 6A is a flowchart illustrating an example of content reproduction processing executed by the control unit 31 of the client terminal 3a. FIG. 6B is a flowchart illustrating an example of the segment unit notification process executed by the control unit 31 of the client terminal 3a. FIG. 6C is a flowchart showing an example of the camera work data transmission process performed by the control unit 31 of the client terminal 3a. Note that the content reproduction process and the segment unit notification process (or camera work data transmission process) are executed asynchronously. The segment unit notification process is executed when the display time of each divided video DMn is calculated by the client terminal 3a. On the other hand, the camera work data transmission process is executed when the distribution server 2 calculates the display time of each divided moving image DMn.

図6(A)に示すコンテンツ再生処理の前提として、クライアント端末3aは、配信サーバ2から取得したコンテンツリストを表示しているものとする。コンテンツリストには、配信サーバ2から配信可能なコンテンツのタイトル、代表画像、分割動画ID、及び全体動画ID等が含まれる。そして、ユーザ操作によりコンテンツリストから再生対象となるコンテンツが選択された場合に、図6(A)に示すコンテンツ再生処理が開始される。コンテンツ再生処理が開始されると、制御部31は、選択されたコンテンツに対応する全体動画M内で表示される表示範囲を特定する(ステップS1)。なお、コンテンツ再生処理の開始直後のステップS1は、例えばデフォルト設定された表示範囲が特定される。次いで、制御部31は、ステップS1で特定された表示範囲に少なくとも一部の表示領域が含まれる分割動画DMnを特定する(ステップS2)。例えば、ステップS1において図4(B)に示す表示範囲Rnが特定された場合、分割動画DM6,DM7,DM10,DM11がステップS2で特定される。   As a premise of the content reproduction processing shown in FIG. 6A, the client terminal 3a is assumed to display the content list acquired from the distribution server 2. The content list includes the title of the content that can be distributed from the distribution server 2, the representative image, the divided moving image ID, the entire moving image ID, and the like. Then, when the content to be reproduced is selected from the content list by the user operation, the content reproduction process shown in FIG. 6A is started. When the content reproduction process is started, the control unit 31 specifies a display range to be displayed in the entire moving image M corresponding to the selected content (step S1). In step S1 immediately after the start of the content reproduction process, for example, a default display range is specified. Next, the control unit 31 specifies the divided moving image DMn in which at least a part of the display area is included in the display range specified in Step S1 (Step S2). For example, when the display range Rn shown in FIG. 4B is specified in step S1, the divided moving images DM6, DM7, DM10, and DM11 are specified in step S2.

次いで、制御部31は、ステップS2で特定された分割動画DMnのリクエストを、ネットワークNWを介して配信サーバ2へ送信する(ステップS3)。なお、分割動画DMnのリクエストには、リクエスト対象となる分割動画DMnの分割動画IDが含まれる。次いで、制御部31は、上記リクエストに応じて、配信サーバ2から配信された動画ブロックBn-mを含むコンテンツを受信し(ステップS4)、受信されたコンテンツを例えばRAMに設けられたバッファメモリに保持する。なお、受信されたコンテンツには、例えば、受信された動画ブロックBn-mのブロックIDを示すプレイリストファイルが含まれる。   Next, the control unit 31 transmits the request for the divided moving image DMn identified in step S2 to the distribution server 2 via the network NW (step S3). Note that the request for the divided moving image DMn includes the divided moving image ID of the divided moving image DMn to be a request target. Next, in response to the request, the control unit 31 receives the content including the moving image block Bn-m distributed from the distribution server 2 (step S4), and the received content is stored in, for example, a buffer memory provided in the RAM. Hold. The received content includes, for example, a playlist file indicating the block ID of the received moving image block Bn-m.

次いで、制御部31は、ステップS4で受信されたプレイリストファイルにしたがって分割動画DMnの表示処理を実行する(ステップS5)。分割動画DMnの表示処理では、制御部31は、プレイリストファイルに示され、且つバッファメモリに保持されている動画ブロックBn-mをデコードして分割動画DMnを再生し、ビデオRAM33へ出力する。そして、制御部31は、映像処理部34へ制御信号を出力することで、ビデオRAM33に書き込まれた分割動画DMnのうち表示画面における表示範囲に収まる動画を表示させる。なお、バッファメモリに保持されているコンテンツに音声のデータが含まれる場合、制御部31は、音声処理部35へ制御信号を出力することで、音声のデータからアナログ音声信号を生成し、生成したアナログ音声信号をスピーカ35aへ出力させる。   Next, the control unit 31 executes display processing of the divided moving image DMn according to the playlist file received in step S4 (step S5). In the display process of the divided moving image DMn, the control unit 31 decodes the moving image block Bn-m indicated in the playlist file and held in the buffer memory to reproduce the divided moving image DMn, and outputs the divided moving image DMn to the video RAM 33. Then, the control unit 31 outputs a control signal to the video processing unit 34 to display a moving image that fits within the display range on the display screen among the divided moving images DMn written to the video RAM 33. When audio data is included in the content held in the buffer memory, the control unit 31 generates an analog audio signal from audio data by outputting a control signal to the audio processing unit 35. An analog audio signal is output to the speaker 35a.

次いで、制御部31は、全体動画M内で表示される表示範囲が変位したか否かを判定する(ステップS6)。例えば、上記表示範囲の中心点が、所定距離以上変位した場合、上記表示範囲が変位したと判定され(ステップS6:YES)、ステップS1に戻る。ステップS1に戻ると、制御部31は、再生中のコンテンツに対応する全体動画M内で表示される表示範囲を特定し、上記と同様、ステップS2以降の処理を実行する。一方、制御部31は、全体動画M内で表示される表示範囲が変位していないと判定した場合(ステップS6:NO)、ステップS7へ進む。   Next, the control unit 31 determines whether the display range displayed in the entire moving image M is displaced (step S6). For example, when the center point of the display range is displaced by a predetermined distance or more, it is determined that the display range is displaced (step S6: YES), and the process returns to step S1. If it returns to step S1, the control part 31 will specify the display range displayed in the whole moving image M corresponding to the content in process of reproduction, and will perform the process after step S2 similarly to the above. On the other hand, when the control unit 31 determines that the display range displayed in the entire moving image M is not displaced (step S6: NO), the control unit 31 proceeds to step S7.

ステップS7では、制御部31は、コンテンツ再生処理を終了するか否かを判定する。例えば、コンテンツが最後まで再生された場合、コンテンツ再生処理を終了すると判定される。また、例えば、ユーザ操作により再生終了指示が行われた場合、コンテンツ再生処理を終了すると判定される。制御部31は、コンテンツ再生処理を終了しないと判定した場合(ステップS7:NO)、ステップS4に戻る。一方、制御部31は、コンテンツ再生処理を終了すると判定した場合(ステップS7:YES)、コンテンツ再生処理を終了する。なお、ユーザ操作により再生終了指示が行われた場合、再生終了指示を示す情報が配信サーバ2へ送信される。   In step S7, the control unit 31 determines whether or not to end the content reproduction process. For example, when the content has been reproduced to the end, it is determined that the content reproduction process is to be terminated. Further, for example, when a reproduction end instruction is given by a user operation, it is determined that the content reproduction process is to be ended. If the control unit 31 determines that the content reproduction process is not finished (step S7: NO), the process returns to step S4. On the other hand, when the control unit 31 determines that the content reproduction process is to be ended (step S7: YES), the content reproduction process is ended. In addition, when a reproduction end instruction is performed by a user operation, information indicating the reproduction end instruction is transmitted to the distribution server 2.

一方、図6(B)に示すセグメント単位通知処理は、例えば所定時間間隔で繰り返し実行される。セグメント単位通知処理が開始されると、制御部31は、少なくとも一部の表示領域が同時に表示(つまり、表示範囲内に表示)された複数の分割動画DMnのそれぞれの表示時間を算出する(ステップS11)。次いで、制御部31は、少なくとも一部の表示領域が同時に表示された複数の分割動画DMnのそれぞれの表示割合を算出する(ステップS12)。次いで、制御部31は、ステップS12で算出された表示割合が最も大きい表示領域を含む分割動画DMnを特定する(ステップS13)。次いで、制御部31は、ステップS13で特定された分割動画DMnの表示時間(ステップS11で算出された表示時間)に比例した時間をセグメント単位Txとして決定する(ステップS14)。なお、制御部31は、少なくとも一部の表示領域が同時に表示された複数の分割動画DMnそれぞれの表示時間のうち、相対的に長い表示時間に比例した時間をセグメント単位Txとして決定してもよい。次いで、制御部31は、ステップS14で決定されたセグメント単位Txを配信サーバ2へ通知し(ステップS15)、セグメント単位通知処理を終了する。なお、セグメント単位Txに代えて表示時間が配信サーバ2に通知されるように構成してもよい。   On the other hand, the segment unit notification process shown in FIG. 6B is repeatedly executed at predetermined time intervals, for example. When the segment unit notification process is started, the control unit 31 calculates the display time of each of the plurality of divided videos DMn in which at least a part of the display area is simultaneously displayed (that is, displayed within the display range) (Step S31). S11). Next, the control unit 31 calculates the display ratio of each of the plurality of divided moving images DMn in which at least a part of the display area is simultaneously displayed (step S12). Next, the control unit 31 specifies a divided moving image DMn that includes a display area with the largest display ratio calculated in step S12 (step S13). Next, the control unit 31 determines, as the segment unit Tx, a time proportional to the display time of the divided moving image DMn specified in step S13 (the display time calculated in step S11) (step S14). Note that the control unit 31 may determine, as the segment unit Tx, a time proportional to a relatively long display time among the display times of each of the plurality of divided videos DMn in which at least some of the display areas are simultaneously displayed. . Next, the control unit 31 notifies the distribution unit 2 of the segment unit Tx determined in step S14 (step S15), and ends the segment unit notification process. Note that the distribution server 2 may be notified of the display time instead of the segment unit Tx.

一方、図6(C)に示すカメラワークデータ送信処理は、図6(A)に示すコンテンツ再生処理が開始されたときに開始され、カメラワークデータ送信処理とコンテンツ再生処理はOSのマルチタスクにより並列的に実行される。カメラワークデータ送信処理が開始されると、ユーザ操作に応じて、表示範囲を示すデータと再生位置とを対応付けて記録する(ステップS21)。次いで、制御部31は、前回処理(つまり、前回のステップS22の処理)から所定時間が経過したか否かを判定する(ステップS22)。制御部31は、前回処理から所定時間が経過していないと判定した場合(ステップS22:NO)、ステップS21に戻る。一方、制御部31は、前回処理から所定時間が経過したと判定した場合(ステップS22:YES)、ステップS23へ進む。ステップS23では、制御部31は、ステップS21で記録された表示範囲を示すデータを上記記録された再生位置毎に示すカメラワークデータを生成する。次いで、制御部31は、ステップS23で生成されたカメラワークデータをネットワークを介して配信サーバ2へ送信する(ステップS24)。このとき、ステップS21で記録された表示範囲を示すデータと再生位置とは消去される。次いで、制御部31は、上記ステップS6と同様に、コンテンツの再生を終了するか否かを判定する(ステップS25)。制御部31は、コンテンツの再生を終了しないと判定した場合(ステップS25:NO)、ステップS21に戻る。一方、制御部31は、コンテンツの再生を終了すると判定した場合(ステップS25:YES)、カメラワークデータ送信処理を終了する。   On the other hand, the camera work data transmission process shown in FIG. 6C is started when the content reproduction process shown in FIG. 6A is started. The camera work data transmission process and the content reproduction process are performed by multitasking of the OS. Executed in parallel. When the camera work data transmission process is started, data indicating the display range and the reproduction position are associated and recorded according to the user operation (step S21). Next, the control unit 31 determines whether or not a predetermined time has elapsed since the previous process (that is, the process of the previous step S22) (step S22). When it is determined that the predetermined time has not elapsed since the previous process (step S22: NO), the control unit 31 returns to step S21. On the other hand, when the control unit 31 determines that the predetermined time has elapsed from the previous process (YES in step S22), the process proceeds to step S23. In step S23, the control unit 31 generates camera work data indicating the data indicating the display range recorded in step S21 for each of the recorded reproduction positions. Next, the control unit 31 transmits the camera work data generated in step S23 to the distribution server 2 via the network (step S24). At this time, the data indicating the display range recorded in step S21 and the reproduction position are deleted. Next, as in step S6, the control unit 31 determines whether to end the reproduction of the content (step S25). When the control unit 31 determines that the reproduction of the content is not finished (step S25: NO), the process returns to step S21. On the other hand, when the control unit 31 determines that the reproduction of the content ends (step S25: YES), the control unit 31 ends the camera work data transmission process.

(実施例1におけるエンコードサーバ1及び配信サーバ2の動作)
次に、図7及び図8を参照して、実施例1におけるエンコードサーバ1及び配信サーバ2の動作について説明する。図7(A)は、配信サーバ2の制御部21により実行されるセグメント単位取得処理の一例を示すフローチャートである。図7(B)は、配信サーバ2の制御部21により実行されるカメラワークデータ解析処理の一例を示すフローチャートである。図7(C)は、エンコードサーバ1の制御部11により実行されるセグメント単位設定処理の一例を示すフローチャートである。図8(A)は、配信サーバ2の制御部21により実行されるコンテンツ配信処理の一例を示すフローチャートである。図8(B)は、エンコードサーバ1の制御部11により実行されるエンコード処理の一例を示すフローチャートである。なお、配信サーバ2において、コンテンツ配信処理と、セグメント単位取得処理(またはカメラワークデータ解析処理)とは、それぞれ非同期で実行される。セグメント単位取得処理は、各分割動画DMnの表示時間の算出がクライアント端末3aにより行われる場合に実行される。一方、カメラワークデータ解析処理は、各分割動画DMnの表示時間の算出が配信サーバ2により行われる場合に実行される。また、エンコードサーバ1において、セグメント単位設定処理とエンコード処理とは、それぞれ非同期で実行される。
(Operations of the encoding server 1 and the distribution server 2 in the first embodiment)
Next, operations of the encoding server 1 and the distribution server 2 in the first embodiment will be described with reference to FIGS. FIG. 7A is a flowchart illustrating an example of the segment unit acquisition process executed by the control unit 21 of the distribution server 2. FIG. 7B is a flowchart showing an example of the camera work data analysis process executed by the control unit 21 of the distribution server 2. FIG. 7C is a flowchart showing an example of the segment unit setting process executed by the control unit 11 of the encoding server 1. FIG. 8A is a flowchart illustrating an example of content distribution processing executed by the control unit 21 of the distribution server 2. FIG. 8B is a flowchart showing an example of the encoding process performed by the control unit 11 of the encoding server 1. In the distribution server 2, the content distribution process and the segment unit acquisition process (or camera work data analysis process) are executed asynchronously. The segment unit acquisition process is executed when the display time of each divided video DMn is calculated by the client terminal 3a. On the other hand, the camera work data analysis process is executed when the distribution server 2 calculates the display time of each divided moving image DMn. In the encoding server 1, the segment unit setting process and the encoding process are executed asynchronously.

図7(A)に示すセグメント単位取得処理は、クライアント端末3aからのセグメント単位Txが受信された場合に開始される。セグメント単位取得処理が開始されると、制御部21は、受信されたセグメント単位Txを記録する(ステップS31)。制御部21は、前回処理(つまり、前回のステップS31の処理)から所定時間が経過したか否かを判定する(ステップS32)。制御部31は、前回処理から所定時間が経過していないと判定した場合(ステップS32:NO)、セグメント単位取得処理を終了する。一方、制御部31は、前回処理から所定時間が経過したと判定した場合(ステップS32:YES)、ステップS33へ進む。ステップS33では、制御部21は、記録されている全てのセグメント単位Tx(つまり、複数のクライアント端末3Xから送信され、記録されたセグメント単位Tx)を、上述したように集計して新たなセグメント単位Txを取得する。次いで、制御部21は、ステップS33で取得した新たなセグメント単位Txを示す設定指令をネットワークNWを介してエンコードサーバ1に送信し(ステップS34)、セグメント単位取得処理を終了する。なお、ステップS31の処理後、ステップS32及びS33が行われずに、ステップS34へ移行してセグメント単位Txがエンコードサーバ1へ送信されるように構成してもよい。この場合、セグメント単位Txは、これを送信したクライアント端末3aに限り、分割動画DMnのエンコードに用いられる。   The segment unit acquisition process shown in FIG. 7A is started when the segment unit Tx from the client terminal 3a is received. When the segment unit acquisition process is started, the control unit 21 records the received segment unit Tx (step S31). The control unit 21 determines whether a predetermined time has elapsed from the previous process (that is, the process of step S31 of the previous time) (step S32). When it is determined that the predetermined time has not elapsed from the previous process (step S32: NO), the control unit 31 ends the segment unit acquisition process. On the other hand, when it is determined that the predetermined time has elapsed since the previous process (step S32: YES), the control unit 31 proceeds to step S33. In step S33, the control unit 21 adds up all the recorded segment units Tx (that is, segment units Tx transmitted from the plurality of client terminals 3X and recorded) as described above, and adds a new segment unit. Get Tx. Next, the control unit 21 transmits a setting command indicating the new segment unit Tx acquired in step S33 to the encoding server 1 via the network NW (step S34), and ends the segment unit acquisition process. In addition, after the process of step S31, step S32 and S33 may not be performed but it may transfer to step S34 and you may comprise so that the segment unit Tx may be transmitted to the encoding server 1. In this case, the segment unit Tx is used only for encoding the divided moving image DMn only at the client terminal 3a that has transmitted it.

一方、図7(B)に示すカメラワークデータ解析処理は、クライアント端末3aからのカメラワークデータが受信された場合に開始される。カメラワークデータ解析処理が開始されると、制御部21は、受信されたカメラワークデータを解析することで、少なくとも一部の表示領域が同時に表示された複数の分割動画DMnのそれぞれの表示時間を算出する(ステップS41)。次いで、制御部21は、少なくとも一部の表示領域が同時に表示された複数の分割動画DMnのそれぞれの表示割合を算出する(ステップS42)。次いで、制御部21は、ステップS42で算出された表示割合が最も大きい表示領域を含む分割動画DMnを特定する(ステップS43)。次いで、制御部21は、ステップS43で特定された分割動画DMnの表示時間(ステップS41で算出された表示時間)に比例した時間をセグメント単位Txとして決定する(ステップS44)。なお、制御部21は、少なくとも一部の表示領域が同時に表示された複数の分割動画DMnそれぞれの表示時間のうち、相対的に長い表示時間に比例した時間をセグメント単位Txとして決定してもよい。次いで、制御部21は、ステップS44で決定されたセグメント単位Txを記録する(ステップS45)。   On the other hand, the camerawork data analysis process shown in FIG. 7B is started when the camerawork data from the client terminal 3a is received. When the camerawork data analysis process is started, the control unit 21 analyzes the received camerawork data to display the display time of each of the plurality of divided moving images DMn in which at least a part of the display area is simultaneously displayed. It calculates (step S41). Next, the control unit 21 calculates the display ratio of each of the plurality of divided moving images DMn in which at least a part of the display area is simultaneously displayed (step S42). Next, the control unit 21 specifies the divided moving image DMn that includes the display area with the largest display ratio calculated in step S42 (step S43). Next, the control unit 21 determines, as a segment unit Tx, a time proportional to the display time of the divided video DMn specified in Step S43 (the display time calculated in Step S41) (Step S44). The control unit 21 may determine, as the segment unit Tx, a time proportional to a relatively long display time among the display times of each of the plurality of divided videos DMn in which at least a part of the display area is simultaneously displayed. . Next, the control unit 21 records the segment unit Tx determined in step S44 (step S45).

次いで、制御部21は、前回処理(つまり、前回のステップS45の処理)から所定時間が経過したか否かを判定する(ステップS46)。制御部31は、前回処理から所定時間が経過していないと判定した場合(ステップS46:NO)、カメラワークデータ解析処理を終了する。一方、制御部31は、前回処理から所定時間が経過したと判定した場合(ステップS46:YES)、ステップS47へ進む。ステップS47では、制御部21は、記録されている全てのセグメント単位Txを、上述したように集計して新たなセグメント単位Txを取得する。次いで、制御部21は、ステップS47で取得した新たなセグメント単位Txを示す設定指令をネットワークNWを介してエンコードサーバ1に送信し(ステップS48)、カメラワークデータ解析処理を終了する。なお、ステップS45の処理後、ステップS46及びS47が行われずに、ステップS48へ移行してセグメント単位Txがエンコードサーバ1へ送信されるように構成してもよい。この場合、セグメント単位Txは、これを送信したクライアント端末3aに限り、分割動画DMnのエンコードに用いられる。   Next, the control unit 21 determines whether or not a predetermined time has elapsed since the previous process (that is, the process of the previous step S45) (step S46). When it is determined that the predetermined time has not elapsed since the previous process (step S46: NO), the control unit 31 ends the camera work data analysis process. On the other hand, when it is determined that the predetermined time has elapsed from the previous process (step S46: YES), the control unit 31 proceeds to step S47. In step S47, the control unit 21 totals all the recorded segment units Tx as described above to obtain a new segment unit Tx. Next, the control unit 21 transmits a setting command indicating the new segment unit Tx acquired in step S47 to the encode server 1 via the network NW (step S48), and ends the camera work data analysis process. After the process of step S45, the process may proceed to step S48 so that the segment unit Tx is transmitted to the encoding server 1 without performing steps S46 and S47. In this case, the segment unit Tx is used only for encoding the divided moving image DMn only at the client terminal 3a that has transmitted it.

なお、図7(A)に示すセグメント単位取得処理及び図7(B)に示すカメラワークデータ解析処理に代えて、リクエスト数解析処理が行われてもよい。このリクエスト数解析処理は、クライアント端末3aからの分割動画DMnのリクエストが受信された場合に開始される。リクエスト数解析処理が開始されると、制御部21は、受信されたリクエストの受信時刻を記録する。次いで、制御部21は、前回処理から所定時間が経過したか否かを判定する。そして、制御部21は、前回処理から所定時間が経過したと判定した場合、単位時間あたりのリクエスト数を算出し、算出したリクエスト数に対応付けられたセグメント単位Txを、上述したように、対応付けテーブルまたは計算式を用いて取得する。なお、リクエスト数は、クライアント端末3X毎に算出されてもよいし、複数のクライアント端末3Xに跨って算出されてもよい。そして、制御部21は、取得した新たなセグメント単位Txを示す設定指令をネットワークNWを介してエンコードサーバ1に送信する。   Instead of the segment unit acquisition process shown in FIG. 7A and the camera work data analysis process shown in FIG. 7B, a request number analysis process may be performed. This request number analysis process is started when a request for the divided video DMn is received from the client terminal 3a. When the request number analysis process is started, the control unit 21 records the reception time of the received request. Next, the control unit 21 determines whether or not a predetermined time has elapsed since the previous process. Then, when it is determined that the predetermined time has elapsed from the previous process, the control unit 21 calculates the number of requests per unit time, and copes with the segment unit Tx associated with the calculated number of requests as described above. Acquired using an attached table or calculation formula. The number of requests may be calculated for each client terminal 3X or may be calculated across a plurality of client terminals 3X. Then, the control unit 21 transmits a setting command indicating the acquired new segment unit Tx to the encoding server 1 via the network NW.

一方、図7(C)に示すセグメント単位設定処理は、配信サーバ2からの設定指令が受信された場合に開始される。セグメント単位設定処理が開始されると、制御部11は、受信された設定指令が示すセグメント単位Txと、設定中のセグメント単位Txとが一致するか否かを判定する(ステップS51)。制御部11は、双方のセグメント単位Txが一致すると判定した場合(ステップS51:YES)、セグメント単位設定処理を終了する。この場合、設定中のセグメント単位Txは変更されない。一方、制御部11は、双方のセグメント単位Txが一致しないと判定した場合(ステップS51:NO)、受信された設定指令が示すセグメント単位Txを、設定中のセグメント単位Txに代えて設定(つまり、更新)し(ステップS52)、セグメント単位設定処理を終了する。この場合、設定中のセグメント単位Txは変更される。なお、配信サーバ2からエンコードサーバ1に上記設定指令が送信される構成に代えて、エンコードサーバ1が配信サーバ2へセグメント単位Txを問い合わせるように構成してもよい。この構成は、例えば、エンコードサーバ1はLAN内に設置されていて、配信サーバ2から直接アクセスできない場合に有効である。   On the other hand, the segment unit setting process shown in FIG. 7C is started when the setting command from the distribution server 2 is received. When the segment unit setting process is started, the control unit 11 determines whether or not the segment unit Tx indicated by the received setting command matches the segment unit Tx being set (step S51). If the control unit 11 determines that both segment units Tx match (step S51: YES), the segment unit setting process ends. In this case, the segment unit Tx being set is not changed. On the other hand, when the control unit 11 determines that the two segment units Tx do not match (step S51: NO), the control unit 11 sets the segment unit Tx indicated by the received setting command instead of the segment unit Tx being set (that is, Update) (step S52), and the segment unit setting process is terminated. In this case, the segment unit Tx being set is changed. Note that, instead of the configuration in which the setting command is transmitted from the distribution server 2 to the encoding server 1, the encoding server 1 may be configured to inquire the distribution server 2 about the segment unit Tx. This configuration is effective, for example, when the encoding server 1 is installed in the LAN and cannot be directly accessed from the distribution server 2.

次に、図8(A)に示すコンテンツ配信処理は、クライアント端末3aからの分割動画DMnのリクエストが受信された場合に開始される。コンテンツ配信処理が開始されると、制御部21は、受信された、分割動画DMnのリクエストから分割動画IDを取得する(ステップS61)。次いで、制御部21は、ステップS61で取得した分割動画IDを示すエンコード指令(分割動画DMnのエンコード指令)をネットワークNWを介してエンコードサーバ1へ送信する(ステップS62)。   Next, the content distribution process shown in FIG. 8A is started when a request for a divided moving image DMn from the client terminal 3a is received. When the content distribution process is started, the control unit 21 acquires a divided moving image ID from the received request for the divided moving image DMn (step S61). Next, the control unit 21 transmits the encode command (the encode command of the divided moving image DMn) indicating the divided moving image ID acquired in step S61 to the encoding server 1 via the network NW (step S62).

一方、図8(B)に示すエンコード処理は、配信サーバ2からのエンコード指令が受信された場合に開始される。エンコード処理が開始されると、制御部11は、エンコード指令が示す分割動画IDが付与された分割動画DMnを記憶部12から1つ以上取得する(ステップS71)。次いで、制御部11は、上記ステップS52で設定された最新のセグメント単位Txを取得する(ステップS72)。次いで、制御部11は、ステップS71で取得された分割動画DMnを、前回処理における分割動画DMnの区切り終了位置からエンコードする(ステップS73)。   On the other hand, the encoding process shown in FIG. 8 (B) is started when the encoding command from the distribution server 2 is received. When the encoding process is started, the control unit 11 acquires, from the storage unit 12, one or more divided moving images DMn to which a divided moving image ID indicated by the encoding command is added (step S71). Next, the control unit 11 obtains the latest segment unit Tx set in step S52 (step S72). Next, the control unit 11 encodes the divided moving image DMn acquired in step S71 from the division end position of the divided moving image DMn in the previous process (step S73).

次いで、制御部11は、分割動画DMnを、ステップS72で取得されたセグメント単位Tx分エンコードしたか否かを判定する(ステップS74)。制御部11は、分割動画DMnを上記セグメント単位Tx分エンコードしていないと判定した場合(ステップS74:NO)、ステップS73に戻り、エンコードを継続する。一方、制御部11は、分割動画DMnをセグメント単位Tx分エンコードしていたと判定した場合(ステップS74:YES)、つまり、上記セグメント単位Txの動画ブロックBn-mが生成された場合、ステップS75へ進む。これにより、より柔軟に適切なセグメント単位Txの動画ブロックBn-mを生成することができる。なお、ステップS71で複数の分割動画DMnが取得された場合、それぞれの分割動画DMnについてステップS73〜S74の処理が行われる。   Next, the control unit 11 determines whether or not the divided video DMn has been encoded by the segment unit Tx acquired in step S72 (step S74). If the control unit 11 determines that the divided moving image DMn is not encoded by the segment unit Tx (step S74: NO), the control unit 11 returns to step S73 and continues encoding. On the other hand, when the control unit 11 determines that the divided moving image DMn is encoded by segment unit Tx (step S74: YES), that is, when the moving image block Bn-m of the segment unit Tx is generated, the process proceeds to step S75. move on. As a result, it is possible to more flexibly generate the moving image block Bn-m of the appropriate segment unit Tx. When a plurality of divided videos DMn are acquired in step S71, the processes of steps S73 to S74 are performed for each of the divided videos DMn.

ステップS75では、制御部11は、ステップS73〜S74の処理で生成された1つ以上の動画ブロックBn-mと、動画ブロックBn-mのブロックIDを示すプレイリストファイルとを含むコンテンツを生成する。なお、コンテンツには、動画ブロックBn-mと再生時間が同期した音声のデータファイルが含まれる場合もある。次いで、制御部11は、ステップS75で生成されたコンテンツを配信サーバ2へ送信し(ステップS76)、ステップS77へ進む。   In step S75, the control unit 11 generates content including one or more moving image blocks Bn-m generated in the process of steps S73 to S74 and a playlist file indicating block IDs of the moving image blocks Bn-m. . The content may include an audio data file whose reproduction time is synchronized with that of the moving image block Bn-m. Next, the control unit 11 transmits the content generated in step S75 to the distribution server 2 (step S76), and proceeds to step S77.

一方、図8(A)に示す処理において、制御部21は、ステップS76でエンコードサーバ1から送信されたコンテンツを受信する(ステップS63)。次いで、制御部21は、ステップS63で受信されたコンテンツを、ネットワークNWを介してクライアント端末3aへ配信する(ステップS64)。次いで、制御部21は、クライアント端末3aから、分割動画DMnのリクエストを、新たに受信したか否かを判定する(ステップS65)。制御部21は、分割動画DMnのリクエストを、新たに受信したと判定した場合(ステップS65:YES)、ステップS61に戻り、新たに受信されたリクエストから分割動画IDを取得し、この分割動画IDを示すエンコード指令をエンコードサーバ1へ新たに送信することとなる。このようなリクエストは、上述したステップS6で表示範囲が変位したと判定される度にクライアント端末3aから送信される。一方、制御部21は、分割動画DMnのリクエストを新たに受信していないと判定した場合(ステップS65:NO)、ステップS66へ進む。なお、ステップS64におけるコンテンツの配信中に、クライアント端末3aからのリクエストが受信される場合がある。この場合、後から受信されたリクエストに対するコンテンツの配信は、直前のリクエストに対するコンテンツの配信が終了したあとに実行される(つまり、後から受信されたリクエストに対するコンテンツの配信は待機される)。   On the other hand, in the process shown in FIG. 8A, the control unit 21 receives the content transmitted from the encoding server 1 in step S76 (step S63). Next, the control unit 21 distributes the content received in step S63 to the client terminal 3a via the network NW (step S64). Next, the control unit 21 determines whether a request for the divided moving image DMn is newly received from the client terminal 3a (step S65). When it is determined that the request for the divided moving image DMn is newly received (step S65: YES), the control unit 21 returns to step S61, acquires the divided moving image ID from the newly received request, and this divided moving image ID Is newly transmitted to the encoding server 1. Such a request is transmitted from the client terminal 3a each time it is determined that the display range has been displaced in step S6 described above. On the other hand, when it determines with the control part 21 not having received the request | requirement of the division | segmentation moving image DMn newly (step S65: NO), it progresses to step S66. Note that a request from the client terminal 3a may be received during content distribution in step S64. In this case, the distribution of the content for the request received later is executed after the distribution of the content for the immediately previous request is completed (that is, the distribution of the content for the request received later is waited).

ステップS66では、制御部21は、コンテンツ配信処理を終了するか否かを判定する。例えば、クライアント端末3aから、再生終了指示を示す情報が受信された場合、またはエンコードサーバ1からのコンテンツの送信が一定時間以上途絶えた場合、制御部21は、コンテンツ配信処理を終了すると判定し(ステップS66:YES)、コンテンツ配信処理を終了する。一方、制御部21は、コンテンツ配信処理を終了しないと判定した場合(ステップS66:NO)、ステップS63に戻り、コンテンツの受信、及び送信を継続する。   In step S66, the control unit 21 determines whether or not to end the content distribution process. For example, when the information indicating the reproduction end instruction is received from the client terminal 3a, or when the transmission of the content from the encoding server 1 is interrupted for a predetermined time or more, the control unit 21 determines that the content distribution process is ended ( Step S66: YES), the content distribution process is ended. On the other hand, when the control unit 21 determines that the content distribution process is not completed (step S66: NO), the process returns to step S63, and continues the reception and transmission of the content.

一方、図8(B)に示すステップS77において、制御部11は、配信サーバ2からエンコード指令を新たに受信したか否かを判定する。制御部11は、エンコード指令を受信したと判定した場合(ステップS77:YES)、ステップS71に戻り、新たに受信されたエンコード指令が示す分割動画IDが付与された分割動画DMnを取得して、ステップS72以降の処理を行う。一方、制御部11は、エンコード指令を新たに受信していないと判定した場合(ステップS77:NO)、制御部11は、エンコード処理を終了するか否かを判定する(ステップS78)。例えば、コンテンツが最後までエンコードされた場合、エンコード処理を終了すると判定される。制御部11は、エンコード処理を終了しないと判定した場合(ステップS78:NO)、ステップS72に戻り、上記と同様の処理を行う。一方、制御部11は、エンコード処理を終了すると判定した場合(ステップS78:YES)、エンコード処理を終了する。   On the other hand, in step S77 shown in FIG. 8B, the control unit 11 determines whether or not an encode command has been newly received from the distribution server 2. If it is determined that the encode command has been received (step S77: YES), the control unit 11 returns to step S71, acquires the divided moving image DMn to which the divided moving image ID indicated by the newly received encode command is added, The process after step S72 is performed. On the other hand, when determining that the encode command has not been newly received (step S77: NO), the control unit 11 determines whether to end the encoding process (step S78). For example, when the content is encoded to the end, it is determined that the encoding process is to be ended. If the control unit 11 determines that the encoding process is not completed (step S78: NO), the process returns to step S72, and performs the same process as described above. On the other hand, when it is determined that the encoding process is to be ended (step S78: YES), the control unit 11 ends the encoding process.

上記実施例1によれば、クライアント端末3aからの分割動画DMnのリクエストに応じて、より適切なセグメント単位Txでリアルタイムに生成された動画ブロックBn-mを配信することができる。   According to the first embodiment, the video block Bn-m generated in real time in a more appropriate segment unit Tx can be distributed in response to the request for the divided video DMn from the client terminal 3a.

(実施例2)
実施例2は、クライアント端末3aからの分割動画DMnのリクエストに応じて、事前に生成され配信サーバ2に記憶されている動画ブロックBn-mが、クライアント端末3aへ配信される例である。つまり、実施例2では、クライアント端末3aからのリクエストが受信される前に、エンコードサーバ1によって、時間長の互いに異なる複数のセグメント単位(固定のセグメント単位)で同一内容の分割動画DMnから生成された動画ブロックBn-mを含むコンテンツが配信サーバ2の記憶部22に記憶されているものとする。なお、記憶されたコンテンツには、上述したプレイリストファイルが含まれる。また、コンテンツには、動画ブロックBn-mと再生時間が同期した音声のデータファイルが含まれる場合もある。
(Example 2)
The second embodiment is an example in which a moving image block Bn-m generated in advance and stored in the distribution server 2 is distributed to the client terminal 3a in response to a request for the divided moving image DMn from the client terminal 3a. That is, in the second embodiment, before the request from the client terminal 3a is received, the encoding server 1 generates a plurality of segment units (fixed segment units) having different time lengths from the same divided moving image DMn. It is assumed that the content including the moving image block Bn-m is stored in the storage unit 22 of the distribution server 2. The stored content includes the playlist file described above. The content may include an audio data file whose reproduction time is synchronized with the moving image block Bn-m.

(実施例2におけるクライアント端末3aの動作)
先ず、実施例2におけるクライアント端末3aの動作については、実施例1におけるクライアント端末3aの動作と同様であり、図6(A)〜図6(C)に示す処理は、実施例2におけるクライアント端末3aにおいても実行される。
(Operation of Client Terminal 3a in Embodiment 2)
First, the operation of the client terminal 3a in the second embodiment is the same as that of the client terminal 3a in the first embodiment, and the processes shown in FIGS. 6A to 6C are the same as those in the second embodiment. It is also executed in 3a.

(実施例2における配信サーバ2の動作)
次に、図9を参照して、実施例2における配信サーバ2の動作について説明する。図9(A)は、配信サーバ2の制御部21により実行されるセグメント単位取得・設定処理の一例を示すフローチャートである。図9(B)は、配信サーバ2の制御部21により実行されるカメラワークデータ解析・セグメント単位設定処理の一例を示すフローチャートである。図9(C)は、配信サーバ2の制御部21により実行されるコンテンツ配信処理の一例を示すフローチャートである。なお、配信サーバ2において、コンテンツ配信処理と、セグメント単位取得・設定処理(またはカメラワークデータ解析・セグメント単位設定処理)とは、それぞれ非同期で実行される。セグメント単位取得・設定処理は、各分割動画DMnの表示時間の算出がクライアント端末3aにより行われる場合に実行される。一方、カメラワークデータ解析・セグメント単位設定処理は、各分割動画DMnの表示時間の算出が配信サーバ2により行われる場合に実行される。
(Operation of Distribution Server 2 in Embodiment 2)
Next, with reference to FIG. 9, the operation of the distribution server 2 in the second embodiment will be described. FIG. 9A is a flowchart showing an example of the segment unit acquisition / setting process executed by the control unit 21 of the distribution server 2. FIG. 9B is a flowchart illustrating an example of camera work data analysis / segment unit setting processing executed by the control unit 21 of the distribution server 2. FIG. 9C is a flowchart illustrating an example of content distribution processing executed by the control unit 21 of the distribution server 2. In the distribution server 2, the content distribution process and the segment unit acquisition / setting process (or camera work data analysis / segment unit setting process) are executed asynchronously. The segment unit acquisition / setting process is executed when the display time of each divided video DMn is calculated by the client terminal 3a. On the other hand, the camera work data analysis / segment unit setting process is executed when the distribution server 2 calculates the display time of each divided moving image DMn.

図9(A)に示すセグメント単位取得・設定処理は、クライアント端末3aからのセグメント単位Txが受信された場合に開始される。セグメント単位取得・設定処理が開始されると、制御部21は、受信により取得されたセグメント単位Txと、設定中のセグメント単位Txとが一致するか否かを判定する(ステップS81)。制御部21は、双方のセグメント単位Txが一致すると判定した場合(ステップS81:YES)、セグメント単位取得・設定処理を終了する。この場合、設定中のセグメント単位Txは変更されない。一方、制御部21は、双方のセグメント単位Txが一致しないと判定した場合(ステップS81:NO)、上記取得されたセグメント単位Txを、設定中のセグメント単位Txに代えて設定(つまり、更新)し(ステップS82)、セグメント単位取得・設定処理を終了する。この場合、設定中のセグメント単位Txは変更される。   The segment unit acquisition / setting process shown in FIG. 9A is started when the segment unit Tx from the client terminal 3a is received. When the segment unit acquisition / setting process is started, the control unit 21 determines whether or not the segment unit Tx acquired by reception matches the segment unit Tx being set (step S81). If the control unit 21 determines that both segment units Tx match (step S81: YES), the segment unit acquisition / setting process ends. In this case, the segment unit Tx being set is not changed. On the other hand, when the control unit 21 determines that both segment units Tx do not match (step S81: NO), the acquired segment units Tx are set instead of the segment units Tx being set (that is, updated). (Step S82), the segment unit acquisition / setting process is terminated. In this case, the segment unit Tx being set is changed.

一方、図9(B)に示すカメラワークデータ解析・セグメント単位設定処理は、クライアント端末3aからのカメラワークデータが受信された場合に開始される。カメラワークデータ解析・セグメント単位設定処理が開始されると、制御部21は、受信されたカメラワークデータを解析することで、少なくとも一部の表示領域が同時に表示された複数の分割動画DMnのそれぞれの表示時間を算出する(ステップS91)。次いで、制御部21は、少なくとも一部の表示領域が同時に表示された複数の分割動画DMnのそれぞれの表示割合を算出する(ステップS92)。次いで、制御部21は、ステップS92で算出された表示割合が最も大きい表示領域を含む分割動画DMnを特定する(ステップS93)。次いで、制御部21は、ステップS93で特定された分割動画DMnの表示時間に比例した時間をセグメント単位Txとして決定する(ステップS94)。なお、制御部21は、少なくとも一部の表示領域が同時に表示された複数の分割動画DMnそれぞれの表示時間のうち、相対的に長い表示時間に比例した時間をセグメント単位Txとして決定してもよい。次いで、制御部21は、ステップS94の決定により取得されたセグメント単位Txと、設定中のセグメント単位Txとが一致するか否かを判定する(ステップS95)。制御部21は、双方のセグメント単位Txが一致すると判定した場合(ステップS95:YES)、カメラワークデータ解析・セグメント単位設定処理を終了する。一方、制御部21は、双方のセグメント単位Txが一致しないと判定した場合(ステップS95:NO)、上記取得されたセグメント単位Txを、設定中のセグメント単位Txに代えて設定し(ステップS96)、セグメント単位取得・設定処理を終了する。   On the other hand, the camerawork data analysis / segment unit setting process shown in FIG. 9B is started when the camerawork data from the client terminal 3a is received. When the camera work data analysis / segment unit setting process is started, the control unit 21 analyzes each of the received camera work data so that each of a plurality of divided moving images DMn in which at least a part of the display area is simultaneously displayed. The display time of is calculated (step S91). Next, the control unit 21 calculates the display ratio of each of the plurality of divided moving images DMn in which at least a part of the display area is simultaneously displayed (step S92). Next, the control unit 21 specifies the divided moving image DMn that includes the display area with the largest display ratio calculated in Step S92 (Step S93). Next, the control unit 21 determines a time proportional to the display time of the divided moving image DMn identified in step S93 as a segment unit Tx (step S94). The control unit 21 may determine, as the segment unit Tx, a time proportional to a relatively long display time among the display times of each of the plurality of divided videos DMn in which at least a part of the display area is simultaneously displayed. . Next, the control unit 21 determines whether or not the segment unit Tx acquired by the determination of step S94 matches the segment unit Tx being set (step S95). When it is determined that the two segment units Tx match (step S95: YES), the control unit 21 ends the camera work data analysis / segment unit setting process. On the other hand, when determining that both segment units Tx do not match (step S95: NO), the control unit 21 sets the acquired segment units Tx instead of the segment units Tx being set (step S96). The segment unit acquisition / setting process ends.

なお、図9(A)に示すセグメント単位取得・設定処理及び図9(B)に示すカメラワークデータ解析・セグメント単位設定処理に代えて、リクエスト数解析処理が行われてもよい。このリクエスト数解析処理は、クライアント端末3aからの分割動画DMnのリクエストが受信された場合に開始される。リクエスト数解析処理が開始されると、制御部21は、受信されたリクエストの受信時刻を記録する。次いで、制御部21は、前回処理から所定時間が経過したか否かを判定する。そして、制御部21は、前回処理から所定時間が経過したと判定した場合、単位時間あたりのリクエスト数を算出し、算出したリクエスト数に対応付けられたセグメント単位Txを、上述したように、対応付けテーブルまたは計算式を用いて取得する。そして、ステップS94〜S96と同様の処理を行うことで、上記取得されたセグメント単位Txを設定する。   The request number analysis process may be performed instead of the segment unit acquisition / setting process shown in FIG. 9A and the camera work data analysis / segment unit setting process shown in FIG. 9B. This request number analysis process is started when a request for the divided video DMn is received from the client terminal 3a. When the request number analysis process is started, the control unit 21 records the reception time of the received request. Next, the control unit 21 determines whether or not a predetermined time has elapsed since the previous process. Then, when it is determined that the predetermined time has elapsed from the previous process, the control unit 21 calculates the number of requests per unit time, and copes with the segment unit Tx associated with the calculated number of requests as described above. Acquired using an attached table or calculation formula. Then, by performing the same processing as steps S94 to S96, the acquired segment unit Tx is set.

次に、図9(C)に示すコンテンツ配信処理は、クライアント端末3aからの分割動画DMnのリクエストが受信された場合に開始される。コンテンツ配信処理が開始されると、制御部21は、受信された、分割動画DMnのリクエストから分割動画IDを取得する(ステップS101)。次いで、制御部21は、上記ステップS82またはステップS96で設定された最新のセグメント単位Txを取得する(ステップS102)。次いで、制御部21は、ステップS102で取得された分割動画IDが付与された分割動画DMnから生成された動画ブロックBn-mであって、ステップS102で取得されたセグメント単位Txとの時間差が最も短いセグメント単位の動画ブロックBn-mを記憶部22から取得する(ステップS103)。   Next, the content distribution process shown in FIG. 9C is started when a request for the divided moving image DMn is received from the client terminal 3a. When the content distribution process is started, the control unit 21 acquires a divided moving image ID from the received request for the divided moving image DMn (step S101). Next, the control unit 21 acquires the latest segment unit Tx set in step S82 or step S96 (step S102). Next, the control unit 21 is the moving image block Bn-m generated from the divided moving image DMn to which the divided moving image ID acquired in step S102 is added, and the time difference with the segment unit Tx acquired in step S102 is the most A short segment moving image block Bn-m is acquired from the storage unit 22 (step S103).

次いで、制御部21は、ステップS103で取得された1つ以上の動画ブロックBn-mと、動画ブロックBn-mのブロックIDを示すプレイリストファイルとを含むコンテンツを生成する(ステップS104)。なお、コンテンツには、動画ブロックBn-mと再生時間が同期した音声のデータファイルが含まれる場合もある。次いで、制御部21は、ステップS104で生成されたコンテンツを、ネットワークNWを介してクライアント端末3aへ配信する(ステップS105)。   Next, the control unit 21 generates content including one or more moving image blocks Bn-m acquired in step S103 and a playlist file indicating the block ID of the moving image block Bn-m (step S104). The content may include an audio data file whose reproduction time is synchronized with that of the moving image block Bn-m. Next, the control unit 21 distributes the content generated in step S104 to the client terminal 3a via the network NW (step S105).

次いで、制御部21は、クライアント端末3aから、分割動画DMnのリクエストを、新たに受信したか否かを判定する(ステップS106)。制御部21は、分割動画DMnのリクエストを、新たに受信したと判定した場合(ステップS106:YES)、ステップS101に戻る。一方、制御部21は、分割動画DMnのリクエストを新たに受信していないと判定した場合(ステップS106:NO)、ステップS107へ進む。ステップS107では、制御部21は、コンテンツ配信処理を終了するか否かを判定する。制御部21は、コンテンツ配信処理を終了すると判定した場合(ステップS107:YES)、コンテンツ配信処理を終了する。一方、制御部21は、コンテンツ配信処理を終了しないと判定した場合(ステップS107:NO)、ステップS102に戻る。   Next, the control unit 21 determines whether a request for the divided moving image DMn is newly received from the client terminal 3a (step S106). When it is determined that the request for the divided video DMn has been newly received (step S106: YES), the control unit 21 returns to step S101. On the other hand, when it determines with the control part 21 not having received the request | requirement of the division | segmentation moving image DMn newly (step S106: NO), it progresses to step S107. In step S107, the control unit 21 determines whether or not to end the content distribution process. If the control unit 21 determines that the content distribution process is to be ended (step S107: YES), the content distribution process is ended. On the other hand, when the control unit 21 determines that the content distribution process is not completed (step S107: NO), the process returns to step S102.

上記実施例2によれば、クライアント端末3aからの分割動画DMnのリクエストに応じて、配信サーバ2の負荷を低減しつつ、より適切なセグメント単位Txで生成された動画ブロックBn-mを、より迅速に配信することができる。   According to the second embodiment, in response to a request for the divided video DMn from the client terminal 3a, the video block Bn-m generated in a more appropriate segment unit Tx is reduced while reducing the load on the distribution server 2. Can be delivered quickly.

以上説明したように、上記実施形態によれば、クライアント端末3Xにおいて表示された分割動画DMnの表示時間に応じたセグメント単位Tx、またはクライアント端末3Xからの分割動画DMnのリクエスト数に応じたセグメント単位Txの動画ブロックBn-m毎に、分割動画DMnのデータをクライアント端末3Xへ送信するように構成した。このため、クライアント端末3Xからリクエストされた分割動画DMnのデータを、クライアント端末3Xのユーザの視聴状況に応じた最適なセグメント単位Txで送信することができ、その結果、データ伝送量の無駄を低減しつつ、サーバ装置やネットワークにかかる負荷を低減することができる。また、上記実施形態によれば、視聴範囲の変動が大きい時間帯(例えば、スポーツの場合、試合中)、少ない時間帯(例えば、スポーツの場合、休憩中)がコンテンツにあっても、最適なセグメント単位Txで分割動画DMnのデータをクライアント端末3Xへ送信することができる。   As described above, according to the above embodiment, the segment unit Tx corresponding to the display time of the divided moving image DMn displayed on the client terminal 3X, or the segment unit corresponding to the number of requests for the divided moving image DMn from the client terminal 3X The data of the divided moving image DMn is transmitted to the client terminal 3X for each moving image block Bn-m of Tx. Therefore, data of the divided moving image DMn requested from the client terminal 3X can be transmitted in an optimal segment unit Tx according to the viewing condition of the user of the client terminal 3X, and as a result, waste of data transmission amount is reduced. However, the load on the server device and the network can be reduced. In addition, according to the above-described embodiment, even when the content is in a time zone in which the viewing range varies greatly (for example, in the case of sports, during a game) and a small time zone (for example, in sports, during a break), Data of the divided video DMn can be transmitted to the client terminal 3X in the segment unit Tx.

1 エンコードサーバ
2 配信サーバ
3X クライアント端末
11 制御部
12 記憶部
S 配信システム
Reference Signs List 1 encoding server 2 distribution server 3X client terminal 11 control unit 12 storage unit S distribution system

Claims (15)

動画を複数の表示領域に分割した複数の分割動画のデータを、端末装置からのリクエストに応じて、可変の時間単位であるセグメント単位の動画ブロック毎に前記端末装置へ送信するサーバ装置であって、
前記端末装置において表示された前記分割動画の表示時間に応じた前記セグメント単位、または前記端末装置からの前記分割動画のリクエストの数に応じた前記セグメント単位を取得する取得手段と、
前記端末装置からリクエストされた前記分割動画のデータを、前記取得手段により取得された前記セグメント単位の動画ブロック毎に前記端末装置へ送信する送信手段と、
を備えることを特徴とするサーバ装置。
A server device that transmits data of a plurality of divided videos obtained by dividing a video into a plurality of display areas to each terminal device in response to a request from the terminal device for each segment video block in variable time units. ,
An acquisition means for acquiring the segment unit according to the display time of the divided video displayed on the terminal device or the segment unit according to the number of requests of the divided video from the terminal device;
Transmitting means for transmitting the data of the divided video requested from the terminal device to the terminal device for each video block of the segment unit acquired by the acquiring unit;
A server apparatus comprising:
前記取得手段は、前記端末装置において前記分割動画の少なくとも一部の表示領域が同時に表示された前記複数の分割動画のうち、表示割合が最も大きいか、2番目に大きい前記表示領域を含む分割動画の表示時間に比例した時間を、前記セグメント単位として前記端末装置から取得することを特徴とする請求項1に記載のサーバ装置。 The acquisition unit includes a divided video including the display area having the highest display ratio or the second largest display area among the plurality of divided videos in which at least a part of the display area of the divided video is simultaneously displayed on the terminal device. The server device according to claim 1, wherein a time proportional to a display time of is acquired from the terminal device as the segment unit. 前記端末装置において前記分割動画の少なくとも一部の表示領域が同時に表示された表示画面における表示範囲を特定の時間毎に示す表示範囲データを前記端末装置から受信する受信手段を更に備え、
前記取得手段は、前記受信手段により受信された表示範囲データに基づいて、それぞれの前記分割動画の表示時間を算出し、前記複数の分割動画のうち、表示割合が最も大きいか、2番目に大きい前記表示領域を含む分割動画の前記表示時間に比例した時間を、前記セグメント単位として取得することを特徴とする請求項1に記載のサーバ装置。
The terminal device further comprises receiving means for receiving, from the terminal device, display range data indicating a display range at a specific time on a display screen on which at least a part of the display area of the divided video is simultaneously displayed.
The acquisition unit calculates a display time of each of the divided videos based on the display range data received by the reception unit, and the display ratio is the largest or second largest among the plurality of divided videos. The server apparatus according to claim 1, wherein a time proportional to the display time of the divided moving image including the display area is acquired as the segment unit.
前記取得手段は、前記分割動画の少なくとも一部の表示領域が表示された時間の累積値を前記表示時間として取得することを特徴とする請求項1乃至3の何れか一項に記載のサーバ装置。   The server apparatus according to any one of claims 1 to 3, wherein the acquisition unit acquires, as the display time, an accumulated value of time during which at least a part of the display area of the divided moving image is displayed. . 前記取得手段は、複数の前記端末装置において表示された同一内容の前記分割動画の表示時間をそれぞれ取得し、取得した前記表示時間を集計して前記セグメント単位を取得することを特徴とする請求項1乃至4の何れか一項に記載のサーバ装置。   The said acquisition means acquires the display time of the said division | segmentation moving image of the same content displayed in the several said terminal device, respectively, The acquired said display time is totaled and the said segment unit is acquired, It is characterized by the above-mentioned. The server apparatus according to any one of 1 to 4. 前記取得手段は、複数の前記端末装置それぞれからの前記分割動画のリクエストの数を取得し、取得した前記リクエストの数を集計して前記セグメント単位を取得することを特徴とする請求項1に記載のサーバ装置。   The said acquisition means acquires the number of the requests | requirement of the said division | segmentation moving image from each of several said terminal devices, The number of the said acquired requests is totaled, and the said segment unit is acquired, It is characterized by the above-mentioned. Server devices. 前記端末装置からリクエストされた前記分割動画のデータを、前記取得手段により取得された前記セグメント単位で区切ることで複数の動画ブロックを生成する生成手段を更に備え、
前記送信手段は、前記端末装置からリクエストされた前記分割動画のデータを、前記生成手段により生成された動画ブロック毎に前記端末装置へ送信することを特徴とする請求項1乃至6の何れか一項に記載のサーバ装置。
Further comprising generating means for generating a plurality of moving picture blocks by dividing the divided moving picture data requested from the terminal device in units of the segments acquired by the acquiring means;
The said transmission means transmits the data of the said divided moving image requested from the said terminal device to the said terminal device for every moving image block produced | generated by the said production | generation means. The server device according to item.
同一内容の前記分割動画のデータを、時間長の互いに異なる複数のセグメント単位毎に記憶する記憶手段を更に備え、
前記記憶手段における前記セグメント単位のそれぞれに対応する前記分割動画のデータは、それぞれの前記セグメント単位で区切られた前記動画ブロックから構成されており、
前記送信手段は、前記端末装置からリクエストされた前記分割動画のデータを構成する動画ブロックであって、前記取得手段により取得された前記セグメント単位の動画ブロックを前記記憶手段から取得して前記端末装置へ送信することを特徴とする請求項1乃至6の何れか一項に記載のサーバ装置。
Further comprising storage means for storing the divided video data having the same content for each of a plurality of segment units having different time lengths,
The data of the divided moving image corresponding to each of the segment units in the storage means is composed of the moving image blocks divided in the respective segment units,
The transmission unit is a moving image block constituting data of the divided moving image requested from the terminal device, and the terminal unit acquires the segment moving image block acquired by the acquisition unit from the storage unit The server device according to claim 1, wherein the server device is transmitted to the server device.
動画を複数の表示領域に分割した複数の分割動画のデータを、端末装置からのリクエストに応じて、可変の時間単位であるセグメント単位の動画ブロック毎に前記端末装置へ送信するサーバ装置に含まれるコンピュータに、
前記端末装置において表示された前記分割動画の表示時間に応じた前記セグメント単位、または前記端末装置からの前記分割動画のリクエストの数に応じた前記セグメント単位を取得する取得ステップと、
前記端末装置からリクエストされた前記分割動画のデータを、前記取得ステップにより取得された前記セグメント単位の動画ブロック毎に前記端末装置へ送信する送信ステップと、
を実行させることを特徴とするサーバプログラム。
Included in a server device that transmits data of a plurality of divided videos obtained by dividing a video into a plurality of display areas to the terminal device in response to a request from the terminal device for each segment video block in variable time units On the computer,
Obtaining the segment unit according to the display time of the divided video displayed on the terminal device, or the segment unit according to the number of requests of the divided video from the terminal device;
Transmitting the data of the divided video requested from the terminal device to the terminal device for each video block of the segment unit acquired by the acquiring step;
A server program characterized by executing.
動画を複数の表示領域に分割した複数の分割動画のデータを、ユーザ操作に応じてサーバ装置へリクエストする端末装置に含まれるコンピュータに、
前記端末装置において表示された前記分割動画の表示時間を算出する算出ステップと、
可変の時間単位であるセグメント単位であって、前記算出ステップにより算出された表示時間に応じたセグメント単位を決定する決定ステップと、
前記決定ステップにより決定されたセグメント単位を前記サーバ装置へ通知する通知ステップと、
前記リクエストした前記分割動画のデータを、前記通知ステップにより通知されたセグメント単位の動画ブロック毎に前記サーバ装置から受信する受信ステップと、
前記受信ステップにより受信された動画ブロックを用いて前記分割動画を表示させる表示ステップと、
を実行させることを特徴とする端末プログラム。
In a computer included in a terminal device that requests data of a plurality of divided moving images obtained by dividing a moving image into a plurality of display areas to a server device according to a user operation,
A calculation step of calculating a display time of the divided moving image displayed on the terminal device;
A segment unit which is a variable time unit, and determining the segment unit according to the display time calculated in the calculation step;
A notification step of notifying the server device of the segment unit determined by the determination step;
Receiving the requested divided video data from the server device for each segment video block notified by the notification step;
A display step of displaying the divided moving image using the moving image block received by the receiving step;
A terminal program characterized by executing.
前記算出ステップは、前記端末装置において前記分割動画の少なくとも一部の表示領域が同時に表示された前記複数の分割動画のそれぞれの表示時間を算出し、
前記決定ステップは、前記少なくとも一部の表示領域が同時に表示された前記複数の分割動画のうち、表示割合が最も大きいか、2番目に大きい前記表示領域を含む分割動画を特定し、特定した分割動画の表示時間に比例する時間を前記セグメント単位として決定することを特徴とする請求項10に記載の端末プログラム。
The calculating step calculates a display time of each of the plurality of divided videos in which at least a part of the display area of the divided videos is simultaneously displayed on the terminal device;
The determining step specifies a divided video including the display area having the largest display ratio or the second largest display area among the plurality of divided videos in which the at least some display areas are simultaneously displayed, and the identified division The terminal program according to claim 10, wherein a time proportional to a moving image display time is determined as the segment unit.
動画を複数の表示領域に分割した複数の分割動画のデータを、端末装置からのリクエストに応じて、可変の時間単位であるセグメント単位の動画ブロック毎に前記端末装置へ送信するコンピュータにより実行される動画送信方法であって、
前記端末装置において表示された前記分割動画の表示時間に応じた前記セグメント単位、または前記端末装置からの前記分割動画のリクエストの数に応じた前記セグメント単位を取得する取得ステップと、
前記端末装置からリクエストされた前記分割動画のデータを、前記取得ステップにより取得された前記セグメント単位の動画ブロック毎に前記端末装置へ送信する送信ステップと、
を含むことを特徴とする動画送信方法。
Executed by a computer that transmits data of a plurality of divided videos obtained by dividing a video into a plurality of display areas to the terminal device in response to a request from the terminal device for each video block in variable segment units. It is a video transmission method, and
Obtaining the segment unit according to the display time of the divided video displayed on the terminal device, or the segment unit according to the number of requests of the divided video from the terminal device;
Transmitting the data of the divided video requested from the terminal device to the terminal device for each video block of the segment unit acquired by the acquiring step;
A video transmission method comprising:
動画を複数の表示領域に分割した複数の分割動画のデータを、ユーザ操作に応じてサーバ装置へリクエストする端末装置に含まれるコンピュータにより実行される動画表示方法であって、
前記端末装置において表示された前記分割動画の表示時間を算出する算出ステップと、
可変の時間単位であるセグメント単位であって、前記算出ステップにより算出された表示時間に応じたセグメント単位を決定する決定ステップと、
前記決定ステップにより決定されたセグメント単位を前記サーバ装置へ通知する通知ステップと、
前記リクエストした前記分割動画のデータを、前記通知ステップにより通知されたセグメント単位の動画ブロック毎に前記サーバ装置から受信する受信ステップと、
前記受信ステップにより受信された動画ブロックを用いて前記分割動画を表示させる表示ステップと、
を含むことを特徴とする動画表示方法。
A video display method executed by a computer included in a terminal device that requests data of a plurality of divided videos obtained by dividing a video into a plurality of display areas to a server device according to a user operation,
A calculation step of calculating a display time of the divided moving image displayed on the terminal device;
A segment unit which is a variable time unit, and determining the segment unit according to the display time calculated in the calculation step;
A notification step of notifying the server device of the segment unit determined by the determination step;
Receiving the requested divided video data from the server device for each segment video block notified by the notification step;
A display step of displaying the divided moving image using the moving image block received by the receiving step;
An animation display method characterized by including.
サーバ装置が、動画を複数の表示領域に分割した複数の分割動画のデータを、端末装置からのリクエストに応じて、可変の時間単位であるセグメント単位の動画ブロック毎に前記端末装置へ送信する通信システムであって、
前記端末装置は、
前記端末装置において表示された前記分割動画の表示時間を算出する算出手段と、
可変の時間単位であるセグメント単位であって、前記算出手段により算出された表示時間に応じたセグメント単位を決定する決定手段と、
前記決定手段により決定されたセグメント単位を前記サーバ装置へ通知する通知手段と、
を備え、
前記サーバ装置は、
前記端末装置から通知された前記セグメント単位を取得する取得手段と、
前記端末装置からリクエストされた前記分割動画のデータを、前記取得手段により取得された前記セグメント単位の動画ブロック毎に前記端末装置へ送信する送信手段と、
を備え、
前記端末装置は、
前記サーバ装置から送信された前記分割動画のデータを、前記動画ブロック毎に受信する受信手段と、
前記受信手段により受信された動画ブロックを用いて前記分割動画を表示させる表示手段と、
を備えることを特徴とする通信システム。
Communication in which a server device transmits data of a plurality of divided videos obtained by dividing a video into a plurality of display areas to the terminal device for each segment video block in variable time units in response to a request from the terminal device A system,
The terminal device
Calculating means for calculating a display time of the divided moving image displayed on the terminal device;
A segment unit which is a variable time unit, wherein the segment unit is determined according to the display time calculated by the calculation unit;
Notification means for notifying the server device of the segment unit determined by the determination means;
Equipped with
The server device
Acquisition means for acquiring the segment unit notified from the terminal device;
Transmitting means for transmitting the data of the divided video requested from the terminal device to the terminal device for each video block of the segment unit acquired by the acquiring unit;
Equipped with
The terminal device
Receiving means for receiving, for each moving image block, the data of the divided moving image transmitted from the server device;
Display means for displaying the divided moving image using the moving image block received by the receiving means;
A communication system comprising:
サーバ装置が、動画を複数の表示領域に分割した複数の分割動画のデータを、端末装置からのリクエストに応じて、可変の時間単位であるセグメント単位の動画ブロック毎に前記端末装置へ送信する通信システムであって、
前記端末装置は、
前記端末装置において前記分割動画の少なくとも一部の表示領域が同時に表示された表示範囲における表示範囲を特定の時間毎に示す表示範囲データを前記サーバ装置へ送信する第1送信手段を備え、
前記サーバ装置は、
前記端末装置から送信された表示範囲データを受信する第1受信手段と、
前記第1受信手段により受信された表示範囲データに基づいて、それぞれの前記分割動画の表示時間を算出し、前記複数の分割動画のうち、表示割合が最も大きいか、2番目に大きい前記表示領域を含む分割動画の前記表示時間に比例した時間を、可変の時間単位であるセグメント単位として取得する取得手段と、
前記端末装置からリクエストされた前記分割動画のデータを、前記取得手段により取得された前記セグメント単位の動画ブロック毎に前記端末装置へ送信する第2送信手段と、
を備え、
前記端末装置は、
前記サーバ装置から送信された前記分割動画のデータを、前記動画ブロック毎に受信する第2受信手段と、
前記第2受信手段により受信された動画ブロックを用いて前記分割動画を表示させる表示手段と、
を備えることを特徴とする通信システム。
Communication in which a server device transmits data of a plurality of divided videos obtained by dividing a video into a plurality of display areas to the terminal device for each segment video block in variable time units in response to a request from the terminal device A system,
The terminal device
A first transmission unit configured to transmit display range data indicating a display range in a display range in which at least a part of the display area of the divided moving image is simultaneously displayed in the terminal device to the server device;
The server device
First receiving means for receiving the display range data transmitted from the terminal device;
Based on the display range data received by the first receiving means, the display time of each of the divided moving images is calculated, and the display area having the largest display ratio or the second largest among the plurality of divided moving images. An acquisition means for acquiring a time proportional to the display time of the divided video including a segment unit which is a variable time unit;
Second transmission means for transmitting the data of the divided video requested from the terminal device to the terminal device for each video block of the segment unit acquired by the acquisition unit;
Equipped with
The terminal device
Second receiving means for receiving the divided moving image data transmitted from the server device for each moving image block;
Display means for displaying the divided moving picture using the moving picture block received by the second receiving means;
A communication system comprising:
JP2015187012A 2015-09-24 2015-09-24 Server apparatus, server program, terminal program, moving image transmission method, moving image display method, communication system Active JP6551107B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015187012A JP6551107B2 (en) 2015-09-24 2015-09-24 Server apparatus, server program, terminal program, moving image transmission method, moving image display method, communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015187012A JP6551107B2 (en) 2015-09-24 2015-09-24 Server apparatus, server program, terminal program, moving image transmission method, moving image display method, communication system

Publications (2)

Publication Number Publication Date
JP2017063282A JP2017063282A (en) 2017-03-30
JP6551107B2 true JP6551107B2 (en) 2019-07-31

Family

ID=58429219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015187012A Active JP6551107B2 (en) 2015-09-24 2015-09-24 Server apparatus, server program, terminal program, moving image transmission method, moving image display method, communication system

Country Status (1)

Country Link
JP (1) JP6551107B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7229696B2 (en) * 2018-08-02 2023-02-28 キヤノン株式会社 Information processing device, information processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1395014B1 (en) * 2002-08-27 2006-06-14 Matsushita Electric Industrial Co., Ltd. A method of transmitting data streams with data segments of variable length
US9432433B2 (en) * 2006-06-09 2016-08-30 Qualcomm Incorporated Enhanced block-request streaming system using signaling or block creation
JP5487074B2 (en) * 2010-03-18 2014-05-07 日本電信電話株式会社 Video transmission method and video transmission system
CN110139130B (en) * 2012-10-12 2022-09-20 佳能株式会社 Method for streaming data, method and apparatus for transmitting and receiving video data
JP5915604B2 (en) * 2013-08-30 2016-05-11 ブラザー工業株式会社 Information processing apparatus, program, and information processing method

Also Published As

Publication number Publication date
JP2017063282A (en) 2017-03-30

Similar Documents

Publication Publication Date Title
US9781356B1 (en) Panoramic video viewer
JP6433559B1 (en) Providing device, providing method, and program
WO2014132987A1 (en) Information processing device and information processing method
US11102520B2 (en) Image display method and image display apparatus
JP7253279B2 (en) Video distribution device, video distribution system, video distribution method and video distribution program
JP5474887B2 (en) Moving image data generation device, moving image display device, moving image data generation method, moving image display method, and data structure of moving image file
JP6409107B1 (en) Information processing apparatus, information processing method, and program
US20190379917A1 (en) Image distribution method and image display method
US20210266511A1 (en) Information processing system, information processing method, and storage medium
KR20180038256A (en) Method, and system for compensating delay of virtural reality stream
JP2016134701A (en) Video reproduction control program, video reproduction control method, video distribution server, transmission program, and transmission method
WO2020093862A1 (en) Method for processing vr video, and related apparatus
JP6551107B2 (en) Server apparatus, server program, terminal program, moving image transmission method, moving image display method, communication system
JP5861684B2 (en) Information processing apparatus and program
JP6571859B1 (en) VIDEO DISTRIBUTION DEVICE, VIDEO DISTRIBUTION SYSTEM, VIDEO DISTRIBUTION METHOD, AND VIDEO DISTRIBUTION PROGRAM
JP6572368B2 (en) Generating apparatus, generating method, and program
US20230033201A1 (en) Image processing apparatus, image processing method, and storage medium
JP2016134702A (en) Video data file generation program, video data file generation method, and video data file generation device
JP6600399B2 (en) Information processing apparatus, information processing method, and program
JP2020108137A (en) Video delivery device, video delivery system, video delivery method, and video delivery program
JP5850012B2 (en) Information processing apparatus, program, and communication system
JP6589526B2 (en) Bit rate determination device, server device, bit rate determination method, and program
WO2018224799A1 (en) Image processing device and system
JP5854019B2 (en) Terminal device and program
JP2022009636A (en) Distribution server, distribution method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190617

R150 Certificate of patent or registration of utility model

Ref document number: 6551107

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150