JP2013090102A - Distribution system - Google Patents

Distribution system Download PDF

Info

Publication number
JP2013090102A
JP2013090102A JP2011228071A JP2011228071A JP2013090102A JP 2013090102 A JP2013090102 A JP 2013090102A JP 2011228071 A JP2011228071 A JP 2011228071A JP 2011228071 A JP2011228071 A JP 2011228071A JP 2013090102 A JP2013090102 A JP 2013090102A
Authority
JP
Japan
Prior art keywords
image
metafile
reference image
unit
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011228071A
Other languages
Japanese (ja)
Inventor
Mayumi Okude
真弓 奥出
Hiroshi Deguchi
洋 出口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Information Services International Dentsu Ltd
Original Assignee
Information Services International Dentsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Information Services International Dentsu Ltd filed Critical Information Services International Dentsu Ltd
Priority to JP2011228071A priority Critical patent/JP2013090102A/en
Publication of JP2013090102A publication Critical patent/JP2013090102A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique facilitating distribution of video data.SOLUTION: A distribution system performs: discriminating individual images constituting image data; generating sequence information in accordance with the sequence of individual images; comparing each image constituting the video data with another image; defining one image in which at least a part matches as a referred image and the other as a reference image; receiving input of storing-destination information indicating the storing-destination in storing an image without a match and a referred image as a result of the comparison in the storage parts of plural distribution servers; generating a meta file containing the sequence information, the storage destination information, and display instruction information that indicates a correlation between the reference image and a referred image of which at least a part matches the reference image; and performing distribution in accordance with an image file obtainment request based on the meta file.

Description

本件は、動画データを配信する技術に関する。   This case relates to a technique for distributing moving image data.

デジタル技術の発達に伴い、デジタルデータで動画を作成してサーバに格納し、ネットワークを介して配信する技術が広汎に普及している。   With the development of digital technology, a technology for creating a moving image with digital data, storing it in a server, and distributing it via a network has become widespread.

動画のデジタルデータ(以下単に動画データとも称す)は、一般にデータ量が多く、ネットワークを介して配信する場合、ネットワークの帯域を浪費してしまわないように、適切な圧縮技術によってデータを圧縮することが求められる。   Digital video data (hereinafter also simply referred to as video data) generally has a large amount of data, and when it is distributed over a network, the data must be compressed using an appropriate compression technique so as not to waste network bandwidth. Is required.

また、再生したい動画データを選択してサーバから端末へ受信し、この受信した動画データを端末で再生する構成とした場合、動画データを受信するまでに時間がかるため、ユーザは動画データを要求してから再生できるようになるまで、長い時間待たなければならない。   In addition, when the video data to be played back is selected and received from the server to the terminal, and the received video data is played back on the terminal, it takes time until the video data is received, so the user requests the video data. I have to wait a long time before I can play it.

そこで、サーバから動画データを受信しながら、同時に再生することにより、ユーザの待ち時間を短縮する技術、所謂ストリーミングも広く利用されている。   Therefore, a technique for reducing the waiting time of the user by simultaneously reproducing the moving image data while receiving it from the server, so-called streaming, is also widely used.

特開2009−290552号公報JP 2009-290552 A 特開2003−102006号公報JP 2003-102006 A 特開2000−090249号公報JP 2000-090249 A

従来、ストリーミングサーバがユーザ端末と接続してストリーミングを開始すると、当該ユーザ端末との接続をストリーミングが終了するまで維持しなければならないため、ストリーミングの要求が輻輳した場合であってもストリーミング中の接続を動的に切り換えることができず、負荷を調整することができないという問題点があった。   Conventionally, when a streaming server connects to a user terminal and starts streaming, the connection with the user terminal must be maintained until the streaming ends, so even if the streaming request is congested, the connection during streaming Cannot be switched dynamically and the load cannot be adjusted.

また、従来のストリーミング再生は、動画データを先頭から順に配信するため、ユーザ端末側で、動画の途中から再生を行う操作や、早送り/巻き戻しを行う操作を行いたい場合に、非常時間がかかる、或いはバッファリング済みのデータに対する操作しか行えないといった問題があった。   In addition, conventional streaming playback distributes video data in order from the beginning, so it takes a very long time when the user terminal wants to perform playback from the middle of the video, or fast forward / rewind. Alternatively, there is a problem that only operations on buffered data can be performed.

更に、ストリーミングを行う場合、RTSP(Real Time Streaming Protocol)やRTMP (Real Time Messaging Protocol)といったストリーミング用のプロトコルに対応した
ストリーミングサーバが必要となりシステムを導入する際のハードルが高い。また、ネットワーク環境が不十分な地域でストリーミングを行うと、動画データの受信が再生に間に合わず、円滑に再生できないことがある。
Further, when streaming is performed, a streaming server corresponding to a streaming protocol such as RTSP (Real Time Streaming Protocol) or RTMP (Real Time Messaging Protocol) is required, and the hurdle for introducing the system is high. In addition, when streaming is performed in an area where the network environment is insufficient, the reception of moving image data may not be in time for reproduction and may not be reproduced smoothly.

そこで、開示のシステムは、動画データの配信を容易にする技術の提供を目的とする。   Therefore, the disclosed system aims to provide a technique that facilitates the distribution of moving image data.

上記課題を解決するため、本発明の配信システムは、
複数の配信サーバとメタサーバを備え、
前記メタサーバが、ユーザ端末から受信した動画データの配信要求に対して、当該動画データを構成する各画像の格納先を示す格納先情報を含むメタファイルを当該ユーザ端末に送信するメタファイル提供部を備え、
前記複数のサーバが、
前記画像を格納する記憶部と、
前記ユーザ端末から前記メタファイルに基づく前記画像の取得要求を受信した場合に、当該取得要求に応じた画像を前記記憶部から読み出して一画像毎に当該ユーザ端末へ配信する配信部と、を有する。
In order to solve the above problems, the distribution system of the present invention provides:
It has multiple distribution servers and meta servers,
A metafile providing unit for transmitting to the user terminal a metafile including storage location information indicating a storage location of each image constituting the video data in response to a video data distribution request received from the user terminal; Prepared,
The plurality of servers are
A storage unit for storing the image;
A distribution unit that reads an image corresponding to the acquisition request from the storage unit and distributes the image to the user terminal for each image when the image acquisition request based on the metafile is received from the user terminal. .

また、前記配信システムは、
前記メタサーバへ動画データの配信要求を送信する要求送信部と、
前記メタサーバからメタファイルを受信するメタファイル受信部と、
受信したメタファイルの格納先情報に基づいて、前記動画データを構成する各画像の取得要求をそれぞれの格納先である前記配信サーバに対して送信する取得要求部と、
前記取得要求によって受信した前記画像を再生する再生部と、を有するユーザ端末を更に備えても良い。
The distribution system includes
A request transmission unit that transmits a distribution request for moving image data to the meta server;
A metafile receiver that receives a metafile from the metaserver;
Based on the received storage location information of the metafile, an acquisition request unit that transmits an acquisition request for each image constituting the moving image data to the distribution server that is the storage location thereof,
You may further provide the user terminal which has the reproducing part which reproduces | regenerates the said image received by the said acquisition request.

前記配信システムは、
前記動画データを構成する各画像を他の画像と比較し、少なくとも一部が一致した画像の一方を被参照画像、他方を参照画像とする場合に、
前記メタファイルの格納先情報を、前記一致しなかった画像及び被参照画像の格納先を示す情報とし、
前記メタファイルが、前記参照画像と当該参照画像に少なくとも一部が一致した被参照画像との対応関係を示す表示指示情報、並びに、前記一致しなかった画像と前記被参照画像と前記参照画像との再生順を示す順序情報を更に備え、
前記ユーザ端末の取得要求部が前記格納先情報に基づいて前記一致しなかった画像及び被参照画像を前記配信サーバから受信し、
前記ユーザ端末の再生部が、前記順序情報に基づいて前記一致しなかった画像及び被参照画像を表示させると共に、前記順序情報に基づいて前記参照画像を表示させる際、前記表示指示情報に基づき当該参照画像に代えて、当該参照画像と対応する前記被参照画像を表示させても良い。
The distribution system includes:
When each image constituting the moving image data is compared with other images, and when one of the images at least partially matched is a referenced image and the other is a reference image,
The storage location information of the metafile is information indicating the storage location of the unmatched image and the referenced image,
The metafile includes display instruction information indicating a correspondence relationship between the reference image and a referenced image at least partially matching the reference image, and the mismatched image, the referenced image, and the reference image. Further comprising order information indicating the playback order of
The acquisition request unit of the user terminal receives the image and the referenced image that did not match based on the storage location information from the distribution server,
When the playback unit of the user terminal displays the image and the reference image that do not match based on the order information and displays the reference image based on the order information, the playback unit displays the reference image based on the display instruction information. Instead of the reference image, the referenced image corresponding to the reference image may be displayed.

前記配信システムは、
前記被参照画像と参照画像とが、一部の領域で重複している場合に、参照画像の重複していない領域のデータを被参照画像に加えて、元の被参照画像と参照画像とを含む被参照画像を合成し、合成後の被参照画像のうち元の被参照画像に相当する領域を示す元画像情報と、合成後の被参照画像のうち前記参照画像に相当する領域を示す参照画像情報とを前記表示指示情報が含み、
前記ユーザ端末の再生部が、前記被参照画像を表示する際、前記元画像情報に基づいて当該被参照画像から元の被参照画像を抽出して表示させると共に、前記参照画像を表示する際、前記参照画像情報に基づいて当該被参照画像から当該参照画像を抽出して表示させても良い。
The distribution system includes:
When the referenced image and the reference image overlap in some areas, the data of the non-overlapping area of the reference image is added to the referenced image, and the original referenced image and the reference image are A reference image indicating a region corresponding to the reference image in the combined reference image, and a reference image indicating a region corresponding to the original reference image in the combined reference image; The display instruction information includes image information,
When the reproduction unit of the user terminal displays the referenced image, the original referenced image is extracted from the referenced image based on the original image information and displayed, and the reference image is displayed. The reference image may be extracted from the referenced image based on the reference image information and displayed.

また、前記配信システムは、
前記表示指示情報が前記参照画像に係る表示効果情報を含み、
前記ユーザ端末の再生部が、前記参照画像に代えて前記被参照画像を表示する際、前記被参照画像に前記表示効果情報によって特定される画像処理を施して表示しても良い。
The distribution system includes
The display instruction information includes display effect information related to the reference image,
When the playback unit of the user terminal displays the referenced image instead of the reference image, the playback unit may display the referenced image by performing image processing specified by the display effect information.

また、本発明の配信方法は、
複数の配信サーバとメタサーバを備えた配信システムによる配信方法であって、
前記メタサーバが、ユーザ端末から受信した動画データの配信要求に対して、当該動画データを構成する各画像の格納先を示す格納先情報を含むメタファイルを当該ユーザ端末に送信するステップを実行し、
前記画像を格納する記憶部を備えた前記複数の配信サーバが、
前記ユーザ端末から前記メタファイルに基づく前記画像の取得要求を受信した場合に、当該取得要求に応じた画像を前記記憶部から読み出して一画像毎に当該ユーザ端末へ配信するステップを実行する。
In addition, the distribution method of the present invention includes:
A distribution method using a distribution system including a plurality of distribution servers and a meta server,
The meta server executes a step of transmitting to the user terminal a meta file including storage destination information indicating a storage destination of each image constituting the moving image data in response to the distribution request of the moving image data received from the user terminal.
The plurality of distribution servers including a storage unit for storing the image,
When the image acquisition request based on the metafile is received from the user terminal, an image corresponding to the acquisition request is read from the storage unit and delivered to the user terminal for each image.

また、本発明のメタファイルの生成装置は、
動画データを構成する各画像を識別し、各画像の順に従って順序情報を生成する順序生成部と、
前記動画データを構成する各画像を他の画像と比較し、少なくとも一部が一致した画像の一方を被参照画像、他方を参照画像とする比較部と、
前記比較の結果によって一致しなかった画像、及び被参照画像を複数の配信サーバの記憶部に格納させた際の格納先を示す格納先情報の入力を受ける入力受付部と、
前記参照画像と当該参照画像に少なくとも一部が一致した被参照画像との対応関係を示す表示指示情報、前記順序情報、並びに、前記格納先情報を含むメタファイルを生成するメタファイル生成部と、を備える。
In addition, the metafile generation device of the present invention includes:
An order generator that identifies each image constituting the video data and generates order information according to the order of the images;
Each image constituting the moving image data is compared with other images, and at least a part of the matching image is a reference image, and the comparison unit uses the other as a reference image;
An input receiving unit that receives an input of storage destination information indicating a storage destination when an image that is not matched by the result of the comparison and a reference image is stored in a storage unit of a plurality of distribution servers;
A metafile generating unit that generates a metafile including display instruction information indicating a correspondence relationship between the reference image and a referenced image at least partially matching the reference image, the order information, and the storage destination information; Is provided.

本発明のメタファイルの生成方法は、
動画データを構成する各画像を識別し、各画像の順に従って順序情報を生成するステップと、
前記動画データを構成する各画像を他の画像と比較し、少なくとも一部が一致した画像の一方を被参照画像、他方を参照画像とするステップと、
前記比較の結果によって一致しなかった画像、及び被参照画像を複数の配信サーバの記憶部に格納させた際の格納先を示す格納先情報の入力を受けるステップと、
前記参照画像と当該参照画像に少なくとも一部が一致した被参照画像との対応関係を示す表示指示情報、前記順序情報、並びに、前記格納先情報を含むメタファイルを生成するステップと、
をコンピュータが実行する。
The metafile generation method of the present invention includes:
Identifying each image constituting the video data and generating order information according to the order of each image;
Each image constituting the moving image data is compared with other images, and at least one of the matched images is a referenced image and the other is a reference image;
Receiving an input of storage location information indicating a storage location when an image that is not matched by the result of the comparison and a reference image is stored in a storage unit of a plurality of distribution servers;
Generating a metafile including display instruction information indicating a correspondence relationship between the reference image and a referenced image at least partially matching the reference image, the order information, and the storage destination information;
Is executed by the computer.

開示のシステムは、動画データの配信を容易に可能とする技術を提供できる。   The disclosed system can provide a technique that enables easy distribution of moving image data.

本発明に係る配信システムの概略図Schematic diagram of distribution system according to the present invention 実施形態1におけるメタファイル生成装置の概略構成図Schematic configuration diagram of a metafile generation device according to Embodiment 1 実施形態1にかかるメタファイル生成装置の機能ブロック図Functional block diagram of the metafile generation device according to the first embodiment 実施形態1におけるグリッドサーバの概略構成図Schematic configuration diagram of a grid server in the first embodiment 実施形態1にかかるグリッドサーバの機能ブロック図Functional block diagram of the grid server according to the first embodiment Webページ提供部によって提供されるWebページの例を示す図The figure which shows the example of the web page provided by the web page provision part 実施形態1におけるユーザ端末の概略構成図Schematic configuration diagram of a user terminal in the first embodiment 実施形態1にかかるユーザ端末の機能ブロック図Functional block diagram of a user terminal according to the first embodiment 画像ファイル及びメタファイル生成方法の全体の流れを示す図Diagram showing overall flow of image file and metafile generation method 各画像のメタデータを求める処理の流れを示す図The figure which shows the flow of the process which calculates | requires the metadata of each image シーンの切り替わりを判定する処理の説明図Explanatory drawing of the process which determines the change of a scene シーンの切り替わりを判定する処理の説明図Explanatory drawing of the process which determines the change of a scene 画像を分類する処理の説明図Explanatory diagram of processing to classify images 同一画像を判定する処理の説明図Explanatory drawing of the process which determines the same image 部分一致した画像を合成する処理の流れを示す図Diagram showing the flow of processing to synthesize partially matched images 部分一致した画像を合成する処理の説明図Explanatory drawing of processing to synthesize partially matched images 画像合成処理の流れを示す図Diagram showing the flow of image composition processing 動画の配信方法の説明図Illustration of video delivery method メタファイルの一例を示す図Diagram showing an example of a metafile 再生時のユーザインタフェースの一例を示す図The figure which shows an example of the user interface at the time of reproduction | regeneration メタファイルの構成を示す図Diagram showing metafile structure 専用ソフトを用いた動画再生処理の流れを示す図Diagram showing the flow of video playback processing using dedicated software

以下、図面を参照して本発明を実施するための形態について説明する。以下の実施の形態の構成は例示であり、本発明は実施の形態の構成に限定されない。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The configuration of the following embodiment is an exemplification, and the present invention is not limited to the configuration of the embodiment.

(1)システム構成
図1は、本発明に係る配信システムの構成図である。本例の配信システム10は、ウェブページを提供するウェブサーバ5と、動画データ(コンテンツ)のメタ情報を作成するメタファイル生成装置1と、メタ情報をユーザ端末3に提供するグリッドサーバ(メタサーバ)4と、動画データを配信する複数の配信サーバ2と、配信サーバ2から動画データを取得してリアルタイムに再生するユーザ端末3とを有している。
(1) System Configuration FIG. 1 is a configuration diagram of a distribution system according to the present invention. The distribution system 10 of this example includes a web server 5 that provides a web page, a metafile generation device 1 that creates meta information of moving image data (content), and a grid server (meta server) that provides meta information to the user terminal 3. 4, a plurality of distribution servers 2 that distribute moving image data, and a user terminal 3 that acquires moving image data from the distribution server 2 and reproduces it in real time.

ユーザ端末3が、動画データの配信をグリッドサーバ4に要求すると、グリッドサーバ4は、当該ユーザ端末3へメタファイルを送信する。ユーザ端末3は、メタファイルに基づき、動画データを構成する各画像を配信サーバ2から受信し、順次再生する。   When the user terminal 3 requests the grid server 4 to distribute moving image data, the grid server 4 transmits a metafile to the user terminal 3. The user terminal 3 receives each image constituting the moving image data from the distribution server 2 based on the metafile and sequentially reproduces the images.

本実施形態では、動画データを構成する各画像をそれぞれ一つの画像ファイルのように、一画像毎に取得可能とし、且つ複数の配信サーバに動画データを格納している。このため、動画データの再生中であっても、配信要求の輻輳等によって配信サーバ2との通信速度が充分に確保できなくなった場合、他の配信サーバに切り替えて以降の画像を取得することができる。   In the present embodiment, each image constituting the moving image data can be acquired for each image as one image file, and the moving image data is stored in a plurality of distribution servers. For this reason, even when the moving image data is being reproduced, if the communication speed with the distribution server 2 cannot be sufficiently secured due to the congestion of the distribution request or the like, it is possible to switch to another distribution server and acquire subsequent images. it can.

(2)メタファイル生成装置1のハードウェア構成
図2は、メタファイル生成装置1のハードウェア構成を示した図である。メタファイル生成装置1は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、ホストバス104と、ブリッ
ジ105と、外部バス106と、インタフェース107と、入力装置108と、出力装置110と、ストレージ装置(HDD)111と、通信装置115とを備えるコンピュータである。
(2) Hardware Configuration of Metafile Generation Device 1 FIG. 2 is a diagram showing a hardware configuration of the metafile generation device 1. The metafile generation device 1 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a host bus 104, a bridge 105, an external bus 106, and an interface 107. And an input device 108, an output device 110, a storage device (HDD) 111, and a communication device 115.

CPU101は、演算処理装置および制御装置として機能し、各種プログラムに従ってメタファイル生成装置1内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。ROM102は、CPU101が使用するプログラムや演算パラメータ等を記憶する。RAM103は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する所謂メインメモリである。これらはCPUバスなどから構成されるホストバス104により相互に接続されている。   The CPU 101 functions as an arithmetic processing device and a control device, and controls the overall operation in the metafile generation device 1 according to various programs. Further, the CPU 101 may be a microprocessor. The ROM 102 stores programs and calculation parameters used by the CPU 101. The RAM 103 is a so-called main memory that primarily stores programs used in the execution of the CPU 101, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 104 including a CPU bus.

ホストバス104は、ブリッジ105を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス106に接続されている。なお、必ずしもホス
トバス104、ブリッジ105および外部バス106を分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
The host bus 104 is connected to an external bus 106 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 105. Note that the host bus 104, the bridge 105, and the external bus 106 are not necessarily configured separately, and these functions may be mounted on one bus.

入力装置108は、例えば、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU101に出力する入力制御回路などから構成されている。メタファイル生成装置1のオペレータは、該入力装置108を操作することにより、メタファイル生成装置1に対して各種のデータを入力したり処理動作を指示したりすることができる。また、入力装置108は、CD−ROMドライブやメモリカードリーダといった記憶媒体の読み取り装置であっても良い。記憶媒体の読み取り装置は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、CPU101に入力する。   The input device 108 is, for example, an input means for a user to input information, such as a mouse, keyboard, touch panel, button, microphone, switch, and lever, and an input that generates an input signal based on the input by the user and outputs it to the CPU 101 It consists of a control circuit. The operator of the metafile generation device 1 can input various data and instruct processing operations to the metafile generation device 1 by operating the input device 108. The input device 108 may be a storage medium reading device such as a CD-ROM drive or a memory card reader. The storage medium reading device reads information recorded on a removable storage medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and inputs the information to the CPU 101.

出力装置110は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置およびランプなどの表示装置と、スピーカおよびヘッドホンなどの音声出力装置を備える。出力装置110は、例えば、CPU101の処理結果を出力する。具体的には、入力されたデータやシステムの稼働状況等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、メッセージや警告音、コンテンツの音声データ等を音として出力する。   The output device 110 includes, for example, a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device and a lamp, and an audio output device such as a speaker and headphones. The output device 110 outputs the processing result of the CPU 101, for example. Specifically, various information such as input data and the operating status of the system is displayed as text or images. On the other hand, the audio output device outputs messages, warning sounds, audio data of contents, and the like as sounds.

また、出力装置110は、CD−Rドライブやメモリカードライタといった記憶媒体の書き込み装置であっても良い。記憶媒体の書き込み装置は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体へ、CPU101の処理結果等の情報を出力(書き込み)する。   The output device 110 may be a storage medium writing device such as a CD-R drive or a memory card writer. The storage medium writing device outputs (writes) information such as the processing result of the CPU 101 to a removable storage medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

なお、入力装置108と出力装置110は、記憶媒体の読み書き装置(メモリカードリーダ・ライタ等)やタッチパネルを備えたディスプレイのように、一体的に設けられても良い。   Note that the input device 108 and the output device 110 may be provided integrally, such as a storage medium read / write device (such as a memory card reader / writer) or a display having a touch panel.

ストレージ装置111は、本実施形態にかかるメタファイル生成装置1の記憶部の一例として構成されたデータ格納用の装置であり、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。ストレージ装置111は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置111は、ハードディスクを駆動
し、CPU101が実行するプログラムや各種データを格納する。例えば、このストレージ装置111には、入力された格納先情報や作成したメタファイルなどを記憶する。
The storage device 111 is a data storage device configured as an example of a storage unit of the metafile generation device 1 according to the present embodiment. The storage device 111 is a storage medium, a recording device that records data on the storage medium, and data from the storage medium. A reading device that reads data and a deleting device that deletes data recorded in the storage medium can be included. The storage device 111 is configured with, for example, an HDD (Hard Disk Drive). The storage device 111 drives a hard disk and stores programs executed by the CPU 101 and various data. For example, the storage apparatus 111 stores input storage location information, a created metafile, and the like.

通信装置115は、例えば、通信網12に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置115は、無線LAN(Local Area Network)やワイヤレスUSBといったワイヤレス通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。   The communication device 115 is a communication interface configured with, for example, a communication device for connecting to the communication network 12. The communication device 115 may be a wireless communication device such as a wireless local area network (LAN) or a wireless USB, or a wire communication device that performs wired communication.

(3)メタファイル生成装置1の機能
図3は、本実施形態にかかるメタファイル生成装置1の機能ブロック図である。当該メタファイル生成装置1は、順序生成部131や、比較部132、入力受付部133、メタファイル生成部134を備える。これら順序生成部131や、比較部132、入力受付部133、メタファイル生成部134の機能は、主にCPU101がプログラムに従って処理を実行して通信装置115やストレージ装置111等の各部を制御して実現している。
(3) Function of Metafile Generation Device 1 FIG. 3 is a functional block diagram of the metafile generation device 1 according to the present embodiment. The metafile generation device 1 includes an order generation unit 131, a comparison unit 132, an input reception unit 133, and a metafile generation unit 134. The functions of the order generation unit 131, the comparison unit 132, the input reception unit 133, and the metafile generation unit 134 are mainly executed by the CPU 101 according to a program to control each unit such as the communication device 115 and the storage device 111. Realized.

順序生成部131は、動画データを構成する各画像を識別し、各画像の順に従って順序情報を生成する。   The order generation unit 131 identifies each image constituting the moving image data, and generates order information according to the order of each image.

比較部132は、動画データを構成する各画像を他の画像と比較し、少なくとも一部が一致した画像の一方を被参照画像、他方を参照画像とする。   The comparison unit 132 compares each image constituting the moving image data with another image, and sets at least one of the matched images as a reference image and the other as a reference image.

入力受付部133は、前記比較の結果によって一致しなかった画像、及び被参照画像を複数の配信サーバの記憶部に格納させた際の格納先を示す格納先情報の入力を受ける。   The input receiving unit 133 receives storage destination information indicating storage destinations when images that do not match as a result of the comparison and the referenced images are stored in storage units of a plurality of distribution servers.

メタファイル生成部134は、前記参照画像と当該参照画像に少なくとも一部が一致した被参照画像との対応関係を示す表示指示情報、前記順序情報、並びに、前記格納先情報を含むメタファイルを生成する。   The metafile generation unit 134 generates a metafile including display instruction information indicating a correspondence relationship between the reference image and a referenced image at least partially matching the reference image, the order information, and the storage destination information. To do.

(4)グリッドサーバのハードウェア構成
図4は、グリッドサーバ4のハードウェア構成を示した図である。グリッドサーバ4は、CPU(Central Processing Unit)401と、ROM(Read Only Memory)402と
、RAM(Random Access Memory)403と、ホストバス404と、ブリッジ405と、外部バス406と、インタフェース407と、入力装置408と、出力装置410と、ストレージ装置(HDD)411と、通信装置415とを備えるコンピュータである。
(4) Hardware Configuration of Grid Server FIG. 4 is a diagram illustrating a hardware configuration of the grid server 4. The grid server 4 includes a CPU (Central Processing Unit) 401, a ROM (Read Only Memory) 402, a RAM (Random Access Memory) 403, a host bus 404, a bridge 405, an external bus 406, an interface 407, The computer includes an input device 408, an output device 410, a storage device (HDD) 411, and a communication device 415.

CPU401は、演算処理装置および制御装置として機能し、各種プログラムに従ってグリッドサーバ4内の動作全般を制御する。また、CPU401は、マイクロプロセッサであってもよい。ROM402は、CPU401が使用するプログラムや演算パラメータ等を記憶する。RAM403は、CPU401の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する所謂メインメモリである。これらはCPUバスなどから構成されるホストバス404により相互に接続されている。   The CPU 401 functions as an arithmetic processing device and a control device, and controls the overall operation in the grid server 4 according to various programs. Further, the CPU 401 may be a microprocessor. The ROM 402 stores programs used by the CPU 401, calculation parameters, and the like. The RAM 403 is a so-called main memory that primarily stores programs used in the execution of the CPU 401, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 404 including a CPU bus.

ホストバス404は、ブリッジ405を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス406に接続されている。なお、必ずしもホス
トバス404、ブリッジ405および外部バス406を分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
The host bus 404 is connected to an external bus 406 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 405. Note that the host bus 404, the bridge 405, and the external bus 406 are not necessarily configured separately, and these functions may be mounted on one bus.

入力装置408は、例えば、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU401に出力する入力制御回路などから構成されている。グリッドサーバ4のオペレータは、該入力装置408を操作することにより、グリッドサーバ4に対して各種のデータを入力したり処理動作を指示したりすることができる。また、入力装置408は、CD−ROMドライブやメモリカードリーダといった記憶媒体の読み取り装置であっても良い。記憶媒体の読み取り装置は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、CPU401に入力する。   The input device 408 generates an input signal based on an input by the user, such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and a lever, and inputs input by the user and outputs the input signal to the CPU 401 It consists of a control circuit. The operator of the grid server 4 can input various data and instruct processing operations to the grid server 4 by operating the input device 408. The input device 408 may be a storage medium reading device such as a CD-ROM drive or a memory card reader. The storage medium reading device reads information recorded on a removable storage medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and inputs the information to the CPU 401.

出力装置410は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置およびランプなどの表示装置と、スピーカおよびヘッドホンなどの音声出力装置を備える。出力装置410は、例えば、CPU401の処理結果を出力する。具体的には、入力されたデータやシステムの稼働状況等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、メッセージや警告音、コンテンツの音声データ等を音として出力する。   The output device 410 includes a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device and a lamp, and an audio output device such as a speaker and headphones. The output device 410 outputs the processing result of the CPU 401, for example. Specifically, various information such as input data and the operating status of the system is displayed as text or images. On the other hand, the audio output device outputs messages, warning sounds, audio data of contents, and the like as sounds.

また、出力装置410は、CD−Rドライブやメモリカードライタといった記憶媒体の書き込み装置であっても良い。記憶媒体の書き込み装置は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体へ、CPU401の処理結果等の情報を出力(書き込み)する。   The output device 410 may be a storage medium writing device such as a CD-R drive or a memory card writer. The storage medium writing device outputs (writes) information such as the processing result of the CPU 401 to a removable storage medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

ストレージ装置411は、本実施形態にかかるグリッドサーバ4の記憶部の一例として構成されたデータ格納用の装置であり、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。ストレージ装置411は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置411は、ハードディスクを駆動し、C
PU401が実行するプログラムや各種データを格納する。例えば、このストレージ装置411には、メタファイル生成装置1から受信したメタファイルや、動画データを構成する各画像などを記憶する。
The storage device 411 is a data storage device configured as an example of a storage unit of the grid server 4 according to the present embodiment, and is a storage medium, a recording device that records data in the storage medium, and a read that reads data from the storage medium A deletion device for deleting data recorded on the device and the storage medium can be included. The storage device 411 is configured by an HDD (Hard Disk Drive), for example. The storage device 411 drives a hard disk, and C
Stores programs executed by the PU 401 and various data. For example, the storage device 411 stores a metafile received from the metafile generating device 1 and each image constituting the moving image data.

通信装置415は、例えば、通信網12に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置415は、無線LAN(Local Area Network)やワイヤレスUSBといったワイヤレス通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。   The communication device 415 is a communication interface configured with, for example, a communication device for connecting to the communication network 12. The communication device 415 may be a wireless communication device such as a wireless local area network (LAN) or a wireless USB, or a wire communication device that performs wired communication.

(5)グリッドサーバ4の機能
図5は、本実施形態にかかるグリッドサーバ4の機能ブロック図である。当該グリッドサーバ4は、メタファイル提供部432や、負荷制御部434を備える。これら要求受信部431や、メタファイル提供部432、負荷制御部434の機能は、主にCPU401がプログラムに従って処理を実行して通信装置415やストレージ装置411等の各部を制御して実現している。
(5) Function of Grid Server 4 FIG. 5 is a functional block diagram of the grid server 4 according to the present embodiment. The grid server 4 includes a metafile providing unit 432 and a load control unit 434. The functions of the request receiving unit 431, the metafile providing unit 432, and the load control unit 434 are realized mainly by the CPU 401 executing processing according to a program to control each unit such as the communication device 415 and the storage device 411. .

メタファイル提供部432は、ユーザ端末から受信した動画データの配信要求に対して、当該動画データを構成する各画像の格納先を示す格納先情報を含むメタファイルを当該ユーザ端末3に送信する。   In response to the moving image data distribution request received from the user terminal, the meta file providing unit 432 transmits a meta file including storage location information indicating the storage location of each image constituting the moving image data to the user terminal 3.

負荷制御部434は、配信中の動画データの数や、動画データの転送速度、再送要求の数等に基づいて配信状況を求め、この配信状況をユーザ端末3へ通知して配信状況の悪いユーザ端末3にグリッドサーバ4の切り換えを促す、或いは配信状況の悪いユーザ端末3に対して格納先情報から抽出した他の格納先を通知し、当該格納先に基づいて他のグリッドサーバ4へ切り換えるよう促す。   The load control unit 434 obtains the distribution status based on the number of moving image data being distributed, the transfer speed of the moving image data, the number of retransmission requests, and the like, and notifies the user terminal 3 of the distribution status so that the user with poor distribution status The terminal 3 is urged to switch the grid server 4 or the user terminal 3 having a poor distribution status is notified of another storage location extracted from the storage location information, and the other grid server 4 is switched based on the storage location. Prompt.

なお、本実施形態では、メタファイル提供部432、及び負荷制御部434をグリッドサーバ4に備える構成としたが、これに限らず、各機能部が本配信システム10に存在すれば、別の装置に備える構成であっても良い。例えば、メタファイル提供部432を配信サーバ2や、メタファイル生成装置1が備え、ユーザ端末3にメタファイルを提供する構成をとることも可能である。   In the present embodiment, the metafile providing unit 432 and the load control unit 434 are provided in the grid server 4. However, the present invention is not limited to this, and if each functional unit exists in the distribution system 10, another device is provided. The structure provided for may be sufficient. For example, the distribution server 2 or the metafile generation device 1 may include the metafile providing unit 432 and provide a metafile to the user terminal 3.

(6)配信サーバ2
また、配信サーバ2は、グリッドサーバ4と同様にCPU(Central Processing Unit
)と、ROM(Read Only Memory)と、RAM(Random Access Memory)と、ホストバスと、ブリッジと、外部バスと、インタフェースと、入力装置と、出力装置と、ストレージ装置(HDD)と、通信装置とを備えるコンピュータである。これらのハードウェア構成は、前述のグリッドサーバ4と略同じであるため図示を省略する。配信サーバ2のプログラムに従って、例えば配信部として機能し、ユーザ端末3からメタファイルに基づく画像の取得要求を受信した場合に、当該取得要求に応じた画像を前記記憶部から読み出して一画像毎に当該ユーザ端末へ配信する配信部としても機能する。
(6) Distribution server 2
Further, the distribution server 2 is similar to the grid server 4 in that the CPU (Central Processing Unit)
), ROM (Read Only Memory), RAM (Random Access Memory), host bus, bridge, external bus, interface, input device, output device, storage device (HDD), and communication device It is a computer provided with. Since these hardware configurations are substantially the same as those of the grid server 4, the illustration is omitted. According to the program of the distribution server 2, for example, functions as a distribution unit, and when an image acquisition request based on a metafile is received from the user terminal 3, an image corresponding to the acquisition request is read from the storage unit for each image. It also functions as a distribution unit that distributes to the user terminal.

(7)Webサーバ5
Webサーバ5は、グリッドサーバ4と同様にCPU(Central Processing Unit)と
、ROM(Read Only Memory)と、RAM(Random Access Memory)と、ホストバスと、ブリッジと、外部バスと、インタフェースと、入力装置と、出力装置と、ストレージ装置(HDD)と、通信装置とを備えるコンピュータである。これらのハードウェア構成は、前述のグリッドサーバ4と略同じであるため図示を省略する。Webサーバ5は、プログラムに従ってWebページを提供する機能を有する。例えば、URLによって特定されるWebページの閲覧要求をユーザ端末3から受信した場合、Webサーバ5は、当該Webページをストレージ装置111から読み出してユーザ端末3へ送信する。
図6は、Webページ提供部431によって提供されるWebページの例を示す図である。図6のWebページは、HTML等のマークアップランゲージによって記述され、動画データへのハイパーリンク91−94を含んでいる。
(7) Web server 5
As with the grid server 4, the Web server 5 has a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a host bus, a bridge, an external bus, an interface, and an input. A computer includes a device, an output device, a storage device (HDD), and a communication device. Since these hardware configurations are substantially the same as those of the grid server 4, the illustration is omitted. The Web server 5 has a function of providing a Web page according to a program. For example, when a browsing request for the Web page specified by the URL is received from the user terminal 3, the Web server 5 reads the Web page from the storage device 111 and transmits it to the user terminal 3.
FIG. 6 is a diagram illustrating an example of a web page provided by the web page providing unit 431. The Web page of FIG. 6 is described by a markup language such as HTML, and includes hyperlinks 91-94 to moving image data.

(8)ユーザ端末のハードウェア構成
図7は、本実施形態におけるユーザ端末3の概略構成図である。ユーザ端末3は、CPU(Central Processing Unit)301と、ROM(Read Only Memory)302と、RA
M(Random Access Memory)303と、ホストバス304と、ブリッジ305と、外部バス306と、インタフェース307と、入力装置308と、出力装置310と、ストレージ装置(HDD)311と、通信装置315とを備えるコンピュータである。ユーザ端末3は、例えばパーソナルコンピュータ、タブレット型コンピュータ、スマートフォン、携帯電話、半導体オーディオ、テレビ、テレビチューナー、STB(Set Top Box)、デジ
タルサイネージ等である。
(8) Hardware Configuration of User Terminal FIG. 7 is a schematic configuration diagram of the user terminal 3 in the present embodiment. The user terminal 3 includes a CPU (Central Processing Unit) 301, a ROM (Read Only Memory) 302, an RA
M (Random Access Memory) 303, host bus 304, bridge 305, external bus 306, interface 307, input device 308, output device 310, storage device (HDD) 311, and communication device 315 Computer. The user terminal 3 is, for example, a personal computer, a tablet computer, a smartphone, a mobile phone, semiconductor audio, a television, a TV tuner, an STB (Set Top Box), a digital signage, or the like.

CPU301は、演算処理装置および制御装置として機能し、各種プログラムに従ってユーザ端末3内の動作全般を制御する。また、CPU301は、マイクロプロセッサであってもよい。ROM302は、CPU301が使用するプログラムや演算パラメータ等を記憶する。RAM303は、CPU301の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する所謂メインメモリである。これらはCPUバスなどから構成されるホストバス304により相互に接続されている。   The CPU 301 functions as an arithmetic processing device and a control device, and controls the overall operation in the user terminal 3 according to various programs. Further, the CPU 301 may be a microprocessor. The ROM 302 stores programs used by the CPU 301, calculation parameters, and the like. The RAM 303 is a so-called main memory that primarily stores programs used in the execution of the CPU 301, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 304 including a CPU bus.

ホストバス304は、ブリッジ305を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス306に接続されている。なお、必ずしもホス
トバス304、ブリッジ305および外部バス306を分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
The host bus 304 is connected to an external bus 306 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 305. The host bus 304, the bridge 305, and the external bus 306 are not necessarily configured separately, and these functions may be mounted on one bus.

入力装置308は、例えば、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチ、リモコン(remote controller)およびレバーなどユーザが情報を入力するため
の入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU301に出力する入力制御回路などから構成されている。ユーザ端末3のオペレータは、該入力装置308を操作することにより、ユーザ端末3に対して各種のデータを入力したり処理動作を指示したりすることができる。また、入力装置308は、CD−ROMドライブやメモリカードリーダといった記憶媒体の読み取り装置であっても良い。記憶媒体の読み取り装置は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、CPU301に入力する。
The input device 308 generates input signals based on the input by the user and input means for the user to input information such as a mouse, keyboard, touch panel, button, microphone, switch, remote controller and lever, for example. And an input control circuit for outputting to the CPU 301. The operator of the user terminal 3 can input various data and instruct processing operations to the user terminal 3 by operating the input device 308. The input device 308 may be a storage medium reading device such as a CD-ROM drive or a memory card reader. A storage medium reading device reads information recorded on a removable storage medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and inputs the information to the CPU 301.

出力装置310は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置およびランプなどの表示装置と、スピーカおよびヘッドホンなどの音声出力装置を備える。出力装置310は、例えば、CPU301の処理結果を出力する。具体的には、入力されたデータやシステムの稼働状況等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、メッセージや警告音、コンテンツの音声データ等を音として出力する。   The output device 310 includes a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device and a lamp, and an audio output device such as a speaker and headphones. The output device 310 outputs the processing result of the CPU 301, for example. Specifically, various information such as input data and the operating status of the system is displayed as text or images. On the other hand, the audio output device outputs messages, warning sounds, audio data of contents, and the like as sounds.

また、出力装置310は、CD−Rドライブやメモリカードライタといった記憶媒体の書き込み装置であっても良い。記憶媒体の書き込み装置は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体へ、CPU301の処理結果等の情報を出力(書き込み)する。   The output device 310 may be a storage medium writing device such as a CD-R drive or a memory card writer. The storage medium writing device outputs (writes) information such as the processing result of the CPU 301 to a removable storage medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

ストレージ装置311は、本実施形態にかかるユーザ端末3の記憶部の一例として構成されたデータ格納用の装置であり、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。ストレージ装置311は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置311は、ハードディスクを駆動し、CPU
301が実行するプログラムや各種データを格納する。
The storage device 311 is a data storage device configured as an example of a storage unit of the user terminal 3 according to the present embodiment. The storage device 311 is a storage medium, a recording device that records data on the storage medium, and a read that reads data from the storage medium. A deletion device for deleting data recorded on the device and the storage medium can be included. The storage device 311 is composed of, for example, an HDD (Hard Disk Drive). The storage device 311 drives a hard disk and has a CPU.
A program executed by the server 301 and various data are stored.

通信装置315は、例えば、通信網12に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置315は、無線LAN(Local Area Network)やワイヤレスUSBといったワイヤレス通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。   The communication device 315 is a communication interface configured with, for example, a communication device for connecting to the communication network 12. The communication device 315 may be a wireless communication device such as a wireless local area network (LAN) or a wireless USB, or a wire communication device that performs wired communication.

なお、これらのハードウェア構成は、メタファイルに基づいて動画を再生するといったユーザ端末3の機能を実現できれば、これに限らず適宜変更可能である。例えば、デジタルサイネージにおいて、音声出力が必要ない装置であった場合、スピーカを省略しても良い。また、テレビ(モニタ)とSTBのように他の装置と組み合わせてユーザ端末の機能を実現するものでも良い。即ち、全ての要素を一つの装置内に有していなくても良い。   Note that these hardware configurations are not limited to this, and can be appropriately changed as long as the function of the user terminal 3 such as playing a moving image based on a metafile can be realized. For example, if the digital signage is a device that does not require audio output, the speaker may be omitted. Further, a user terminal function may be realized in combination with other devices such as a television (monitor) and an STB. That is, it is not necessary to have all the elements in one apparatus.

(9)ユーザ端末3の機能
図8は、本実施形態にかかるユーザ端末3の機能ブロック図である。当該ユーザ端末3は、要求送信部331や、メタファイル受信部333、取得要求部334、動画再生部335を備える。これら要求送信部331、メタファイル受信部333、取得要求部334、動画再生部335の機能は、主にCPU301がプログラムに従って処理を実行して通信装置315やストレージ装置311等の各部を制御して実現している。
(9) Function of User Terminal 3 FIG. 8 is a functional block diagram of the user terminal 3 according to the present embodiment. The user terminal 3 includes a request transmission unit 331, a metafile reception unit 333, an acquisition request unit 334, and a moving image reproduction unit 335. The functions of the request transmission unit 331, the metafile reception unit 333, the acquisition request unit 334, and the video playback unit 335 are mainly executed by the CPU 301 according to a program to control each unit such as the communication device 315 and the storage device 311. Realized.

要求送信部331は、配信サーバ2へWebページの閲覧要求や動画データの配信要求を送信する。例えば図6のハイパーリンク91−94が選択された場合に、リンク先である動画データのURLを配信サーバに送信することで、動画データの配信要求を行う。   The request transmission unit 331 transmits a web page browsing request and a moving image data distribution request to the distribution server 2. For example, when the hyperlink 91-94 in FIG. 6 is selected, a video data distribution request is made by transmitting the URL of the video data that is the link destination to the distribution server.

メタファイル受信部333は、配信サーバ2からメタファイルを受信し、RAM303或いはストレージ装置311に記憶させる。   The metafile receiving unit 333 receives the metafile from the distribution server 2 and stores it in the RAM 303 or the storage device 311.

取得要求部334は、受信したメタファイルの格納先情報に基づいて、動画データを構成する各画像の取得要求をそれぞれの格納先である配信サーバ2に対して送信する。また、取得要求部334は、グリッドサーバ4の負荷制御部434から配信状況を受信し、配信要求を行っている配信サーバ2の配信状況が悪ければ、配信の要求先を他の配信サーバ2へ切り換える。また、取得要求部334は、画像ファイルの転送速度や、再送要求の数、エラー率等に基づいて配信状況を求め、この配信状況に基づいて配信を要求する配信サーバ2を切り替えても良い。なお、配信を要求する配信サーバ2は、後述のメタファイルに複数記録され、この複数の配信サーバ2から選択する。   Based on the received storage location information of the metafile, the acquisition request unit 334 transmits an acquisition request for each image constituting the moving image data to the distribution server 2 that is the storage location. In addition, the acquisition request unit 334 receives the distribution status from the load control unit 434 of the grid server 4, and if the distribution status of the distribution server 2 making the distribution request is bad, the distribution request destination is sent to the other distribution server 2. Switch. Further, the acquisition request unit 334 may determine the distribution status based on the transfer speed of the image file, the number of retransmission requests, the error rate, and the like, and switch the distribution server 2 that requests the distribution based on the distribution status. A plurality of distribution servers 2 that request distribution are recorded in a metafile described later, and are selected from the plurality of distribution servers 2.

動画再生部335は、受信した画像をメタファイル(表示指示情報)に従って順次再生する。   The moving image reproduction unit 335 sequentially reproduces the received images according to the metafile (display instruction information).

なお、これらの要求送信部331、メタファイル受信部333、取得要求部334、動
画再生部335の機能を実行するためのプログラムは、所謂ウェブブラウザであっても良い。
The program for executing the functions of the request transmission unit 331, the metafile reception unit 333, the acquisition request unit 334, and the moving image reproduction unit 335 may be a so-called web browser.

(10)画像ファイル及びメタファイルの生成方法
図9−図17を用いて、メタファイル生成装置1による画像ファイル及びメタファイルの生成方法について説明する。図9は画像ファイル及びメタファイル生成方法の全体の流れを示す図、図10は各画像のメタデータを求める処理の流れを示す図、図11,図12はシーンの切り替わりを判定する処理の説明図、図13は画像を分類する処理の説明図、図14は同一画像を判定する処理の説明図、図15は部分一致した画像を合成する処理の流れを示す図、図16は部分一致した画像を合成する処理の説明図、図17はメタファイルの構成を示す図である。
(10) Method for Generating Image File and Metafile A method for generating an image file and a metafile by the metafile generating apparatus 1 will be described with reference to FIGS. 9 is a diagram showing the overall flow of the image file and metafile generation method, FIG. 10 is a diagram showing the flow of processing for obtaining metadata of each image, and FIGS. 11 and 12 are diagrams for explaining processing for determining scene switching. FIG. 13 is an explanatory diagram of processing for classifying images, FIG. 14 is an explanatory diagram of processing for determining the same image, FIG. 15 is a diagram showing a flow of processing for synthesizing partially matched images, and FIG. 16 is partially matched. FIG. 17 is a diagram illustrating the structure of a metafile.

メタファイル生成装置1は、処理対象の動画データを指定する情報、生成した画像ファイルの格納先情報及びメタファイルの生成指示が入力されると、図9に示すように、メタファイルの生成処理を開始する。先ず、メタファイル生成装置1は、指定された処理対象の動画データをストレージ装置111や記憶媒体の読み取り装置(入力装置108)から読み取り、各画像をRAM103上に読み出す(ステップS10)。なお、動画データが圧縮されている場合には復号し、各画像をそれぞれビットマップデータとする。   When the metafile generation device 1 receives the information for specifying the moving image data to be processed, the storage location information of the generated image file, and the metafile generation instruction, as shown in FIG. 9, the metafile generation processing is performed. Start. First, the metafile generation device 1 reads the designated moving image data to be processed from the storage device 111 or a storage medium reading device (input device 108), and reads each image on the RAM 103 (step S10). If the moving image data is compressed, it is decoded and each image is used as bitmap data.

次にメタファイル生成装置1は、各ファイルを一画像毎に一ファイル(画像ファイル)とし、ファイル名を付けてストレージ装置111やRAM103に一時的に記憶させる(ステップS20)。   Next, the metafile generating device 1 sets each file to one file (image file) for each image, and temporarily stores the file in the storage device 111 or the RAM 103 with a file name (step S20).

そして、メタファイル生成装置1は、各画像を他の画像と比較して各画像のメタデータを求める処理(ステップS40)を全ての画像について繰り返す(ステップS30−S50)。   Then, the metafile generation device 1 repeats the process of comparing each image with another image to obtain metadata for each image (step S40) for all images (steps S30 to S50).

各画像を比較してメタデータを求める処理(ステップS40)では、図10に示すように、先ず比較部132が、各画像を一つ前の画像と比較し(ステップS410)、一致度が高いか否かを判定する(S420)。この比較及び判定は、例えば当該画像と直前(一つ前)の画像の特徴点を夫々抽出し、当該画像の特徴点と直前の画像特徴点との相関をと
り、対応する特徴点を求め、当該画像において抽出した特徴点の数と対応する特徴点の数の割合を一致度として算出する。
In the process of comparing each image to obtain metadata (step S40), as shown in FIG. 10, the comparison unit 132 first compares each image with the previous image (step S410), and the degree of coincidence is high. It is determined whether or not (S420). For this comparison and determination, for example, the feature points of the image and the immediately preceding (previous) image are respectively extracted, the feature points of the image and the immediately preceding image feature points are correlated, and the corresponding feature points are obtained. The ratio between the number of feature points extracted in the image and the number of corresponding feature points is calculated as the degree of coincidence.

図11では、画像82を直前の画像81と比較した場合を示す。画像82の特徴点として抽出した箇所に、便宜上点を表示したものが82Aである。同様に画像81の特徴点として抽出した箇所に、便宜上点を表示したものが81Aである。画像82Aにおける特徴点の周囲の情報をテンプレートとし、画像81A上でテンプレートマッチングによって一致する部分を探し、一致した部分の特徴点を対応する特徴点とする。このように対応する特徴点と対応しない特徴点の割合を算出し、対応する特徴点の割合、即ち一致度が閾値以上、例えば60%以上の場合に同一シーンと判定する。なお、同一シーン内であっても登場人物の動きや背景の移動があり、それなりの画像の変化が想定されるため、同一シーンと判定するための閾値は低めに設定する。また、フレームレートが高い程、画像間の差が少なくなるため、この閾他を高く設定しても良い。また、画像の解像度が低い程、画像間の差が少なくなるので、この閾値を高く設定しても良い。   FIG. 11 shows a case where the image 82 is compared with the immediately preceding image 81. A point 82 </ b> A is displayed as a point for convenience at the location extracted as the feature point of the image 82. Similarly, 81A is a point where points are displayed for convenience in the points extracted as feature points of the image 81. Information around the feature point in the image 82A is used as a template, a matching part is searched for by template matching on the image 81A, and the feature point of the matching part is set as a corresponding feature point. Thus, the ratio of the feature points that do not correspond to the corresponding feature points is calculated, and if the ratio of the corresponding feature points, that is, the degree of coincidence is equal to or higher than a threshold, for example, 60% or higher, the scenes are determined to be the same. Note that even within the same scene, the characters move and the background moves, and a certain change in the image is assumed. Therefore, the threshold for determining the same scene is set low. Also, the higher the frame rate, the smaller the difference between images, so this threshold and others may be set higher. Also, the lower the image resolution, the smaller the difference between the images, so this threshold value may be set higher.

図11に示したように、類似した画像を比較した場合、略同じように特徴点が得られ、対応する特徴点が多いので、一致度が高いと判定される。   As shown in FIG. 11, when similar images are compared, feature points are obtained in substantially the same manner, and since there are many corresponding feature points, it is determined that the degree of coincidence is high.

図12では、画像84を直前の画像83と比較した場合を示す。画像84の特徴点とし
て抽出した箇所に、便宜上点を表示したものが84Aである。同様に画像83の特徴点として抽出した箇所に、便宜上点を表示したものが83Aである。画像84Aにおける特徴点周囲の画素の情報をテンプレートとし、画像83A上でテンプレートマッチングによって一致する部分を探し、一致した部分の特徴点を対応する特徴点とする。このように対応する特徴点と対応しない特徴点の割合を算出し、対応する特徴点の割合、即ち一致度が閾値以上、例えば60%以上の場合に同一シーンと判定する。
FIG. 12 shows a case where the image 84 is compared with the immediately preceding image 83. A point 84A is displayed as a point for convenience at the location extracted as the feature point of the image 84. Similarly, 83A is a point where points are displayed for convenience in the extracted points of the image 83. Information on pixels around the feature point in the image 84A is used as a template, a matching portion is searched for by template matching on the image 83A, and the feature point of the matching portion is set as a corresponding feature point. Thus, the ratio of the feature points that do not correspond to the corresponding feature points is calculated, and if the ratio of the corresponding feature points, that is, the degree of coincidence is equal to or higher than a threshold, for example, 60% or more, the scene is determined to be the same.

図12に示したように、類似しない画像を比較した場合、当然抽出した特徴点に類似は見られず、対応する特徴点が少ないので、一致度が閾値未満と判定される。   As shown in FIG. 12, when dissimilar images are compared, naturally the extracted feature points are not similar, and the corresponding feature points are few, so the degree of coincidence is determined to be less than the threshold value.

ステップS420で一致度が高いと判定された場合(S420,Yes)、当該画像が直前の画像と同じシーンであると認識し、比較部132は、直前の画像のシーンIDと同じシーンIDを持つ画像をメタファイルからリストアップし(ステップS430)、順次RAM103上に読み出して、当該画像を同一シーン内の他の画像と比較する(ステップS440)。そして、この比較により、当該画像が、カメラをパン又はチルトして撮影したように、徐々にシフトする画像(本実施形態ではスクロール画像と称する)であるか否かの判定を行う(ステップS450)。なお、スクロール画像は、カメラで撮影した画像に限定されるものではなく、パンやチルトと同様に一方向へシフトするように作成されたアニメーションやコンピュータグラフィクスであっても良い。   If it is determined in step S420 that the degree of coincidence is high (S420, Yes), the image is recognized as the same scene as the immediately preceding image, and the comparison unit 132 has the same scene ID as the scene ID of the immediately preceding image. Images are listed from the metafile (step S430), sequentially read onto the RAM 103, and the images are compared with other images in the same scene (step S440). Based on this comparison, it is determined whether or not the image is a gradually shifting image (referred to as a scroll image in the present embodiment) as if the image was taken by panning or tilting the camera (step S450). . Note that the scroll image is not limited to an image photographed by a camera, and may be an animation or computer graphics created so as to shift in one direction, like pan and tilt.

図13では、当該画像86を他の画像85と比較する例を示している。これらの画像85,86の特徴点を抽出し、画像85A,86Aのように複数の領域に分割して比較し、特徴点の移動が検出され、複数の領域の全てで同方向の移動が検出された場合、当該画像86は、スクロール画像と判定する(ステップS450,Yes)。そして、前画像との差分を前画像に合成して被参照画像とし(ステップS470)、合成後の被参照画像を所定の記憶領域に登録させる。
ここで所定の記憶領域とは、ストレージ装置111のデータ領域であっても良いし、格納先として指定された配信サーバ2上の記憶領域であっても良い。また、格納する際のファイル名は、例えば動画データを特定する情報(作品ID)と画像を特定する情報(画像ID)を組み合わせたものとしても良い。そして、メタファイル生成部134は、このスクロール画像(参照画像)を識別するための情報と、合成後の被参照画像を識別するための情報と、合成後の被参照画像のうち当該スクロール画像に相当する領域を示す領域情報とを対応つけてメタデータとしてメタファイルに記録する(ステップS490)。これによりスクロール画像86の配信を省略しても、ユーザ端末3の動画再生部335がメタファイルに基づいて合成後の被参照画像から該当領域を読み出し、スクロール画像86に代えて表示させることで動画を再生でき、配信するデータ量を削減できる。
一方、ステップS450でスクロール画像で無かった場合(ステップS450,No)、当該画像を同一シーン内の他の画像と比較して同一画像があるか否かを判定する(ステップS460)。
FIG. 13 shows an example in which the image 86 is compared with another image 85. The feature points of these images 85 and 86 are extracted, divided into a plurality of areas and compared as in the images 85A and 86A, the movement of the feature points is detected, and the movement in the same direction is detected in all of the plurality of areas. If it is determined, the image 86 is determined as a scroll image (step S450, Yes). Then, the difference from the previous image is combined with the previous image as a referenced image (step S470), and the combined referenced image is registered in a predetermined storage area.
Here, the predetermined storage area may be a data area of the storage device 111 or a storage area on the distribution server 2 designated as a storage destination. Moreover, the file name at the time of storage is good also as what combined the information (work ID) which specifies moving image data, and the information (image ID) which specifies an image, for example. Then, the metafile generation unit 134 includes information for identifying the scroll image (reference image), information for identifying the reference image after synthesis, and the scroll image among the reference images after synthesis. The area information indicating the corresponding area is associated and recorded as metadata in the metafile (step S490). Thus, even if the delivery of the scroll image 86 is omitted, the moving image reproduction unit 335 of the user terminal 3 reads the corresponding area from the combined reference image based on the metafile, and displays it in place of the scroll image 86 to display the moving image. Can be played and the amount of data to be distributed can be reduced.
On the other hand, if it is not a scroll image in step S450 (No in step S450), the image is compared with other images in the same scene to determine whether there is the same image (step S460).

図14は、同一の画像と判定する場合の具体例を示す。図14において、画像71−75が、ステップS20にて動画データから作成した各画像であり、画像73について他の画像と比較する処理を説明する。   FIG. 14 shows a specific example in the case of determining that the images are the same. In FIG. 14, images 71 to 75 are each image created from the moving image data in step S <b> 20, and processing for comparing the image 73 with other images will be described.

比較部132は、先のステップS420で画像73を直前の画像72と比較した際、画像全体としては類似しており、一致度が閾値より高いと判定し、当該画像73が直前の画像73と同一シーンであると判定し、同様に同一シーンと判定された他の画像(本例では画像71,72)を抽出して同一か否かの比較を行う(ステップS450)。図14において、当該画像73及び他の画像71,72の特徴点を抽出した画像が73A及び71A,72Aである。ここで画像71−75は登場人物が話をしているシーンであるので、画
像73Aと画像72Aを複数の領域で比較すると、口元を含む領域73Bと領域72Bとが異なり、同一の画像ではないと判別する。一方、画像73Aと画像71Aを比較した場合、同じく口を閉じた瞬間の画像であるため、複数の領域で比較しても、口元を含む領域73Bと領域71Bや、その他全ての領域の一致度が高く、同一の画像と判別する。なお、図14では便宜上、領域71B〜73Bの違いのみを示したが、実際にはどこの領域に違いが表れるのかは分からないため、画像全域について比較を行う。
When comparing the image 73 with the immediately preceding image 72 in the previous step S420, the comparing unit 132 determines that the image as a whole is similar and the degree of coincidence is higher than the threshold, and the image 73 is different from the immediately preceding image 73. It is determined that they are the same scene, and other images (images 71 and 72 in this example) that are similarly determined to be the same scene are extracted and compared to determine whether they are the same (step S450). In FIG. 14, images obtained by extracting feature points of the image 73 and the other images 71 and 72 are 73A and 71A and 72A. Here, since the images 71-75 are scenes in which the characters are talking, comparing the image 73A and the image 72A with a plurality of regions, the region 73B including the mouth and the region 72B are different and are not the same image. Is determined. On the other hand, when the image 73A and the image 71A are compared, they are also images at the moment when the mouth is closed. Therefore, even if a plurality of areas are compared, the degree of coincidence between the areas 73B and 71B including the mouth and all other areas. Are high and are determined to be the same image. In FIG. 14, for the sake of convenience, only the difference between the areas 71B to 73B is shown. However, since it is not known in which area the difference actually appears, the entire image is compared.

このように当該画像86が他の画像85と同一であれば、当該画像86の表示に代えて他の画像85を再表示することでも動画の再生が可能である。そこで本実施形態では、ステップS450で比較部132が比較した結果、画像86を画像85と同一の参照画像と分類した場合、メタファイル生成部134は、この参照画像86を示すメタデータと、被参照画像85を示すメタデータをメタファイルに記録する(ステップS490)。これにより同一の参照画像86の配信を省略しても、ユーザ端末3の動画再生部335がメタファイルに基づいて被参照画像85を参照し、参照画像86に代えて表示させることで動画を再生でき、配信するデータ量を削減できる。   As described above, if the image 86 is the same as the other image 85, the moving image can be reproduced by redisplaying the other image 85 instead of displaying the image 86. Therefore, in this embodiment, when the comparison unit 132 compares in step S450 and classifies the image 86 as the same reference image as the image 85, the metafile generation unit 134 includes the metadata indicating the reference image 86, Metadata indicating the reference image 85 is recorded in the metafile (step S490). As a result, even if the distribution of the same reference image 86 is omitted, the moving image reproduction unit 335 of the user terminal 3 refers to the referenced image 85 based on the metafile and reproduces the moving image by displaying it instead of the reference image 86. And the amount of data to be distributed can be reduced.

また、ステップS460で比較部132が比較した結果、同一の画像が同一シーン内に無かった場合、この画像(一般画像)を配信対象の画像ファイルとして所定の記憶領域に登録させ(ステップS480)、メタファイル生成部134が、この画像を識別するためのメタデータ(画像IDや格納先等)をメタファイルに記録する(ステップS490)。   Further, as a result of the comparison by the comparison unit 132 in step S460, if the same image is not in the same scene, this image (general image) is registered as a distribution target image file in a predetermined storage area (step S480), The metafile generation unit 134 records metadata (image ID, storage destination, etc.) for identifying this image in the metafile (step S490).

同様に、ステップS420で比較部132が、比較の結果、直前の画像との一致度が低い画像を新シーンの最初の画像と認識した場合(ステップS425)、当該画像を所定の記憶領域に登録させ(ステップS480)、メタファイル生成部134が、この画像のメタデータをメタファイルに記録する(ステップS490)。この画像のメタデータとしては、例えば、ステップS425で認識した新しいシーンのシーンIDを当該画像の情報と対応付けてメタファイルに登録しても良い。シーンIDは、シーンを特定する識別情報であり、例えば認識した順にシリアル番号を付与する。   Similarly, when the comparison unit 132 recognizes in step S420 that an image having a low degree of coincidence with the immediately preceding image is the first image of the new scene as a result of comparison (step S425), the image is registered in a predetermined storage area. In step S480, the metafile generation unit 134 records the metadata of the image in the metafile (step S490). As the metadata of the image, for example, the scene ID of the new scene recognized in step S425 may be registered in the metafile in association with the information of the image. The scene ID is identification information for specifying a scene, and for example, serial numbers are given in the order of recognition.

なお、一般画像は、後続の画像について図9のステップS30〜S50を繰り返した際、後続の画像と一致した場合には、被参照画像とされメタファイルが更新される。   Note that, when the steps S30 to S50 in FIG. 9 are repeated for the subsequent image when the general image matches the subsequent image, it is set as a referenced image and the metafile is updated.

メタファイル生成装置1は、上記のように作成したメタファイルをグリッドサーバ4に送信する。   The metafile generation device 1 transmits the metafile created as described above to the grid server 4.

(11)スクロール画像の被参照画像を合成する処理の詳細
ステップS470の合成処理について図15,図16を用いて詳細に説明する。図15において、画像61−64が、ステップS20にて動画データから作成された画像であり、先ず画像62について分類する処理を説明する。
(11) Details of Processing for Combining Reference Images of Scroll Images The composition processing in step S470 will be described in detail with reference to FIGS. In FIG. 15, images 61 to 64 are images created from the moving image data in step S <b> 20, and a process for first classifying the image 62 will be described.

比較部132は、ステップS420で画像62を直前の画像61と比較した場合、画像全体としては類似しており、一致度が閾値より高いと判定し、同一シーンの他の画像として画像61を抽出して比較する(ステップS430,S440)。当該画像62及び他の画像61の定量化を行い、特徴点を抽出した画像が62A及び61Aである。ここで画像61−64は山の麓から山頂方向へチルトして撮影したシーンであるので、画像62Aの複数の領域A1−A9について夫々画像61Aと比較すると、山頂方向の領域A1−A3では一致度が低く、その他の領域A4−A9では一致度が高い。また、領域A4−A9における特徴点が一方向に移動している。例えば、画像61Aの領域A1における特徴点P11と対応する画像62Aの特徴点P11は矢印60方向に移動している。また、領域A5−A9の特徴点P12−P16についても矢印60と同じ方向に移動(スクロール)し
ている。
When the comparison unit 132 compares the image 62 with the immediately preceding image 61 in step S420, the comparison unit 132 determines that the entire image is similar and the matching degree is higher than the threshold, and extracts the image 61 as another image of the same scene. Are compared (steps S430 and S440). 62A and 61A are images obtained by quantifying the image 62 and the other image 61 and extracting feature points. Here, since the image 61-64 is a scene taken by tilting from the top of the mountain toward the top of the mountain, the plurality of regions A1-A9 of the image 62A match each other in the region A1-A3 in the mountain top direction when compared with the image 61A. The degree of coincidence is low, and the degree of coincidence is high in the other regions A4-A9. In addition, the feature points in the region A4-A9 are moved in one direction. For example, the feature point P11 of the image 62A corresponding to the feature point P11 in the region A1 of the image 61A has moved in the direction of the arrow 60. Further, the feature points P12 to P16 of the area A5-A9 are also moved (scrolled) in the same direction as the arrow 60.

即ち、画像62は、画像61と比べて矢印60方向にスクロールした画像であり、スクロールによって新たに画像62内に入った領域62Cが画像61と異なる差分で、その他の領域62Dは画像61と一致する。そこで、画像61に差分領域62Cを加えて被参照画像61Bを合成すると共に、合成後の被参照画像61Bのうち参照画像62と一致する領域62Eを特定する領域情報を生成する。   That is, the image 62 is an image scrolled in the direction of the arrow 60 as compared with the image 61, and a region 62 </ b> C newly entered in the image 62 by scrolling is different from the image 61, and the other region 62 </ b> D matches the image 61. To do. Therefore, the difference image 62C is added to the image 61 to synthesize the reference image 61B, and region information for specifying the region 62E that matches the reference image 62 in the combined reference image 61B is generated.

同様に以降のスクロール画像についても画像の定量化、比較、合成の処理を繰り返して、図16に示すように画像63の画像62との差分領域63Cを被参照画像61Bに加えて被参照画像61Cを合成すると共に、合成後の被参照画像61Cのうち参照画像63と一致する領域63Eを特定する領域情報を生成する。   Similarly, for the subsequent scroll images, the image quantification, comparison, and synthesis processes are repeated, and as shown in FIG. 16, the difference area 63C of the image 63 from the image 62 is added to the referenced image 61B, and the referenced image 61C. Are combined, and region information for specifying a region 63E that matches the reference image 63 in the combined reference image 61C is generated.

更に画像64の画像63との差分領域64Cを被参照画像61Cに加えて被参照画像61Dを合成すると共に、合成後の被参照画像61Dのうち参照画像64と一致する領域64Eを特定する領域情報を生成する。   Further, a difference area 64C between the image 64 and the image 63 is added to the referenced image 61C to synthesize the referenced image 61D, and area information for specifying the area 64E that matches the reference image 64 in the combined referenced image 61D. Is generated.

これらの被参照画像を合成する処理、即ち図10に示すステップS470の処理の詳細なフローについて図17を用いて説明する。ステップS450にて画像92がスクロール画像と判別した場合、比較部132は、一致度の高い画像、通常は直前の画像61を所定の記憶領域から抽出する(ステップS510)。そしてスクロール画像62と直前の画像61の中心付近の領域を比較し(ステップS520)、移動量と方向を求める(ステップS530)。   A detailed flow of the process of combining these referenced images, that is, the process of step S470 shown in FIG. 10 will be described with reference to FIG. If the image 92 is determined to be a scroll image in step S450, the comparison unit 132 extracts an image with a high degree of coincidence, usually the immediately preceding image 61 from a predetermined storage area (step S510). Then, the area near the center of the scroll image 62 and the previous image 61 is compared (step S520), and the movement amount and direction are obtained (step S530).

この移動量と方向に基づいて、画像合成部135は、スクロール画像中の差分領域を切り出し(ステップS540)、差分領域を直前の画像61に加え(ステップS550)、被参照画像61Bを合成する(ステップS560)。また、ステップS560では、メタファイル生成部134が、合成後の被参照画像61のうち、スクロール画像62に相当する領域を示す領域情報を生成する。   Based on the movement amount and direction, the image composition unit 135 cuts out the difference area in the scroll image (step S540), adds the difference area to the immediately preceding image 61 (step S550), and composes the referenced image 61B ( Step S560). In step S560, the metafile generation unit 134 generates area information indicating an area corresponding to the scroll image 62 in the combined reference image 61.

また、メタファイル生成部134は、合成前の被参照画像61を配信用データの格納場所から削除する(ステップS570)。   In addition, the metafile generation unit 134 deletes the reference image 61 before composition from the distribution data storage location (step S570).

ステップS570の終了後、図10に示すステップS480の処理に戻り、合成後の被参照画像を所定の記憶領域に登録させる。   After the completion of step S570, the process returns to the process of step S480 shown in FIG. 10, and the reference image after synthesis is registered in a predetermined storage area.

(12)動画の配信方法及び再生方法
図18は動画の配信方法の説明図である。ユーザが図6に示すようなWebページ中のリンクを選択すると、ユーザ端末3は、リンク先の情報(URL等)に従ってグリッドサーバ4にアクセスし、このURLや、URLに含まれるパラメータを配信サーバ2に通知することで配信要求を行う(ステップS100)。
(12) Moving Image Distribution Method and Playback Method FIG. 18 is an explanatory diagram of a moving image distribution method. When the user selects a link in the Web page as shown in FIG. 6, the user terminal 3 accesses the grid server 4 according to the link destination information (URL, etc.), and sends the URL and parameters included in the URL to the distribution server. 2 is notified (step S100).

ユーザ端末3からの配信要求を受信したグリッドサーバ4は、各配信サーバ2の負荷状況を確認し(ステップS103)、例えば負荷が均等に分散されるように当該ユーザ端末3への配信を行う配信サーバ2を決定する(ステップS106)。そして、グリッドサーバ4は、ユーザ端末3から配信要求として通知されたURLやパラメータ等の識別情報と対応する動画のメタファイルに、当該配信サーバを示す情報を付加し、要求元のユーザ端末3へ送信する(ステップS110)。   The grid server 4 that has received the distribution request from the user terminal 3 checks the load status of each distribution server 2 (step S103), and performs distribution to the user terminal 3 so that the load is evenly distributed, for example. The server 2 is determined (step S106). Then, the grid server 4 adds information indicating the distribution server to the metafile of the moving image corresponding to the identification information such as the URL and the parameter notified from the user terminal 3 as the distribution request, and sends it to the requesting user terminal 3. Transmit (step S110).

メタファイルを受信したユーザ端末は、メタファイルに画像のリスト(配信リスト)に
基づいて格納先の配信サーバ2へ各画像の取得を要求する(ステップS120)。ここで、画像の取得を要求する配信サーバ2は、メタファイルを要求したサーバに限らず、メタファイルに格納先として示された複数の配信サーバ2のうち何れのものでも良い。また複数の配信サーバ2に並行して取得を要求し、それぞれから画像ファイルを受信しても良い
取得要求を受信した配信サーバ2は、該当の画像ファイルを要求元のユーザ端末3へ送信する(ステップS130)。
The user terminal that has received the metafile requests the metafile to acquire each image from the storage server 2 based on the image list (distribution list) (step S120). Here, the distribution server 2 that requests acquisition of an image is not limited to the server that requested the metafile, and may be any of a plurality of distribution servers 2 indicated as storage locations in the metafile. The distribution server 2 may request acquisition from a plurality of distribution servers 2 in parallel and receive image files from each of the distribution servers 2. The distribution server 2 that has received the acquisition request transmits the corresponding image file to the requesting user terminal 3 ( Step S130).

画像ファイルを受信したユーザ端末3は、当該画像ファイルをバッファとしての記憶部に記憶する(ステップS140)。ここで画像ファイルをバッファリングする記憶部は、ストレージ装置311であっても良いが、配信終了後にファイルが残らないRAM303とするのが好ましい。
ユーザ端末3は、受信した画像をメタファイルに従って順次表示する表示することで動画の再生を行う(ステップS150)。
The user terminal 3 that has received the image file stores the image file in a storage unit serving as a buffer (step S140). Here, the storage unit for buffering the image file may be the storage device 311, but is preferably the RAM 303 in which the file does not remain after the distribution ends.
The user terminal 3 reproduces the moving image by displaying the received images sequentially according to the metafile (step S150).

そして、ユーザ端末3は、配信リストの画像を全て受信するまでステップS120以降の処理を繰り返す(ステップS160)。   And the user terminal 3 repeats the process after step S120 until it receives all the images of a delivery list (step S160).

図19は、メタファイルの一例を示す図である。本実施形態では、メタ情報をマークアップ言語で記述し、ユーザ端末3のソフトウェア(所謂ブラウザ)がこの記述に従って画像を表示することで動画を再生するようにしている。
図19において、記述51のfps=60が、画像を表示する際のフレームレートを示す属性であり、1秒間に60枚の画像を表示させることを示している。
また、記述52のhref=が画像を配信サーバ2から取得することを示す情報であり、こ
れに続く記述54の"http://xxx.23.122.33/server1/1932108392089.png"が格納先とファイル名(識別情報)である。そして、この記述の順が、再生順を示す順序情報となる。
また、記述53の"reload" scope="scene" href="/12903840298340929.html"が、被参
照画像を再表示させる記述である。
このように、再生に必要な情報をマークアップ言語で記述することにより、ユーザ端末3側では、一般的なブラウザで本実施形態の動画再生を実現できる。
FIG. 19 is a diagram illustrating an example of a metafile. In this embodiment, the meta information is described in a markup language, and the moving image is reproduced by displaying the image according to the description by the software of the user terminal 3 (so-called browser).
In FIG. 19, fps = 60 in the description 51 is an attribute indicating the frame rate at the time of displaying an image, and indicates that 60 images are displayed per second.
Further, href = of the description 52 is information indicating that an image is acquired from the distribution server 2, and “http: //xxx.23.122.33/server1/1932108392089.png” of the description 54 following this is the storage destination. File name (identification information). The order of this description becomes order information indicating the reproduction order.
Also, “reload” scope = “scene” href = “/ 12903840298340929.html” in the description 53 is a description for redisplaying the referenced image.
As described above, by describing information necessary for reproduction in the markup language, the user terminal 3 can realize the reproduction of the moving image according to the present embodiment with a general browser.

また、これに限らず、メタ情報に基づいて、再表示やスクロール表示等をユーザ端末側で判断して実行する専用のソフトウェア(プレーヤー)を用いても良い。
図22は専用のプレーヤーを用いた場合の動画の再生方法の説明図である。図18のステップS140でバッファリングした画像が所定以上になった場合、ユーザ端末3の動画再生部335はメタファイルの再生順に従って各画像の再生処理を開始する(ステップS610)。
Further, the present invention is not limited thereto, and dedicated software (player) that determines and executes redisplay, scroll display, and the like on the user terminal side based on the meta information may be used.
FIG. 22 is an explanatory diagram of a moving image playback method when a dedicated player is used. When the number of images buffered in step S140 in FIG. 18 exceeds a predetermined value, the moving image playback unit 335 of the user terminal 3 starts playback processing of each image according to the playback order of the metafile (step S610).

動画再生部335は、先ず再生する画像の種類が同一画像か否かを判定し(ステップS620)、同一画像であればメタファイルに基づき当該同一画像の被参照画像として記録されている被参照画像をバッファから読み出して表示装置に表示させる(ステップS630)。   The moving image reproduction unit 335 first determines whether or not the type of image to be reproduced is the same image (step S620). If the image is the same image, the referenced image recorded as the referenced image of the same image based on the metafile. Is read from the buffer and displayed on the display device (step S630).

また、ステップS620で画像の種類が同一画像で無い場合、シフト画像か否かを判定する(ステップS640)。ここで、シフト画像であればメタファイルに基づき当該シフト画像の被参照画像として記録されている被参照画像をバッファから読み出して、領域情報に基づいて当該シフト画像に相当する領域を切り出し(ステップS650)、切り出した領域をシフト画像に代えて表示させる(ステップS660)。   If the image types are not the same in step S620, it is determined whether the images are shifted images (step S640). Here, if it is a shift image, the reference image recorded as the reference image of the shift image is read from the buffer based on the metafile, and an area corresponding to the shift image is cut out based on the area information (step S650). ), The cut-out area is displayed instead of the shift image (step S660).

また、ステップS640で画像の種類がシフト画像で無い場合(ステップS640,No)、当該画像の種類が一般画像か被参照画像であるので、バッファから当該画像を読み
出して表示する(ステップS670)。
If the image type is not a shift image in step S640 (No in step S640), the image type is a general image or a referenced image, and the image is read from the buffer and displayed (step S670).

そして、動画再生部335は、メタファイルの順序情報に基づいて次に再生する画像が有るか否かを判定し、次の画像があればステップS610に戻って再生処理を繰り返し、次の画像がなければ図19の処理を終了する。   Then, the moving image reproduction unit 335 determines whether there is an image to be reproduced next based on the order information of the metafile. If there is a next image, the process returns to step S610 to repeat the reproduction process, and the next image is determined. If not, the process in FIG. 19 ends.

このように図18の処理により配信サーバ2からユーザ端末3へ画像単位で配信し、これと並行してユーザ端末3が受信してバッファに格納した画像を図19に示すようにメタファイルに従って再生することで、動画データの再生を行うことができる。   In this way, the image is distributed from the distribution server 2 to the user terminal 3 by the processing of FIG. 18 and the image received by the user terminal 3 and stored in the buffer in parallel is reproduced according to the metafile as shown in FIG. By doing so, it is possible to reproduce the moving image data.

図20は、再生時のユーザインタフェースの一例である。図20において、動画を構成する各画像は、動画表示欄51に表示される。動画表示欄51の下方に配置された操作部50は、動画の再生や早送り、巻き戻し等の操作を行うためのボタン群である。   FIG. 20 shows an example of a user interface during playback. In FIG. 20, each image constituting the moving image is displayed in the moving image display field 51. The operation unit 50 arranged below the moving image display column 51 is a group of buttons for performing operations such as reproduction, fast forward, and rewind of moving images.

動画再生部335は、動画の再生中に再生/停止ボタン52が選択されると、動画の再生を停止し、このとき表示されている画像の表示を続け静止状態とする。また、動画の停止中に再生/停止ボタン52が選択されると、動画の再生が開始される。早送りボタン53が選択されると、動画再生部335は、ステップS610で順序情報に基づいて再生対象の画像を選択する際、順番を飛ばして画像を選択し、再生を行う。例えば2倍速で再生する場合には画像を一つ置きに再生し、4倍速で再生する場合には画像を3つ置きに再生する。また、これと並行して取得要求部334は、順番を飛ばして取得する画像を要求し、バッファに格納して行く。   When the play / stop button 52 is selected during the reproduction of the moving image, the moving image reproduction unit 335 stops the reproduction of the moving image, and continues to display the image displayed at this time to be in a stationary state. When the play / stop button 52 is selected while the moving image is stopped, the moving image is started to be played. When the fast-forward button 53 is selected, the moving image playback unit 335 skips the order and selects and plays back images when selecting an image to be played back based on the order information in step S610. For example, every other image is reproduced when reproducing at double speed, and every third image is reproduced when reproducing at quadruple speed. In parallel with this, the acquisition request unit 334 requests images to be acquired out of order and stores them in the buffer.

シーン送りボタン54が選択されると、動画再生部335は、ステップS610で順序情報に基づいて再生対象の画像を選択する際、次のシーンの先頭画像を選択し、再生を行う。これと並行して取得要求部334は、シーンを飛ばして取得する画像を要求し、バッファに格納して行く。   When the scene advance button 54 is selected, the moving image reproduction unit 335 selects and reproduces the first image of the next scene when selecting an image to be reproduced based on the order information in step S610. In parallel with this, the acquisition request unit 334 requests an image to be acquired by skipping a scene and stores it in a buffer.

巻き戻しボタン55が選択されると、動画再生部335は、ステップS610で順序情報に基づいて再生対象の画像を選択する際、順番を戻して画像を選択し、再生を行う。例えば2倍速で巻き戻しする場合には画像を一つ置きに戻し、4倍速で再生する場合には画像を3つ置きに戻す。また、順番を戻した画像が、バッファ中に存在する場合には、バッファから読み出し、バッファ中に存在しない場合には、再生と並行し、取得要求部334が、これらの画像の取得を要求し、バッファに格納する。   When the rewind button 55 is selected, the moving image reproducing unit 335 selects the images by returning the order when the images to be reproduced are selected based on the order information in step S610, and performs reproduction. For example, when rewinding at double speed, every other image is returned, and when reproducing at quadruple speed, every third image is returned. In addition, when the images whose order has been returned exist in the buffer, they are read from the buffer, and when they do not exist in the buffer, the acquisition request unit 334 requests acquisition of these images in parallel with the reproduction. Store it in the buffer.

シーン戻りボタン56が選択されると、動画再生部335は、ステップS610で順序情報に基づいて再生対象の画像を選択する際、前のシーンの先頭画像を選択し、再生を行う。これと並行して取得要求部334は、前のシーンの先頭画像を受信し、バッファに格納する。   When the scene return button 56 is selected, the moving image reproducing unit 335 selects and reproduces the first image of the previous scene when selecting an image to be reproduced based on the order information in step S610. In parallel with this, the acquisition request unit 334 receives the first image of the previous scene and stores it in the buffer.

本実施形態では、一画像毎に配信しているので、再生中であっても早送りや巻き戻しに対応できる。   In the present embodiment, since delivery is performed for each image, fast-forwarding and rewinding can be handled even during playback.

(13)メタファイルの構成
図21は、メタファイルの構成を示す図である。図21に示すように、本実施形態では、メタファイルに、作品ID、シーンID、画像ID(フレームID)、ファイル名、画像種類(フレーム種類)、サーバID(格納先情報)、利用フレーム数、表示上の効果を示す情報(表示効果情報)を記録している。
(13) Configuration of Metafile FIG. 21 is a diagram showing the configuration of the metafile. As shown in FIG. 21, in this embodiment, the work ID, scene ID, image ID (frame ID), file name, image type (frame type), server ID (storage location information), and number of frames used are included in the metafile. Information indicating display effects (display effect information) is recorded.

作品IDは、動画データ毎に付与した識別情報であり、シーンIDはシーン毎に付与し
た識別情報である。
The work ID is identification information assigned to each moving image data, and the scene ID is identification information assigned to each scene.

画像種類は、同一画像、シフト画像、被参照画像、一般画像の種別を示す情報である。従ってメタファイルに記録されている画像のうち、被参照画像及び一般画像の画像種類となっているものが配信対象であり、この情報が配信リストに相当する。   The image type is information indicating the type of the same image, a shift image, a referenced image, and a general image. Accordingly, among the images recorded in the metafile, those that are the image types of the referenced image and the general image are the distribution targets, and this information corresponds to the distribution list.

画像IDは動画データ中での各画像の順、即ち再生順に付与したシリアルNoであり、画像を動画データ中で一意に識別する情報であると共に、順序情報でもある。   The image ID is a serial number assigned in the order of each image in the moving image data, that is, the reproduction order, and is information for uniquely identifying the image in the moving image data and also order information.

サーバID(格納先情報)は、各画像を格納している配信サーバ2を示す情報であり、複数のサーバが記録される。また、サーバIDは、ネットワークを介してアクセスする際のアドレス(IPアドレス等)や、このアドレスと対応付けられた識別情報等である。   The server ID (storage destination information) is information indicating the distribution server 2 storing each image, and a plurality of servers are recorded. The server ID is an address (IP address or the like) for accessing via the network, identification information associated with this address, or the like.

(14)画像の表示制御
ユーザ端末3の動画再生部335は、メタファイルの表示効果情報に基づいて被参照画像を画像処理して表示しても良い。
(14) Image Display Control The moving image playback unit 335 of the user terminal 3 may display and display the referenced image based on the display effect information of the metafile.

動画では、フェードインやフェードアウトといった所定の映像効果を用いることがある。例えば、シーンの切り変わりなどで、画像が徐々に白や黒一色に変化するフェードアウトが用いられることがある。この場合、被参照画像の色調を白又は黒に近づけるように変化させながら表示することで再現することが可能である。また、フェードインの場合には、白や黒一色の画像から被参照画像に近づけるように変化させながら表示する。   In a moving image, a predetermined video effect such as fade-in or fade-out may be used. For example, a fade-out in which an image gradually changes to white or black due to a scene change or the like may be used. In this case, it is possible to reproduce the image by changing the color tone of the referenced image so as to approach white or black. In the case of fade-in, display is performed while changing from a white or black image to a reference image.

そこで、メタファイル生成装置1の比較部132は、ステップS450或いはステップS460において、画像を比較する際に、画像間に色調の変化やフォーカスの変化等、所定の変化の有無を検出する。例えば、ステップS460で画像が徐々に白や黒一色に変化する色調の変化を検出した場合、ステップS490にてメタファイル生成装置1は、同一画像のフェードアウトと認識し、この同一画像の表示効果情報としてフェードアウト(例
えば白へのフェードアウト)をメタファイルに記録する。また、ステップS450で画像
が徐々にボケていくフォーカスの変化を検出した場合、ステップS490にてメタファイル生成装置1は、スクロール画像のぼかし(フォーカス変化)と認識し、この同一画像の表示効果情報として、フォーカス変化をメタファイルに記録する。
Therefore, the comparison unit 132 of the metafile generation device 1 detects the presence or absence of a predetermined change such as a change in color tone or a change in focus between images when comparing the images in step S450 or step S460. For example, if a change in color tone in which the image gradually changes to white or black is detected in step S460, the metafile generating device 1 recognizes that the same image fades out in step S490, and displays the display effect information of the same image. As a fade-out (for example, fade-out to white) is recorded in the metafile. If a change in focus in which the image gradually blurs is detected in step S450, the metafile generation device 1 recognizes that the scroll image is blurred (focus change) in step S490, and the display effect information of the same image. Record the change in focus in the metafile.

そして、ユーザ端末3の動画再生部335は、メタファイルに基づきステップS630にて、被参照画像を画像処理して表示する。
例えば、以下のようなメタファイルの記述に従って表示制御を行う。
<source type="image" href="http://xxx.23.122.33/server1/123456.png"
style="focus: to-defocus 3.5px 30"/>
上記Focus:がフォーカス変化の属性であることを示し、to-defocusの場合、被参照画像(上記例では123456.png)をピントが合った状態からボケた状態へと変化させる。一方、to-focusの場合、ボケた状態からピントが合った状態へと変化させる。
また、上記Focus属性の3.5pxは、ぼかし量を示し、ピクセル単位で指定する。上記例では3.5ピクセルの範囲でぼかすことを示す。
更に、上記Focus属性の30は、ぼかし時間であり、ぼかし処理を開始してから上記ぼか
し量に達するまでの秒数或いはフレーム(画像)数を示す。
Then, the moving image reproduction unit 335 of the user terminal 3 performs image processing on the referenced image based on the metafile and displays the image at step S630.
For example, display control is performed according to the following metafile description.
<source type = "image" href = "http: //xxx.23.122.33/server1/123456.png"
style = "focus: to-defocus 3.5px 30"/>
The Focus: indicates that the attribute is a focus change, and in the case of to-defocus, the referenced image (123456.png in the above example) is changed from a focused state to a blurred state. On the other hand, in the case of to-focus, the state is changed from a blurred state to a focused state.
The Focus attribute 3.5px indicates the amount of blur and is specified in units of pixels. The above example shows blurring in the range of 3.5 pixels.
Further, the Focus attribute 30 is a blurring time, which indicates the number of seconds or frames (images) from the start of the blurring process until the blurring amount is reached.

<source type="image" href="http://xxx.23.122.33/server1/123456.png"
style="fade: out white 100% 15/>
上記fade:がフェード属性であることを示し、outであれば被参照画像(上記例では123456.png)を指定色(上記例ではwhite)へ徐々に変化させてフェードアウトさせる。なお
、色の指定は、#ffffffといったRGBで記述しても良い。一方、inの場合、指定色から
徐々に被参照画像へ変化させてフェードインさせる。
また、上記フェード属性の100%は、フェード量を示し、被参照画像からどの程度指定色に近づけるかを示す。
更に、上記フェード属性の15は、フェード時間であり、フェード処理を開始してから上記フェード量に達するまでの秒数或いはフレーム(画像)数を示す。
<source type = "image" href = "http: //xxx.23.122.33/server1/123456.png"
style = "fade: out white 100% 15 />
The fade: indicates a fade attribute, and if it is out, the referenced image (123456.png in the above example) is gradually changed to the designated color (white in the above example) and faded out. The color designation may be described in RGB such as #ffffff. On the other hand, in the case of in, the designated color is gradually changed to the reference image and faded in.
Further, 100% of the fade attribute indicates a fade amount and indicates how close the designated color is to the designated image.
Furthermore, 15 of the fade attribute is a fade time, and indicates the number of seconds or the number of frames (images) from the start of the fade process until the fade amount is reached.

なお、この映像効果は、フェードイン・フェードアウトに限らず、ソラリゼーションや、モノクローム化など、被参照画像を画像処理して表示できるものであれば良い。   Note that this video effect is not limited to fade-in / fade-out, and any video effect can be used as long as it can display the referenced image by image processing such as solarization or monochromeization.

以上のように、本実施形態によれば、参照画像に代えて被参照画像を表示して動画の再生を行うことができ、動画を再生する際に配信するデータ量を削減できる。   As described above, according to the present embodiment, it is possible to reproduce a moving image by displaying a referenced image instead of a reference image, and to reduce the amount of data distributed when reproducing the moving image.

また、動画再生中に配信サーバを切り替えることができ、負荷の集中等に応じて柔軟に対応できる。   In addition, the distribution server can be switched during the reproduction of the moving image, so that it is possible to flexibly cope with the load concentration.

〈その他〉
本発明は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
<Others>
The present invention is not limited to the illustrated examples described above, and various modifications can be made without departing from the scope of the present invention.

1 メタファイル生成装置
2 配信サーバ
3 ユーザ端末
10 配信システム
DESCRIPTION OF SYMBOLS 1 Metafile production | generation apparatus 2 Distribution server 3 User terminal 10 Distribution system

Claims (8)

複数の配信サーバとメタサーバを備える配信システムであって、
前記メタサーバが、ユーザ端末から受信した動画データの配信要求に対して、当該動画データを構成する各画像の格納先を示す格納先情報を含むメタファイルを当該ユーザ端末に送信するメタファイル提供部を備え、
前記複数の配信サーバが、
前記画像を格納する記憶部と、
前記ユーザ端末から前記メタファイルに基づく前記画像の取得要求を受信した場合に、当該取得要求に応じた画像を前記記憶部から読み出して一画像毎に当該ユーザ端末へ配信する配信部と、
を有する配信システム。
A distribution system including a plurality of distribution servers and a meta server,
A metafile providing unit for transmitting to the user terminal a metafile including storage location information indicating a storage location of each image constituting the video data in response to a video data distribution request received from the user terminal; Prepared,
The plurality of distribution servers are
A storage unit for storing the image;
A distribution unit that, when receiving an acquisition request for the image based on the metafile from the user terminal, reads an image corresponding to the acquisition request from the storage unit and distributes the image to the user terminal for each image;
Having a distribution system.
前記メタサーバへ動画データの配信要求を送信する要求送信部と、
前記メタサーバからメタファイルを受信するメタファイル受信部と、
受信したメタファイルの格納先情報に基づいて、前記動画データを構成する各画像の取得要求をそれぞれの格納先である前記配信サーバに対して送信する取得要求部と、
前記取得要求によって受信した前記画像を再生する再生部と、を有するユーザ端末を更に備える配信システム。
A request transmission unit that transmits a distribution request for moving image data to the meta server;
A metafile receiver that receives a metafile from the metaserver;
Based on the received storage location information of the metafile, an acquisition request unit that transmits an acquisition request for each image constituting the moving image data to the distribution server that is the storage location thereof,
A distribution system further comprising: a user terminal having a reproduction unit that reproduces the image received in response to the acquisition request.
前記動画データを構成する各画像を他の画像と比較し、少なくとも一部が一致した画像の一方を被参照画像、他方を参照画像とする場合に、
前記メタファイルの格納先情報を、前記一致しなかった画像及び被参照画像の格納先を示す情報とし、
前記メタファイルが、前記参照画像と当該参照画像に少なくとも一部が一致した被参照画像との対応関係を示す表示指示情報、並びに、前記一致しなかった画像と前記被参照画像と前記参照画像との再生順を示す順序情報を更に備え、
前記ユーザ端末の取得要求部が前記格納先情報に基づいて前記一致しなかった画像及び被参照画像を前記配信サーバから受信し、
前記ユーザ端末の再生部が、前記順序情報に基づいて前記一致しなかった画像及び被参照画像を表示させると共に、前記順序情報に基づいて前記参照画像を表示させる際、前記表示指示情報に基づき当該参照画像に代えて、当該参照画像と対応する前記被参照画像を表示させる請求項1又は2に記載の配信システム。
When each image constituting the moving image data is compared with other images, and when one of the images at least partially matched is a referenced image and the other is a reference image,
The storage location information of the metafile is information indicating the storage location of the unmatched image and the referenced image,
The metafile includes display instruction information indicating a correspondence relationship between the reference image and a referenced image at least partially matching the reference image, and the mismatched image, the referenced image, and the reference image. Further comprising order information indicating the playback order of
The acquisition request unit of the user terminal receives the image and the referenced image that did not match based on the storage location information from the distribution server,
When the playback unit of the user terminal displays the image and the reference image that do not match based on the order information and displays the reference image based on the order information, the playback unit displays the reference image based on the display instruction information. The distribution system according to claim 1, wherein the reference image corresponding to the reference image is displayed instead of the reference image.
前記被参照画像と参照画像とが、一部の領域で重複している場合に、参照画像の重複していない領域のデータを被参照画像に加えて、元の被参照画像と参照画像とを含む被参照画像を合成し、合成後の被参照画像のうち元の被参照画像に相当する領域を示す元画像情報と、合成後の被参照画像のうち前記参照画像に相当する領域を示す参照画像情報とを前記表示指示情報が含み、
前記ユーザ端末の再生部が、前記被参照画像を表示する際、前記元画像情報に基づいて当該被参照画像から元の被参照画像を抽出して表示させると共に、前記参照画像を表示する際、前記参照画像情報に基づいて当該被参照画像から当該参照画像を抽出して表示させる請求項3に記載の配信システム。
When the referenced image and the reference image overlap in some areas, the data of the non-overlapping area of the reference image is added to the referenced image, and the original referenced image and the reference image are A reference image indicating a region corresponding to the reference image in the combined reference image, and a reference image indicating a region corresponding to the original reference image in the combined reference image; The display instruction information includes image information,
When the reproduction unit of the user terminal displays the referenced image, the original referenced image is extracted from the referenced image based on the original image information and displayed, and the reference image is displayed. The distribution system according to claim 3, wherein the reference image is extracted from the referenced image and displayed based on the reference image information.
前記表示指示情報が前記参照画像に係る表示効果情報を含み、
前記ユーザ端末の再生部が、前記参照画像に代えて前記被参照画像を表示する際、前記被参照画像に前記表示効果情報によって特定される画像処理を施して表示する請求項3又は4に記載の配信システム。
The display instruction information includes display effect information related to the reference image,
5. The display unit according to claim 3, wherein when the playback unit of the user terminal displays the referenced image instead of the reference image, the playback unit displays the referenced image by performing image processing specified by the display effect information. Delivery system.
複数の配信サーバとメタサーバを備えた配信システムによる配信方法であって、
前記メタサーバが、ユーザ端末から受信した動画データの配信要求に対して、当該動画データを構成する各画像の格納先を示す格納先情報を含むメタファイルを当該ユーザ端末に送信するステップを実行し、
前記画像を格納する記憶部を備えた前記複数の配信サーバが、
前記ユーザ端末から前記メタファイルに基づく前記画像の取得要求を受信した場合に、当該取得要求に応じた画像を前記記憶部から読み出して一画像毎に当該ユーザ端末へ配信するステップを実行する配信方法。
A distribution method using a distribution system including a plurality of distribution servers and a meta server,
The meta server executes a step of transmitting to the user terminal a meta file including storage destination information indicating a storage destination of each image constituting the moving image data in response to the distribution request of the moving image data received from the user terminal.
The plurality of distribution servers including a storage unit for storing the image,
A distribution method of executing a step of reading an image corresponding to the acquisition request from the storage unit and distributing the image to the user terminal for each image when the image acquisition request based on the metafile is received from the user terminal .
動画データを構成する各画像を識別し、各画像の順に従って順序情報を生成する順序生成部と、
前記動画データを構成する各画像を他の画像と比較し、少なくとも一部が一致した画像の一方を被参照画像、他方を参照画像とする比較部と、
前記比較の結果によって一致しなかった画像、及び被参照画像を複数の配信サーバの記憶部に格納させた際の格納先を示す格納先情報の入力を受ける入力受付部と、
前記参照画像と当該参照画像に少なくとも一部が一致した被参照画像との対応関係を示す表示指示情報、前記順序情報、並びに、前記格納先情報を含むメタファイルを生成するメタファイル生成部と、
を備えるメタファイルの生成装置。
An order generator that identifies each image constituting the video data and generates order information according to the order of the images;
Each image constituting the moving image data is compared with other images, and at least a part of the matching image is a reference image, and the comparison unit uses the other as a reference image;
An input receiving unit that receives an input of storage destination information indicating a storage destination when an image that is not matched by the result of the comparison and a reference image is stored in a storage unit of a plurality of distribution servers;
A metafile generating unit that generates a metafile including display instruction information indicating a correspondence relationship between the reference image and a referenced image at least partially matching the reference image, the order information, and the storage destination information;
A metafile generating device comprising:
動画データを構成する各画像を識別し、各画像の順に従って順序情報を生成するステップと、
前記動画データを構成する各画像を他の画像と比較し、少なくとも一部が一致した画像の一方を被参照画像、他方を参照画像とするステップと、
前記比較の結果によって一致しなかった画像、及び被参照画像を複数の配信サーバの記憶部に格納させた際の格納先を示す格納先情報の入力を受けるステップと、
前記参照画像と当該参照画像に少なくとも一部が一致した被参照画像との対応関係を示す表示指示情報、前記順序情報、並びに、前記格納先情報を含むメタファイルを生成するステップと、
をコンピュータが実行するメタファイルの生成方法。
Identifying each image constituting the video data and generating order information according to the order of each image;
Each image constituting the moving image data is compared with other images, and at least one of the matched images is a referenced image and the other is a reference image;
Receiving an input of storage location information indicating a storage location when an image that is not matched by the result of the comparison and a reference image is stored in a storage unit of a plurality of distribution servers;
Generating a metafile including display instruction information indicating a correspondence relationship between the reference image and a referenced image at least partially matching the reference image, the order information, and the storage destination information;
To generate a metafile that the computer executes.
JP2011228071A 2011-10-17 2011-10-17 Distribution system Pending JP2013090102A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011228071A JP2013090102A (en) 2011-10-17 2011-10-17 Distribution system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011228071A JP2013090102A (en) 2011-10-17 2011-10-17 Distribution system

Publications (1)

Publication Number Publication Date
JP2013090102A true JP2013090102A (en) 2013-05-13

Family

ID=48533606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011228071A Pending JP2013090102A (en) 2011-10-17 2011-10-17 Distribution system

Country Status (1)

Country Link
JP (1) JP2013090102A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095620A (en) * 2014-11-13 2016-05-26 キヤノン株式会社 Display device, server device, display system and control method thereof, control program, and storage medium
JP7446605B2 (en) 2020-03-31 2024-03-11 株式会社ユピテル Systems, programs, trained models, learning model generation methods, generation devices, etc.

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095620A (en) * 2014-11-13 2016-05-26 キヤノン株式会社 Display device, server device, display system and control method thereof, control program, and storage medium
JP7446605B2 (en) 2020-03-31 2024-03-11 株式会社ユピテル Systems, programs, trained models, learning model generation methods, generation devices, etc.

Similar Documents

Publication Publication Date Title
CN112291627B (en) Video editing method and device, mobile terminal and storage medium
US10425618B2 (en) Information processing apparatus, tuner, and information processing method
US8290349B2 (en) Playback apparatus, method, and program
US20140157149A1 (en) Information processing device and information processing method
JP2006174309A (en) Animation reproducing apparatus, program, and record medium
JP2007510230A (en) Annotating media content using user-specified information
US20140363142A1 (en) Information processing apparatus, information processing method and program
KR102055766B1 (en) Moving Picture Summary Play Device, Moving Picture Summary Providing Server and Methods Thereof
JP5285052B2 (en) Recording medium on which moving picture data including mode information is recorded, reproducing apparatus and reproducing method
JP5338911B2 (en) Moving image processing apparatus, thumbnail image generation program, and thumbnail image generation method
JP7434762B2 (en) Information processing equipment and programs
US20240146863A1 (en) Information processing device, information processing program, and recording medium
JPH11161664A (en) Reproduction system for av information and reproducing method applied to same
KR20090066607A (en) Method and system for providing additional service of moving picture with transparent layer
JP2013090102A (en) Distribution system
KR20140117889A (en) Client apparatus, server apparatus, multimedia redirection system and the method thereof
JP2008167256A (en) Information processor and information processing method, and program
JP4609711B2 (en) Image processing apparatus and method, and program
JP4938384B2 (en) Moving image data distribution system, moving image data providing method, moving image data distribution program, moving image data providing program, and computer-readable recording medium on which those programs are recorded
JP5899738B2 (en) Information processing system, information processing apparatus, and information processing program
JP2008090526A (en) Conference information storage device, system, conference information display device, and program
JP2006339980A (en) Image reproducer
US9386059B2 (en) Apparatus and method for providing time shift function in cloud computing system
JP5899718B2 (en) Information processing system, information processing apparatus, and information processing program
KR102201021B1 (en) A method and system for generating and providing a preview video of a video content