JP2017059953A - Image distribution system, and server - Google Patents

Image distribution system, and server Download PDF

Info

Publication number
JP2017059953A
JP2017059953A JP2015182023A JP2015182023A JP2017059953A JP 2017059953 A JP2017059953 A JP 2017059953A JP 2015182023 A JP2015182023 A JP 2015182023A JP 2015182023 A JP2015182023 A JP 2015182023A JP 2017059953 A JP2017059953 A JP 2017059953A
Authority
JP
Japan
Prior art keywords
moving image
image data
server
client device
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015182023A
Other languages
Japanese (ja)
Other versions
JP6548538B2 (en
Inventor
成幸 宮崎
Nariyuki Miyazaki
成幸 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015182023A priority Critical patent/JP6548538B2/en
Publication of JP2017059953A publication Critical patent/JP2017059953A/en
Application granted granted Critical
Publication of JP6548538B2 publication Critical patent/JP6548538B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of transmitting desired moving image data from a server to a client device and reducing communication traffic volume between the server and the client device.SOLUTION: In an image distribution system, a server includes: storage means capable of storing first moving image data and second moving image data; first transmission means for transmitting the second moving image data to a client device; first reception means for receiving scene information from the client device; extraction means for extracting the moving image data of a scene indicated by the scene information from the first moving image data; and second transmission means for transmitting the extracted moving image data to the client device. The client device includes: second reception means for receiving the second moving image data from the server; generation means for generating scene information on the basis of the second moving image data; third transmission means for transmitting the scene information to the server; and third reception means for receiving the extracted moving image data from the server.SELECTED DRAWING: Figure 1

Description

本発明には、画像配信システム及びサーバに関する。   The present invention relates to an image distribution system and a server.

複数のクライアント装置がアクセス可能なサーバの記憶部にデータが保存され、各クライアント装置が、必要に応じて、サーバにアクセスし、サーバの記憶部からデータを取得する通信システムがある。このような通信システムによれば、複数のデバイスが同じデータ(サーバが記憶しているデータ)を参照することができる。また、このような通信システムに関する多数の従来技術が提案されている。   There is a communication system in which data is stored in a storage unit of a server that can be accessed by a plurality of client devices, and each client device accesses a server and acquires data from the storage unit of the server as necessary. According to such a communication system, a plurality of devices can refer to the same data (data stored in the server). A number of conventional techniques relating to such communication systems have been proposed.

しかしながら、インターネットの普及、記憶部の大容量化、マルチメディアデータの情報量の増加、等により、サーバからクライアント装置に送信するデータのデータサイズの増加が進んでいる。例えば、デジタルカメラの高解像度化などに伴い、撮影によって生成された画像データのデータサイズの増加が進んでいる。サーバとクライアント装置の間の通信量の増加は、通信速度の制限、通信料金の増加、等を招くため、好ましくない。   However, the data size of data transmitted from the server to the client device is increasing due to the spread of the Internet, an increase in storage capacity, an increase in the amount of multimedia data, and the like. For example, with an increase in resolution of a digital camera, the data size of image data generated by shooting is increasing. An increase in the amount of communication between the server and the client device is not preferable because it causes a limitation in communication speed, an increase in communication fee, and the like.

クライアント装置において、サーバが記憶している動画データ(記憶動画データ)の一部のシーンのみが必要とされることがある。しかしながら、従来の技術では、記憶動画データの一部のシーンのみをクライアント装置が必要としても、不必要なシーンを含む動画データがサーバからクライアント装置に送信される。例えば、記憶動画データの一部のみをクライアント装置が必要としても、記憶動画データの全部、または、記憶動画データの最初のフレームから必要なシーンの最後のフレームまでの動画データが、サーバからクライアント装置に送信される。このような不必要なシーンの送信は、通信量の増加を招く。   In the client device, only some scenes of moving image data (stored moving image data) stored in the server may be required. However, in the conventional technology, even if the client device needs only a part of the scenes of the stored moving image data, the moving image data including unnecessary scenes is transmitted from the server to the client device. For example, even if the client device needs only a part of the stored moving image data, the entire stored moving image data or the moving image data from the first frame of the stored moving image data to the last frame of the required scene is transferred from the server to the client device. Sent to. Transmission of such an unnecessary scene causes an increase in the amount of communication.

また、上述した通信システムに関する技術として、特許文献1に開示の技術がある。特許文献1に開示の技術では、サーバにより、サーバとクライアント装置の間の通信速度に基づいて、動画データの再生速度と同じ速度で動画データが送信されるように、動画データにデータ圧縮処理が施される。特許文献1に開示の技術によれば、データ圧縮処理により通信量を低減することができる。しかしながら、特許文献1に開示の技術では、クライアント装置が高画質の動画データを必要としても、低画質の動画データがサーバからクライアント装置に送信される虞がある。そして、特許文献1に開示の技術では、動画データの送信時にデータ圧縮処理が行われる。そのため、サーバから複数のクライアント装置への動画データの送信が同時に行われる場合に、各クライアント装置についてデータ圧縮処理が個別に行われる。そして、複数のデータ圧縮処理により、サーバから複数のクライアント装置への動画データの送信が滞る虞がある。   Moreover, there exists a technique disclosed by patent document 1 as a technique regarding the communication system mentioned above. In the technique disclosed in Patent Document 1, the server performs data compression processing on the moving image data so that the moving image data is transmitted at the same speed as the moving image data reproduction speed based on the communication speed between the server and the client device. Applied. According to the technique disclosed in Patent Document 1, the amount of communication can be reduced by data compression processing. However, in the technique disclosed in Patent Document 1, even if the client device requires high-quality moving image data, there is a possibility that low-quality moving image data is transmitted from the server to the client device. In the technique disclosed in Patent Document 1, data compression processing is performed when moving image data is transmitted. Therefore, when moving image data is transmitted from the server to a plurality of client devices at the same time, data compression processing is performed individually for each client device. And there exists a possibility that transmission of the moving image data from a server to a several client apparatus may be delayed by several data compression processes.

特開2005−117084号公報JP 2005-117084 A

本発明は、サーバからクライアント装置に所望の動画データを送信することができ、かつ、サーバとクライアント装置の間の通信量を低減することができる技術を提供することを目的とする。   An object of the present invention is to provide a technique capable of transmitting desired moving image data from a server to a client device and reducing the amount of communication between the server and the client device.

本発明の第1の態様は、
サーバとクライアント装置を有する画像配信システムであって、
前記サーバは、
第1動画データと、第1動画データよりもデータサイズが小さく、かつ、前記第1動画データと同じ動画を表す第2動画データとを記憶可能な記憶手段と、
前記第2動画データを前記クライアント装置に送信する第1送信手段と、
前記第2動画データの少なくとも一部のシーンを示すシーン情報を前記クライアント装置から受信する第1受信手段と、
前記シーン情報が示すシーンの動画データを、前記第1動画データから抽出する第1抽出手段と、
前記第1抽出手段によって抽出された動画データである抽出動画データを、前記クライアント装置に送信する第2送信手段と、
を有し、
前記クライアント装置は、
前記第2動画データを前記サーバから受信する第2受信手段と、
前記第2動画データに基づいて前記シーン情報を生成する第1生成手段と、
前記シーン情報を前記サーバに送信する第3送信手段と、
前記抽出動画データを前記サーバから受信する第3受信手段と、
を有する
ことを特徴とする画像配信システムである。
The first aspect of the present invention is:
An image distribution system having a server and a client device,
The server
Storage means capable of storing first moving image data and second moving image data having a data size smaller than the first moving image data and representing the same moving image as the first moving image data;
First transmission means for transmitting the second moving image data to the client device;
First receiving means for receiving, from the client device, scene information indicating at least a part of the scene of the second moving image data;
First extraction means for extracting the moving image data of the scene indicated by the scene information from the first moving image data;
Second transmitting means for transmitting extracted moving image data, which is moving image data extracted by the first extracting means, to the client device;
Have
The client device is
Second receiving means for receiving the second moving image data from the server;
First generation means for generating the scene information based on the second moving image data;
Third transmission means for transmitting the scene information to the server;
Third receiving means for receiving the extracted video data from the server;
It is an image delivery system characterized by having.

本発明の第2の態様は、
クライアント装置に接続可能なサーバであって、
第1動画データと、第1動画データよりもデータサイズが小さく、かつ、前記第1動画データと同じ動画を表す第2動画データとを記憶可能な記憶手段と、
前記第2動画データを前記クライアント装置に送信する第1送信手段と、
前記第2動画データの少なくとも一部のシーンを示すシーン情報を前記クライアント装置から受信する受信手段と、
前記シーン情報が示すシーンの動画データを、前記第1動画データから抽出する抽出手段と、
前記抽出手段によって抽出された動画データである抽出動画データを、前記クライアント装置に送信する第2送信手段と、
を有することを特徴とするサーバである。
The second aspect of the present invention is:
A server connectable to a client device,
Storage means capable of storing first moving image data and second moving image data having a data size smaller than the first moving image data and representing the same moving image as the first moving image data;
First transmission means for transmitting the second moving image data to the client device;
Receiving means for receiving, from the client device, scene information indicating at least a part of the scene of the second moving image data;
Extraction means for extracting the moving image data of the scene indicated by the scene information from the first moving image data;
Second transmission means for transmitting extracted moving image data, which is moving image data extracted by the extracting means, to the client device;
It is a server characterized by having.

本発明の第3の態様は、
サーバとクライアント装置を有する画像配信システムの制御方法であって、
前記サーバが、第1動画データよりもデータサイズが小さく、かつ、前記第1動画データと同じ動画を表す第2動画データを前記クライアント装置に送信する第1送信ステップと、
前記クライアント装置が、前記第2動画データを前記サーバから受信する第1受信ステップと、
前記クライアント装置が、前記第2動画データに基づいて、前記第2動画データの少なくとも一部のシーンを示すシーン情報を生成する生成ステップと、
前記クライアント装置が、前記シーン情報を前記サーバに送信する第2送信ステップと、
前記サーバが、前記シーン情報を前記クライアント装置から受信する第2受信ステップと、
前記サーバが、前記シーン情報が示すシーンの動画データを、前記第1動画データから抽出する抽出ステップと、
前記サーバが、前記抽出ステップによって抽出された動画データである抽出動画データ
を、前記クライアント装置に送信する第3送信ステップと、
前記クライアント装置が、前記抽出動画データを前記サーバから受信する第3受信ステップと、
を有することを特徴とする制御方法である。
The third aspect of the present invention is:
A control method of an image distribution system having a server and a client device,
A first transmission step in which the server transmits second moving image data having a data size smaller than the first moving image data and representing the same moving image as the first moving image data to the client device;
A first receiving step in which the client device receives the second moving image data from the server;
A generating step in which the client device generates scene information indicating at least a part of the scene of the second moving image data based on the second moving image data;
A second transmission step in which the client device transmits the scene information to the server;
A second receiving step in which the server receives the scene information from the client device;
An extraction step in which the server extracts the moving image data of the scene indicated by the scene information from the first moving image data;
A third transmission step in which the server transmits extracted moving image data, which is the moving image data extracted in the extraction step, to the client device;
A third receiving step in which the client device receives the extracted moving image data from the server;
It is the control method characterized by having.

本発明の第4の態様は、
クライアント装置に接続可能なサーバの制御方法であって、
第1動画データよりもデータサイズが小さく、かつ、前記第1動画データと同じ動画を表す第2動画データを前記クライアント装置に送信する第1送信ステップと、
前記第2動画データの少なくとも一部のシーンを示すシーン情報を前記クライアント装置から受信する受信ステップと、
前記シーン情報が示すシーンの動画データを、前記第1動画データから抽出する抽出ステップと、
前記抽出ステップによって抽出された動画データである抽出動画データを、前記クライアント装置に送信する第2送信ステップと、
を有することを特徴とする制御方法である。
The fourth aspect of the present invention is:
A method of controlling a server connectable to a client device,
A first transmission step of transmitting to the client device second moving image data having a data size smaller than the first moving image data and representing the same moving image as the first moving image data;
A reception step of receiving, from the client device, scene information indicating at least a part of the scene of the second moving image data;
Extracting the moving image data of the scene indicated by the scene information from the first moving image data;
A second transmission step of transmitting the extracted moving image data, which is the moving image data extracted by the extraction step, to the client device;
It is the control method characterized by having.

本発明の第5の態様は、上述した制御方法の各ステップをコンピュータに実行させることを特徴とするプログラムである。   A fifth aspect of the present invention is a program that causes a computer to execute each step of the control method described above.

本発明によれば、サーバからクライアント装置に所望の動画データを送信することができ、かつ、サーバとクライアント装置の間の通信量を低減することができる。   ADVANTAGE OF THE INVENTION According to this invention, desired moving image data can be transmitted to a client apparatus from a server, and the communication amount between a server and a client apparatus can be reduced.

本実施形態に係る画像配信システムの構成の一例を示すブロック図1 is a block diagram showing an example of the configuration of an image distribution system according to the present embodiment 本実施形態に係る動画生成処理の処理フローの一例を示すフロー図A flow chart showing an example of a processing flow of the moving image generation processing according to the present embodiment 本実施形態に係る画像管理テーブルの一例を示す図The figure which shows an example of the image management table which concerns on this embodiment. 本実施形態に係る画像配信システムの処理フローの一例を示すフロー図Flow chart showing an example of the processing flow of the image distribution system according to the present embodiment 図4のS401の処理フローの一例を示すフロー図FIG. 4 is a flowchart showing an example of the processing flow of S401 in FIG. 本実施形態に係るGUIの一例を示す図The figure which shows an example of GUI which concerns on this embodiment 本実施形態に係る切り出し要求の一例を示す図The figure which shows an example of the extraction request | requirement which concerns on this embodiment 図4のS404の処理フローの一例を示すフロー図FIG. 4 is a flowchart showing an example of the processing flow of S404 in FIG. 図8のS803の処理フローの一例を示すフロー図FIG. 8 is a flowchart showing an example of the processing flow of S803. 図9のS901の処理フローの一例を示す図The figure which shows an example of the processing flow of S901 of FIG.

以下に、本発明の実施形態について説明する。図1は、本実施形態に係る画像配信システムの構成の一例を示すブロック図である。図1に示すように、本実施形態に係る画像配信システムは、互いに接続可能なカメラ(画像生成装置)100、サーバ110、及び、クライアント装置120を有する。サーバ110やクライアント装置120としては、例えば、パーソナルコンピュータ(PC)を使用することができる。なお、画像生成装置は、カメラ100に限らない。画像生成装置は、画像データを生成可能な装置であれば、どのような装置であってもよい。例えば、画像生成装置としてPCが使用されてもよい。カメラ100とサーバ110は互いに接続されており、サーバ110とクライアント装置は互いに接続されている。   Hereinafter, embodiments of the present invention will be described. FIG. 1 is a block diagram illustrating an example of a configuration of an image distribution system according to the present embodiment. As shown in FIG. 1, the image distribution system according to the present embodiment includes a camera (image generation apparatus) 100, a server 110, and a client apparatus 120 that can be connected to each other. As the server 110 and the client device 120, for example, a personal computer (PC) can be used. Note that the image generation apparatus is not limited to the camera 100. The image generation device may be any device that can generate image data. For example, a PC may be used as the image generation device. The camera 100 and the server 110 are connected to each other, and the server 110 and the client device are connected to each other.

カメラ100は、CPU(Central Processing Unit)105、メモリ104、ネットワークボード106、及び、CCD(Charge Coupled Device)イメージセンサ108を有する。CPU105は、メモリ104に
記録されたプログラムを実行することにより、カメラ100の処理を制御する。ネットワークボード106は、カメラ100とサーバ110の間の通信のために使用される。例えば、CPU105は、ネットワークボード106を用いて、インターネットを介してのサーバ110との通信を行う。CCDイメージセンサ108は、撮影によって画像データ(撮影画像データ)を生成する。具体的には、CCDイメージセンサ108は、光を電気信号に変換することにより、撮影画像データを生成する。メモリ104は、CPU105の処理に必要なプログラムを記憶する。また、メモリ104は、カメラ100の作業メモリとして使用されたり、撮影画像データを記憶したりする。
The camera 100 includes a CPU (Central Processing Unit) 105, a memory 104, a network board 106, and a CCD (Charge Coupled Device) image sensor 108. The CPU 105 controls the processing of the camera 100 by executing a program recorded in the memory 104. The network board 106 is used for communication between the camera 100 and the server 110. For example, the CPU 105 uses the network board 106 to communicate with the server 110 via the Internet. The CCD image sensor 108 generates image data (photographed image data) by photographing. Specifically, the CCD image sensor 108 generates photographed image data by converting light into an electrical signal. The memory 104 stores a program necessary for the processing of the CPU 105. The memory 104 is used as a work memory for the camera 100 and stores captured image data.

サーバ110は、CPU115、ネットワークボード116、メモリ114、及び、HDD(Hard Disk Drive)117を有する。CPU115は、HDD117に記録されたプログラムを実行することにより、サーバ110の処理を制御する。HDD117は、CPU115の処理に必要なプログラムを含む記憶する。HDD117は、プログラム以外のデータを記憶可能である。メモリ114は、サーバ110の作業メモリとして使用される。ネットワークボード116は、カメラ100とサーバ110の間の通信、及び、クライアント装置120とサーバ110の間の通信のために使用される。例えば、CPU115は、ネットワークボード116を用いて、インターネットを介してのカメラ100との通信、及び、インターネットを介してのクライアント装置120との通信を行う。   The server 110 includes a CPU 115, a network board 116, a memory 114, and an HDD (Hard Disk Drive) 117. The CPU 115 controls the processing of the server 110 by executing a program recorded in the HDD 117. The HDD 117 stores a program necessary for the processing of the CPU 115. The HDD 117 can store data other than programs. The memory 114 is used as a working memory for the server 110. The network board 116 is used for communication between the camera 100 and the server 110 and communication between the client device 120 and the server 110. For example, the CPU 115 uses the network board 116 to perform communication with the camera 100 via the Internet and communication with the client device 120 via the Internet.

クライアント装置120は、CPU125、ネットワークボード126、メモリ124、HDD127、表示部121、マウス122、及び、キーボード123を有する。CPU125は、HDD127に記録されたプログラムを実行することにより、クライアント装置120の処理を制御する。HDD127は、CPU125の処理に必要なプログラムを含む記憶する。HDD127は、プログラム以外のデータを記憶可能である。メモリ124は、クライアント装置120の作業メモリとして使用される。ネットワークボード126は、クライアント装置120とサーバ110の間の通信のために使用される。例えば、CPU125は、ネットワークボード126を用いて、インターネットを介してのサーバ110との通信を行う。表示部121は、CPU125の処理結果を表示する。表示部121としては、液晶表示パネル、有機EL表示パネル、プラズマ表示パネル、等を使用することができる。マウス122とキーボード123は、クライアント装置120に対するユーザ操作を受け付ける操作部である。例えば、マウス122とキーボード123は、クライアント装置120のプログラムで使用される種々の情報をクライアント装置120に入力するユーザ操作を受け付ける。なお、表示部121、マウス122、及び、キーボード123の少なくともいずれかは、クライアント装置120に対して着脱可能であってもよいし、そうでなくてもよい。クライアント装置120に対して着脱可能な機能部は、クライアント装置120の一部とも言えるし、クライアント装置120と別体の装置とも言える。   The client device 120 includes a CPU 125, a network board 126, a memory 124, an HDD 127, a display unit 121, a mouse 122, and a keyboard 123. The CPU 125 controls processing of the client device 120 by executing a program recorded in the HDD 127. The HDD 127 stores a program necessary for the processing of the CPU 125. The HDD 127 can store data other than programs. The memory 124 is used as a working memory for the client device 120. The network board 126 is used for communication between the client device 120 and the server 110. For example, the CPU 125 uses the network board 126 to communicate with the server 110 via the Internet. The display unit 121 displays the processing result of the CPU 125. As the display unit 121, a liquid crystal display panel, an organic EL display panel, a plasma display panel, or the like can be used. The mouse 122 and the keyboard 123 are operation units that accept user operations on the client device 120. For example, the mouse 122 and the keyboard 123 accept user operations for inputting various information used in the program of the client device 120 to the client device 120. Note that at least one of the display unit 121, the mouse 122, and the keyboard 123 may or may not be detachable from the client device 120. The functional unit that can be attached to and detached from the client device 120 can be said to be a part of the client device 120 or a device separate from the client device 120.

なお、図1には、カメラ100、サーバ110、及び、クライアント装置120の機能部として、具体的なハードウェアが示されているが、以下で説明する処理が行われれば、各機能部の構成は特に限定されない。例えば、メモリやHDD以外の記憶部が使用されてもよい。具体的には、記憶部として光ディスクが使用されてもよい。マウスやキーボード以外の操作部が使用されてもよい。具体的には、操作部としてタッチパネルが使用されてもよい。   In FIG. 1, specific hardware is shown as functional units of the camera 100, the server 110, and the client device 120, but if the processing described below is performed, the configuration of the functional units Is not particularly limited. For example, a storage unit other than the memory and the HDD may be used. Specifically, an optical disk may be used as the storage unit. An operation unit other than a mouse or a keyboard may be used. Specifically, a touch panel may be used as the operation unit.

本実施形態では、画像データ(撮影画像データ)として、第1動画データと第2動画データが使用される。第2動画データは、第1動画データよりもデータサイズが小さく、かつ、第1動画データと同じ動画を表す動画データである。カメラ100のメモリ104、サーバ110のHDD117、及び、クライアント装置120のHDD127は、第1動
画データと第2動画データを記憶可能である。本実施形態では、カメラ100のCCDイメージセンサ108で生成された電気信号であるRAW動画データ(RAW形式の動画データ)が、第1動画データとして使用される。そして、RAW動画データにデータ圧縮処理を施すことによって生成されたMP4動画データ(MP4形式の動画データ)が、第2動画データとして使用される。上記データ圧縮処理は、動画データのフォーマットをRAW形式からMP4形式に変換するフォーマット変換処理とも言える。
In the present embodiment, first moving image data and second moving image data are used as image data (captured image data). The second moving image data is moving image data that is smaller in data size than the first moving image data and represents the same moving image as the first moving image data. The memory 104 of the camera 100, the HDD 117 of the server 110, and the HDD 127 of the client device 120 can store first moving image data and second moving image data. In the present embodiment, RAW moving image data (RAW moving image data) that is an electrical signal generated by the CCD image sensor 108 of the camera 100 is used as the first moving image data. Then, MP4 moving image data (MP4 format moving image data) generated by performing data compression processing on the RAW moving image data is used as the second moving image data. The data compression process can be said to be a format conversion process for converting the format of moving image data from the RAW format to the MP4 format.

なお、第1動画データと第2動画データのフォーマットは特に限定されない。RAW動画データに第1のデータ圧縮処理を施すことによって生成された動画データが第1動画データとして使用され、RAW動画データに第2のデータ圧縮処理を施すことによって生成された動画データが第2動画データとして使用されてもよい。   The format of the first moving image data and the second moving image data is not particularly limited. The moving image data generated by applying the first data compression processing to the RAW moving image data is used as the first moving image data, and the moving image data generated by applying the second data compression processing to the RAW moving image data is the second moving image data. It may be used as moving image data.

本実施形態では、カメラ100のCPU105により、RAW動画データからMP4動画データが生成される。なお、MP4動画データは、サーバ110のCPU115によって生成されてもよい。RAW動画データとMP4動画データを生成する処理(第2生成処理;動画生成処理)の処理フローについて、図2のフローチャートを用いて説明する。図2に示す処理フローは、カメラ100によって撮影が行われたことをトリガとして開始される。まず、S201にて、CCDイメージセンサ108が、光を電気信号に変換し、得られた電気信号であるRAW動画データをメモリ104に記録する。次に、S202にて、CPU105が、S201でメモリ104に記録されたRAW動画データをメモリ104から読み出し、読み出したRAW動画データを、メモリ104に記録されたプログラムを用いてMP4動画データに変換する。そして、CPU105は、得られたMP4動画データをメモリ104に記録する。その後、S203にて、CPU105が、S201で生成されたRAW動画データと、S202で生成されたMP4動画データとに関する情報を、メモリ104に記録された画像管理テーブルに追加する。そして、図2の処理フローが終了される。   In the present embodiment, the CPU 105 of the camera 100 generates MP4 moving image data from RAW moving image data. Note that the MP4 moving image data may be generated by the CPU 115 of the server 110. A processing flow of processing for generating RAW moving image data and MP4 moving image data (second generation processing; moving image generation processing) will be described with reference to the flowchart of FIG. The processing flow shown in FIG. 2 is triggered by the fact that the camera 100 has taken a picture. First, in S <b> 201, the CCD image sensor 108 converts light into an electrical signal, and records the RAW moving image data, which is the obtained electrical signal, in the memory 104. Next, in S202, the CPU 105 reads out the RAW moving image data recorded in the memory 104 in S201 from the memory 104, and converts the read RAW moving image data into MP4 moving image data using a program recorded in the memory 104. . Then, the CPU 105 records the obtained MP4 moving image data in the memory 104. Thereafter, in S <b> 203, the CPU 105 adds information regarding the RAW moving image data generated in S <b> 201 and the MP4 moving image data generated in S <b> 202 to the image management table recorded in the memory 104. Then, the processing flow of FIG. 2 is terminated.

カメラ100で使用される画像管理テーブル(カメラ管理テーブル)の一例を図3(C)に示す。カメラ管理テーブルでは、RAW動画データとMP4動画データの組み合わせに対して、組み合わせを示す識別子である画像IDが関連付けられている。同じ画像IDが複数の組み合わせに関連付けられなければ、どのような方法で画像IDが決定されてもよい。例えば、撮影順を示す番号が画像IDとして使用されてもよい。カメラ管理テーブルでは、RAW動画データに対して、RAW動画データのファイル名、RAW動画データのフレームレート、及び、RAW動画データの保存フォルダ(メモリ104内でRAW動画データが保存されているフォルダ)が関連付けられている。そして、カメラ管理テーブルでは、MP4動画データに対して、MP4動画データのファイル名、MP4動画データのフレームレート、及び、MP4動画データの保存フォルダが関連付けられている。ここで、「MP4動画データの保存フォルダ」は、メモリ104内でMP4動画データが保存されているフォルダである。画像管理テーブルにおいて、「−」は、対応するデータが存在しないことを意味する。   An example of an image management table (camera management table) used in the camera 100 is shown in FIG. In the camera management table, an image ID that is an identifier indicating a combination is associated with a combination of RAW moving image data and MP4 moving image data. If the same image ID is not associated with a plurality of combinations, the image ID may be determined by any method. For example, a number indicating the shooting order may be used as the image ID. In the camera management table, the file name of the RAW moving image data, the frame rate of the RAW moving image data, and the RAW moving image data storage folder (the folder in which the RAW moving image data is stored in the memory 104) are stored for the RAW moving image data. Associated. In the camera management table, the MP4 video data file name, the MP4 video data frame rate, and the MP4 video data storage folder are associated with the MP4 video data. Here, the “MP4 moving image data storage folder” is a folder in which the MP4 moving image data is stored in the memory 104. In the image management table, “-” means that there is no corresponding data.

次に、本実施形態に係る画像配信システムの処理フローの一例について、図4のフローチャートを用いて説明する。図4の処理フローの開始前に、カメラ100のCPU105により、ネットワークボード106を用いて、RAW動画データとMP4動画データが、カメラ100からサーバ110に送信される(第4送信処理)。そして、サーバ110では、CPU115により、ネットワークボード116を用いて、RAW動画データとMP4動画データが、カメラ100から受信される(第4受信処理)。そして、CPU115により、受信されたRAW動画データとMP4動画データが、HDD117に記録される。なお、MP4動画データのみがHDD117に記録されてもよい。このタイミングでは、RAW動画データはカメラ100からサーバ110に送信されなくてもよい。   Next, an example of the processing flow of the image distribution system according to the present embodiment will be described using the flowchart of FIG. Prior to the start of the processing flow in FIG. 4, the RAW moving image data and the MP4 moving image data are transmitted from the camera 100 to the server 110 by the CPU 105 of the camera 100 using the network board 106 (fourth transmission processing). In the server 110, the RAW moving image data and the MP4 moving image data are received from the camera 100 by the CPU 115 using the network board 116 (fourth receiving process). Then, the received RAW moving image data and MP4 moving image data are recorded on the HDD 117 by the CPU 115. Only MP4 moving image data may be recorded on the HDD 117. At this timing, the RAW moving image data may not be transmitted from the camera 100 to the server 110.

まず、S401にて、サーバ110のCPU115が、ネットワークボード116を用いて、MP4動画データをクライアント装置120に送信する(第1送信処理)。そして、クライアント装置120のCPU125が、ネットワークボード126を用いて、MP4動画データをサーバ110から受信する(第2受信処理)。S401の処理フローについて、図5のフローフローチャートを用いて詳細に説明する。   First, in S401, the CPU 115 of the server 110 transmits the MP4 moving image data to the client device 120 using the network board 116 (first transmission process). Then, the CPU 125 of the client device 120 receives the MP4 moving image data from the server 110 using the network board 126 (second reception process). The processing flow of S401 will be described in detail using the flowchart of FIG.

まず、S501にて、CPU115が、ネットワークボード116を用いて、クライアント装置120のHDD127に記録された画像管理テーブル(クライアント管理テーブル)を参照する。クライアント管理テーブルの一例を図3(A)に示す。クライアント管理テーブルは、カメラ管理テーブルと同様の構成を有する。但し、クライアント管理テーブルは、保存フォルダとして、HDD127内のフォルダを示す。図3(A)のクライアント管理テーブルには、画像ID「103」のMP4動画データ、及び、画像ID「103」のRAW動画データのみが示されている。このクライアント管理テーブルから、画像ID「103」のMP4動画データ、及び、画像ID「103」のRAW動画データのみがクライアント装置120に記録されていることがわかる。   First, in step S <b> 501, the CPU 115 refers to an image management table (client management table) recorded in the HDD 127 of the client apparatus 120 using the network board 116. An example of the client management table is shown in FIG. The client management table has the same configuration as the camera management table. However, the client management table indicates a folder in the HDD 127 as a storage folder. In the client management table of FIG. 3A, only the MP4 moving image data with the image ID “103” and the RAW moving image data with the image ID “103” are shown. From this client management table, it can be seen that only the MP4 moving image data with the image ID “103” and the RAW moving image data with the image ID “103” are recorded in the client device 120.

次に、S502にて、CPU115が、サーバ110に記録されており、かつ、クライアント装置120に記録されていないMP4動画データである未記録MP4動画データを検出する。未記録MP4動画データは、サーバ110のHDD117に記録された画像管理テーブル(サーバ管理テーブル)と、クライアント管理テーブルとを比較することによって検出される。サーバ管理テーブルの一例を図3(B)に示す。サーバ管理テーブルは、カメラ管理テーブルやクライアント管理テーブルと同様の構成を有する。但し、サーバ管理テーブルは、保存フォルダとして、HDD117内のフォルダを示す。図3(A)のクライアント管理テーブルと、図3(B)のサーバ管理テーブルとが比較された場合には、未記録MP4動画データとして、画像ID「101」のMP4動画データと、画像ID「102」のMP4動画データとが検出される。   In step S <b> 502, the CPU 115 detects unrecorded MP4 moving image data that is MP4 moving image data recorded in the server 110 and not recorded in the client device 120. Unrecorded MP4 moving image data is detected by comparing the image management table (server management table) recorded in the HDD 117 of the server 110 with the client management table. An example of the server management table is shown in FIG. The server management table has the same configuration as the camera management table and the client management table. However, the server management table indicates a folder in the HDD 117 as a storage folder. When the client management table in FIG. 3A and the server management table in FIG. 3B are compared, as unrecorded MP4 moving image data, the MP4 moving image data with the image ID “101” and the image ID “ 102 "MP4 moving image data is detected.

そして、S503にて、CPU115が、S502の検出結果に応じてその後の処理を切り替える。具体的には、未記録MP4動画データが検出されなかった場合には、サーバ110からクライアント装置120へのMP4動画データの送信が省略され、図5の処理フローが終了される。未記録MP4動画データが検出された場合には、S504に処理が進められる。   In step S503, the CPU 115 switches subsequent processing according to the detection result in step S502. Specifically, when unrecorded MP4 moving image data is not detected, transmission of the MP4 moving image data from the server 110 to the client device 120 is omitted, and the processing flow of FIG. 5 is ended. If unrecorded MP4 moving image data is detected, the process proceeds to S504.

S504では、CPU115が、ネットワークボード116を用いて、未記録MP4動画データと、未記録MP4動画データの画像IDとをクライアント装置120に送信する。そして、CPU125が、ネットワークボード126を用いて、未記録MP4動画データと、未記録MP4動画データの画像IDとをサーバ110から受信する。   In step S <b> 504, the CPU 115 transmits the unrecorded MP4 moving image data and the image ID of the unrecorded MP4 moving image data to the client device 120 using the network board 116. Then, the CPU 125 receives the unrecorded MP4 moving image data and the image ID of the unrecorded MP4 moving image data from the server 110 using the network board 126.

そして、S505にて、CPU125が、受信した未記録MP4動画データをHDD127に記録し、受信した未記録MP4動画データに関する情報を、クライアント管理テーブルに追加する。その後、図5の処理フローが終了される。   In step S505, the CPU 125 records the received unrecorded MP4 moving image data in the HDD 127, and adds information about the received unrecorded MP4 moving image data to the client management table. Thereafter, the processing flow of FIG. 5 is terminated.

なお、クライアント装置120のCPU125が、図6(A)に示すような確認画面(ダイアログ)を表示部121に表示する表示制御を行い、MP4動画データの受信の可否やタイミングをユーザに選択させてもよい。また、S401で送受信するMP4動画データは特に限定されない。全ての未記録MP4動画データが送受信されてもよいし、複数の未記録MP4動画データの中から選択された未記録動画データが送受信されてもよい。クライアント装置120が記憶しているMP4動画データが再度送受信されてもよい。   The CPU 125 of the client device 120 performs display control to display a confirmation screen (dialog) as shown in FIG. 6A on the display unit 121, and allows the user to select whether or not to receive MP4 video data. Also good. Further, the MP4 moving image data transmitted and received in S401 is not particularly limited. All unrecorded MP4 moving image data may be transmitted / received, or unrecorded moving image data selected from a plurality of unrecorded MP4 moving image data may be transmitted / received. The MP4 moving image data stored in the client device 120 may be transmitted / received again.

図4の説明に戻る。S401の処理(MP4動画データの送受信)が完了すると、S402の処理が行われる。S402では、クライアント装置120のCPU125が、受信したMP4動画データに基づく動画(MP4動画)を再生する。即ち、CPU125は、MP4動画を表示部121に表示する表示制御を行う。MP4動画の再生は、図6(B)に示すようなGUI(アプリケーションのGUI)を用いて行われる。複数のMP4動画データが受信された場合には、複数のMP4動画データのうちのいずれかが選択され、選択されたMP4動画データに基づくMP4動画が再生される。図6(B)において、画像表示領域601は、再生されたMP4動画が表示される領域である。   Returning to the description of FIG. When the process of S401 (transmission / reception of MP4 moving image data) is completed, the process of S402 is performed. In S402, the CPU 125 of the client device 120 plays a moving image (MP4 moving image) based on the received MP4 moving image data. That is, the CPU 125 performs display control for displaying the MP4 moving image on the display unit 121. The reproduction of the MP4 moving image is performed using a GUI (application GUI) as shown in FIG. When a plurality of MP4 moving image data is received, one of the plurality of MP4 moving image data is selected, and an MP4 moving image based on the selected MP4 moving image data is reproduced. In FIG. 6B, an image display area 601 is an area where a reproduced MP4 moving image is displayed.

MP4動画の再生が開始すると、S403の処理が行われる。S403では、CPU125が、再生対象のMP4動画データに基づいて、当該MP4動画データの少なくとも一部のシーンを示すシーン情報を生成する(第1生成処理)。具体的には、CPU125は、シーン選択操作に応じてシーン情報を生成する。シーン選択操作は、ユーザが再生されたMP4動画を確認しながら当該MP4動画の少なくとも一部のシーンを選択するユーザ操作である。シーン選択操作は、図6(B)に示すようなGUIを用いて行われる。その後、クライアント装置120によってシーン情報の送信(第3送信処理)が行われ、サーバ110によってシーン情報の受信(第1受信処理)が行われる。具体的には、CPU125が、ネットワークボード126を用いて、シーン情報を含む切り出し要求を、サーバ110に送信する。そして、CPU115が、ネットワークボード116を用いて、切り出し要求をクライアント装置120から受信する。   When the reproduction of the MP4 moving image is started, the process of S403 is performed. In S403, the CPU 125 generates scene information indicating at least a part of the scene of the MP4 moving image data based on the MP4 moving image data to be reproduced (first generation process). Specifically, the CPU 125 generates scene information according to the scene selection operation. The scene selection operation is a user operation in which the user selects at least a part of the MP4 moving image while confirming the reproduced MP4 moving image. The scene selection operation is performed using a GUI as shown in FIG. Thereafter, the client apparatus 120 transmits scene information (third transmission process), and the server 110 receives scene information (first reception process). Specifically, the CPU 125 transmits a cut-out request including scene information to the server 110 using the network board 126. Then, the CPU 115 receives a cut-out request from the client device 120 using the network board 116.

なお、MP4動画データを用いた方法であれば、シーン情報の生成方法は特に限定されない。例えば、画像の動きが閾値以上であるシーンがMP4動画データから検出され、検出されたシーンを示すシーン情報が生成されてもよい。また、音量が閾値以上であるシーンがMP4動画データから検出され、検出されたシーンを示すシーン情報が生成されてもよい。これらの方法によれば、ユーザ操作を必要とせずに、盛り上がりがあると予想されるシーンを示すシーン情報を自動で生成することができる。   Note that the method of generating scene information is not particularly limited as long as the method uses MP4 moving image data. For example, a scene whose image motion is greater than or equal to a threshold value may be detected from MP4 moving image data, and scene information indicating the detected scene may be generated. Further, a scene whose volume is equal to or higher than a threshold value may be detected from the MP4 moving image data, and scene information indicating the detected scene may be generated. According to these methods, it is possible to automatically generate scene information indicating a scene that is expected to be excited without requiring a user operation.

図6(B)において、再生ボタン602は、MP4動画再生の開始ためにユーザが操作するボタンであり、一時停止ボタン603は、MP4動画再生の一時停止のためにユーザが操作するボタンである。シークバー604は、MP4動画の全期間を示し、スライダー606は、現在の再生位置(再生されているフレームの時間位置)を示す。ユーザは、マウス122を用いてスライダー606を操作することにより、再生位置を変更することができる。   In FIG. 6B, a playback button 602 is a button operated by the user to start MP4 video playback, and a pause button 603 is a button operated by the user to pause MP4 video playback. The seek bar 604 indicates the entire period of the MP4 moving image, and the slider 606 indicates the current playback position (the time position of the frame being played back). The user can change the playback position by operating the slider 606 using the mouse 122.

上述した切り出し要求は、動画データまたは静止画データの送信の要求である。ラジオボタン608は、動画データの送信をサーバ110に要求するためにユーザが選択するラジオボタンであり、ラジオボタン609は、静止画データの送信をサーバ110に要求するためにユーザが選択するラジオボタンである。ラジオボタン608とラジオボタン609には排他的に選択可能である。即ち、ユーザは、ラジオボタン608とラジオボタン609の一方のみを選択でき、ラジオボタン608とラジオボタン609の両方を選択することはできない。   The cut-out request described above is a request for transmission of moving image data or still image data. The radio button 608 is a radio button selected by the user to request the server 110 to transmit moving image data, and the radio button 609 is a radio button selected by the user to request the server 110 to transmit still image data. It is. The radio button 608 and the radio button 609 can be selected exclusively. That is, the user can select only one of the radio button 608 and the radio button 609, and cannot select both the radio button 608 and the radio button 609.

動画用のラジオボタン608が選択されると、始点指定ボタン610と終点指定ボタン612が操作可能になる。一方、静止画シーン指定ボタン614は操作不可能になる。始点指定ボタン610は、シーンの始点を決定するためにユーザが操作するボタンであり、終点指定ボタン612は、シーンの終点を決定するためにユーザが操作するボタンである。始点指定ボタン610が押下されると、始点指定ボタン610が押下されたタイミングでのスライダー606の位置に、始点マーカー605が配置される。始点マーカー605は、シーンの始点を示す。終点指定ボタン612が押下されると、終点指定ボタン612
が押下されたタイミングでのスライダー606の位置に、終点マーカー607が配置される。終点マーカー607は、シーンの終点を示す。始点マーカー605と終点マーカー607がシークバー604上に配置されると、切り出し再生ボタン613が操作可能になる。切り出し再生ボタン613は、始点マーカー605と終点マーカー607で示されたシーンのみのMP4動画の再生を開始するためにユーザが操作するボタンである。切り出し再生ボタン613が押下されると、始点マーカー605で示された始点のフレームから、終点マーカー607で示された終点のフレームまでのMP4動画が、画像表示領域601に表示される。
When the moving image radio button 608 is selected, the start point designation button 610 and the end point designation button 612 can be operated. On the other hand, the still image scene designation button 614 cannot be operated. The start point designation button 610 is a button operated by the user to determine the start point of the scene, and the end point designation button 612 is a button operated by the user to determine the end point of the scene. When the start point designation button 610 is pressed, the start point marker 605 is arranged at the position of the slider 606 at the timing when the start point specification button 610 is pressed. A start point marker 605 indicates the start point of the scene. When the end point designation button 612 is pressed, the end point designation button 612 is displayed.
An end point marker 607 is arranged at the position of the slider 606 at the timing when is pressed. An end point marker 607 indicates the end point of the scene. When the start point marker 605 and the end point marker 607 are arranged on the seek bar 604, the cutout reproduction button 613 can be operated. The cutout reproduction button 613 is a button operated by the user in order to start reproduction of the MP4 moving image of only the scene indicated by the start point marker 605 and the end point marker 607. When the cutout reproduction button 613 is pressed, an MP4 moving image from the start point frame indicated by the start point marker 605 to the end point frame indicated by the end point marker 607 is displayed in the image display area 601.

静止画用のラジオボタン609が選択されると、静止画シーン指定ボタン614が操作可能になる。一方、始点指定ボタン610と終点指定ボタン612が操作不可能になる。また、切り出し再生ボタン613も操作不可能になる。静止画シーン指定ボタン614は、シーンの始点であり且つシーンの終点であるフレームを決定するためにユーザが操作するボタンである。静止画シーン指定ボタン614が押下されると、静止画シーン指定ボタン614が押下されたタイミングでのスライダー606の位置に、フレームマーカーが配置される。フレームマーカーは、シーンの始点であり且つシーンの終点であるフレームを示す。   When the still image radio button 609 is selected, the still image scene designation button 614 becomes operable. On the other hand, the start point designation button 610 and the end point designation button 612 are not operable. In addition, the cut-out playback button 613 cannot be operated. The still image scene designation button 614 is a button operated by the user to determine a frame that is the start point of the scene and the end point of the scene. When the still image scene designation button 614 is pressed, a frame marker is arranged at the position of the slider 606 at the timing when the still image scene designation button 614 is pressed. The frame marker indicates a frame that is the start point of the scene and the end point of the scene.

要求ボタン616は、切り出し要求をサーバ110に送信するためにユーザが操作するボタンである。静止画用のラジオボタン609が選択された状態で要求ボタン616が押下されると、フレームマーカーによって示されたフレームを示すシーン情報が生成される。そして、生成されたシーン情報を含む切り出し要求がクライアント装置120からサーバ110に送信される。動画用のラジオボタン608が選択された状態で要求ボタン616が押下されると、始点マーカー605で示された始点のフレームから、終点マーカー607で示された終点のフレームまでのシーンを示すシーン情報が生成される。そして、生成されたシーン情報を含む切り出し要求がクライアント装置120からサーバ110に送信される。キャンセルボタン615は、切り出し要求の送信をキャンセルするためにユーザが操作するボタンである。キャンセルボタン615が押下されると、シーンの指定等が全て無視され、切り出し要求がサーバ110に送信されずに、アプリケーションが終了される。   The request button 616 is a button operated by the user in order to transmit a cut-out request to the server 110. When the request button 616 is pressed while the still image radio button 609 is selected, scene information indicating the frame indicated by the frame marker is generated. Then, a cutout request including the generated scene information is transmitted from the client device 120 to the server 110. When the request button 616 is pressed while the moving image radio button 608 is selected, scene information indicating a scene from the start point frame indicated by the start point marker 605 to the end point frame indicated by the end point marker 607. Is generated. Then, a cutout request including the generated scene information is transmitted from the client device 120 to the server 110. A cancel button 615 is a button operated by the user in order to cancel the transmission of the cutout request. When the cancel button 615 is pressed, all scene designations and the like are ignored, the cut-out request is not transmitted to the server 110, and the application is terminated.

クライアント装置120からサーバ110に送信される切り出し要求の一例を、図7(A)に示す。図7(A)の例では、切り出し要求は、開始フレーム番号、終了フレーム番号、画像ID、及び、フォーマット指定を含む。例えば、開始フレーム番号と終了フレーム番号の組み合わせがシーン情報である。開始フレーム番号は、シーンの始点のフレームを示す番号であり、終了フレーム番号は、シーンの終点のフレームを示す番号である。動画用のラジオボタン608が選択された状態で要求ボタン616が押下された場合には、始点マーカー605で示された始点のフレームの番号が、開始フレーム番号として設定される。そして、終点マーカー607で示された終点のフレームの番号が、終了フレーム番号として設定される。静止画用のラジオボタン609が選択された状態で要求ボタン616が押下された場合には、フレームマーカーによって示されたフレームの番号が、開始フレーム番号および終了フレーム番号として設定される。切り出し要求に含まれる画像IDは、切り出し要求(シーン情報)の生成に使用されたMP4動画データの画像IDである。フォーマット指定は、サーバに要求する画像データのフォーマットを示すフォーマット情報である。フォーマット指定も、シーン情報と同様に、MP4動画データに基づいて生成される。なお、切り出し要求にフォーマット指定(フォーマット情報)が含まれていなくてもよい。フォーマット指定の送受信は行われなくてもよい。フォーマット指定、シーン情報、及び、画像IDの少なくともいずれかは、切り出し要求とは別に送受信されてもよい。   An example of the extraction request transmitted from the client device 120 to the server 110 is illustrated in FIG. In the example of FIG. 7A, the cutout request includes a start frame number, an end frame number, an image ID, and a format designation. For example, a combination of a start frame number and an end frame number is scene information. The start frame number is a number indicating the start frame of the scene, and the end frame number is a number indicating the end frame of the scene. When the request button 616 is pressed while the moving image radio button 608 is selected, the start frame number indicated by the start point marker 605 is set as the start frame number. Then, the end frame number indicated by the end point marker 607 is set as the end frame number. When the request button 616 is pressed while the still image radio button 609 is selected, the frame numbers indicated by the frame markers are set as the start frame number and the end frame number. The image ID included in the cutout request is the image ID of the MP4 moving image data used to generate the cutout request (scene information). The format designation is format information indicating the format of image data requested from the server. The format designation is also generated based on the MP4 moving image data, similarly to the scene information. Note that the format specification (format information) may not be included in the cut-out request. The format designation may not be transmitted / received. At least one of the format designation, the scene information, and the image ID may be transmitted / received separately from the extraction request.

図4の説明に戻る。S403の処理(切り出し要求の送受信)が完了すると、S404の処理が行われる。S404では、切り出し要求(シーン情報)が示すシーンの動画データをRAW動画データから切り出す(抽出する)切り出し処理が行われる。切り出し処理の処理フローについて、図8のフローチャートを用いて詳細に説明する。   Returning to the description of FIG. When the process of S403 (transmission / reception of cutout request) is completed, the process of S404 is performed. In S404, a cut-out process is performed to cut out (extract) the moving image data of the scene indicated by the cut-out request (scene information) from the RAW moving image data. The processing flow of the clipping process will be described in detail with reference to the flowchart of FIG.

まず、S801にて、サーバ110のCPU115が、受信した切り出し要求に対応するRAW動画データである対応RAW動画データを判断する。具体的には、CPU115は、切り出し要求に含まれた画像IDと同じ画像IDに関連付けられたRAW動画データが対応RAW動画データであると判断する。   First, in S801, the CPU 115 of the server 110 determines corresponding RAW moving image data that is RAW moving image data corresponding to the received cut-out request. Specifically, the CPU 115 determines that the RAW moving image data associated with the same image ID as the image ID included in the cutout request is the corresponding RAW moving image data.

次に、S802にて、CPU115が、対応RAW動画データをサーバ110が記憶している否かを判断する。具体的には、CPU115は、サーバ管理テーブルに対応RAW動画データの情報が記述されているか否かを判断する。サーバ管理テーブルに対応RAW動画データの情報が記述されている場合には、対応RAW動画データをサーバ110が記憶していると判断され、S803に処理が進められる。サーバ管理テーブルに対応RAW動画データの情報が記述されていない場合には、対応RAW動画データをサーバ110が記憶していないと判断され、S804に処理が進められる。   Next, in S802, the CPU 115 determines whether or not the server 110 stores the corresponding RAW moving image data. Specifically, the CPU 115 determines whether or not the corresponding RAW moving image data information is described in the server management table. If the corresponding RAW moving image data information is described in the server management table, it is determined that the server 110 stores the corresponding RAW moving image data, and the process proceeds to S803. When the information of the corresponding RAW moving image data is not described in the server management table, it is determined that the corresponding RAW moving image data is not stored in the server 110, and the process proceeds to S804.

例えば、サーバ管理テーブルが図3(B)のサーバ管理テーブルであり、かつ、切り出し要求に含まれた画像IDが「101」である場合に、対応RAW動画データをサーバ110が記憶していると判断され、S803に処理が進められる。サーバ管理テーブルが図3(B)のサーバ管理テーブルであり、かつ、切り出し要求に含まれた画像IDが「102」である場合に、対応RAW動画データをサーバ110が記憶していないと判断され、S804に処理が進められる。   For example, when the server management table is the server management table of FIG. 3B and the image ID included in the cutout request is “101”, the corresponding RAW video data is stored in the server 110. The determination is made, and the process proceeds to S803. When the server management table is the server management table of FIG. 3B and the image ID included in the cutout request is “102”, it is determined that the corresponding RAW moving image data is not stored in the server 110. , The process proceeds to S804.

なお、対応RAW動画データをサーバ110が記憶していない場合には、対応RAW動画データが存在しないことに関するエラー情報がサーバ110からクライアント装置120に送信されてもよい。そして、クライアント装置120のCPU125によって、「対応RAW動画データが存在しないこと」、「切り出し要求が受け入れられないこと」、等がユーザに通知されてもよい。この場合、画像配信システムにおいて、カメラ100は不要となる。ユーザへの通知は、画像表示、音声出力、ランプの点灯、等によって実現できる。   Note that, when the corresponding RAW moving image data is not stored in the server 110, error information regarding the absence of the corresponding RAW moving image data may be transmitted from the server 110 to the client device 120. Then, the CPU 125 of the client device 120 may notify the user that “corresponding RAW moving image data does not exist”, “a clipping request is not accepted”, and the like. In this case, the camera 100 is not necessary in the image distribution system. Notification to the user can be realized by image display, audio output, lamp lighting, and the like.

S803では、CPU115が、切り出し要求が示すシーンの動画データを対応RAW動画データから切り出す切り出し処理(第1切り出し処理;第1抽出処理)を行う。第1切り出し処理の処理フローについて、図9のフローチャートを用いて詳細に説明する。   In step S803, the CPU 115 performs a cutout process (first cutout process; first extraction process) for cutting out the moving image data of the scene indicated by the cutout request from the corresponding RAW moving image data. The process flow of the first cutout process will be described in detail using the flowchart of FIG.

まず、S901にて、CPU115が、切り出し要求が示すシーンに対応するシーン(対応シーン)を対応RAW動画データから検出する。MP4動画データのフレームレートがRAW動画データのフレームレートと一致するとは限らない。例えば、MP4動画データの用途が、RAW動画データの用途と異なることがある。具体的には、MP4動画データが配布用や簡易閲覧用の動画データであるのに対し、RAW動画データがそうでないことがある。そのため、MP4動画データのフレームレートがRAW動画データのフレームレートと異なることがある。このような理由により、S901の処理が必要となる。S901の処理フローについて、図10のフローチャートを用いて詳細に説明する。   First, in S901, the CPU 115 detects a scene (corresponding scene) corresponding to the scene indicated by the extraction request from the corresponding RAW moving image data. The frame rate of MP4 moving image data does not necessarily match the frame rate of RAW moving image data. For example, the usage of MP4 video data may be different from the usage of RAW video data. Specifically, the MP4 video data may be video data for distribution or simple browsing, whereas the RAW video data may not. Therefore, the frame rate of MP4 moving image data may be different from the frame rate of RAW moving image data. For this reason, the process of S901 is necessary. The processing flow of S901 will be described in detail using the flowchart of FIG.

まず、S1001にて、CPU115が、切り出し要求から開始フレーム番号と終了フレーム番号を取得する。次に、S1002にて、CPU115が、切り出し要求に含まれた画像IDに対応するMP4動画データのフレームレートと、切り出し要求に含まれた画像IDに対応するRAW動画データのフレームレートとを、サーバ管理テーブルから取得
する。そして、CPU115が、取得した2つのフレームレートの比率を算出する。その後、S1003にて、CPU115が、S1002で算出された比率に基づいて、開始フレーム番号と終了フレーム番号を、RAW動画データのフレームを示すフレーム番号に変換する。S1002とS1003の処理は、例えば、以下の式1によって表される。式1において、「RAW番号」はRAW動画データのフレーム番号であり、「MP4番号」はMP4動画データのフレーム番号である。「RAWレート」はRAW動画データのフレームレートであり、「MP4レート」はMP4動画データのフレームレートである。「INT(X)」は、Xの小数点以下を切り捨てる関数である。式1を用いて図7(A)の切り出し要求(開始フレーム番号と終了フレーム番号)が補正された場合、補正後の切り出し要求として図7(B)に示す切り出し要求が得られる。そして、図10の処理フローが終了される。

RAW番号=MP4番号×INT((RAWレート/MP4レート)+0.5)
・・・(式1)
First, in S1001, the CPU 115 acquires a start frame number and an end frame number from the cutout request. Next, in S1002, the CPU 115 determines the frame rate of the MP4 moving image data corresponding to the image ID included in the cutout request and the frame rate of the RAW moving image data corresponding to the image ID included in the cutout request to the server. Get from the management table. Then, the CPU 115 calculates the ratio between the two acquired frame rates. After that, in S1003, the CPU 115 converts the start frame number and the end frame number into a frame number indicating a frame of the RAW moving image data based on the ratio calculated in S1002. The processing of S1002 and S1003 is expressed by the following formula 1, for example. In Equation 1, “RAW number” is a frame number of RAW moving image data, and “MP4 number” is a frame number of MP4 moving image data. “RAW rate” is a frame rate of RAW moving image data, and “MP4 rate” is a frame rate of MP4 moving image data. “INT (X)” is a function for truncating the decimal part of X. When the cutout request (start frame number and end frame number) in FIG. 7A is corrected using Expression 1, the cutout request shown in FIG. 7B is obtained as the cutout request after correction. Then, the processing flow of FIG. 10 is terminated.

RAW number = MP4 number × INT ((RAW rate / MP4 rate) +0.5)
... (Formula 1)

図10の処理フローによれば、シーン情報が示すシーンの始点の時間位置に時間位置が最も近いRAW動画データのフレームが、対応シーンの始点として検出される。そして、シーン情報が示すシーンの終点の時間位置に時間位置が最も近いRAW動画データのフレームが、対応シーンの終点として検出される。また、シーン情報がMP4動画データの1つのフレームを示す場合には、シーン情報が示すフレームの時間位置に時間位置が最も近いRAW動画データのフレームが、対応シーン(対応フレーム)として検出される。なお、対応シーンの検出方法は特に限定されない。例えば、シーン情報が示すシーンの始点の時間位置よりも時間位置が前である複数のフレームのうち、シーン情報が示すシーンの始点の時間位置に時間位置が最も近いフレームが、対応シーンの始点として検出されてもよい。シーン情報が示すシーンの終点の時間位置よりも時間位置が後である複数のフレームのうち、シーン情報が示すシーンの終点の時間位置に時間位置が最も近いフレームが、対応シーンの始点として検出されてもよい。   According to the processing flow of FIG. 10, the frame of the RAW moving image data whose time position is closest to the time position of the start point of the scene indicated by the scene information is detected as the start point of the corresponding scene. Then, the frame of the RAW moving image data whose time position is closest to the time position of the end point of the scene indicated by the scene information is detected as the end point of the corresponding scene. When the scene information indicates one frame of the MP4 moving image data, the frame of the RAW moving image data whose time position is closest to the time position of the frame indicated by the scene information is detected as a corresponding scene (corresponding frame). The corresponding scene detection method is not particularly limited. For example, among a plurality of frames whose time position is earlier than the time position of the scene start point indicated by the scene information, the frame whose time position is closest to the time position of the scene start point indicated by the scene information is the start point of the corresponding scene. It may be detected. Of the multiple frames whose time position is later than the time position of the end point of the scene indicated by the scene information, the frame whose time position is closest to the time position of the end point of the scene indicated by the scene information is detected as the start point of the corresponding scene. May be.

図9の説明に戻る。S901の次に、S902にて、CPU115が、対応RAW動画データから対応シーンの動画データを切り出す。対応シーンが複数のフレームのシーンである場合には、当該複数のフレームを順番に表す動画データが切り出される。対応シーンが1つのフレームのシーンである場合には、当該1つのフレームを表す静止画データが切り出される。以後、S902の処理によって切り出された動画データを、「第1抽出動画データ」と記載する。   Returning to the description of FIG. Following S901, in S902, the CPU 115 cuts out the moving image data of the corresponding scene from the corresponding RAW moving image data. When the corresponding scene is a scene of a plurality of frames, moving image data representing the plurality of frames in order is cut out. When the corresponding scene is a scene of one frame, still image data representing the one frame is cut out. Hereinafter, the moving image data cut out by the processing of S902 is referred to as “first extracted moving image data”.

そして、S903にて、CPU115が、受信した切り出し要求にフォーマット指定が含まれているか否かを判断する。切り出し要求にフォーマット指定が含まれている場合には、S904に処理が進められ、切り出し要求にフォーマット指定が含まれていない場合には、S905に処理が進められる。   In step S903, the CPU 115 determines whether format designation is included in the received cut-out request. When the format specification is included in the extraction request, the process proceeds to S904, and when the format specification is not included in the extraction request, the process proceeds to S905.

S904では、CPU115が、第1抽出動画データのフォーマットを、フォーマット指定が示すフォーマットに変換することにより、変換後の動画データである第1変換動画データを生成する(第1変換処理)。その後、S905に処理が進められる。例えば、図7(C)の切り出し要求が受信された場合は、図7(A)の切り出し要求が受信された場合と同じ方法(式1を用いた方法)で、切り出し要求が補正される。その結果、補正後の切り出し要求として、図7(D)の切り出し要求が得られる。次に、図7(D)の切り出し要求が示す対応シーン(図7(D)の切り出し要求が示す開始フレーム番号から、図7(D)の切り出し要求が示す終了フレーム番号までのシーン)の動画データが、対応RAW動画データから切り出される。そして、切り出された動画データのフォーマットが、R
AW形式からMP4形式に変換される。なお、S903とS904の処理は省略されてもよい。
In S904, the CPU 115 converts the format of the first extracted moving image data into a format indicated by the format designation, thereby generating first converted moving image data that is converted moving image data (first conversion process). Thereafter, the process proceeds to S905. For example, when the cut-out request in FIG. 7C is received, the cut-out request is corrected by the same method (method using Expression 1) as that when the cut-out request in FIG. 7A is received. As a result, the cutout request in FIG. 7D is obtained as the cutout request after correction. Next, the movie of the corresponding scene indicated by the cutout request in FIG. 7D (the scene from the start frame number indicated by the cutout request in FIG. 7D to the end frame number indicated by the cutout request in FIG. 7D). Data is extracted from the corresponding RAW moving image data. And the format of the clipped video data is R
Conversion from AW format to MP4 format. Note that the processing of S903 and S904 may be omitted.

S905では、CPU115が、ネットワークボード116を用いて、動画データをクライアント装置120に送信する(第2送信処理)。そして、クライアント装置120のCPU125が、ネットワークボード126を用いて、動画データをサーバ110から受信する(第3受信処理)。切り出し要求にフォーマット指定が含まれていない場合には、第1抽出動画データが送受信され、切り出し要求にフォーマット指定が含まれている場合には、第1抽出動画データの代わりに第1変換動画データが送受信される。その後、図9の処理フローが終了される。即ち、図8のS803の処理が完了する。そして、図8の処理フローが終了される。   In S905, the CPU 115 transmits the moving image data to the client device 120 using the network board 116 (second transmission process). Then, the CPU 125 of the client device 120 receives the moving image data from the server 110 using the network board 126 (third reception process). When the cutout request does not include the format designation, the first extracted video data is transmitted / received. When the cutout request contains the format designation, the first converted video data is used instead of the first extracted video data. Are sent and received. Thereafter, the processing flow of FIG. 9 is terminated. That is, the process of S803 in FIG. 8 is completed. Then, the processing flow of FIG. 8 is terminated.

図8の説明に戻る。S804では、CPU115が、ネットワークボード116を用いて、対応RAW動画データの送信を指示する送信要求をカメラ100に送信する(第5送信処理)。そして、カメラ100のCPU105が、ネットワークボード106を用いて、送信要求をサーバ110から受信する(第5受信処理)。本実施形態では、送信要求の送受信として、補正前の切り出し要求の送受信が行われる。   Returning to the description of FIG. In S804, the CPU 115 uses the network board 116 to transmit a transmission request instructing transmission of the corresponding RAW moving image data to the camera 100 (fifth transmission process). Then, the CPU 105 of the camera 100 receives a transmission request from the server 110 using the network board 106 (fifth reception process). In the present embodiment, transmission / reception of a cut-out request before correction is performed as transmission / reception of a transmission request.

次に、S805にて、CPU105が、対応RAW動画データを判断する。対応RAW動画データの判断方法は、S801と同じである。そして、S806にて、CPU105が、対応RAW動画データをカメラ100が記憶している否かを判断する。具体的には、CPU105は、カメラ管理テーブルに対応RAW動画データの情報が記述されているか否かを判断する。カメラ管理テーブルに対応RAW動画データの情報が記述されている場合には、対応RAW動画データをカメラ100が記憶していると判断され、S807に処理が進められる。カメラ管理テーブルに対応RAW動画データの情報が記述されていない場合には、対応RAW動画データをカメラ100が記憶していないと判断され、S808に処理が進められる。   Next, in S805, the CPU 105 determines corresponding RAW moving image data. The method for determining the corresponding RAW moving image data is the same as S801. In step S806, the CPU 105 determines whether or not the camera 100 stores the corresponding RAW moving image data. Specifically, the CPU 105 determines whether or not the information about the corresponding RAW moving image data is described in the camera management table. If the information about the corresponding RAW moving image data is described in the camera management table, it is determined that the camera 100 stores the corresponding RAW moving image data, and the process proceeds to S807. If the information of the corresponding RAW moving image data is not described in the camera management table, it is determined that the corresponding RAW moving image data is not stored in the camera 100, and the process proceeds to S808.

例えば、カメラ管理テーブルが図3(C)のカメラ管理テーブルであり、かつ、送信要求(切り出し要求)に含まれた画像IDが「102」である場合に、対応RAW動画データをカメラ100が記憶していると判断され、S807に処理が進められる。カメラ管理テーブルが図3(C)のカメラ管理テーブルであり、かつ、送信要求に含まれた画像IDが「103」である場合に、対応RAW動画データをカメラ100が記憶していないと判断され、S808に処理が進められる。   For example, when the camera management table is the camera management table in FIG. 3C and the image ID included in the transmission request (cutout request) is “102”, the camera 100 stores the corresponding RAW video data. The process proceeds to S807. If the camera management table is the camera management table of FIG. 3C and the image ID included in the transmission request is “103”, it is determined that the corresponding RAW video data is not stored in the camera 100. , The process proceeds to S808.

S807では、CPU105が、送信要求(切り出し要求)が示すシーンの動画データを対応RAW動画データから切り出す切り出し処理(第2切り出し処理;第2抽出処理)を行う。その後、S809に処理が進められる。第2切り出し処理の方法は、第1切り出し処理の方法と同じである。S808の処理により、対応RAW動画データから対応シーンの動画データが切り出される。以後、S808の処理によって切り出された動画データを、「第2抽出動画データ」と記載する。そして、送信要求にフォーマット指定が含まれている場合には、S808において、第2抽出動画データのフォーマットを、フォーマット指定が示すフォーマットに変換することにより、第2変換動画データが生成される(第2変換処理)。送信要求にフォーマット指定が含まれていない場合には、S808において、第2抽出動画データがカメラ100からサーバ110に送信される。送信要求にフォーマット指定が含まれている場合には、第2変換動画データがカメラ100からサーバ110に送信される。   In step S <b> 807, the CPU 105 performs a cutout process (second cutout process; second extraction process) for cutting out the moving image data of the scene indicated by the transmission request (cutout request) from the corresponding RAW moving image data. Thereafter, the process proceeds to S809. The method of the second cutout process is the same as the method of the first cutout process. By the processing of S808, the moving image data of the corresponding scene is cut out from the corresponding RAW moving image data. Hereinafter, the moving image data cut out by the processing of S808 is referred to as “second extracted moving image data”. If the format designation is included in the transmission request, the second converted video data is generated by converting the format of the second extracted video data into the format indicated by the format designation in S808 (first format). 2 conversion processing). If the format specification is not included in the transmission request, the second extracted moving image data is transmitted from the camera 100 to the server 110 in S808. When the format specification is included in the transmission request, the second converted moving image data is transmitted from the camera 100 to the server 110.

S808では、CPU105が、ネットワークボード106を用いて、対応RAW動画データが存在しないことに関するエラー情報をサーバ110に送信する。そして、サーバ
110のCPU115が、ネットワークボード116を用いて、エラー情報をカメラ100から受信する。その後、S809に処理が進められる。
In step S <b> 808, the CPU 105 transmits error information regarding the absence of corresponding RAW moving image data to the server 110 using the network board 106. Then, the CPU 115 of the server 110 receives error information from the camera 100 using the network board 116. Thereafter, the process proceeds to S809.

S809では、サーバ110のCPU115が、ネットワークボード106を用いて、S807またはS808の処理によって受信されたデータ(第2抽出動画データ、第2変換動画データ、または、エラー情報)をクライアント装置120に送信する。そして、クライアント装置120のCPU125が、ネットワークボード126を用いて、上記データをサーバ110から受信する。その後、図8の処理フローが終了される。   In S809, the CPU 115 of the server 110 transmits the data (second extracted moving image data, second converted moving image data, or error information) received by the processing in S807 or S808 to the client device 120 using the network board 106. To do. Then, the CPU 125 of the client device 120 receives the data from the server 110 using the network board 126. Thereafter, the processing flow of FIG. 8 is terminated.

なお、送信要求にフォーマット指定が含まれているか否かに拘らず、第2抽出動画データがカメラ100からサーバ110に送信されてもよい。そして、第2変換動画データの生成がサーバ110によって行われてもよい。また、対応RAW動画データ全体がカメラ100からサーバ110に送信されてもよい。そして、第2抽出動画データの切り出しと、第2抽出動画データの生成とがサーバ110によって行われてもよい。   Note that the second extracted moving image data may be transmitted from the camera 100 to the server 110 regardless of whether or not the format specification is included in the transmission request. Then, the server 110 may generate the second converted moving image data. Further, the entire corresponding RAW moving image data may be transmitted from the camera 100 to the server 110. Then, the server 110 may perform the extraction of the second extracted moving image data and the generation of the second extracted moving image data.

図4の説明に戻る。S404(図8の処理フロー)の次に、S405にて、クライアント装置120のCPU125が、受信したデータに基づく処理を行う。そして、図4の処理フローが終了される。エラー情報がサーバ110からクライアント装置120に送信された場合には、CPU125は、「対応RAW動画データが存在しないこと」、「切り出し要求が受け入れられないこと」、等をユーザに通知する。動画データがサーバ110からクライアント装置120に送信された場合には、CPU125は、受信した動画データをHDD127に記録したり、受信した動画データに基づく動画を再生したりする。ここで、サーバ110からクライアント装置120に送信された動画データは、第1抽出動画データ、第1変換動画データ、第2抽出動画データ、または、第2変換動画データである。受信した動画データに基づく動画は、図6(B)の画像表示領域601で再生されてもよいし、他のアプリケーションを用いて再生されてもよい。   Returning to the description of FIG. Following S404 (processing flow in FIG. 8), in S405, the CPU 125 of the client apparatus 120 performs processing based on the received data. Then, the processing flow of FIG. 4 is terminated. When the error information is transmitted from the server 110 to the client device 120, the CPU 125 notifies the user that “corresponding RAW moving image data does not exist”, “a clipping request is not accepted”, and the like. When the moving image data is transmitted from the server 110 to the client device 120, the CPU 125 records the received moving image data in the HDD 127 or reproduces a moving image based on the received moving image data. Here, the moving image data transmitted from the server 110 to the client device 120 is first extracted moving image data, first converted moving image data, second extracted moving image data, or second converted moving image data. A moving image based on the received moving image data may be reproduced in the image display area 601 in FIG. 6B or may be reproduced using another application.

以上述べたように、本実施形態によれば、データサイズが小さい第2動画データがサーバからクライアント装置に送信され、クライアント装置において、第2動画データに基づいてシーン(所望のシーン)が決定される。そして、決定されたシーンを示すシーン情報がクライアント装置からサーバに送信され、サーバにおいて、シーン情報が示すシーンの動画データが、データサイズが大きい第1動画データから抽出される。その後、抽出された動画データが、サーバからクライアント装置に送信される。それにより、サーバからクライアント装置に所望の動画データ(所望のシーンの動画データ)を送信することができる。また、サーバからクライアント装置に送信する第2動画データを、シーン情報が示すシーンの動画データに制限したことにより、サーバとクライアント装置の間の通信量を低減することもできる。また、本実施形態によれば、第2動画データが予め用意されるため、サーバからクライアント装置への第2動画データの送信が滞ることはない。   As described above, according to the present embodiment, the second moving image data having a small data size is transmitted from the server to the client device, and the client device determines a scene (desired scene) based on the second moving image data. The Then, scene information indicating the determined scene is transmitted from the client device to the server, and the moving image data of the scene indicated by the scene information is extracted from the first moving image data having a large data size. Thereafter, the extracted moving image data is transmitted from the server to the client device. Thereby, desired moving image data (moving image data of a desired scene) can be transmitted from the server to the client device. Further, by limiting the second moving image data transmitted from the server to the client device to the moving image data of the scene indicated by the scene information, it is possible to reduce the amount of communication between the server and the client device. In addition, according to the present embodiment, since the second moving image data is prepared in advance, transmission of the second moving image data from the server to the client device will not be delayed.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこの特定の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。例えば、本実施形態では、撮影画像データを用いた例を説明したが、処理対象の動画データは撮影画像データに限らない。例えば、処理対象の動画データは、コンピュータグラフィクスの動画データであってもよいし、アニメーションの動画データであってもよい。   Although the present invention has been described in detail based on the preferred embodiments, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. For example, in this embodiment, an example using captured image data has been described, but the moving image data to be processed is not limited to captured image data. For example, the moving image data to be processed may be computer graphics moving image data or animation moving image data.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。ま
た、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

110:サーバ 115,125:CPU 116,126:ネットワークボード
117:HDD 120:クライアント装置
110: Server 115, 125: CPU 116, 126: Network board 117: HDD 120: Client device

Claims (15)

サーバとクライアント装置を有する画像配信システムであって、
前記サーバは、
第1動画データと、第1動画データよりもデータサイズが小さく、かつ、前記第1動画データと同じ動画を表す第2動画データとを記憶可能な記憶手段と、
前記第2動画データを前記クライアント装置に送信する第1送信手段と、
前記第2動画データの少なくとも一部のシーンを示すシーン情報を前記クライアント装置から受信する第1受信手段と、
前記シーン情報が示すシーンの動画データを、前記第1動画データから抽出する第1抽出手段と、
前記第1抽出手段によって抽出された動画データである抽出動画データを、前記クライアント装置に送信する第2送信手段と、
を有し、
前記クライアント装置は、
前記第2動画データを前記サーバから受信する第2受信手段と、
前記第2動画データに基づいて前記シーン情報を生成する第1生成手段と、
前記シーン情報を前記サーバに送信する第3送信手段と、
前記抽出動画データを前記サーバから受信する第3受信手段と、
を有する
ことを特徴とする画像配信システム。
An image distribution system having a server and a client device,
The server
Storage means capable of storing first moving image data and second moving image data having a data size smaller than the first moving image data and representing the same moving image as the first moving image data;
First transmission means for transmitting the second moving image data to the client device;
First receiving means for receiving, from the client device, scene information indicating at least a part of the scene of the second moving image data;
First extraction means for extracting the moving image data of the scene indicated by the scene information from the first moving image data;
Second transmitting means for transmitting extracted moving image data, which is moving image data extracted by the first extracting means, to the client device;
Have
The client device is
Second receiving means for receiving the second moving image data from the server;
First generation means for generating the scene information based on the second moving image data;
Third transmission means for transmitting the scene information to the server;
Third receiving means for receiving the extracted video data from the server;
An image distribution system comprising:
前記クライアント装置は、前記第2動画データに基づく動画を表示部に表示する表示制御を行う表示制御手段、をさらに有し、
前記第1生成手段は、ユーザが前記第2動画データに基づく動画を確認しながら前記第2動画データの少なくとも一部のシーンを選択するユーザ操作に応じて、前記シーン情報を生成する
ことを特徴とする請求項1に記載の画像配信システム。
The client device further includes display control means for performing display control for displaying a moving image based on the second moving image data on a display unit,
The first generation unit generates the scene information in response to a user operation for selecting at least a part of the scene of the second moving image data while the user confirms the moving image based on the second moving image data. The image distribution system according to claim 1.
前記第1生成手段は、前記第2動画データに基づいて、動画データのフォーマットを示すフォーマット情報をさらに生成し、
前記第3送信手段は、前記フォーマット情報をさらに送信し、
前記第1受信手段は、前記フォーマット情報をさらに受信し、
前記サーバは、前記第1受信手段によって前記フォーマット情報が受信された場合に、前記第1動画データから抽出された前記動画データのフォーマットを、前記フォーマット情報が示すフォーマットに変換する第1変換手段、をさらに有し、
前記第2送信手段は、前記第1受信手段によって前記フォーマット情報が受信された場合に、前記第1変換手段による変換後の動画データを、前記第1動画データから抽出された前記動画データの代わりに、前記クライアント装置に送信する
ことを特徴とする請求項1または2に記載の画像配信システム。
The first generation means further generates format information indicating the format of the moving image data based on the second moving image data,
The third transmission means further transmits the format information;
The first receiving means further receives the format information;
The server, when the format information is received by the first receiving means, a first converting means for converting the format of the moving picture data extracted from the first moving picture data into a format indicated by the format information; Further comprising
When the format information is received by the first receiving unit, the second transmitting unit replaces the moving image data extracted from the first moving image data with the moving image data converted by the first converting unit. The image delivery system according to claim 1, wherein the image delivery system transmits the image to the client device.
前記第1抽出手段は、前記シーン情報が示すシーンの始点の時間位置に時間位置が最も近いフレームから、前記シーン情報が示すシーンの終点の時間位置に時間位置が最も近いフレームまでの動画データを、前記第1動画データから抽出する
ことを特徴とする請求項1〜3のいずれか1項に記載の画像配信システム。
The first extracting means extracts moving image data from a frame whose time position is closest to the time position of the start point of the scene indicated by the scene information to a frame whose time position is closest to the time position of the end point of the scene indicated by the scene information. The image distribution system according to claim 1, wherein the image distribution system is extracted from the first moving image data.
前記シーン情報が前記第2動画データの1つのフレームを示す場合に、
前記第1抽出手段は、前記シーン情報が示す前記1つのフレームに対応する1つのフレームの静止画データを、前記第1動画データから抽出する
ことを特徴とする請求項1〜4のいずれか1項に記載の画像配信システム。
When the scene information indicates one frame of the second moving image data,
The first extraction unit extracts still image data of one frame corresponding to the one frame indicated by the scene information from the first moving image data. The image delivery system according to item.
前記画像配信システムは画像生成装置をさらに有し、
前記画像生成装置は、
前記第1動画データと前記第2動画データを生成する第2生成手段と、
前記第1動画データと前記第2動画データを、前記サーバに送信する第4送信手段と、
を有し、
前記サーバは、前記第1動画データと前記第2動画データを前記画像生成装置から受信する第4受信手段、をさらに有する
ことを特徴とする請求項1〜5のいずれか1項に記載の画像配信システム。
The image distribution system further includes an image generation device,
The image generation device includes:
Second generating means for generating the first moving image data and the second moving image data;
Fourth transmission means for transmitting the first moving image data and the second moving image data to the server;
Have
The image according to any one of claims 1 to 5, wherein the server further includes a fourth receiving unit that receives the first moving image data and the second moving image data from the image generation device. Distribution system.
前記サーバは、前記第1受信手段が前記シーン情報を受信した際に前記記憶手段が前記第1動画データを記憶していない場合に、前記第1動画データの送信を指示する送信要求を、前記画像生成装置に送信する第5送信手段、をさらに有し、
前記画像生成装置は、前記送信要求を前記サーバから受信する第5受信手段、をさらに有し、
前記第4送信手段は、前記第5受信手段が前記送信要求を受信したことに応じて、前記第1動画データを前記サーバに送信する
ことを特徴とする請求項6に記載の画像配信システム。
The server sends a transmission request for instructing transmission of the first moving image data when the storage means does not store the first moving image data when the first receiving unit receives the scene information. A fifth transmission means for transmitting to the image generation device;
The image generation apparatus further includes a fifth receiving unit that receives the transmission request from the server,
The image delivery system according to claim 6, wherein the fourth transmission unit transmits the first moving image data to the server in response to the fifth reception unit receiving the transmission request.
前記送信要求は、前記シーン情報を含み、
前記画像生成装置は、前記シーン情報が示すシーンの動画データを、前記第1動画データから抽出する第2抽出手段、をさらに有し、
前記第4送信手段は、前記第5受信手段が前記送信要求を受信したことに応じて、前記第2抽出手段によって抽出された動画データを、前記サーバに送信し、
前記第2送信手段は、前記第5受信手段が前記送信要求を受信したことに応じて前記第4送信手段から送信された前記動画データを、前記抽出動画データの代わりに、前記クライアント装置に送信する
ことを特徴とする請求項7に記載の画像配信システム。
The transmission request includes the scene information,
The image generation device further includes second extraction means for extracting the moving image data of the scene indicated by the scene information from the first moving image data,
The fourth transmission unit transmits the moving image data extracted by the second extraction unit to the server in response to the fifth reception unit receiving the transmission request,
The second transmitting unit transmits the moving image data transmitted from the fourth transmitting unit to the client device instead of the extracted moving image data in response to the fifth receiving unit receiving the transmission request. The image delivery system according to claim 7, wherein:
前記第1生成手段は、前記第2動画データに基づいて、動画データのフォーマットを示すフォーマット情報をさらに生成し、
前記第3送信手段は、前記フォーマット情報をさらに送信し、
前記第1受信手段は、前記フォーマット情報をさらに受信し、
前記第1受信手段によって前記フォーマット情報が受信された場合に、前記送信要求は、前記フォーマット情報を含み、
前記画像生成装置は、前記送信要求に前記フォーマット情報が含まれている場合に、前記第2抽出手段によって抽出された前記動画データのフォーマットを、前記フォーマット情報が示すフォーマットに変換する第2変換手段、をさらに有し、
前記送信要求に前記フォーマット情報が含まれている場合に、前記第4送信手段は、前記第5受信手段が前記送信要求を受信したことに応じて、前記第2変換手段による変換後の動画データを、前記第2抽出手段によって抽出された前記動画データの代わりに、前記サーバに送信する
ことを特徴とする請求項8記載の画像配信システム。
The first generation means further generates format information indicating the format of the moving image data based on the second moving image data,
The third transmission means further transmits the format information;
The first receiving means further receives the format information;
When the format information is received by the first receiving means, the transmission request includes the format information,
The image generation device, when the format information is included in the transmission request, a second conversion unit that converts the format of the moving image data extracted by the second extraction unit into a format indicated by the format information Further comprising
In the case where the format information is included in the transmission request, the fourth transmission unit receives the moving image data after the conversion by the second conversion unit in response to the fifth reception unit receiving the transmission request. 9. The image distribution system according to claim 8, wherein, instead of the moving image data extracted by the second extraction unit, the image distribution system is transmitted to the server.
前記第2抽出手段は、前記シーン情報が示すシーンの始点の時間位置に時間位置が最も近いフレームから、前記シーン情報が示すシーンの終点の時間位置に時間位置が最も近いフレームまでの動画データを、前記第1動画データから抽出する
ことを特徴とする請求項8または9に記載の画像配信システム。
The second extraction means extracts moving image data from a frame whose time position is closest to the time position of the start point of the scene indicated by the scene information to a frame whose time position is closest to the time position of the end point of the scene indicated by the scene information. The image distribution system according to claim 8, wherein the image distribution system is extracted from the first moving image data.
前記シーン情報が前記第2動画データの1つのフレームを示す場合に、
前記第2抽出手段は、前記シーン情報が示す前記1つのフレームに対応する1つのフレームを、前記第1動画データから抽出し、
前記第4送信手段は、前記第5受信手段が前記送信要求を受信したことに応じて、前記第2抽出手段によって抽出された1つのフレームを表す静止画データを、前記サーバに送信する
ことを特徴とする請求項8〜10のいずれか1項に記載の画像配信システム。
When the scene information indicates one frame of the second moving image data,
The second extraction means extracts one frame corresponding to the one frame indicated by the scene information from the first moving image data,
The fourth transmission unit transmits the still image data representing one frame extracted by the second extraction unit to the server in response to the fifth reception unit receiving the transmission request. The image delivery system according to any one of claims 8 to 10, characterized in that
クライアント装置に接続可能なサーバであって、
第1動画データと、第1動画データよりもデータサイズが小さく、かつ、前記第1動画データと同じ動画を表す第2動画データとを記憶可能な記憶手段と、
前記第2動画データを前記クライアント装置に送信する第1送信手段と、
前記第2動画データの少なくとも一部のシーンを示すシーン情報を前記クライアント装置から受信する受信手段と、
前記シーン情報が示すシーンの動画データを、前記第1動画データから抽出する抽出手段と、
前記抽出手段によって抽出された動画データである抽出動画データを、前記クライアント装置に送信する第2送信手段と、
を有することを特徴とするサーバ。
A server connectable to a client device,
Storage means capable of storing first moving image data and second moving image data having a data size smaller than the first moving image data and representing the same moving image as the first moving image data;
First transmission means for transmitting the second moving image data to the client device;
Receiving means for receiving, from the client device, scene information indicating at least a part of the scene of the second moving image data;
Extraction means for extracting the moving image data of the scene indicated by the scene information from the first moving image data;
Second transmission means for transmitting extracted moving image data, which is moving image data extracted by the extracting means, to the client device;
The server characterized by having.
サーバとクライアント装置を有する画像配信システムの制御方法であって、
前記サーバが、第1動画データよりもデータサイズが小さく、かつ、前記第1動画データと同じ動画を表す第2動画データを前記クライアント装置に送信する第1送信ステップと、
前記クライアント装置が、前記第2動画データを前記サーバから受信する第1受信ステップと、
前記クライアント装置が、前記第2動画データに基づいて、前記第2動画データの少なくとも一部のシーンを示すシーン情報を生成する生成ステップと、
前記クライアント装置が、前記シーン情報を前記サーバに送信する第2送信ステップと、
前記サーバが、前記シーン情報を前記クライアント装置から受信する第2受信ステップと、
前記サーバが、前記シーン情報が示すシーンの動画データを、前記第1動画データから抽出する抽出ステップと、
前記サーバが、前記抽出ステップによって抽出された動画データである抽出動画データを、前記クライアント装置に送信する第3送信ステップと、
前記クライアント装置が、前記抽出動画データを前記サーバから受信する第3受信ステップと、
を有することを特徴とする制御方法。
A control method of an image distribution system having a server and a client device,
A first transmission step in which the server transmits second moving image data having a data size smaller than the first moving image data and representing the same moving image as the first moving image data to the client device;
A first receiving step in which the client device receives the second moving image data from the server;
A generating step in which the client device generates scene information indicating at least a part of the scene of the second moving image data based on the second moving image data;
A second transmission step in which the client device transmits the scene information to the server;
A second receiving step in which the server receives the scene information from the client device;
An extraction step in which the server extracts the moving image data of the scene indicated by the scene information from the first moving image data;
A third transmission step in which the server transmits extracted moving image data, which is the moving image data extracted in the extraction step, to the client device;
A third receiving step in which the client device receives the extracted moving image data from the server;
A control method characterized by comprising:
クライアント装置に接続可能なサーバの制御方法であって、
第1動画データよりもデータサイズが小さく、かつ、前記第1動画データと同じ動画を表す第2動画データを前記クライアント装置に送信する第1送信ステップと、
前記第2動画データの少なくとも一部のシーンを示すシーン情報を前記クライアント装置から受信する受信ステップと、
前記シーン情報が示すシーンの動画データを、前記第1動画データから抽出する抽出ステップと、
前記抽出ステップによって抽出された動画データである抽出動画データを、前記クライアント装置に送信する第2送信ステップと、
を有することを特徴とする制御方法。
A method of controlling a server connectable to a client device,
A first transmission step of transmitting to the client device second moving image data having a data size smaller than the first moving image data and representing the same moving image as the first moving image data;
A reception step of receiving, from the client device, scene information indicating at least a part of the scene of the second moving image data;
Extracting the moving image data of the scene indicated by the scene information from the first moving image data;
A second transmission step of transmitting the extracted moving image data, which is the moving image data extracted by the extraction step, to the client device;
A control method characterized by comprising:
請求項13または14に記載の制御方法の各ステップをコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute each step of the control method according to claim 13 or 14.
JP2015182023A 2015-09-15 2015-09-15 Image delivery system and server Active JP6548538B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015182023A JP6548538B2 (en) 2015-09-15 2015-09-15 Image delivery system and server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015182023A JP6548538B2 (en) 2015-09-15 2015-09-15 Image delivery system and server

Publications (2)

Publication Number Publication Date
JP2017059953A true JP2017059953A (en) 2017-03-23
JP6548538B2 JP6548538B2 (en) 2019-07-24

Family

ID=58390585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015182023A Active JP6548538B2 (en) 2015-09-15 2015-09-15 Image delivery system and server

Country Status (1)

Country Link
JP (1) JP6548538B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11187349A (en) * 1997-12-22 1999-07-09 Sony Corp Receiver, transmitter and video server
JP2003333568A (en) * 2002-05-09 2003-11-21 Canon Inc Image processing server and control method therefor, program, storage medium, and image processing system
JP2004289718A (en) * 2003-03-25 2004-10-14 Nippon Hoso Kyokai <Nhk> Photographed video editing method and apparatus therefor
JP2005117084A (en) * 2003-10-02 2005-04-28 Nagoya City Still image information distribution system, server, and client
JP2006166407A (en) * 2004-11-09 2006-06-22 Canon Inc Imaging device and its control method
JP2009533961A (en) * 2006-04-10 2009-09-17 ヤフー! インコーポレイテッド Client-side editing application for optimizing the editing of media assets sent from clients and servers
US20110206351A1 (en) * 2010-02-25 2011-08-25 Tal Givoli Video processing system and a method for editing a video asset
WO2012011466A1 (en) * 2010-07-20 2012-01-26 シャープ株式会社 Relay device, relay method, communications system, relay control program, and recoding medium
US8768142B1 (en) * 2012-01-26 2014-07-01 Ambarella, Inc. Video editing with connected high-resolution video camera and video cloud server

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11187349A (en) * 1997-12-22 1999-07-09 Sony Corp Receiver, transmitter and video server
JP2003333568A (en) * 2002-05-09 2003-11-21 Canon Inc Image processing server and control method therefor, program, storage medium, and image processing system
JP2004289718A (en) * 2003-03-25 2004-10-14 Nippon Hoso Kyokai <Nhk> Photographed video editing method and apparatus therefor
JP2005117084A (en) * 2003-10-02 2005-04-28 Nagoya City Still image information distribution system, server, and client
JP2006166407A (en) * 2004-11-09 2006-06-22 Canon Inc Imaging device and its control method
JP2009533961A (en) * 2006-04-10 2009-09-17 ヤフー! インコーポレイテッド Client-side editing application for optimizing the editing of media assets sent from clients and servers
US20110206351A1 (en) * 2010-02-25 2011-08-25 Tal Givoli Video processing system and a method for editing a video asset
WO2012011466A1 (en) * 2010-07-20 2012-01-26 シャープ株式会社 Relay device, relay method, communications system, relay control program, and recoding medium
US8768142B1 (en) * 2012-01-26 2014-07-01 Ambarella, Inc. Video editing with connected high-resolution video camera and video cloud server

Also Published As

Publication number Publication date
JP6548538B2 (en) 2019-07-24

Similar Documents

Publication Publication Date Title
JP7466763B2 (en) Multimedia data processing method, generation method and related device
CN110213616B (en) Video providing method, video obtaining method, video providing device, video obtaining device and video providing equipment
KR101926018B1 (en) Method and system for video recording
WO2020007009A1 (en) Method and apparatus for determining background music of video, terminal device and storage medium
CN104349221B (en) Carry out communication equipment, message processing device and its control method of stream distribution
US9445142B2 (en) Information processing apparatus and control method thereof
JP6541309B2 (en) Transmission apparatus, transmission method, and program
US8984561B2 (en) Moving-image playing apparatus and method
JP2014049865A (en) Monitor camera system
JP2015171042A (en) Picture processing system and picture imaging apparatus
JP2015050572A (en) Information processing device, program, and information processing method
JP2019033362A (en) Distribution apparatus, reception apparatus, and program
JP6632360B2 (en) Information processing device
JP6548538B2 (en) Image delivery system and server
CN112188269B (en) Video playing method and device and video generating method and device
US9277261B2 (en) Information processing apparatus and control method thereof
JP2010226285A (en) Image supply device, image supply system, image supply method, image supply program and recording medium
JP6639242B2 (en) Information processing device
US11488633B2 (en) Playback device
JP2018045674A (en) Information processing device, its control method and computer program
JP6295634B2 (en) Information processing system and program
JP2013046276A (en) Video transmission server
JP2008090526A (en) Conference information storage device, system, conference information display device, and program
JP6590433B2 (en) Video playback management method, system and program
JP2015082694A (en) Information processor, content creation apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180911

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190625

R151 Written notification of patent or utility model registration

Ref document number: 6548538

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151