JP2022006725A - Image management device, image management system, and image management method - Google Patents

Image management device, image management system, and image management method Download PDF

Info

Publication number
JP2022006725A
JP2022006725A JP2020109135A JP2020109135A JP2022006725A JP 2022006725 A JP2022006725 A JP 2022006725A JP 2020109135 A JP2020109135 A JP 2020109135A JP 2020109135 A JP2020109135 A JP 2020109135A JP 2022006725 A JP2022006725 A JP 2022006725A
Authority
JP
Japan
Prior art keywords
image data
time
moving image
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020109135A
Other languages
Japanese (ja)
Other versions
JP6909904B1 (en
Inventor
圭 河村
Kei Kawamura
隆治 高崎
Takaharu Takasaki
佳伸 滝田
Yoshinobu Takita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020109135A priority Critical patent/JP6909904B1/en
Application granted granted Critical
Publication of JP6909904B1 publication Critical patent/JP6909904B1/en
Publication of JP2022006725A publication Critical patent/JP2022006725A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To synchronize a moving image and sound.SOLUTION: An image management device 3 includes an image data acquisition unit 332 that acquires a plurality of pieces of moving image data including time image data each of which indicates a time, a time identification unit 334 that identifies the time indicated by the time image data, a synchronization processing unit 336 that synchronizes the plurality of pieces of moving image data on the basis of the time identified by the time identification unit 334, a sound data acquisition unit 335 that acquires sound data synchronized with the time indicated by the time image data, and an image providing unit 338 that provides the plurality of pieces of moving image data and the sound data synchronized by the synchronization processing unit 336 to an information terminal.SELECTED DRAWING: Figure 7

Description

本発明は、画像管理装置、画像管理システム及び画像管理方法に関する。 The present invention relates to an image management device, an image management system, and an image management method.

複数のユーザがインターネット等のネットワークを介して送信した画像を公開する画像公開装置が知られている(例えば、特許文献1を参照)。 An image publishing device that publishes an image transmitted by a plurality of users via a network such as the Internet is known (see, for example, Patent Document 1).

特開2013-191035号公報Japanese Unexamined Patent Publication No. 2013-191035

入学式、運動会、コンサート等のイベントにおいては、多数の参加者がイベントの様子を撮影することにより多数の動画像データが作成される。各参加者が動画像データをサーバにアップロードすることにより、各参加者が撮影した動画像が閲覧可能になる。動画像と音とを再生可能な端末において動画像と音とが同期していない状態で同時に再生されると、音や動画像がずれてしまうので閲覧しづらいという問題があった。 At events such as entrance ceremonies, athletic meet, and concerts, a large number of moving image data are created by a large number of participants taking pictures of the event. By uploading the moving image data to the server by each participant, the moving image taken by each participant can be viewed. If the moving image and the sound are played back at the same time on a terminal capable of reproducing the moving image and the sound in a state where the moving image and the sound are not synchronized, there is a problem that the sound and the moving image are shifted and it is difficult to browse.

そこで、本発明はこれらの点に鑑みてなされたものであり、動画像と音とを同期させることができる画像管理装置、画像管理システム及び画像管理方法を提供することを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to provide an image management device, an image management system, and an image management method capable of synchronizing a moving image and a sound.

本発明の第1の態様に係る画像管理装置は、それぞれが時刻を示す時刻画像データを含む複数の動画像データを取得する画像データ取得部と、前記時刻画像データが示す時刻を特定する時刻特定部と、前記時刻特定部が特定した時刻に基づいて、前記複数の動画像データを同期させる同期処理部と、前記時刻画像データが示す時刻に同期した音データを取得する音データ取得部と、前記同期処理部が同期させた前記複数の動画像データと前記音データとを情報端末に提供する画像提供部と、を有する。 The image management device according to the first aspect of the present invention has an image data acquisition unit that acquires a plurality of moving image data including time image data indicating the time, and a time specification that specifies the time indicated by the time image data. A unit, a synchronization processing unit that synchronizes a plurality of moving image data based on the time specified by the time specifying unit, and a sound data acquisition unit that acquires sound data synchronized with the time indicated by the time image data. It has an image providing unit that provides the plurality of moving image data and the sound data synchronized by the synchronization processing unit to the information terminal.

前記音データ取得部は、複数の前記動画像データに関連付けられた複数の前記音データを取得し、前記画像提供部は、前記複数の前記音データのうち1つを前記情報端末に提供してもよい。 The sound data acquisition unit acquires a plurality of the sound data associated with the plurality of moving image data, and the image providing unit provides one of the plurality of the sound data to the information terminal. May be good.

前記画像提供部は、複数の前記音データのうち最も早いタイミングの前記音データを前記情報端末に提供してもよい。 The image providing unit may provide the sound data at the earliest timing among the plurality of sound data to the information terminal.

前記画像提供部は、前記動画像データが変化するタイミングに最も近いタイミングで変化する前記音データを前記情報端末に提供してもよい。 The image providing unit may provide the information terminal with the sound data that changes at the timing closest to the timing at which the moving image data changes.

前記音データ取得部は、複数の前記音データそれぞれが集音された位置を示す複数の集音位置情報をさらに取得し、前記画像データ取得部は、前記動画像データに含まれる被写体の位置を示す被写体位置情報をさらに取得してもよい。 The sound data acquisition unit further acquires a plurality of sound collection position information indicating a position where each of the plurality of sound data is collected, and the image data acquisition unit obtains the position of the subject included in the moving image data. Further, the subject position information to be shown may be acquired.

前記画像提供部は、前記複数の集音位置情報が示す複数の位置のうち、前記被写体位置情報が示す位置に最も近い位置に対応する前記集音位置情報に関連付けられた前記音データを前記情報端末に提供してもよい。 The image providing unit uses the sound data associated with the sound collecting position information corresponding to the position closest to the position indicated by the subject position information among the plurality of positions indicated by the plurality of sound collecting position information. It may be provided to the terminal.

前記音データ取得部は、前記複数の動画像データそれぞれに対応する動画像を撮影した複数の撮影装置の位置よりも前記動画像データに含まれる被写体に近い位置で集音された前記音データを取得してもよい。 The sound data acquisition unit collects the sound data at a position closer to the subject included in the moving image data than the positions of the plurality of photographing devices that have taken the moving images corresponding to the plurality of moving image data. You may get it.

前記音データ取得部は、時刻を示す音時刻データを含む前記音データを取得し、前記同期処理部は、前記音時刻データが示す時刻と前記時刻特定部が特定した時刻とに基づいて、前記音時刻データを含む前記音データと前記時刻特定部が特定した時刻に対応する前記複数の動画像データとを同期させてもよい。 The sound data acquisition unit acquires the sound data including the sound time data indicating the time, and the synchronization processing unit obtains the time indicated by the sound time data and the time specified by the time specifying unit. The sound data including the sound time data may be synchronized with the plurality of moving image data corresponding to the time specified by the time specifying unit.

ユーザの操作を受け付ける操作受付部をさらに有し、前記音データ取得部は、前記操作受付部が受け付けた操作に基づいて、前記動画像データに関連付けられた前記音データを取得するか、前記動画像データに関連付けられていない前記音データを取得するかを選択してもよい。 The sound data acquisition unit further has an operation reception unit that accepts a user's operation, and the sound data acquisition unit either acquires the sound data associated with the moving image data or acquires the moving image based on the operation accepted by the operation reception unit. You may choose whether to acquire the sound data that is not associated with the image data.

本発明の第2の態様に係る画像管理システムは、複数の撮像装置と、前記複数の撮像装置が生成した動画像データを管理する画像管理装置と、を備え、前記複数の撮像装置それぞれは、時刻を示す時刻画像データを含む前記動画像データを生成する画像生成部と、前記動画像データを送信する画像送信部と、を有し、前記画像管理装置は、複数の前記動画像データを取得する画像データ取得部と、前記時刻画像データが示す時刻を特定する時刻特定部と、前記時刻特定部が特定した時刻に基づいて、複数の前記動画像データを同期させる同期処理部と、前記時刻画像データが示す時刻に同期した音データを取得する音データ取得部と、前記同期処理部が同期させた前記複数の動画像データと前記音データとを情報端末に提供する画像提供部と、を有する。 The image management system according to the second aspect of the present invention includes a plurality of image pickup devices and an image management device that manages moving image data generated by the plurality of image pickup devices, and each of the plurality of image pickup devices includes. The image management device has an image generation unit that generates the moving image data including time image data indicating a time, and an image transmission unit that transmits the moving image data, and the image management device acquires a plurality of the moving image data. An image data acquisition unit, a time specifying unit that specifies the time indicated by the time image data, a synchronization processing unit that synchronizes a plurality of the moving image data based on the time specified by the time specifying unit, and the time. A sound data acquisition unit that acquires sound data synchronized with the time indicated by the image data, and an image providing unit that provides the plurality of moving image data and the sound data synchronized by the synchronization processing unit to an information terminal. Have.

本発明の第3の態様に係る画像管理方法は、コンピュータが、それぞれが時刻を示す時刻画像データを含む複数の動画像データを取得するステップと、前記時刻画像データが示す時刻を特定するステップと、特定した時刻に基づいて、前記複数の動画像データを同期させるステップと、前記時刻画像データが示す時刻に同期した音データを取得するステップと、同期させた前記複数の動画像データと前記音データとを情報端末に提供するステップと、を実行する。 The image management method according to the third aspect of the present invention includes a step in which a computer acquires a plurality of moving image data including time image data indicating a time, and a step of specifying a time indicated by the time image data. , The step of synchronizing the plurality of moving image data based on the specified time, the step of acquiring the sound data synchronized with the time indicated by the time image data, and the synchronized plurality of moving image data and the sound. Perform steps to provide data and information to the information terminal.

本発明によれば、動画像と音とを同期させることができるという効果を奏する。 According to the present invention, there is an effect that the moving image and the sound can be synchronized.

本発明の実施の形態に係る画像管理システムS1の構成を示す図である。It is a figure which shows the structure of the image management system S1 which concerns on embodiment of this invention. 画像管理システムS1の動作のシーケンスを示す図である。It is a figure which shows the operation sequence of the image management system S1. 情報端末1が第2のQRコード(登録商標)と時刻情報とを表示する場合の画面の一例を示す図である。It is a figure which shows an example of the screen when the information terminal 1 displays the 2nd QR code (registered trademark) and time information. ユーザ端末4が画像管理装置3から取得した提示対象画像データを表示する場合の画面の一例を示す図である。It is a figure which shows an example of the screen when the user terminal 4 displays the presentation target image data acquired from the image management apparatus 3. 情報端末1の構成を示す図である。It is a figure which shows the structure of the information terminal 1. 撮像装置2の構成を示す図である。It is a figure which shows the structure of the image pickup apparatus 2. 画像管理装置3の構成を示す図である。It is a figure which shows the structure of the image management apparatus 3. 同期処理部336が複数の動画像データを同期させる動作について説明するための図である。It is a figure for demonstrating the operation which the synchronization processing unit 336 synchronizes a plurality of moving image data. 画像管理装置3が撮像画像データを記憶部32に記憶させる動作のフローチャートである。It is a flowchart of the operation which the image management apparatus 3 stores the captured image data in a storage unit 32. 画像管理装置3が複数の動画像データを同期させてユーザ端末4に送信する動作のフローチャートである。It is a flowchart of the operation that the image management apparatus 3 synchronizes a plurality of moving image data and sends it to a user terminal 4. 画像提供部338が複数の動画像データと音データとを同期させた状態で情報端末に送信する動作について説明するための図である。It is a figure for demonstrating the operation which the image providing unit 338 transmits to an information terminal in a state where a plurality of moving image data and sound data are synchronized. 動画像データに含まれる時刻情報に関連付けられた音楽データを提供する場合の画像管理装置3の構成を示す図である。It is a figure which shows the structure of the image management apparatus 3 in the case of providing the music data associated with the time information included in the moving image data. 画像管理システムS2の構成を示す図である。It is a figure which shows the structure of the image management system S2.

[画像管理システムS1の構成]
図1は、本発明の実施の形態に係る画像管理システムS1の構成を示す図である。画像管理システムS1は、一以上の情報端末1と、複数の撮像装置2(2a,2b,2c)と、画像管理装置3と、ユーザ端末4とを有する。画像管理システムS1は、例えば小学校の運動会や音楽ライブ等のイベントにおいて、複数の撮像装置2が撮像した撮像画像データと情報端末1が生成するイベントを識別するための識別情報とを関連付けて画像管理装置3が有する記憶部に記憶させる画像管理システムである。本明細書においては、撮像画像データが動画像データである場合を例示するが、撮像画像データに静止画像データが含まれていてもよい。
[Configuration of image management system S1]
FIG. 1 is a diagram showing a configuration of an image management system S1 according to an embodiment of the present invention. The image management system S1 includes one or more information terminals 1, a plurality of image pickup devices 2 (2a, 2b, 2c), an image management device 3, and a user terminal 4. The image management system S1 manages an image by associating the captured image data captured by the plurality of image pickup devices 2 with the identification information for identifying the event generated by the information terminal 1 in an event such as an athletic meet of an elementary school or a live music. It is an image management system to store in the storage unit of the device 3. In the present specification, the case where the captured image data is moving image data is illustrated, but the captured image data may include still image data.

情報端末1と画像管理装置3とはネットワークNを介して接続されている。複数の撮像装置2と画像管理装置3とはネットワークNを介して接続されている。ユーザ端末4と画像管理装置3とはネットワークNを介して接続されている。ネットワークNは、例えばインターネットである。情報端末1と複数の撮像装置2とは、例えばBluetooth(登録商標)等の無線通信方式を用いて接続されていてもよい。 The information terminal 1 and the image management device 3 are connected to each other via the network N. The plurality of image pickup devices 2 and the image management device 3 are connected to each other via the network N. The user terminal 4 and the image management device 3 are connected to each other via the network N. The network N is, for example, the Internet. The information terminal 1 and the plurality of image pickup devices 2 may be connected by using a wireless communication method such as Bluetooth (registered trademark).

情報端末1は、例えば撮像装置2のユーザが使用する端末である。情報端末1は、被写体を撮像する撮像デバイス、ユーザの操作を受け付けるタッチパネル等の操作入力用デバイス、受け付けたユーザの操作に基づいて情報を表示するディスプレイ、現在位置を特定するための電波をGPS(Global Positioning System)衛星のような外部装置から受信する受信機、並びにネットワークNを介して情報を送信するための通信デバイス等を有する端末である。情報端末1は、例えばタブレット又はスマートフォンである。以下の説明においては、情報端末1が、複数の撮像装置2を使用する複数のユーザの代表ユーザの端末である場合を想定して説明するが、複数のユーザそれぞれが自身の情報端末1を使用してもよい。 The information terminal 1 is, for example, a terminal used by the user of the image pickup apparatus 2. The information terminal 1 has an imaging device that captures a subject, an operation input device such as a touch panel that accepts user operations, a display that displays information based on the accepted user operations, and GPS (GPS) for specifying a current position. Global Positioning System) A terminal having a receiver for receiving from an external device such as a satellite, and a communication device for transmitting information via network N. The information terminal 1 is, for example, a tablet or a smartphone. In the following description, it is assumed that the information terminal 1 is a terminal of a representative user of a plurality of users who use a plurality of image pickup devices 2, but each of the plurality of users uses their own information terminal 1. You may.

情報端末1は、ユーザの操作に応じて、例えばイベント会場に設置されている第1のQRコードを示す物体を撮像する。第1のQRコードを示す物体は、例えば第1のQRコードが印刷されたポスター、又は第1のQRコードが表示されているタブレットである。情報端末1は、撮像した第1のQRコードから、イベントが開催された場所において提示された提示イベント識別情報である提示イベントIDを抽出する。提示イベントIDは、例えばイベントがA小学校の運動会の場合、「A小学校運動会」を示すデータである。 The information terminal 1 captures, for example, an object indicating a first QR code installed at an event venue according to a user's operation. The object showing the first QR code is, for example, a poster on which the first QR code is printed, or a tablet on which the first QR code is displayed. The information terminal 1 extracts the presentation event ID, which is the presentation event identification information presented at the place where the event is held, from the first QR code captured. The presented event ID is data indicating "A elementary school athletic meet", for example, when the event is an athletic meet of A elementary school.

続いて、情報端末1は、提示イベントIDと、情報端末1に予め設定されている利用許諾情報とを含む第2のQRコードを生成する。利用許諾情報は、例えば「A小学校運動会6年1組」を示すデータであり、利用許諾情報が示す範囲内でのみ撮像画像データを閲覧可能にすることが可能とされる。 Subsequently, the information terminal 1 generates a second QR code including the presentation event ID and the license information preset in the information terminal 1. The license information is, for example, data indicating "A elementary school athletic meet 6th grade 1 group", and it is possible to view the captured image data only within the range indicated by the license information.

そして、情報端末1は、生成した第2のQRコードと時刻を示す時刻情報を含む時刻画像データとを情報端末1が有するディスプレイに表示する。情報端末1が有する時刻表示部は、例えば、通信回線を経由して取得した時刻や日本標準時刻(JJY)、GPS衛星等から取得した電波に基づく絶対時刻又は端末アプリケーションが生成する相対時刻(所定のタイミングを基準とする時刻)を表示する。なお、情報端末1は、第2のQRコードとして、提示イベントIDを含むQRコード(すなわち、第1のQRコード)を生成し、利用許諾情報を別途表示してもよい。また、情報端末1は、例えば受信機がGPS衛星から受信した電波に基づいて特定した現在位置を示す位置情報を画像管理装置3に送信してもよい。 Then, the information terminal 1 displays the generated second QR code and the time image data including the time information indicating the time on the display of the information terminal 1. The time display unit of the information terminal 1 is, for example, a time acquired via a communication line, a Japanese standard time (JJY), an absolute time based on a radio wave acquired from a GPS satellite, or a relative time generated by a terminal application (predetermined time). (Time based on the timing of) is displayed. The information terminal 1 may generate a QR code including the presented event ID (that is, the first QR code) as the second QR code, and display the license information separately. Further, the information terminal 1 may transmit, for example, position information indicating the current position specified by the receiver based on the radio wave received from the GPS satellite to the image management device 3.

なお、情報端末1は、第1のQRコードを撮影することなく、現在位置及び現在時刻に基づいて第2のQRコードを生成してもよい。一例として、情報端末1は、現在位置及び現在時刻を画像管理装置3に送信することにより画像管理装置3から取得した登録イベントIDを提示イベントIDとして表示する。登録イベントIDの詳細については後述する。情報端末1は、受信した登録イベントIDを提示イベントIDとして含む第2のQRコードを生成し、生成した第2のQRコードを表示する。この場合、情報端末1のユーザが第1のQRコードを示す物体を撮影する必要がない。 The information terminal 1 may generate a second QR code based on the current position and the current time without photographing the first QR code. As an example, the information terminal 1 displays the registration event ID acquired from the image management device 3 as the presentation event ID by transmitting the current position and the current time to the image management device 3. Details of the registration event ID will be described later. The information terminal 1 generates a second QR code including the received registration event ID as a presentation event ID, and displays the generated second QR code. In this case, the user of the information terminal 1 does not need to photograph the object showing the first QR code.

撮像装置2は、動画像を撮像することができるカメラであり、例えばカムコーダ、デジタルカメラ又はアクションカメラである。撮像装置2は、情報端末1が表示している第2のQRコード、時刻画像、及び第2のQRコードに関連付けられたイベントを撮像する。撮像装置2は、例えば、第2のQRコード及び時刻画像が表示された情報端末1の画面とイベントとを撮像して生成した動画像データを生成する。撮像装置2は、生成した動画像データを、ネットワークNを介して画像管理装置3に送信する。撮像装置2は、現在位置を特定するための電波をGPS衛星のような外部装置から受信する受信機を有しており、特定した現在位置を示す位置情報を画像管理装置3に送信してもよい。 The image pickup device 2 is a camera capable of capturing a moving image, and is, for example, a camcorder, a digital camera, or an action camera. The image pickup apparatus 2 captures the second QR code, the time image, and the event associated with the second QR code displayed by the information terminal 1. The image pickup apparatus 2 generates moving image data generated by capturing an image of an event and a screen of an information terminal 1 on which a second QR code and a time image are displayed, for example. The image pickup device 2 transmits the generated moving image data to the image management device 3 via the network N. The image pickup device 2 has a receiver that receives radio waves for specifying the current position from an external device such as a GPS satellite, and even if the position information indicating the specified current position is transmitted to the image management device 3. good.

画像管理装置3は、イベントが撮像されて生成された撮像画像データを管理するサーバ又はパーソナルコンピュータである。画像管理装置3は、撮像装置2から受信した撮像画像データと予め登録された登録イベントIDとを記憶部に記憶させる。登録イベントIDは、撮像画像データを管理する対象となるイベントを識別するための登録イベント識別情報であり、例えば、イベントの主催者や撮影者などにより画像管理装置3に登録される。 The image management device 3 is a server or a personal computer that manages captured image data generated by capturing an event. The image management device 3 stores the captured image data received from the image pickup device 2 and the pre-registered registration event ID in the storage unit. The registration event ID is registration event identification information for identifying an event for which the captured image data is to be managed, and is registered in the image management device 3 by, for example, the event organizer or the photographer.

画像管理装置3は、受信した動画像データから第2のQRコードを取得する。画像管理装置3は、取得した第2のQRコードから提示イベントIDを抽出する。画像管理装置3は、抽出した提示イベントIDが、予め取得していた登録イベントIDと一致していることを条件として、抽出した第2のQRコードに関連付けられた動画像データを、情報端末に提示する対象である提示対象画像データとして記憶部に記憶させる。 The image management device 3 acquires a second QR code from the received moving image data. The image management device 3 extracts the presented event ID from the acquired second QR code. The image management device 3 sends the video image data associated with the extracted second QR code to the information terminal on condition that the extracted presentation event ID matches the registered event ID acquired in advance. It is stored in the storage unit as the presentation target image data to be presented.

ユーザ端末4は、画像管理装置3が管理する動画像データを閲覧するユーザが使用する情報端末であり、例えばパーソナルコンピュータ又はスマートフォンである。情報端末1がユーザ端末4として用いられてもよい。画像管理装置3は、ユーザ端末4から提示対象画像データの閲覧要求を示す閲覧要求情報を受信した場合、受信した閲覧要求情報が登録イベントIDに対応する情報を含むことを条件として提示対象画像データをユーザ端末4に送信する。ユーザ端末4は、送信された提示対象画像データをディスプレイに表示する。 The user terminal 4 is an information terminal used by a user who browses moving image data managed by the image management device 3, and is, for example, a personal computer or a smartphone. The information terminal 1 may be used as the user terminal 4. When the image management device 3 receives the browsing request information indicating the browsing request of the presentation target image data from the user terminal 4, the presentation target image data is provided on condition that the received browsing request information includes the information corresponding to the registration event ID. Is transmitted to the user terminal 4. The user terminal 4 displays the transmitted image data to be presented on the display.

図2は、画像管理システムS1の動作のシーケンスを示す図である。図2に示すシーケンス図は、イベントの会場で、情報端末1を使用するユーザが第1のQRコードを撮影した時点から開始している。図2においては、撮像装置2として撮像装置2a及び撮像装置2bを例示しているが、より多くの撮像装置2があってもよい。 FIG. 2 is a diagram showing a sequence of operations of the image management system S1. The sequence diagram shown in FIG. 2 starts from the time when the user who uses the information terminal 1 takes a picture of the first QR code at the venue of the event. In FIG. 2, the image pickup device 2a and the image pickup device 2b are illustrated as the image pickup device 2, but there may be more image pickup devices 2.

情報端末1は、生成した提示イベントIDと予め設定された利用許諾情報に基づいて第2のQRコードを生成する。情報端末1は、第2のQRコードと時刻を示す時刻情報とを情報端末1のディスプレイに表示する(S11)。 The information terminal 1 generates a second QR code based on the generated presentation event ID and the preset license information. The information terminal 1 displays the second QR code and the time information indicating the time on the display of the information terminal 1 (S11).

撮像装置2aは、第1ユーザが使用する撮像装置であり、情報端末1のディスプレイに表示された第2のQRコードを撮像する(S12)。撮像装置2aは、第2のQRコードを撮像した後にイベントを撮像して動画像データを生成することにより、第2のQRコードと動画像データとを含む撮像画像データを生成する(S13)。撮像装置2aは、生成した撮像画像データである動画像データP1を画像管理装置3に送信する。なお、本実施の形態においては、第2のQRコードに続いてイベントが撮像されることが想定されているが、イベントの画像の途中に第2のQRコードが撮像されてもよい。 The image pickup device 2a is an image pickup device used by the first user, and captures a second QR code displayed on the display of the information terminal 1 (S12). The image pickup apparatus 2a generates captured image data including the second QR code and moving image data by capturing an event after capturing the second QR code and generating moving image data (S13). The image pickup device 2a transmits the moving image data P1 which is the generated captured image data to the image management device 3. In the present embodiment, it is assumed that the event is imaged following the second QR code, but the second QR code may be imaged in the middle of the image of the event.

撮像装置2bは、第2ユーザが使用する撮像装置であり、情報端末1のディスプレイに表示された第2のQRコードを撮像する(S14)。撮像装置2bは、第2のQRコードを撮像した後にイベントを撮像して動画像データを生成することにより、第2のQRコードと動画像データとを含む撮像画像データを生成する(S15)。撮像装置2bは、生成した撮像画像データである動画像データP2を画像管理装置3に送信する。 The image pickup device 2b is an image pickup device used by the second user, and captures a second QR code displayed on the display of the information terminal 1 (S14). The image pickup apparatus 2b generates captured image data including the second QR code and moving image data by capturing an event after capturing the second QR code and generating moving image data (S15). The image pickup device 2b transmits the moving image data P2, which is the generated captured image data, to the image management device 3.

画像管理装置3は、動画像データP1と動画像データP2とを受信する。画像管理装置3は、第2のQRコードを撮像した画像であるイベント情報画像を、動画像データP1と動画像データP2のそれぞれから取得する。画像管理装置3は、取得した動画像データP1と動画像データP2とのそれぞれのイベント情報画像から動画像データP1と動画像データP2とのそれぞれに対応する提示イベントIDを抽出する(S16)。 The image management device 3 receives the moving image data P1 and the moving image data P2. The image management device 3 acquires an event information image, which is an image obtained by capturing the second QR code, from each of the moving image data P1 and the moving image data P2. The image management device 3 extracts the presentation event IDs corresponding to the moving image data P1 and the moving image data P2 from the respective event information images of the acquired moving image data P1 and the moving image data P2 (S16).

続いて、画像管理装置3は、動画像データP1と動画像データP2とのそれぞれのイベント情報画像から動画像データP1と動画像データP2のそれぞれに対応する利用許諾情報を抽出する(S17)。 Subsequently, the image management device 3 extracts the license information corresponding to each of the moving image data P1 and the moving image data P2 from the event information images of the moving image data P1 and the moving image data P2 (S17).

画像管理装置3は、予め記憶部に記憶されている登録イベントIDと抽出した提示イベントIDとが一致している場合(S18のYES)、抽出した提示イベントIDに対応する動画像データを、当該動画像データに対応する利用許諾情報と関連付けて記憶部に記憶させる(S19)。一方、登録イベントIDと提示イベントIDとが一致しない場合(S18のNO)、画像管理装置は、登録イベントIDと一致しない提示イベントIDに対応する動画像データを記憶部に記憶させずに処理を終了する。 When the registered event ID stored in the storage unit in advance and the extracted presentation event ID match (YES in S18), the image management device 3 uses the moving image data corresponding to the extracted presentation event ID. It is stored in the storage unit in association with the license information corresponding to the moving image data (S19). On the other hand, when the registered event ID and the presented event ID do not match (NO in S18), the image management device performs processing without storing the moving image data corresponding to the presented event ID that does not match the registered event ID in the storage unit. finish.

例えば、登録イベントIDと動画データP1に含まれる提示イベントIDとが「A小学校運動会」を示すデータである場合、画像管理装置3は、動画像データP1に含まれる動画像データと当該動画像データに対応する利用許諾情報とを関連付けて記憶部に記憶させる。一方、登録イベントIDが「A小学校運動会」であり、提示イベントIDが「B小学校運動会」である場合、画像管理装置3は、動画像データP2に含まれる撮像画像データを記憶部に記憶させずに処理を終了する。 For example, when the registration event ID and the presentation event ID included in the moving image data P1 are data indicating "A elementary school athletic meet", the image management device 3 has the moving image data included in the moving image data P1 and the moving image data. It is stored in the storage unit in association with the license information corresponding to. On the other hand, when the registered event ID is "A elementary school athletic meet" and the presented event ID is "B elementary school athletic meet", the image management device 3 does not store the captured image data included in the moving image data P2 in the storage unit. Ends the process.

図3は、情報端末1が第2のQRコードと時刻情報とを表示する場合の画面の一例を示す図である。情報端末1の画面の上段には、第2のQRコードが表示されている。情報端末1の画面の中段には、利用許諾情報である「A小学校運動会6年1組」を示す文字列が表示されている。利用許諾情報「A小学校運動会6年1組」を示すデータは、情報端末1の画面の上段に表示されている第2のQRコードに含まれている。情報端末1の画面の下段には、時刻(現在の時刻又は端末アプリケーションが生成する相対時刻)を示す時刻情報が表示されている。 FIG. 3 is a diagram showing an example of a screen when the information terminal 1 displays the second QR code and the time information. A second QR code is displayed in the upper part of the screen of the information terminal 1. In the middle of the screen of the information terminal 1, a character string indicating "A elementary school athletic meet 6th grade 1 group" which is license information is displayed. The data indicating the license information "A elementary school athletic meet 6th grade 1 group" is included in the second QR code displayed in the upper part of the screen of the information terminal 1. At the bottom of the screen of the information terminal 1, time information indicating the time (current time or relative time generated by the terminal application) is displayed.

図4は、ユーザ端末4が画像管理装置3から取得した提示対象画像データを表示する場合の画面の一例を示す図である。図4に示す画面は、ユーザがイベント終了後にユーザ端末4を用いて閲覧することが想定されている。ユーザ端末4は、例えば画像管理装置3とネットワークNを介して接続されているパーソナルコンピュータである。画面Dには、複数の提示対象画像データP(P1,P2,P3,P4)が表示されている。複数の提示対象画像データPのそれぞれは、撮影者と撮影時刻とを示す情報が同時に表示されている。 FIG. 4 is a diagram showing an example of a screen when the user terminal 4 displays the presentation target image data acquired from the image management device 3. The screen shown in FIG. 4 is assumed to be viewed by the user using the user terminal 4 after the event is completed. The user terminal 4 is, for example, a personal computer connected to the image management device 3 via a network N. A plurality of presentation target image data P (P1, P2, P3, P4) are displayed on the screen D. Information indicating the photographer and the shooting time is simultaneously displayed in each of the plurality of presentation target image data Ps.

複数の提示対象画像データPのそれぞれは、利用許諾情報である「A小学校運動会6年1組」を示すデータに関連付けられて記憶部に記憶されている。複数の提示対象画像データPは、画像管理装置3が「A小学校運動会6年1組」を含む閲覧要求情報をユーザ端末4から取得することにより、ユーザ端末4に送信される。 Each of the plurality of image data P to be presented is stored in the storage unit in association with the data indicating "A elementary school athletic meet 6th grade 1 group" which is the license information. The plurality of presentation target image data Ps are transmitted to the user terminal 4 when the image management device 3 acquires browsing request information including "A elementary school athletic meet 6th grade 1 group" from the user terminal 4.

このように、撮像装置2が送信する動画像データには提示イベントIDが含まれており、画像管理装置3は、提示イベントIDが登録イベントIDと一致していることを条件として、動画像データを管理する。したがって、ユーザが、例えばイベントの終了後に自宅のユーザ端末4で動画像データを閲覧する場合に、イベントに参加した人がイベントで撮影した画像を閲覧できるが、イベントに参加していない人が不正に送信した画像はユーザ端末4に表示されない。 As described above, the moving image data transmitted by the imaging device 2 includes the presentation event ID, and the image management device 3 provides the moving image data on condition that the presented event ID matches the registered event ID. To manage. Therefore, for example, when the user browses the moving image data on the user terminal 4 at home after the event ends, the person who participated in the event can browse the image taken at the event, but the person who does not participate in the event is illegal. The image transmitted to is not displayed on the user terminal 4.

また、動画像データには利用許諾情報が含まれており、画像管理装置3は、利用許諾情報が示す範囲に含まれないユーザのユーザ端末4に対しては、動画像データを提供しない。画像管理装置3がこのように動作することで、利用許諾範囲外の人(例えば、「A小学校運動会6年1組」以外の人)に動画像データを見られることを防止できる。 Further, the moving image data includes the license information, and the image management device 3 does not provide the moving image data to the user terminal 4 of the user who is not included in the range indicated by the license information. By operating the image management device 3 in this way, it is possible to prevent people outside the license range (for example, people other than "A elementary school athletic meet 6th grade 1 group") from seeing the moving image data.

[情報端末1の構成]
図5は、情報端末1の構成を示す図である。情報端末1は、撮像部10と、記憶部11と、表示部12と、通信部13と、制御部14とを有する。制御部14は、許諾情報生成部141及びコード生成部142を有する。
[Configuration of information terminal 1]
FIG. 5 is a diagram showing the configuration of the information terminal 1. The information terminal 1 has an image pickup unit 10, a storage unit 11, a display unit 12, a communication unit 13, and a control unit 14. The control unit 14 has a license information generation unit 141 and a code generation unit 142.

撮像部10は、被写体を撮像する撮像素子を含む。撮像部10は、例えば第1のQRコードを撮像し、第1のQRコードが含まれる撮像画像データを生成する。撮像部10は、作成した撮像画像データをコード生成部142に入力する。 The image pickup unit 10 includes an image pickup element that captures an image of a subject. The image pickup unit 10 captures, for example, a first QR code and generates captured image data including the first QR code. The image pickup unit 10 inputs the created captured image data to the code generation unit 142.

記憶部11は、ROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体を有する。記憶部11は、制御部14が実行するプログラムを記憶している。記憶部11は、ユーザが表示部12を操作することにより設定した利用許諾情報を記憶する。 The storage unit 11 has a storage medium such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a hard disk. The storage unit 11 stores a program executed by the control unit 14. The storage unit 11 stores the license information set by the user by operating the display unit 12.

表示部12は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等である。表示部12は、制御部14の制御に基づいて第2のQRコードと現在の時刻とを表示する。また、表示部12は、例えば表示部12の表面にタッチパネルを有しており、ユーザがタッチした位置を示す信号に基づいてユーザの操作内容を特定し、特定したユーザの操作内容をコード生成部142に通知する。 The display unit 12 is, for example, a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like. The display unit 12 displays the second QR code and the current time based on the control of the control unit 14. Further, the display unit 12 has, for example, a touch panel on the surface of the display unit 12, specifies the operation content of the user based on the signal indicating the position touched by the user, and the operation content of the specified user is code generation unit. Notify 142.

通信部13は、ネットワークNを介して情報を送信するための通信デバイスを含む。通信デバイスは、例えば無線LANコントローラである。 The communication unit 13 includes a communication device for transmitting information via the network N. The communication device is, for example, a wireless LAN controller.

制御部14は、例えばCPU(Central Processing Unit)である。制御部14は、記憶部11に記憶されているプログラムを実行することにより、許諾情報生成部141及びコード生成部142として機能する。制御部14は、現在の時刻又は端末アプリケーションが生成する相対時刻を示す時刻情報を表示部12に表示させる。 The control unit 14 is, for example, a CPU (Central Processing Unit). The control unit 14 functions as the license information generation unit 141 and the code generation unit 142 by executing the program stored in the storage unit 11. The control unit 14 causes the display unit 12 to display time information indicating the current time or the relative time generated by the terminal application.

許諾情報生成部141は、表示部12から取得したユーザの操作内容に基づいて、提示対象画像データの利用可能範囲を示す利用許諾情報を生成する。許諾情報生成部141は、生成した利用許諾情報を記憶部11に記憶させるとともに、コード生成部142に通知する。 The license information generation unit 141 generates license information indicating the usable range of the image data to be presented, based on the operation content of the user acquired from the display unit 12. The license information generation unit 141 stores the generated license information in the storage unit 11 and notifies the code generation unit 142.

コード生成部142は、撮像部10が生成した撮像画像データに含まれる第1のQRコードから抽出した提示イベントIDと許諾情報生成部141が生成する利用許諾情報に基づいて第2のQRコードを生成する。コード生成部142は、生成した第2のQRコードを表示部12に表示させる。 The code generation unit 142 generates a second QR code based on the presentation event ID extracted from the first QR code included in the captured image data generated by the image pickup unit 10 and the license information generated by the license information generation unit 141. Generate. The code generation unit 142 causes the display unit 12 to display the generated second QR code.

[撮像装置2の構成]
図6は、撮像装置2の構成を示す図である。撮像装置2は、撮像部21と、通信部22と、記憶部23と、制御部24とを有する。撮像部21は、CCD(Charge Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子、及びレンズを含む。撮像部21は、レンズに入力された光信号を電気信号に変換した後に当該電気信号をデジタルデータに変換して制御部24に出力する。デジタルデータは、例えば動画像データ又は静止画像データである。
[Structure of image pickup device 2]
FIG. 6 is a diagram showing the configuration of the image pickup apparatus 2. The image pickup apparatus 2 includes an image pickup unit 21, a communication unit 22, a storage unit 23, and a control unit 24. The image pickup unit 21 includes an image pickup element such as a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor) sensor, and a lens. The image pickup unit 21 converts the optical signal input to the lens into an electric signal, then converts the electric signal into digital data and outputs the electric signal to the control unit 24. The digital data is, for example, moving image data or still image data.

通信部22は、ネットワークNを介して情報を送信するための通信デバイスを含む。通信デバイスは、例えば無線LANコントローラである。通信部22は、例えば無線LAN通信網を用いて、制御部14が生成した動画像データを画像管理装置3に送信する。 The communication unit 22 includes a communication device for transmitting information via the network N. The communication device is, for example, a wireless LAN controller. The communication unit 22 transmits the moving image data generated by the control unit 14 to the image management device 3 by using, for example, a wireless LAN communication network.

記憶部23は、ROM、RAM及びハードディスク等の記憶媒体を有する。記憶部23は、後述する制御部24が実行するプログラムを記憶している。記憶部23は、制御部24の制御に基づいて、撮像部21が撮像した、第2のQRコードと現在の時刻又は端末アプリケーションが生成する相対時刻を示す時刻情報とが表示された情報端末1の画面の画像に基づく動画像データを記憶する。 The storage unit 23 has a storage medium such as a ROM, RAM, and a hard disk. The storage unit 23 stores a program executed by the control unit 24, which will be described later. The storage unit 23 is an information terminal 1 that displays a second QR code imaged by the image pickup unit 21 and time information indicating the current time or a relative time generated by the terminal application, based on the control of the control unit 24. Stores moving image data based on the screen image of.

制御部24は、例えばCPUである。制御部24は、記憶部23に記憶されているプログラムを実行することにより、画像生成部241及び画像送信部242として機能する。 The control unit 24 is, for example, a CPU. The control unit 24 functions as an image generation unit 241 and an image transmission unit 242 by executing a program stored in the storage unit 23.

画像生成部241は、イベントが行われる会場に提示された提示イベント識別情報である提示イベントIDに関連付けられた動画像データを生成する。また、画像生成部241は、時刻を示す時刻画像データを含む動画像データを生成する。画像生成部241は、例えば、提示イベントIDを含む第2のQRコードの画像データ及び時刻画像データが所定の時間(例えば動画像データの冒頭の時間帯)に含まれている動画像データを生成する。画像生成部241は、第1時間にわたって第2のQRコードの画像データが含まれており、第1時間の前後の第2時間にわたって時刻画像データが含まれた動画像データを生成してもよい。画像生成部241は、生成した撮像画像データを画像送信部242に出力する。 The image generation unit 241 generates moving image data associated with the presentation event ID, which is the presentation event identification information presented at the venue where the event is held. Further, the image generation unit 241 generates moving image data including time image data indicating the time. The image generation unit 241 generates, for example, moving image data in which the image data and time image data of the second QR code including the presentation event ID are included in a predetermined time (for example, the time zone at the beginning of the moving image data). do. The image generation unit 241 may generate moving image data in which the image data of the second QR code is included for the first time and the time image data is included for the second time before and after the first time. .. The image generation unit 241 outputs the generated captured image data to the image transmission unit 242.

画像送信部242は、画像生成部241から取得した動画像データを、通信部22を介して画像管理装置3に送信する。 The image transmission unit 242 transmits the moving image data acquired from the image generation unit 241 to the image management device 3 via the communication unit 22.

[画像管理装置3の構成]
図7は、画像管理装置3の構成を示す図である。画像管理装置3は、通信部31と、記憶部32と、制御部33とを有する。
[Configuration of image management device 3]
FIG. 7 is a diagram showing the configuration of the image management device 3. The image management device 3 has a communication unit 31, a storage unit 32, and a control unit 33.

通信部31は、インターネット等の通信ネットワークに接続するためのインタフェースであり、ネットワークNを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLANコントローラである。通信部31は、複数の撮像装置2から動画像データを受信する。通信部31は、受信した動画像データに関連付けられる登録イベントIDを情報端末1から受信する。 The communication unit 31 is an interface for connecting to a communication network such as the Internet, and includes a communication device for transmitting and receiving information via the network N. The communication device is, for example, a LAN controller. The communication unit 31 receives moving image data from a plurality of image pickup devices 2. The communication unit 31 receives the registration event ID associated with the received moving image data from the information terminal 1.

記憶部32は、ROM、RAM及びハードディスク等の記憶媒体を有する。記憶部32は、後述する制御部33が実行するプログラムを記憶している。記憶部32は、複数の撮像装置2から取得した動画像データを記憶する。また、記憶部32は、予め取得した登録イベントID、並びに情報端末1から受信した提示イベントID及び利用許諾情報を記憶する。 The storage unit 32 has a storage medium such as a ROM, RAM, and a hard disk. The storage unit 32 stores a program executed by the control unit 33, which will be described later. The storage unit 32 stores moving image data acquired from a plurality of image pickup devices 2. Further, the storage unit 32 stores the registration event ID acquired in advance, the presentation event ID received from the information terminal 1, and the license information.

制御部33は、例えばCPUである。制御部33は、記憶部32に記憶されているプログラムを実行することにより、識別情報取得部331、画像データ取得部332、許諾情報取得部333、時刻特定部334、音データ取得部335、同期処理部336、画像管理部337、画像提供部338、操作受付部339として機能する。 The control unit 33 is, for example, a CPU. By executing the program stored in the storage unit 32, the control unit 33 executes the identification information acquisition unit 331, the image data acquisition unit 332, the permission information acquisition unit 333, the time identification unit 334, the sound data acquisition unit 335, and the synchronization. It functions as a processing unit 336, an image management unit 337, an image providing unit 338, and an operation receiving unit 339.

識別情報取得部331は、撮像画像データを管理する対象となるイベントを識別するための登録イベント識別情報である登録イベントIDを取得する。識別情報取得部331は、取得した登録イベントIDを画像管理部337に通知する。識別情報取得部331は、例えば、画像管理部337がアクセス可能な記憶部32に記憶させることにより、登録イベントIDを画像管理部337に通知する。 The identification information acquisition unit 331 acquires a registration event ID, which is registration event identification information for identifying an event for which the captured image data is to be managed. The identification information acquisition unit 331 notifies the image management unit 337 of the acquired registration event ID. The identification information acquisition unit 331 notifies the image management unit 337 of the registration event ID by storing it in a storage unit 32 accessible by the image management unit 337, for example.

画像データ取得部332は、撮像装置2から動画像データを取得する。画像データ取得部332は、撮像装置2から取得した動画像データに含まれている情報格納画像データであるイベント情報画像データを解析することにより、イベント情報画像データに含まれている提示イベントIDを特定する。イベント情報画像データは、第2のQRコードが含まれている画像データである。 The image data acquisition unit 332 acquires moving image data from the image pickup device 2. The image data acquisition unit 332 analyzes the event information image data, which is the information storage image data included in the moving image data acquired from the image pickup device 2, to obtain the presentation event ID included in the event information image data. Identify. The event information image data is image data including a second QR code.

画像データ取得部332は、第2のQRコードに含まれている提示イベントIDを特定する。画像データ取得部332は、特定した提示イベントIDと動画像データとを画像管理部337に出力する。 The image data acquisition unit 332 identifies the presentation event ID included in the second QR code. The image data acquisition unit 332 outputs the specified presentation event ID and moving image data to the image management unit 337.

また、画像データ取得部332は、時刻を示す時刻画像データを含む動画像データを取得する。時刻画像データは、例えばイベント情報画像に含まれていると同一であってもよい。画像データ取得部332は、取得した時刻を示す時刻画像データを時刻特定部334に出力する。 Further, the image data acquisition unit 332 acquires moving image data including time image data indicating the time. The time image data may be the same as that included in the event information image, for example. The image data acquisition unit 332 outputs time image data indicating the acquired time to the time identification unit 334.

許諾情報取得部333は、提示対象画像データの利用可能範囲を示す利用許諾情報を取得する。具体的には、許諾情報取得部333は、イベント情報画像を解析することにより利用許諾情報を取得する。より具体的には、許諾情報取得部333は、第2のQRコードに含まれている利用許諾情報を取得する。許諾情報取得部333は、例えば、イベント情報画像に電子透かしデータが含まれている場合、電子透かしデータを解析することにより利用許諾情報を取得してもよい。許諾情報取得部333は、抽出した利用許諾情報を画像管理部337に通知する。 The license information acquisition unit 333 acquires license information indicating the usable range of the image data to be presented. Specifically, the license information acquisition unit 333 acquires the license information by analyzing the event information image. More specifically, the license information acquisition unit 333 acquires the license information included in the second QR code. For example, when the event information image contains the digital watermark data, the license information acquisition unit 333 may acquire the license information by analyzing the digital watermark data. The license information acquisition unit 333 notifies the image management unit 337 of the extracted license information.

なお、許諾情報取得部333は、動画像データを画像データ取得部332に送信した撮像装置2に関連付けられた情報端末1から利用許諾情報を取得し、動画像データと、情報端末1から取得した利用許諾情報とを関連付けて記憶部32に記憶させてもよい。このように動作することで、画像管理装置3は、例えば動画像データを記憶部32に記憶させた後でも動画像データと利用許諾情報とを関連付けることができる。 The license information acquisition unit 333 acquires the license information from the information terminal 1 associated with the image pickup device 2 that has transmitted the moving image data to the image data acquisition unit 332, and acquires the moving image data and the information terminal 1. You may store it in the storage unit 32 in association with the license information. By operating in this way, the image management device 3 can associate the moving image data with the license information even after the moving image data is stored in the storage unit 32, for example.

さらに、許諾情報取得部333は、動画像データに対応する撮像画像を撮像装置2が撮像した位置を示す第1位置情報である撮像位置情報を、動画像データを送信した撮像装置2から取得してもよい。許諾情報取得部333は、取得した撮像位置情報を画像管理部337に通知する。 Further, the license information acquisition unit 333 acquires the imaging position information, which is the first position information indicating the position where the imaging device 2 has captured the captured image corresponding to the moving image data, from the imaging device 2 that has transmitted the moving image data. You may. The license information acquisition unit 333 notifies the image management unit 337 of the acquired image pickup position information.

時刻特定部334は、画像データ取得部332から取得した時刻画像データが示す時刻を特定することにより、当該時刻画像データに対応する動画像データが撮像された時刻を特定する。具体的には、時刻特定部334は、例えば時刻画像データに撮像されている数字の画像を抽出した後に、抽出した数字の画像を数字のデータに変換することにより時刻を特定する。時刻特定部334は、特定した時刻を同期処理部336に通知する。 The time specifying unit 334 specifies the time when the moving image data corresponding to the time image data is captured by specifying the time indicated by the time image data acquired from the image data acquisition unit 332. Specifically, the time specifying unit 334 specifies the time by, for example, extracting an image of a numerical value captured in the time image data and then converting the extracted numerical image into numerical data. The time specifying unit 334 notifies the synchronization processing unit 336 of the specified time.

音データ取得部335は、複数の動画像データのそれぞれに含まれる時刻画像データが示す時刻に同期した音データを取得する。時刻画像データが示す時刻に同期した音データは、動画像データの撮像と同じ時刻及び同じ場所で集音された音データであり、例えば、「A小学校運動会のリレー競技」の撮像において「リレー開始」の声音及び歓声音を含む音データである。音データ取得部335は、取得した音データを同期処理部336に出力する。なお、音データは、動画像データと同一のデータフレームにより撮像装置2から画像管理装置3に伝送されてもよい。この場合、例えば画像データ取得部332において音データが分離され、画像データ取得部332から音データ取得部335に音データが入力される。 The sound data acquisition unit 335 acquires sound data synchronized with the time indicated by the time image data included in each of the plurality of moving image data. The sound data synchronized with the time indicated by the time image data is sound data collected at the same time and place as the imaging of the moving image data. For example, in the imaging of "relay competition of A elementary school athletic meet", "relay start". It is a sound data including a voice sound and a cheering sound. The sound data acquisition unit 335 outputs the acquired sound data to the synchronization processing unit 336. The sound data may be transmitted from the image pickup device 2 to the image management device 3 by the same data frame as the moving image data. In this case, for example, the sound data is separated in the image data acquisition unit 332, and the sound data is input from the image data acquisition unit 332 to the sound data acquisition unit 335.

音データ取得部335は、取得した音データに関連付けられた提示イベントIDを特定してもよい。音データ取得部335は、例えば、取得した音データに「A小学校運動会のリレー競技を開催します」というアナウンスが含まれていた場合、提示イベントIDを「A小学校運動会」と特定する。音データ取得部335は、特定した提示イベントIDを取得した音データに関連付けて同期処理部336に通知する。 The sound data acquisition unit 335 may specify the presentation event ID associated with the acquired sound data. For example, when the acquired sound data includes an announcement that "a relay competition of A elementary school athletic meet will be held", the sound data acquisition unit 335 specifies the presented event ID as "A elementary school athletic meet". The sound data acquisition unit 335 notifies the synchronization processing unit 336 of the specified presentation event ID in association with the acquired sound data.

同期処理部336は、画像データ取得部332が時刻画像データを含む複数の動画像データを取得した場合、時刻特定部334が特定した動画像データそれぞれの時刻に基づいて、複数の動画像データを同期させる。同期処理部336は、時刻特定部334が特定した時刻に基づいて、当該特定した時刻に対応する動画像データと、当該動画像データと異なる画像データである他データとを同期させる。他データは、例えば、当該動画像データを送信した撮像装置2と異なる撮像装置2が送信した動画像データである。同期処理部336は、画像データ取得部332が取得した動画像データに関連付けられた提示イベントIDと他データに関連付けられた提示イベントIDとが一致していることを条件として、動画像データと他データとを同期させる。 When the image data acquisition unit 332 acquires a plurality of moving image data including the time image data, the synchronization processing unit 336 acquires a plurality of moving image data based on the respective times of the moving image data specified by the time specifying unit 334. Synchronize. The synchronization processing unit 336 synchronizes the moving image data corresponding to the specified time with other data which is image data different from the moving image data, based on the time specified by the time specifying unit 334. The other data is, for example, moving image data transmitted by an imaging device 2 different from the imaging device 2 that transmitted the moving image data. The synchronization processing unit 336 includes the moving image data and others, provided that the presentation event ID associated with the moving image data acquired by the image data acquisition unit 332 and the presentation event ID associated with the other data match. Synchronize with the data.

ここで、同期処理部336が複数の動画像データを同期させる処理について図8を用いて説明する。図8は、同期処理部336が複数の動画像データを同期させる動作について説明するための図である。図8(a)は、画像データ取得部332が取得した複数の動画像データP(P1,P2)を示している。動画像データP1は、例えば撮像装置2aが生成した動画像データであり、動画像データP2は、例えば撮像装置2bが生成した動画像データである。 Here, a process in which the synchronization processing unit 336 synchronizes a plurality of moving image data will be described with reference to FIG. FIG. 8 is a diagram for explaining an operation in which the synchronization processing unit 336 synchronizes a plurality of moving image data. FIG. 8A shows a plurality of moving image data P (P1, P2) acquired by the image data acquisition unit 332. The moving image data P1 is, for example, moving image data generated by the imaging device 2a, and the moving image data P2 is, for example, moving image data generated by the imaging device 2b.

動画像データPのそれぞれは、イベント情報画像データと、イベントの内容を含むイベント画像データとを含む。例えば、動画像データP1は、イベント情報画像データとイベント画像データA11からA14とを含む。イベント画像データA11からA14のそれぞれは、例えば、動画像データを構成する画像フレームである。動画像データのフレームレートが60fpsである場合、1つのイベント画像データの長さは約0.17秒である。図8においては、1つのイベント画像データの長さが0.17秒である場合を例示している。 Each of the moving image data P includes event information image data and event image data including the content of the event. For example, the moving image data P1 includes event information image data and event image data A11 to A14. Each of the event image data A11 to A14 is, for example, an image frame constituting the moving image data. When the frame rate of the moving image data is 60 fps, the length of one event image data is about 0.17 seconds. FIG. 8 illustrates a case where the length of one event image data is 0.17 seconds.

画像データ取得部332が取得した動画像データPは、一例として、イベント情報画像データに含まれる時刻画像データが示す時刻の最小単位よりもフレームが更新される時間間隔が大きい動画像である。具体的には、1秒間に60枚のイベント画像データを有する動画像データの場合、時刻画像データが示す時刻の最小単位は、60分の1秒未満であり、例えば0.01秒である。このように、フレームが更新される時間間隔よりも小さい単位で変化する時刻を取得することで、同期処理部336は、イベント画像データの時刻を特定する精度を高くすることができる。 The moving image data P acquired by the image data acquisition unit 332 is, for example, a moving image having a larger time interval in which the frame is updated than the minimum unit of time indicated by the time image data included in the event information image data. Specifically, in the case of moving image data having 60 event image data per second, the minimum unit of time indicated by the time image data is less than 1/60 second, for example, 0.01 second. In this way, by acquiring the time that changes in a unit smaller than the time interval in which the frame is updated, the synchronization processing unit 336 can improve the accuracy of specifying the time of the event image data.

イベント情報画像においては、実線矢印の位置で時刻が切り替わる。同期処理部336は、動画像データPのそれぞれの実線矢印が示す時刻を、時刻特定部334が特定した時刻として時刻特定部334から取得する。同期処理部336は、実線矢印が示す時刻を基準として、内部のタイマーにより時間をカウントすることにより、破線矢印で示すように、イベント画像データそれぞれに対応する撮像時刻を特定する。同期処理部336は、例えば、動画像データP1のイベント画像データA11の開始時刻が「10時30分49秒17」であると特定する。 In the event information image, the time is switched at the position of the solid arrow. The synchronization processing unit 336 acquires the time indicated by each solid line arrow of the moving image data P from the time specifying unit 334 as the time specified by the time specifying unit 334. The synchronization processing unit 336 specifies the imaging time corresponding to each of the event image data as shown by the broken line arrow by counting the time by the internal timer with the time indicated by the solid line arrow as a reference. The synchronization processing unit 336 specifies, for example, that the start time of the event image data A11 of the moving image data P1 is "10:30:49:17".

同期処理部336は、イベント画像データごとに撮像時刻を特定してもよく、複数のイベント画像データごとに撮像時刻を特定してもよい。また、同期処理部336は、時刻画像データにおいて時刻が0.01秒ごとに変化する場合、各フレームの撮像時刻を0.01秒単位で特定してもよく、変化する時刻の時間間隔の整数倍ごとに各フレームの撮像時刻を特定してもよい。 The synchronization processing unit 336 may specify the imaging time for each event image data, or may specify the imaging time for each of a plurality of event image data. Further, when the time changes every 0.01 seconds in the time image data, the synchronization processing unit 336 may specify the imaging time of each frame in units of 0.01 seconds, and is an integer of the time interval of the changing time. The imaging time of each frame may be specified for each fold.

同期処理部336は、同期処理部336が特定したイベント画像データのそれぞれの撮像時刻に基づいて、動画像データPのそれぞれに含まれるイベント画像データの時刻の位置を揃える。 The synchronization processing unit 336 aligns the time positions of the event image data included in each of the moving image data P based on the respective imaging times of the event image data specified by the synchronization processing unit 336.

図8(b)は、同期処理部336が、動画像データPのそれぞれに含まれるイベント画像データの時刻の位置を揃えた状態を示している。提示対象画像データP1は、動画像データP1に対応し、提示対象画像データP2は、動画像データP2に対応する。 FIG. 8B shows a state in which the synchronization processing unit 336 aligns the time positions of the event image data included in each of the moving image data P. The presentation target image data P1 corresponds to the moving image data P1, and the presentation target image data P2 corresponds to the moving image data P2.

同期処理部336は、例えば、イベント画像データA12とイベント画像データB11との撮像時刻が「10時30分49秒34」と特定する。そして、イベント画像データA12とイベント画像データB11とが同じ時刻に画像管理装置3から出力されるように時刻の位置を揃える。このようにして、同期処理部336は、複数の動画像データを同期させる。 The synchronization processing unit 336 specifies, for example, that the imaging time of the event image data A12 and the event image data B11 is “10:30:49:34”. Then, the time positions are aligned so that the event image data A12 and the event image data B11 are output from the image management device 3 at the same time. In this way, the synchronization processing unit 336 synchronizes a plurality of moving image data.

例えば「A小学校運動会の第1競技」を複数の撮像装置が撮像して動画像データを生成する場合、複数の動画像データのそれぞれは、異なる時刻から生成が開始されている可能性が高い。このように、開始時刻が異なる動画像データがユーザ端末4で同時に再生されると、動画像データごとに異なるシーンが表示されてしまう。 For example, when a plurality of image pickup devices image the "first competition of the A elementary school athletic meet" and generate moving image data, it is highly possible that the generation of each of the plurality of moving image data is started from different times. As described above, when moving image data having different start times are simultaneously reproduced on the user terminal 4, different scenes are displayed for each moving image data.

そこで、同期処理部336は、時刻特定部334が特定した時刻に対応する動画像データと他データとを同期させることで、同一のシーンに対応する複数の異なる動画像データがユーザ端末4に表示されるようになる。また、同期処理部336は、複数の動画像データのそれぞれに含まれる提示イベントIDが一致することを条件として同期させることで、同じイベントの動画像データがユーザ端末4に表示されるようになる。 Therefore, the synchronization processing unit 336 synchronizes the moving image data corresponding to the time specified by the time specifying unit 334 with other data, so that a plurality of different moving image data corresponding to the same scene is displayed on the user terminal 4. Will be done. Further, the synchronization processing unit 336 synchronizes the presentation event IDs included in each of the plurality of moving image data on the condition that they match, so that the moving image data of the same event is displayed on the user terminal 4. ..

ところで、画像管理装置3は、複数の異なるイベント会場で撮影された動画像データを管理する。画像管理装置3は、例えば「A小学校の第2競技」の動画像データ、及び「B小学校の第1競技」の動画像データを管理する。異なるイベント会場で撮影された動画像データが同時にユーザ端末4に表示されることがない場合、同期処理部336は異なるイベント会場で撮影された動画像データを同期させる必要がない。そこで、同期処理部336は、画像管理装置3が複数のイベントの動画像データを管理する場合に同一の競技を撮像して生成した複数の動画像データを同期させるために、動画像データに関連付けられた提示イベントIDを用いて、同期させる複数の動画像データを特定する。 By the way, the image management device 3 manages moving image data taken at a plurality of different event venues. The image management device 3 manages, for example, the moving image data of "the second competition of A elementary school" and the moving image data of "the first competition of B elementary school". When the moving image data taken at different event venues are not displayed on the user terminal 4 at the same time, the synchronization processing unit 336 does not need to synchronize the moving image data taken at different event venues. Therefore, the synchronization processing unit 336 associates the image management device 3 with the moving image data in order to synchronize the plurality of moving image data generated by imaging the same competition when the moving image data of a plurality of events is managed. Using the presented event ID, a plurality of moving image data to be synchronized are specified.

また、同期処理部336は、音データ取得部335が取得した動画像データに関連付けられた音データに基づいて複数の動画像データを同期させてもよい。例えば、音データ取得部335は、動画像データに関連付けられた第1音データと、当該動画像データとは異なる他データに関連付けられた第2音データとを取得する。同期処理部336は、第1音データ及び第2音データの両方に含まれている特徴的な音(例えばピストル音)に対応する画像フレームが一致するように複数の動画像データを同期させてもよい。 Further, the synchronization processing unit 336 may synchronize a plurality of moving image data based on the sound data associated with the moving image data acquired by the sound data acquisition unit 335. For example, the sound data acquisition unit 335 acquires the first sound data associated with the moving image data and the second sound data associated with other data different from the moving image data. The synchronization processing unit 336 synchronizes a plurality of moving image data so that the image frames corresponding to the characteristic sounds (for example, pistol sounds) contained in both the first sound data and the second sound data match. May be good.

また、同期処理部336は、複数の動画像データを同期させるか否かの判定に、第1音データ及び第2音データを用いてもよい。音データ取得部335は、第1音データに含まれる音声に基づいて、動画像データが撮像された場所において行われたイベントを識別するための第1提示イベント識別情報である第1提示イベントIDを特定する。続いて、音データ取得部335は、他データが撮像された場所において行われたイベントを識別するための第2提示イベント識別情報である第2イベントIDを特定する。音データ取得部335は、特定した第1イベントIDと第2イベントIDとを同期処理部336に通知する。同期処理部336は、音データ取得部335から取得した第1イベントIDと第2イベントIDとが一致していることを条件として、動画像データと他データとを同期させる。 Further, the synchronization processing unit 336 may use the first sound data and the second sound data to determine whether or not to synchronize a plurality of moving image data. The sound data acquisition unit 335 uses the first presentation event ID, which is the first presentation event identification information for identifying the event performed at the place where the moving image data is captured, based on the sound included in the first sound data. To identify. Subsequently, the sound data acquisition unit 335 identifies the second event ID, which is the second presentation event identification information for identifying the event performed at the place where the other data is captured. The sound data acquisition unit 335 notifies the synchronization processing unit 336 of the specified first event ID and second event ID. The synchronization processing unit 336 synchronizes the moving image data with other data on condition that the first event ID acquired from the sound data acquisition unit 335 and the second event ID match.

さらに、同期処理部336は、画像データ取得部332が時刻に関連付けられた表示データをさらに取得した場合、動画像データと、時刻特定部334が特定した時刻に関連付けられた表示データとを同期させた状態で合成した合成動画像データを生成してもよい。表示データは、例えば時刻に関連付けられたテキストデータやCG画像データ等であり、一例としてイベントのタイトルを示すテキストデータである。 Further, when the image data acquisition unit 332 further acquires the display data associated with the time, the synchronization processing unit 336 synchronizes the moving image data with the display data associated with the time specified by the time identification unit 334. You may generate the composite moving image data synthesized in the state of being. The display data is, for example, text data associated with a time, CG image data, or the like, and is, for example, text data indicating an event title.

図7に戻って、画像管理部337は、撮像装置2が送信する動画像データを管理する。画像管理部337は、識別情報取得部331部から通知された提示イベントIDが、記憶部32に記憶された登録イベントIDと一致していることを条件として、提示イベントIDに関連付けて画像データ取得部332が取得した動画像データをユーザ端末4に提示する対象である提示対象画像データとして記憶部32に記憶させる。 Returning to FIG. 7, the image management unit 337 manages the moving image data transmitted by the image pickup device 2. The image management unit 337 acquires image data in association with the presentation event ID, provided that the presentation event ID notified from the identification information acquisition unit 331 matches the registration event ID stored in the storage unit 32. The moving image data acquired by the unit 332 is stored in the storage unit 32 as the presentation target image data to be presented to the user terminal 4.

すなわち、画像管理部337は、登録イベントIDと同一の提示イベントIDを含む第2のQRコードの画像データが含まれている動画像データを提示対象画像データとして記憶部32に記憶させる。画像管理部337は、登録イベントIDと同一の提示イベントIDを含む第2のQRコードの画像データが含まれていない撮像画像データを提示対象画像データとして記憶部32に記憶させない。画像管理部337は、動画像データを提示対象画像データとして記憶部32に記憶させる場合、許諾情報取得部333から取得した利用許諾情報を動画像データに関連付けて記憶部32に記憶させる。 That is, the image management unit 337 stores the moving image data including the image data of the second QR code including the same presentation event ID as the registration event ID in the storage unit 32 as the presentation target image data. The image management unit 337 does not store the captured image data that does not include the image data of the second QR code including the presentation event ID that is the same as the registration event ID in the storage unit 32 as the presentation target image data. When the moving image data is stored in the storage unit 32 as the presentation target image data, the image management unit 337 stores the license information acquired from the license information acquisition unit 333 in the storage unit 32 in association with the moving image data.

画像管理部337がこのように動作することで、画像管理装置3は、利用許諾情報と閲覧要求情報とに基づいて撮像画像データを送信するかの判定を行うことにより、閲覧可能なユーザを制限することができる。 By operating the image management unit 337 in this way, the image management device 3 limits the users who can browse by determining whether to transmit the captured image data based on the license information and the browsing request information. can do.

画像管理部337は、提示イベントIDにイベントの位置を示す第2位置情報であるイベント位置情報が含まれている場合、イベント位置情報と動画像データに対応する撮像位置情報との差を算出してもよい。その場合、画像管理部337は、算出したイベント位置情報と撮像位置情報との差が所定の範囲内である場合に、動画像データを記憶部32に記憶する。所定の範囲は、例えばイベントが「A小学校の運動会」の場合、A小学校の敷地が含まれる最小の円の直径以下の範囲である。 When the presented event ID includes the event position information which is the second position information indicating the position of the event, the image management unit 337 calculates the difference between the event position information and the image pickup position information corresponding to the moving image data. You may. In that case, the image management unit 337 stores the moving image data in the storage unit 32 when the difference between the calculated event position information and the imaging position information is within a predetermined range. The predetermined range is, for example, a range equal to or less than the diameter of the smallest circle including the site of A elementary school when the event is "A elementary school athletic meet".

画像管理部337がこのように動作することで、画像管理装置3は、イベントが開催されている場所で撮像された動画像データを関連付けて記憶することができる。また、画像管理装置3は、提示イベントIDが示すイベントとは異なるイベントを撮像した撮像画像データが関連付けられていたとしても、当該撮像画像データをユーザ端末4に提供することを抑制できる。 By operating the image management unit 337 in this way, the image management device 3 can associate and store the moving image data captured at the place where the event is held. Further, the image management device 3 can suppress the provision of the captured image data to the user terminal 4 even if the captured image data obtained by capturing an event different from the event indicated by the presented event ID is associated with the image management device 3.

また、画像管理部337は、イベントが行われた時間帯から所定の範囲内の時刻に送信された動画像データであることを条件として動画像データを記憶部32に記憶させてもよい。このようにするために、画像管理部337は、例えば、提示イベントIDに対応するイベントが行われた時間帯を示すイベント時間帯情報を情報端末1から取得し、動画像データを受信した時刻を示す受信時刻を画像データ取得部332から取得する。画像管理部337は、取得した受信時刻が、取得したイベント時間帯情報が示す時間帯に基づく所定の範囲内である場合に、動画像データを記憶部32に記憶させる。 Further, the image management unit 337 may store the moving image data in the storage unit 32 on condition that the moving image data is transmitted at a time within a predetermined range from the time zone in which the event was performed. In order to do so, for example, the image management unit 337 acquires the event time zone information indicating the time zone in which the event corresponding to the presented event ID is performed from the information terminal 1, and sets the time when the moving image data is received. The indicated reception time is acquired from the image data acquisition unit 332. The image management unit 337 stores the moving image data in the storage unit 32 when the acquired reception time is within a predetermined range based on the time zone indicated by the acquired event time zone information.

イベント時間帯情報が示す時間帯に基づく所定の範囲は、例えば「A小学校の運動会」が開始された時刻から、「A小学校の運動会」が終了してから1時間が経過した時刻までの時間帯である。画像管理部337がこのように動作することで、イベントに関係ない動画像データが誤って記憶部32に記憶されることが抑制される。 The predetermined range based on the time zone indicated by the event time zone information is, for example, the time zone from the time when the "athletic meet of A elementary school" starts to the time when one hour has passed since the end of the "athletic meet of A elementary school". Is. By operating the image management unit 337 in this way, it is possible to prevent the moving image data not related to the event from being erroneously stored in the storage unit 32.

画像提供部338は、ネットワークNを介してユーザ端末4に提示対象画像を送信する。画像提供部338は、例えば、提示対象画像データの閲覧要求を示す閲覧要求情報をユーザ端末4から受信した場合に、閲覧要求情報が登録イベントIDに対応する情報を含むことを条件として提示対象画像データをユーザ端末4に送信する。 The image providing unit 338 transmits the image to be presented to the user terminal 4 via the network N. For example, when the image providing unit 338 receives the browsing request information indicating the browsing request of the presentation target image data from the user terminal 4, the presentation target image is provided on the condition that the browsing request information includes the information corresponding to the registration event ID. The data is transmitted to the user terminal 4.

具体的には、例えば登録イベントIDが「A小学校運動会」であり、閲覧要求情報が「A小学校運動会6年1組」である場合、閲覧要求情報は登録イベントIDに対応する情報を含む。この場合、画像提供部338は、ユーザ端末4から受信した閲覧要求情報である「A小学校運動会6年1組」に基づいて、ユーザ端末4に提示対象画像データを送信する。 Specifically, for example, when the registered event ID is "A elementary school athletic meet" and the browsing request information is "A elementary school athletic meet 6th grade 1 group", the browsing request information includes information corresponding to the registered event ID. In this case, the image providing unit 338 transmits the image data to be presented to the user terminal 4 based on the "A elementary school athletic meet 6th grade 1 group" which is the browsing request information received from the user terminal 4.

画像提供部338は、閲覧要求情報を情報端末から受信した場合に、利用許諾情報が示す利用可能範囲であることを閲覧要求情報が示していることを条件として、提示対象画像データを情報端末に送信してもよい。具体的には、例えば利用許諾情報が「A小学校6年1組」であり、閲覧要求情報が「A小学校運動会6年1組」である場合、画像提供部338は、利用許諾情報が示す利用可能範囲を閲覧要求情報が示していると判定する。その結果、情報端末から受信した閲覧要求情報である「A小学校運動会6年1組」に基づいて、情報端末に提示対象画像データを送信する。 When the browsing request information is received from the information terminal, the image providing unit 338 sends the presentation target image data to the information terminal on condition that the browsing request information indicates that the viewing request information is within the usable range indicated by the license information. You may send it. Specifically, for example, when the license information is "A elementary school 6th grade 1 group" and the browsing request information is "A elementary school athletic meet 6th grade 1 group", the image providing unit 338 uses the license information. It is determined that the viewing request information indicates the possible range. As a result, the image data to be presented is transmitted to the information terminal based on the "A elementary school athletic meet 6th grade 1 group" which is the browsing request information received from the information terminal.

画像提供部338は、複数の提示対象画像データをユーザ端末4に送信する場合、同期処理部336が同期させた複数の動画像データと他データとをユーザ端末4に提供する。画像提供部338は、同期処理部336が動画像データと音データとを同期させた場合、複数の動画像データと音データとを同期させた状態でユーザ端末4に提供する。 When transmitting a plurality of presentation target image data to the user terminal 4, the image providing unit 338 provides the user terminal 4 with a plurality of moving image data synchronized by the synchronization processing unit 336 and other data. When the synchronization processing unit 336 synchronizes the moving image data and the sound data, the image providing unit 338 provides the user terminal 4 with the plurality of moving image data and the sound data synchronized.

画像提供部338は、複数の動画像データと音データとを同期させた状態でユーザ端末4に提供する場合、例えば、複数の音データから1つを選択し、選択した音データと複数の動画像データとを関連付けて提供する。音は伝搬速度が光よりも遅いため、動画像データに対する音データの遅延時間は撮影場所によって異なる。画像提供部338が1つの音データをユーザ端末4に提供することで、少しだけずれた複数の音が再生されて聞きづらくなってしまうことを防止できる。画像提供部338は、例えば、複数の音データのうち最も早いタイミングの音データを選択する。このように動作することで、画像提供部338は、動画像データに対する音の遅延の少ない音をユーザ端末4に提供できる。 When the image providing unit 338 provides a plurality of moving image data and sound data to the user terminal 4 in a synchronized state, for example, one is selected from a plurality of sound data, and the selected sound data and a plurality of moving images are selected. Provided in association with image data. Since the propagation speed of sound is slower than that of light, the delay time of sound data with respect to moving image data differs depending on the shooting location. By providing one sound data to the user terminal 4 by the image providing unit 338, it is possible to prevent a plurality of sounds slightly deviated from being reproduced and becoming difficult to hear. The image providing unit 338 selects, for example, the sound data at the earliest timing among the plurality of sound data. By operating in this way, the image providing unit 338 can provide the user terminal 4 with a sound having a small delay in the sound with respect to the moving image data.

また、画像提供部338は、例えば、画像データ取得部332が取得した動画像データが変化するタイミングに最も近いタイミングで変化する音データを選択してもよい。例えば、動画像データに「リレー開始」の合図を示す画像が含まれているとする。その場合、「リレー開始」の声音が含まれている音データのうち、「リレー開始」の合図を示す画像の時刻に最も近いタイミングで「リレー開始」の声音が含まれている音データ(すなわち、「リレー開始」という声を出している人に最も近い位置の撮像装置2で取得された音データ)を選択する。このように動作することで、画像管理装置3は、ユーザに、動画像データと音データとの時刻の差による違和感を与えづらくすることができる。 Further, the image providing unit 338 may select, for example, sound data that changes at the timing closest to the timing at which the moving image data acquired by the image data acquisition unit 332 changes. For example, it is assumed that the moving image data includes an image indicating a signal of "relay start". In that case, among the sound data including the voice sound of "relay start", the sound data including the voice sound of "relay start" at the timing closest to the time of the image indicating the signal of "relay start" (that is,). , The sound data acquired by the image pickup device 2 at the position closest to the person who is saying "relay start") is selected. By operating in this way, the image management device 3 can make it difficult for the user to feel a sense of discomfort due to the time difference between the moving image data and the sound data.

さらに、画像提供部338は、取得した複数の集音位置情報が示す複数の位置のうち、取得した被写体位置情報が示す位置に最も近い位置に対応する集音位置情報に関連付けられた音データを選択してもよい。このようにするために、画像提供部338は、音データ取得部335が取得した複数の音データそれぞれが集音された位置を示す複数の集音位置情報を取得する。画像提供部338は、画像データ取得部332が取得した動画像データに含まれる被写体の位置を示す被写体位置情報を取得する。このように動作することで、動画像データに対する音の遅延の少ない音を提供できる。この構成は、例えばコンサート会場のステージで歌手の歌声を集音する場合に好適である。 Further, the image providing unit 338 obtains sound data associated with the sound collecting position information corresponding to the position closest to the position indicated by the acquired subject position information among the plurality of positions indicated by the acquired plurality of sound collecting position information. You may choose. In order to do so, the image providing unit 338 acquires a plurality of sound collecting position information indicating the position where each of the plurality of sound data acquired by the sound data acquisition unit 335 is collected. The image providing unit 338 acquires subject position information indicating the position of the subject included in the moving image data acquired by the image data acquisition unit 332. By operating in this way, it is possible to provide a sound with less delay in the sound with respect to the moving image data. This configuration is suitable, for example, when collecting the singing voice of a singer on the stage of a concert venue.

画像提供部338は、記憶部32に記憶された動画像データである提示対象画像データが時刻画像データを含む場合、動画像データのうち時刻画像データを除く部分動画像データをユーザ端末4に提供してもよい。例えば動画像データの冒頭部分に時刻画像データが含まれている場合、画像提供部338は、時刻画像データが終了した後にイベントが撮影された部分の動画像データをユーザ端末4に提供する。また、画像提供部338は、同期処理部336が、動画像データにテキストデータ又はCG画像データが合成された合成動画像データを生成した場合、生成された合成動画像データをユーザ端末4に送信する。 When the presentation target image data, which is the moving image data stored in the storage unit 32, includes the time image data, the image providing unit 338 provides the user terminal 4 with partial moving image data excluding the time image data among the moving image data. You may. For example, when the time image data is included in the beginning portion of the moving image data, the image providing unit 338 provides the moving image data of the portion where the event is taken after the time image data is completed to the user terminal 4. Further, when the synchronization processing unit 336 generates the composite moving image data in which the text data or the CG image data is combined with the moving image data, the image providing unit 338 transmits the generated synthesized moving image data to the user terminal 4. do.

操作受付部339は、ユーザ端末4から閲覧の要求と提示対象画像を取得するために行う操作とを受け付ける。操作受付部339は、受け付けた要求及び操作を画像提供部338に通知する。 The operation reception unit 339 accepts a browsing request from the user terminal 4 and an operation performed to acquire the image to be presented. The operation reception unit 339 notifies the image providing unit 338 of the received request and operation.

操作受付部339は、提示対象画像データに音データが関連付けられている場合、提示対象画像データである動画像データに関連付けられた音データを取得するか、動画像データに関連付けられていない音データを取得するかを受け付ける。操作受付部339は、受け付けた操作を音データ取得部335に通知する。 When the sound data is associated with the image data to be presented, the operation reception unit 339 acquires the sound data associated with the moving image data which is the image data to be presented, or the sound data not associated with the moving image data. Accepts whether to get. The operation reception unit 339 notifies the sound data acquisition unit 335 of the received operation.

[画像管理部337の動作]
図9は、画像管理装置3が動画像データを記憶部32に記憶させる動作のフローチャートである。画像管理部337は、例えばイベントの主催者から登録イベントIDを取得して、記憶部32に記憶させる(S31)。画像管理部337は、登録イベントIDに関連付けて、イベントの開催時間帯及びイベントの開催場所等の情報を記憶部32に記憶させてもよい。その後、イベントが始まると、画像データ取得部332は動画像データの取得を開始する。画像データ取得部332は、撮像装置2から動画像データを受信した場合(S32のYES)、当該動画像データに含まれている提示イベントIDを抽出する(S33)。
[Operation of image management unit 337]
FIG. 9 is a flowchart of an operation in which the image management device 3 stores moving image data in the storage unit 32. The image management unit 337 acquires, for example, a registered event ID from the event organizer and stores it in the storage unit 32 (S31). The image management unit 337 may store information such as the event holding time zone and the event holding place in the storage unit 32 in association with the registered event ID. After that, when the event starts, the image data acquisition unit 332 starts acquiring the moving image data. When the image data acquisition unit 332 receives the moving image data from the image pickup device 2 (YES in S32), the image data acquisition unit 332 extracts the presentation event ID included in the moving image data (S33).

続いて、許諾情報取得部333は、提示対象画像の利用可能範囲を示す利用許諾情報を取得する(S34)。許諾情報取得部333は、画像データ取得部332が取得した動画像データに含まれている情報格納画像を解析することにより利用許諾情報を取得する。動画像データに含まれている情報格納画像に電子透かしデータが含まれている場合、許諾情報取得部333は、当該電子透かしデータを解析することにより利用許諾情報を取得する。 Subsequently, the license information acquisition unit 333 acquires the license information indicating the usable range of the image to be presented (S34). The license information acquisition unit 333 acquires the license information by analyzing the information storage image included in the moving image data acquired by the image data acquisition unit 332. When the digital watermark data is included in the information storage image included in the moving image data, the license information acquisition unit 333 acquires the license information by analyzing the digital watermark data.

続いて、画像管理部337は、記憶部32に記憶された登録イベントIDと動画像データから抽出された提示イベントIDとが一致するか否かを判定する(S35)。登録イベントIDと提示イベントIDとが一致する場合(S35のYES)、画像管理部337は、取得した動画像データが撮像された位置を特定する処理に進む。登録イベントIDと提示イベントIDとが一致しない場合(S35のNO)、画像管理部337は、当該提示イベントIDに対応する動画像データを記憶部32に記憶させずに処理を終了する。 Subsequently, the image management unit 337 determines whether or not the registered event ID stored in the storage unit 32 and the presented event ID extracted from the moving image data match (S35). When the registered event ID and the presented event ID match (YES in S35), the image management unit 337 proceeds to the process of specifying the position where the acquired moving image data is captured. When the registered event ID and the presented event ID do not match (NO in S35), the image management unit 337 ends the process without storing the moving image data corresponding to the presented event ID in the storage unit 32.

続いて、許諾情報取得部333は、動画像データに対応する撮像画像に対応する位置を示す第1位置情報である撮像位置情報を撮像装置2から取得する。画像管理部337は、当該撮像位置情報が示す位置と、提示イベントIDに含まれるイベントの位置を示す第2位置情報であるイベント位置情報が示す位置との差を算出する。 Subsequently, the license information acquisition unit 333 acquires the image pickup position information, which is the first position information indicating the position corresponding to the image captured image corresponding to the moving image data, from the image pickup device 2. The image management unit 337 calculates the difference between the position indicated by the image pickup position information and the position indicated by the event position information which is the second position information indicating the position of the event included in the presentation event ID.

撮像位置情報が示す位置とイベント位置情報が示す位置との差が閾値以下であり、撮影した位置が所定の範囲内である場合(S36のYES)、画像管理部337は、取得した動画像データを撮像した時間を特定する処理に進む。撮像位置情報が示す位置とイベント位置情報が示す位置との差が閾値以下ではない場合(S36のNO)、画像管理部337は、撮像位置情報を含む提示イベントIDに対応する動画像データを記憶部32に記憶させずに処理を終了する。 When the difference between the position indicated by the image pickup position information and the position indicated by the event position information is equal to or less than the threshold value and the imaged position is within a predetermined range (YES in S36), the image management unit 337 may use the acquired moving image data. Proceed to the process of specifying the time when the image was taken. When the difference between the position indicated by the imaging position information and the position indicated by the event position information is not equal to or less than the threshold value (NO in S36), the image management unit 337 stores the moving image data corresponding to the presentation event ID including the imaging position information. The process ends without being stored in the unit 32.

続いて、画像管理部337は、動画像データを受信した時刻を示す受信時刻を取得する。そして、画像管理部337は、取得した受信時刻が、予め記憶部32に記憶されたイベント時間帯情報が示す時間帯に基づいて定められた所定の範囲内である場合(S37のYES)、受信時刻に対応する提示イベントIDに関連付けられた動画像データを記憶部32に記憶させる(S38)。 Subsequently, the image management unit 337 acquires a reception time indicating the time when the moving image data is received. Then, when the acquired reception time is within a predetermined range determined based on the time zone indicated by the event time zone information stored in advance in the storage unit 32, the image management unit 337 receives the data (YES in S37). The moving image data associated with the presentation event ID corresponding to the time is stored in the storage unit 32 (S38).

なお、図9に示すフローチャートにおいては、S36及びS37において、撮影位置及び撮影時間帯が所定の範囲内であることを条件として画像管理部337が動画像データを記憶部32に記憶させたが、画像管理部337はS36及びS37を実行しなくてもよい。すなわち、画像管理部337は、登録イベントIDと提示イベントIDとが一致すると判定したことに応じて、動画像データを記憶部32に記憶させてもよい。 In the flowchart shown in FIG. 9, in S36 and S37, the image management unit 337 stores the moving image data in the storage unit 32 on condition that the shooting position and the shooting time zone are within a predetermined range. The image management unit 337 does not have to execute S36 and S37. That is, the image management unit 337 may store the moving image data in the storage unit 32 in response to the determination that the registered event ID and the presented event ID match.

[同期処理部336の動作]
上述したように、複数のイベント参加者が撮像した画像のそれぞれは、撮像を開始した時刻が異なる。そのため、閲覧要求を送信したユーザは、イベントに関連付けられた動画像データだけを閲覧できたとしても、動画像データのそれぞれの開始時刻の差により音や動画像がずれてしまうので、複数の動画像を同時に閲覧しづらい。複数の動画像を同時に閲覧しやすくするために、同期処理部336が複数の動画像データを同期させる処理について、次に説明する。
[Operation of synchronization processing unit 336]
As described above, the images captured by the plurality of event participants have different times when the imaging starts. Therefore, even if the user who sent the viewing request can view only the moving image data associated with the event, the sound and the moving image will be shifted due to the difference in the start time of each of the moving image data. It is difficult to view the statue at the same time. Next, a process in which the synchronization processing unit 336 synchronizes a plurality of moving image data in order to facilitate viewing of a plurality of moving images at the same time will be described.

図10は、画像管理装置3が複数の動画像データを同期させてユーザ端末4に送信する動作のフローチャートである。画像データ取得部332は、複数の撮像装置2から複数の動画像データを取得する(S41)。画像データ取得部332は、取得した複数の動画像データのそれぞれに含まれるイベント情報画像データを取得する(S42)。画像データ取得部332は、取得した複数のイベント情報画像データのそれぞれを解析することにより、複数のイベント情報画像データのそれぞれに含まれている複数の提示イベントIDを特定する(S43)。 FIG. 10 is a flowchart of an operation in which the image management device 3 synchronizes a plurality of moving image data and transmits the moving image data to the user terminal 4. The image data acquisition unit 332 acquires a plurality of moving image data from the plurality of image pickup devices 2 (S41). The image data acquisition unit 332 acquires event information image data included in each of the acquired plurality of moving image data (S42). The image data acquisition unit 332 identifies a plurality of presentation event IDs included in each of the plurality of event information image data by analyzing each of the acquired plurality of event information image data (S43).

画像データ取得部332は、取得した複数のイベント情報画像データを時刻特定部334に出力する。時刻特定部334は、取得した複数のイベント情報画像データのそれぞれが示す時刻を特定する。 The image data acquisition unit 332 outputs the acquired plurality of event information image data to the time specifying unit 334. The time specifying unit 334 specifies the time indicated by each of the acquired plurality of event information image data.

同期処理部336は、画像データ取得部332が特定した複数の提示イベントIDが一致していると判定した場合(S44のYES)、時刻特定部334が特定した複数の動画像データのそれぞれが撮像された時刻を取得する(S45)。 When the synchronization processing unit 336 determines that the plurality of presented event IDs specified by the image data acquisition unit 332 match (YES in S44), each of the plurality of moving image data specified by the time specifying unit 334 is captured. The time set is acquired (S45).

同期処理部336は、画像データ取得部332が取得した複数の動画像データのそれぞれに含まれるイベント画像データに対応する撮像時刻を、時刻特定部334が特定した時刻に基づいて特定する(S46)。同期処理部336は、特定した撮像時刻に基づいて、複数の動画像データのそれぞれに含まれる複数の画像フレームにおける、時刻が一致する画像フレームを特定する(S47)。 The synchronization processing unit 336 specifies the imaging time corresponding to the event image data included in each of the plurality of moving image data acquired by the image data acquisition unit 332 based on the time specified by the time specifying unit 334 (S46). .. The synchronization processing unit 336 identifies an image frame having the same time in a plurality of image frames included in each of the plurality of moving image data based on the specified imaging time (S47).

同期処理部336は、時刻が一致する画像フレームが同じタイミングで再生されるように、複数の動画像データの位置を揃える(S48)。画像管理部337は、位置が揃えられた複数の動画像データを記憶部32に記憶させる(S49)。 The synchronization processing unit 336 aligns the positions of a plurality of moving image data so that the image frames having the same time are reproduced at the same timing (S48). The image management unit 337 stores a plurality of moving image data whose positions are aligned in the storage unit 32 (S49).

[音データの選択]
図11は、画像提供部338が複数の動画像データと音データとを同期させた状態でユーザ端末4に送信する動作について説明するための図である。図11(a)は、画像データ取得部332が取得した複数の動画像データP(P1,P2)と、音データ取得部335が取得した複数の音データM(M1,M2)を示している。複数の動画像データPについては、図8(a)と同じである。
[Sound data selection]
FIG. 11 is a diagram for explaining an operation in which the image providing unit 338 transmits a plurality of moving image data and sound data to the user terminal 4 in a synchronized state. FIG. 11A shows a plurality of moving image data P (P1, P2) acquired by the image data acquisition unit 332 and a plurality of sound data M (M1, M2) acquired by the sound data acquisition unit 335. .. The plurality of moving image data P are the same as those in FIG. 8 (a).

音データM1は、動画像データP1に関連付けられた音データである。音データ取得部335は、例えば、画像データ取得部332が動画像データP1に含まれるイベント画像データA11を取得した時刻と同じ時刻にイベント音データE11を取得する。 The sound data M1 is sound data associated with the moving image data P1. The sound data acquisition unit 335 acquires the event sound data E11 at the same time as the time when the image data acquisition unit 332 acquires the event image data A11 included in the moving image data P1, for example.

音データM2は、動画像データP2に関連付けられた音データである。音データ取得部335は、例えば、画像データ取得部332が動画像データP2に含まれるイベント画像データB11を取得した時刻より遅れてイベント音データF11を取得する。 The sound data M2 is sound data associated with the moving image data P2. The sound data acquisition unit 335 acquires the event sound data F11 later than the time when the image data acquisition unit 332 acquires the event image data B11 included in the moving image data P2, for example.

図11(b)は、画像提供部338がユーザ端末4に送信する複数の動画像データと音データとを示している。提示対象画像データP1は、動画像データP1に対応し、提示対象画像データP2は、動画像データP2に対応し、提示対象音データM1は、音データM1に対応する。 FIG. 11B shows a plurality of moving image data and sound data transmitted by the image providing unit 338 to the user terminal 4. The presentation target image data P1 corresponds to the moving image data P1, the presentation target image data P2 corresponds to the moving image data P2, and the presentation target sound data M1 corresponds to the sound data M1.

画像提供部338は、例えば、同期処理部336から取得した複数の動画像データPに同期した複数の音データMのうち、動画像データに対して遅延が少ない音データを選択する。図11(b)においては、音データM1と動画像データP1との遅延よりも音データM2と動画像データP2との遅延が大きい。したがって、画像提供部338は、音データM1を選択して複数の提示対象画像データに関連付けてユーザ端末4に出力する。 The image providing unit 338 selects, for example, sound data having a small delay with respect to the moving image data from among the plurality of sound data M synchronized with the plurality of moving image data P acquired from the synchronization processing unit 336. In FIG. 11B, the delay between the sound data M2 and the moving image data P2 is larger than the delay between the sound data M1 and the moving image data P1. Therefore, the image providing unit 338 selects the sound data M1, associates it with the plurality of presentation target image data, and outputs the sound data to the user terminal 4.

ところで、画像提供部338は、音データに関連付けられる動画像データの時刻に基づいて音データを選択してもよい。具体的には、複数の動画像データのうち、特定した時刻が早い動画像データに関連付けられた音データを選択してユーザ端末4に出力してもよい。 By the way, the image providing unit 338 may select the sound data based on the time of the moving image data associated with the sound data. Specifically, the sound data associated with the moving image data whose specified time is earlier may be selected from the plurality of moving image data and output to the user terminal 4.

画像提供部338は、例えば、コンサートのように演奏曲の開始タイミングで複数の動画像データが同時に撮像される場合、画像提供部338は、動画像データと音データとの遅延が少ない音データを選択する。一方、運動会のように、撮影者によって撮像を開始するタイミングが異なる場合は、開始時刻が早い動画像データに関連付けられた音データを選択する。画像提供部338は、例えば操作受付部339が受け付けた操作内容に基づいて、どのような音データを選択するかを決定してもよい。画像提供部338がこのように動作することで、動画像データが撮像されるイベントの内容に適した音データを選択することができる。 When a plurality of moving image data are simultaneously captured at the start timing of a performance song, for example, in a concert, the image providing unit 338 outputs sound data with a small delay between the moving image data and the sound data. select. On the other hand, when the timing of starting imaging differs depending on the photographer, such as at an athletic meet, sound data associated with moving image data having an earlier start time is selected. The image providing unit 338 may determine what kind of sound data is selected based on, for example, the operation content received by the operation receiving unit 339. By operating the image providing unit 338 in this way, it is possible to select sound data suitable for the content of the event in which the moving image data is captured.

[変形例1]
以上の説明においては、画像管理装置3が、運動会等のイベント会場で撮影された動画像データと当該動画像データに関連付けられた音データとをユーザ端末4に提供する用途で用いられる場合を例示したが、画像管理装置3の用途はこれに限らない。イベントが、一人又は複数のユーザが自宅や店舗等で歌や踊りを撮影するものであり、自宅や店舗等がイベント会場であってもよい。この場合、画像管理装置3は、音楽に合わせて人が歌う動く場面が撮影された動画像データと音楽データとをユーザ端末4に提供する用途で用いられている。音楽データは、例えば、ユーザが単独で開催するイベントを識別するためのイベント識別情報や動画像データに関連付けられた音データに含まれる音楽と同じであり、撮影場所とは異なる場所で録音または集音されたデータである。音楽データは、画像管理装置3が予め記憶部32に記憶させていてもよい。
[Modification 1]
In the above description, the case where the image management device 3 is used for providing the moving image data taken at an event venue such as an athletic meet and the sound data associated with the moving image data to the user terminal 4 is exemplified. However, the application of the image management device 3 is not limited to this. The event is for one or more users to shoot a song or dance at their home or store, and the home or store may be the event venue. In this case, the image management device 3 is used for providing the user terminal 4 with moving image data and music data in which a moving scene in which a person sings in time with music is captured. The music data is, for example, the same as the music included in the sound data associated with the event identification information for identifying the event held independently by the user or the moving image data, and is recorded or collected at a place different from the shooting place. It is the sounded data. The music data may be stored in the storage unit 32 in advance by the image management device 3.

図12は、動画像データに含まれる時刻情報に関連付けられた音楽データを提供する場合の画像管理装置3の構成を示す図である。図12の画像管理装置3は、音楽データ取得部340を有する点で図7に示す画像管理装置3と異なり、他の点において同じである。 FIG. 12 is a diagram showing a configuration of an image management device 3 in the case of providing music data associated with time information included in moving image data. The image management device 3 of FIG. 12 is different from the image management device 3 shown in FIG. 7 in that it has a music data acquisition unit 340, and is the same in other respects.

音楽データ取得部340は、時刻に関連付けられた第1音楽データを取得する。同期処理部336は、取得した第1音楽データと動画像データとを同期させる。同期処理部336は、動画像データと、時刻特定部334が特定した時刻に関連付けられた第1音楽データとを同期させた状態で、第1音楽データと動画像データとを合成させた合成動画コンテンツを生成する。画像提供部338は、同期処理部336が生成した合成動画コンテンツをユーザ端末4に出力する。 The music data acquisition unit 340 acquires the first music data associated with the time. The synchronization processing unit 336 synchronizes the acquired first music data with the moving image data. The synchronization processing unit 336 synchronizes the moving image data with the first music data associated with the time specified by the time specifying unit 334, and synthesizes the first music data and the moving image data. Generate content. The image providing unit 338 outputs the synthetic moving image content generated by the synchronization processing unit 336 to the user terminal 4.

以下、画像管理装置3が、例えば、音楽、伴奏、又は器楽曲に合わせて歌っているシーンが撮像されて生成された動画像データに音楽データが合成された合成動画コンテンツをユーザ端末4に提供する場合の処理を説明する。 Hereinafter, the image management device 3 provides the user terminal 4 with synthetic video content in which music data is synthesized with moving image data generated by capturing an image of a scene singing along with music, accompaniment, or instrumental music, for example. The processing in the case of doing so will be described.

動画像データの撮影者であるユーザは、撮像装置2において、ユーザ自身もしくは第三者が設定した基準時刻に対する所定の相対時刻が到来した場合に自身の情報端末1にて第1音楽データと同じ時刻情報に関連付けられた第2音楽データが再生されるように設定しておく。基準時刻は、例えばユーザが情報端末1において所定のアプリケーションソフトウェアの音楽再生機能を起動した時刻であり、音楽再生機能が起動すると、情報端末1は、-10秒、-9秒、・・・のように変化する相対時刻を表示する。情報端末1は、相対時刻の表示を開始してから所定の時間が経過した後に音楽の再生を開始する。例えば、相対時刻の表示を開始してから10秒が経過して相対時刻が0秒になった時点で第2音楽データの再生を開始する。 The user who is the photographer of the moving image data is the same as the first music data on his / her own information terminal 1 when a predetermined relative time with respect to the reference time set by the user himself / herself or a third party arrives in the image pickup apparatus 2. The second music data associated with the time information is set to be played. The reference time is, for example, the time when the user activates the music playback function of the predetermined application software on the information terminal 1, and when the music playback function is activated, the information terminal 1 has -10 seconds, -9 seconds, ... Display the relative time that changes as in. The information terminal 1 starts playing music after a predetermined time has elapsed from the start of displaying the relative time. For example, when 10 seconds have elapsed from the start of displaying the relative time and the relative time reaches 0 seconds, the reproduction of the second music data is started.

ユーザは、音楽作成機能を起動させた後に、自身の情報端末1に表示された時刻画像データを撮像装置2で撮影してから、ユーザ自身が写るように撮像装置2をセットする。ユーザは、情報端末1が第2音楽データの再生を開始すると、ユーザ自身が撮影されている状態で、第2音楽データに基づく音楽に合わせて自身が歌い始める。撮像装置2は、このようにして作成した動画像データを画像管理装置3に送信する。 After activating the music creation function, the user captures the time image data displayed on the information terminal 1 of the user with the image pickup device 2, and then sets the image pickup device 2 so that the user himself / herself is photographed. When the information terminal 1 starts playing the second music data, the user starts singing along with the music based on the second music data while the user himself / herself is being photographed. The image pickup apparatus 2 transmits the moving image data thus created to the image management apparatus 3.

このような動画像データには、第2音楽データに基づく音楽以外の環境音も含まれているので、このままでは動画コンテンツとしての質が低い。そこで、画像管理装置3は、動画像データに関連付けられている音データを、第2音楽データに対応する第1音楽データに置換することで、質の高い合成動画コンテンツを生成する。 Since such moving image data includes environmental sounds other than music based on the second music data, the quality of the moving image content is low as it is. Therefore, the image management device 3 generates high-quality synthetic moving image content by replacing the sound data associated with the moving image data with the first music data corresponding to the second music data.

撮像装置2から画像管理装置3に動画像データが送信されると、画像データ取得部332は、第1音楽データに対応する第2音楽データに基づく音楽を情報端末1で再生する前に情報端末1に表示された時刻画像データを含む動画像データを取得する。ここで用いられる時刻画像データは、第1音楽データ及び第2音楽データの開始タイミングに同期している。第2音楽データは、情報端末1が有しており、情報端末1において再生する音楽データである。同期処理部336は、動画像データと、時刻特定部334が特定した第2音楽データに同期した時刻に関連付けられた第1音楽データとを同期させた状態で合成画像コンテンツを作成する。 When the moving image data is transmitted from the image pickup device 2 to the image management device 3, the image data acquisition unit 332 is an information terminal before playing the music based on the second music data corresponding to the first music data on the information terminal 1. Acquire moving image data including the time image data displayed in 1. The time image data used here is synchronized with the start timing of the first music data and the second music data. The second music data is music data possessed by the information terminal 1 and reproduced by the information terminal 1. The synchronization processing unit 336 creates the composite image content in a state in which the moving image data and the first music data associated with the time synchronized with the second music data specified by the time specifying unit 334 are synchronized.

具体的には、同期処理部336は、時刻画像データに基づいて、動画像データに含まれる時刻画像データ以外の画像データ(すなわち画像フレーム)の撮像開始時刻を特定し、特定した動画フレームの撮像開始時刻に第1音楽データが開始するように、動画像データと第1音楽データとを同期させることにより、合成画像コンテンツを作成する。画像提供部338は、このようにして作成された合成画像コンテンツをユーザ端末4に提供する。 Specifically, the synchronization processing unit 336 specifies the imaging start time of image data (that is, an image frame) other than the time image data included in the moving image data based on the time image data, and captures the specified moving image frame. The composite image content is created by synchronizing the moving image data and the first music data so that the first music data starts at the start time. The image providing unit 338 provides the composite image content created in this way to the user terminal 4.

[変形例2]
上記の説明においては、情報端末1がGPS衛星から受信した電波に基づく絶対時刻又は端末アプリケーションが生成する相対時刻を表示する場合を例示したが、情報端末1が表示する時刻は、イベントにおいて定められた基準時刻に対する相対時刻であってもよい。例えば、複数の情報端末1のそれぞれは、複数のグループのいずれかに属し、時刻表示部として機能する表示部12は、同一のグループに属する情報端末1が取得する時刻画像データが示す時刻に関連付けられた時刻を表示する。
[Modification 2]
In the above description, the case where the information terminal 1 displays the absolute time based on the radio wave received from the GPS satellite or the relative time generated by the terminal application is illustrated, but the time displayed by the information terminal 1 is determined in the event. It may be a relative time with respect to the reference time. For example, each of the plurality of information terminals 1 belongs to one of a plurality of groups, and the display unit 12 functioning as a time display unit is associated with the time indicated by the time image data acquired by the information terminals 1 belonging to the same group. Display the time that was set.

例えば、同一のグループに属する複数の情報端末1のうち1台の情報端末1が同一のグループに属する他の情報端末1に、内部時計が発生する時刻を示す時刻情報を定期的に送信する。他の情報端末1は、受信した時刻情報に基づく時刻画像データを表示する。 For example, one of the plurality of information terminals 1 belonging to the same group, one information terminal 1 periodically transmits time information indicating the time when the internal clock is generated to the other information terminals 1 belonging to the same group. The other information terminal 1 displays time image data based on the received time information.

[変形例3]
上記の説明においては、撮像装置2が提示イベントIDを含む第2のQRコードの画像データ及び時刻画像データが含まれている動画像データを画像管理装置3に送信する場合を例示したが、情報端末1が撮像装置2の機能を有しており、情報端末1が第1QRコードを撮影し、当該第1QRコードの画像データ及び時刻画像データが含まれている動画像データを画像管理装置3に送信してもよい。
[Modification 3]
In the above description, the case where the image pickup device 2 transmits the image data of the second QR code including the presentation event ID and the moving image data including the time image data to the image management device 3 has been illustrated, but the information has been illustrated. The terminal 1 has the function of the image pickup device 2, the information terminal 1 captures the first QR code, and the moving image data including the image data and the time image data of the first QR code is transferred to the image management device 3. You may send it.

図13は、変形例3に係る画像管理システムS2の構成を示す図である。図13に示すように、情報端末1a~1cのそれぞれは、提示イベントIDを含む第1QRコードを撮影して作成した動画像データを画像管理装置3に送信する。さらに、情報端末1a~1cは、図1に示したユーザ端末4として機能することも可能であり、情報端末1a~1cは、画像管理装置3が管理する動画像データを表示することもできる。このように、画像管理システムS2においては、情報端末1と画像管理装置3を用いて、図1に示した構成と同等の処理を実現することができる。 FIG. 13 is a diagram showing a configuration of the image management system S2 according to the modification 3. As shown in FIG. 13, each of the information terminals 1a to 1c transmits the moving image data created by photographing the first QR code including the presented event ID to the image management device 3. Further, the information terminals 1a to 1c can also function as the user terminal 4 shown in FIG. 1, and the information terminals 1a to 1c can also display moving image data managed by the image management device 3. As described above, in the image management system S2, the information terminal 1 and the image management device 3 can be used to realize the same processing as the configuration shown in FIG.

画像管理システムS2においては、撮像装置2が実行可能な各種の処理を情報端末1が実行してもよい。例えば、画像管理装置3の許諾情報取得部333は、動画像データに対応する撮像画像を情報端末1が撮像した位置を示す撮像位置情報を、動画像データを送信した情報端末1から取得してもよい。 In the image management system S2, the information terminal 1 may execute various processes that can be executed by the image pickup apparatus 2. For example, the license information acquisition unit 333 of the image management device 3 acquires the imaging position information indicating the position where the information terminal 1 has captured the captured image corresponding to the moving image data from the information terminal 1 that has transmitted the moving image data. May be good.

なお、情報端末1が第1QRコード及び時刻画像データを生成するとともに、動画像データを生成し、生成した第1QRコードの画像データ及び時刻画像データが含まれている動画像データを画像管理装置3に送信してもよい。 The information terminal 1 generates the first QR code and the time image data, and also generates the moving image data, and the moving image data including the generated image data and the time image data of the first QR code is used as the image management device 3. May be sent to.

[変形例4]
情報端末1は、提示イベントIDが含まれておらず、利用許諾情報が含まれるQRコードを生成してもよい。情報端末1は、例えば情報端末1のユーザが属するグループに対応する利用許諾情報を示すQRコードを生成する。この場合、画像管理部337は、予め登録された利用許諾情報が動画像データに含まれていることを条件として、画像データ取得部332が取得した動画像データをユーザ端末4に提示する対象である提示対象画像データとして記憶部32に記憶させてもよい。そして、画像提供部338は、閲覧要求情報をユーザ端末4から受信した場合に、利用許諾情報が示す利用可能範囲であることを閲覧要求情報が示していることを条件として、提示対象画像データをユーザ端末4に送信する。情報端末1及び画像管理装置3がこのように動作することで、登録イベントIDを用いることなく、同じグループのメンバー内で動画像データを共有することが可能になる。
[Modification 4]
The information terminal 1 may generate a QR code that does not include the presentation event ID and includes the license information. The information terminal 1 generates, for example, a QR code indicating license information corresponding to the group to which the user of the information terminal 1 belongs. In this case, the image management unit 337 is a target for presenting the moving image data acquired by the image data acquisition unit 332 to the user terminal 4 on condition that the license information registered in advance is included in the moving image data. It may be stored in the storage unit 32 as a certain presentation target image data. Then, when the browsing request information is received from the user terminal 4, the image providing unit 338 displays the image data to be presented on the condition that the browsing request information indicates that the viewing request information is within the usable range indicated by the license information. It is transmitted to the user terminal 4. By operating the information terminal 1 and the image management device 3 in this way, it becomes possible to share moving image data among members of the same group without using the registration event ID.

[変形例5]
上記の説明においては、同期処理部336が、時刻画像データを含む複数の動画像データに関連付けられた複数の音データに共通して含まれている特徴的な音のタイミングに基づいて複数の動画像データを同期させる場合を例示したが、同期処理部336が複数の動画像データと、動画像データに関連付けられていない音データとを同期させてもよい。
[Modification 5]
In the above description, the synchronization processing unit 336 performs a plurality of moving images based on the characteristic sound timing commonly included in the plurality of sound data associated with the plurality of moving image data including the time image data. Although the case of synchronizing the image data is illustrated, the synchronization processing unit 336 may synchronize the plurality of moving image data with the sound data not associated with the moving image data.

音データに、時刻を示す音時刻データが含まれており、同期処理部336は、時刻画像データが示す時刻と音時刻データが示す時刻とに基づいて、時刻画像データを含む複数の動画像データと音時刻データを含む音データとを同期させてもよい。音時刻データは、例えばイベント会場で集音した時報音又はGPS衛星等から取得した電波に基づいて特定した時刻を示すデータである。音時刻データは可聴音でもよく、可聴帯域以外の帯域の音を表すデータであってもよい。また、音時刻データは、音をデジタル値に変換したデータであってもよく、時刻を表すテキストデータであってもよい。 The sound data includes sound time data indicating the time, and the synchronization processing unit 336 includes a plurality of moving image data including the time image data based on the time indicated by the time image data and the time indicated by the sound time data. And the sound data including the sound time data may be synchronized. The sound time data is data indicating a time specified based on, for example, a time signal sound collected at an event venue or a radio wave acquired from a GPS satellite or the like. The sound time data may be audible sound, or may be data representing sounds in a band other than the audible band. Further, the sound time data may be data obtained by converting sound into a digital value, or may be text data representing time.

音データ取得部335又は同期処理部336は、音時刻データを含む音データを取得して、取得した音データに含まれる音時刻データが示す時刻を特定する。同期処理部336は、音時刻データが示す時刻と時刻特定部334が特定した時刻画像データが示す時刻とに基づいて、音時刻データを含む音データと時刻特定部334が特定した時刻に対応する複数の動画像データとを同期させる。 The sound data acquisition unit 335 or the synchronization processing unit 336 acquires sound data including sound time data, and specifies the time indicated by the sound time data included in the acquired sound data. The synchronization processing unit 336 corresponds to the sound data including the sound time data and the time specified by the time specifying unit 334 based on the time indicated by the sound time data and the time indicated by the time image data specified by the time specifying unit 334. Synchronize with multiple moving image data.

具体的には、同期処理部336は、時刻画像データが示す時刻を基準にして、動画像データ内の各フレームの時刻を特定し、音時刻データが示す時刻を基準にして、音データのそれぞれの部分の時刻を特定する。同期処理部336は、同じ時刻に対応する動画像データ内のフレームと音データとを関連付ける。 Specifically, the synchronization processing unit 336 specifies the time of each frame in the moving image data based on the time indicated by the time image data, and each of the sound data is based on the time indicated by the sound time data. Specify the time of the part of. The synchronization processing unit 336 associates the frame in the moving image data corresponding to the same time with the sound data.

このように動作することで、画像管理装置3は、時刻画像データとは異なる時刻情報が示す時刻に同期した音データであっても、当該音データと時刻画像データを含む複数の動画像データとを同期させることができる。なお、画像管理装置3は、時刻画像データを表示する情報端末1が生成した、時刻画像データが示す時刻に同期した音時刻データを含む音データを、情報端末1から取得することもできる。このような構成は、例えば音データだけを音源の近くで収集することができる環境において好適である。 By operating in this way, the image management device 3 can generate a plurality of moving image data including the sound data and the time image data even if the sound data is synchronized with the time indicated by the time information different from the time image data. Can be synchronized. The image management device 3 can also acquire sound data including sound time data synchronized with the time indicated by the time image data generated by the information terminal 1 displaying the time image data from the information terminal 1. Such a configuration is suitable, for example, in an environment where only sound data can be collected near a sound source.

[本実施形態の画像管理装置3による効果]
以上説明したように、画像管理装置3は、時刻を示す時刻画像データを含む動画像データを取得する画像データ取得部332と、時刻画像データが示す時刻を特定する時刻特定部334と、時刻特定部334が特定した時刻に基づいて複数の動画像データを同期させる同期処理部336とを有する。そして、音データ取得部335が、時刻画像データが示す時刻に同期した音データを取得し、画像提供部338が、音データと複数の動画像データとを同期させた状態でユーザ端末4に提供する。
[Effect of the image management device 3 of this embodiment]
As described above, the image management device 3 includes an image data acquisition unit 332 that acquires moving image data including time image data indicating the time, a time specifying unit 334 that specifies the time indicated by the time image data, and a time specifying unit. The unit 334 has a synchronization processing unit 336 that synchronizes a plurality of moving image data based on a specified time. Then, the sound data acquisition unit 335 acquires the sound data synchronized with the time indicated by the time image data, and the image providing unit 338 provides the sound data and the plurality of moving image data to the user terminal 4 in a synchronized state. do.

その結果、ユーザ端末4のユーザは、音データに同期した複数の動画像を閲覧することができるので、複数の動画像を閲覧しやすくなる。 As a result, the user of the user terminal 4 can browse a plurality of moving images synchronized with the sound data, so that it becomes easy to browse the plurality of moving images.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist thereof. be. For example, all or part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination has the effect of the original embodiment together.

1 情報端末
2 撮像装置
3 画像管理装置
4 ユーザ端末
10 撮像部
11 記憶部
12 表示部
13 通信部
14 制御部
21 撮像部
22 通信部
23 記憶部
24 制御部
31 通信部
32 記憶部
33 制御部
141 許諾情報生成部
142 コード生成部
241 画像生成部
242 画像送信部
331 識別情報取得部
332 画像データ取得部
333 許諾情報取得部
334 時刻特定部
335 音データ取得部
336 同期処理部
337 画像管理部
338 画像提供部
339 操作受付部
340 音楽データ取得部
1 Information terminal 2 Image pickup device 3 Image management device 4 User terminal 10 Image pickup section 11 Storage section 12 Display section 13 Communication section 14 Control section 21 Imaging section 22 Communication section 23 Storage section 24 Control section 31 Communication section 32 Storage section 33 Control section 141 License information generation unit 142 Code generation unit 241 Image generation unit 242 Image transmission unit 331 Identification information acquisition unit 332 Image data acquisition unit 333 License information acquisition unit 334 Time specification unit 335 Sound data acquisition unit 336 Synchronization processing unit 337 Image management unit 338 Image Providing unit 339 Operation reception unit 340 Music data acquisition unit

Claims (10)

それぞれが時刻を示す時刻画像データを含む複数の動画像データを取得する画像データ取得部と、
前記時刻画像データが示す時刻を特定する時刻特定部と、
前記時刻特定部が特定した時刻に基づいて、前記複数の動画像データを同期させる同期処理部と、
前記時刻画像データが示す時刻に同期した音データを取得する音データ取得部と、
前記同期処理部が同期させた前記複数の動画像データと前記音データとを情報端末に提供する画像提供部と、
を有する画像管理装置。
An image data acquisition unit that acquires a plurality of moving image data including time image data, each of which indicates a time, and an image data acquisition unit.
A time specifying unit that specifies the time indicated by the time image data, and
A synchronization processing unit that synchronizes a plurality of moving image data based on a time specified by the time specifying unit, and a synchronization processing unit.
A sound data acquisition unit that acquires sound data synchronized with the time indicated by the time image data, and a sound data acquisition unit.
An image providing unit that provides the information terminal with the plurality of moving image data and the sound data synchronized by the synchronization processing unit.
Image management device with.
前記音データ取得部は、複数の前記動画像データに関連付けられた複数の前記音データを取得し、
前記画像提供部は、前記複数の前記音データのうち1つを前記情報端末に提供する、
請求項1に記載の画像管理装置。
The sound data acquisition unit acquires a plurality of the sound data associated with the plurality of the moving image data, and obtains the plurality of the sound data.
The image providing unit provides one of the plurality of the sound data to the information terminal.
The image management device according to claim 1.
前記画像提供部は、複数の前記音データのうち最も早いタイミングの前記音データを前記情報端末に提供する、
請求項2に記載の画像管理装置。
The image providing unit provides the sound data at the earliest timing among the plurality of sound data to the information terminal.
The image management device according to claim 2.
前記画像提供部は、前記動画像データが変化するタイミングに最も近いタイミングで変化する前記音データを前記情報端末に提供する、
請求項2又は3に記載の画像管理装置。
The image providing unit provides the information terminal with the sound data that changes at the timing closest to the timing at which the moving image data changes.
The image management device according to claim 2 or 3.
前記音データ取得部は、複数の前記音データそれぞれが集音された位置を示す複数の集音位置情報をさらに取得し、
前記画像データ取得部は、前記動画像データに含まれる被写体の位置を示す被写体位置情報をさらに取得し、
前記画像提供部は、前記複数の集音位置情報が示す複数の位置のうち、前記被写体位置情報が示す位置に最も近い位置に対応する前記集音位置情報に関連付けられた前記音データを前記情報端末に提供する、
請求項2から4のいずれか一項に記載の画像管理装置。
The sound data acquisition unit further acquires a plurality of sound collection position information indicating a position where each of the plurality of sound data is collected.
The image data acquisition unit further acquires subject position information indicating the position of the subject included in the moving image data.
The image providing unit uses the sound data associated with the sound collecting position information corresponding to the position closest to the position indicated by the subject position information among the plurality of positions indicated by the plurality of sound collecting position information. Provide to the terminal,
The image management device according to any one of claims 2 to 4.
前記音データ取得部は、前記複数の動画像データそれぞれに対応する動画像を撮影した複数の撮影装置の位置よりも前記動画像データに含まれる被写体に近い位置で集音された前記音データを取得する、
請求項1から5のいずれか一項に記載の画像管理装置。
The sound data acquisition unit collects the sound data at a position closer to the subject included in the moving image data than the positions of the plurality of photographing devices that have taken the moving images corresponding to the plurality of moving image data. get,
The image management device according to any one of claims 1 to 5.
前記音データ取得部は、時刻を示す音時刻データを含む前記音データを取得し、
前記同期処理部は、前記音時刻データが示す時刻と前記時刻特定部が特定した時刻とに基づいて、前記音時刻データを含む前記音データと前記時刻特定部が特定した時刻に対応する前記複数の動画像データとを同期させる、
請求項1から6のいずれか一項に記載の画像管理装置。
The sound data acquisition unit acquires the sound data including the sound time data indicating the time, and obtains the sound data.
The synchronization processing unit corresponds to the sound data including the sound time data and the time specified by the time specifying unit based on the time indicated by the sound time data and the time specified by the time specifying unit. Synchronize with the moving image data of
The image management device according to any one of claims 1 to 6.
ユーザの操作を受け付ける操作受付部をさらに有し、
前記音データ取得部は、前記操作受付部が受け付けた操作に基づいて、前記動画像データに関連付けられた前記音データを取得するか、前記動画像データに関連付けられていない前記音データを取得するかを選択する、
請求項1から7のいずれか一項に記載の画像管理装置。
It also has an operation reception unit that accepts user operations.
The sound data acquisition unit acquires the sound data associated with the moving image data or acquires the sound data not associated with the moving image data based on the operation received by the operation receiving unit. Select
The image management device according to any one of claims 1 to 7.
複数の撮像装置と、前記複数の撮像装置が生成した動画像データを管理する画像管理装置と、を備え、
前記複数の撮像装置それぞれは、
時刻を示す時刻画像データを含む前記動画像データを生成する画像生成部と、
前記動画像データを送信する画像送信部と、
を有し、
前記画像管理装置は、
複数の前記動画像データを取得する画像データ取得部と、
前記時刻画像データが示す時刻を特定する時刻特定部と、
前記時刻特定部が特定した時刻に基づいて、複数の前記動画像データを同期させる同期処理部と、
前記時刻画像データが示す時刻に同期した音データを取得する音データ取得部と、
前記同期処理部が同期させた前記複数の動画像データと前記音データとを情報端末に提供する画像提供部と、
を有する、
画像管理システム。
A plurality of image pickup devices and an image management device for managing moving image data generated by the plurality of image pickup devices are provided.
Each of the plurality of image pickup devices
An image generation unit that generates the moving image data including time image data indicating the time, and
An image transmission unit that transmits the moving image data, and
Have,
The image management device is
An image data acquisition unit that acquires a plurality of the moving image data,
A time specifying unit that specifies the time indicated by the time image data, and
A synchronization processing unit that synchronizes a plurality of the moving image data based on the time specified by the time specifying unit, and a synchronization processing unit.
A sound data acquisition unit that acquires sound data synchronized with the time indicated by the time image data, and a sound data acquisition unit.
An image providing unit that provides the information terminal with the plurality of moving image data and the sound data synchronized by the synchronization processing unit.
Have,
Image management system.
コンピュータが、
それぞれが時刻を示す時刻画像データを含む複数の動画像データを取得するステップと、
前記時刻画像データが示す時刻を特定するステップと、
特定した時刻に基づいて、前記複数の動画像データを同期させるステップと、
前記時刻画像データが示す時刻に同期した音データを取得するステップと、
同期させた前記複数の動画像データと前記音データとを情報端末に提供するステップと、
を実行する画像管理方法。
The computer
A step to acquire multiple moving image data including time image data, each of which indicates the time, and
The step of specifying the time indicated by the time image data and
The step of synchronizing the plurality of moving image data based on the specified time, and
The step of acquiring the sound data synchronized with the time indicated by the time image data, and
A step of providing the plurality of synchronized moving image data and the sound data to an information terminal, and
Image management method to execute.
JP2020109135A 2020-06-24 2020-06-24 Image management device, image management system and image management method Active JP6909904B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020109135A JP6909904B1 (en) 2020-06-24 2020-06-24 Image management device, image management system and image management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020109135A JP6909904B1 (en) 2020-06-24 2020-06-24 Image management device, image management system and image management method

Publications (2)

Publication Number Publication Date
JP6909904B1 JP6909904B1 (en) 2021-07-28
JP2022006725A true JP2022006725A (en) 2022-01-13

Family

ID=76967979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020109135A Active JP6909904B1 (en) 2020-06-24 2020-06-24 Image management device, image management system and image management method

Country Status (1)

Country Link
JP (1) JP6909904B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013131871A (en) * 2011-12-20 2013-07-04 Sharp Corp Editing device, remote controller, television receiver, specific audio signal, editing system, editing method, program, and recording medium
JP2015154094A (en) * 2014-02-10 2015-08-24 株式会社リコー Image recording reproduction controller, image recording reproduction control method, and image recording reproduction control system
JP2017135539A (en) * 2016-01-27 2017-08-03 ヤマハ株式会社 Recorded data processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013131871A (en) * 2011-12-20 2013-07-04 Sharp Corp Editing device, remote controller, television receiver, specific audio signal, editing system, editing method, program, and recording medium
JP2015154094A (en) * 2014-02-10 2015-08-24 株式会社リコー Image recording reproduction controller, image recording reproduction control method, and image recording reproduction control system
JP2017135539A (en) * 2016-01-27 2017-08-03 ヤマハ株式会社 Recorded data processing method

Also Published As

Publication number Publication date
JP6909904B1 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
JP6435585B2 (en) Content reproduction method, content reproduction apparatus, and content reproduction program
KR20160031992A (en) Method for providing real-time video and device thereof as well as server and terminal device
CN103460128A (en) Alternative audio
JP2009124206A (en) Multimedia composing data generation device
JP5964722B2 (en) Karaoke system
JP5449113B2 (en) Program recommendation device
JP2023153790A (en) program
JP6909904B1 (en) Image management device, image management system and image management method
JP6909903B1 (en) Image management device, image management system and image management method
JP6909902B1 (en) Image management device, image management system and image management method
KR101680551B1 (en) Method for creating and automatic vending private music video
JP7149193B2 (en) karaoke system
JP2010262072A (en) Digital television-compatible karaoke system
JP2005191892A (en) Information acquisition device and multi-media information preparation system using it
KR100671147B1 (en) Apparatus for experiencing famous scene and Method thereof
JP6849851B2 (en) Shooting system, shooting device and user shooting method
WO2022176633A1 (en) Video editing device, video editing method, and computer program
WO2024057398A1 (en) Presentation video adjustment apparatus, presentation video adjustment method, and presentation video adjustment program
EP1538835A2 (en) Data recording system, data recording apparatus, data transmission apparatus, data recording method and recording medium on which a recording program is recorded
TWI221731B (en) Automatic AV production supply system and method thereof
JP7149203B2 (en) karaoke system
JP7148883B2 (en) Image provision system
JP6424945B2 (en) Imaging device, imaging method, and imaging program
JP2009020234A (en) Image display system and image display method
JP2020188328A (en) Video system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201120

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201120

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210705

R150 Certificate of patent or registration of utility model

Ref document number: 6909904

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150