JP6909903B1 - Image management device, image management system and image management method - Google Patents

Image management device, image management system and image management method Download PDF

Info

Publication number
JP6909903B1
JP6909903B1 JP2020109134A JP2020109134A JP6909903B1 JP 6909903 B1 JP6909903 B1 JP 6909903B1 JP 2020109134 A JP2020109134 A JP 2020109134A JP 2020109134 A JP2020109134 A JP 2020109134A JP 6909903 B1 JP6909903 B1 JP 6909903B1
Authority
JP
Japan
Prior art keywords
image data
time
data
moving image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020109134A
Other languages
Japanese (ja)
Other versions
JP2022006724A (en
Inventor
圭 河村
圭 河村
隆治 高崎
隆治 高崎
佳伸 滝田
佳伸 滝田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020109134A priority Critical patent/JP6909903B1/en
Application granted granted Critical
Publication of JP6909903B1 publication Critical patent/JP6909903B1/en
Publication of JP2022006724A publication Critical patent/JP2022006724A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】複数の動画像を同期させることができる。【解決手段】画像管理装置3は、時刻を示す時刻画像データを含む動画像データを取得する画像データ取得部332と、時刻画像データが示す時刻を特定する時刻特定部334と、時刻特定部334が特定した時刻に基づいて、動画像データと、動画像データと異なる画像データである他データとを同期させる同期処理部336と、同期処理部336が同期させた状態で動画像データと他データとを情報端末に提供する画像提供部338と、を有する。【選択図】図7PROBLEM TO BE SOLVED: To synchronize a plurality of moving images. An image management device 3 has an image data acquisition unit 332 that acquires moving image data including time image data indicating the time, a time identification unit 334 that specifies the time indicated by the time image data, and a time identification unit 334. Synchronized processing unit 336 that synchronizes the moving image data with other data that is different from the moving image data based on the time specified by, and the moving image data and other data in a state in which the synchronization processing unit 336 synchronizes. It has an image providing unit 338 and the image providing unit 338, which provides the data to the information terminal. [Selection diagram] FIG. 7

Description

本発明は、画像管理装置、画像管理システム及び画像管理方法に関する。 The present invention relates to an image management device, an image management system, and an image management method.

複数のユーザがインターネット等のネットワークを介して送信した画像を公開する画像公開装置が知られている(例えば、特許文献1を参照)。 An image publishing device that publishes an image transmitted by a plurality of users via a network such as the Internet is known (see, for example, Patent Document 1).

特開2013−191035号公報Japanese Unexamined Patent Publication No. 2013-191035

入学式、運動会、コンサート等のイベントにおいては、多数の参加者がイベントの様子を撮影することにより多数の動画像データが作成される。各参加者が動画像データをサーバにアップロードすることにより、各参加者が撮影した動画像が閲覧可能になる。動画像を閲覧可能な端末において複数の動画像が同期していない状態で同時に再生されると、音や動画像がずれてしまうので閲覧しづらいという問題があった。 At events such as entrance ceremonies, athletic meet, and concerts, a large number of moving image data are created by a large number of participants taking pictures of the event. By uploading the moving image data to the server by each participant, the moving image taken by each participant can be viewed. If a plurality of moving images are simultaneously played back on a terminal capable of viewing moving images in a state where they are not synchronized, there is a problem that it is difficult to view the moving images because the sound and the moving images are shifted.

そこで、本発明はこれらの点に鑑みてなされたものであり、複数の動画像を同期させることができる画像管理装置、画像管理システム及び画像管理方法を提供することを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to provide an image management device, an image management system, and an image management method capable of synchronizing a plurality of moving images.

本発明の第1の態様に係る画像管理装置は、時刻を示す時刻画像データを含む動画像データを取得する画像データ取得部と、前記時刻画像データが示す時刻を特定する時刻特定部と、前記時刻特定部が特定した時刻に基づいて、前記動画像データと、前記動画像データと異なる画像データである他データとを同期させる同期処理部と、前記同期処理部が同期させた状態で前記動画像データと前記他データとを情報端末に提供する画像提供部と、を有する。 The image management device according to the first aspect of the present invention includes an image data acquisition unit that acquires moving image data including time image data indicating the time, a time specifying unit that specifies the time indicated by the time image data, and the above. Based on the time specified by the time specifying unit, the moving image data is synchronized with the synchronization processing unit that synchronizes the moving image data with other data that is image data different from the moving image data, and the moving image in a state in which the synchronization processing unit is synchronized. It has an image providing unit that provides image data and the other data to an information terminal.

前記画像データ取得部は、前記時刻画像データを含む複数の前記動画像データを取得し、前記同期処理部は、前記時刻特定部が特定した前記動画像データそれぞれの時刻に基づいて、複数の前記動画像データを同期させてもよい。 The image data acquisition unit acquires a plurality of the moving image data including the time image data, and the synchronization processing unit acquires a plurality of the moving image data based on the respective times of the moving image data specified by the time specifying unit. The moving image data may be synchronized.

前記画像データ取得部は、前記動画像データが撮像された場所において提示された提示イベント識別情報をさらに取得し、前記同期処理部は、前記動画像データに関連付けられた前記提示イベント識別情報と前記他データに関連付けられた提示イベント識別情報とが一致していることを条件として、前記動画像データと前記他データとを同期させてもよい。 The image data acquisition unit further acquires the presentation event identification information presented at the place where the moving image data is captured, and the synchronization processing unit further acquires the presentation event identification information associated with the moving image data and the presentation event identification information. The moving image data and the other data may be synchronized on condition that the presentation event identification information associated with the other data matches.

前記動画像データに関連付けられた第1音データと、前記他データに関連付けられた第2音データとを取得し、前記第1音データに含まれる音声に基づいて、前記動画像データが撮像された場所において行われたイベントを識別するための第1提示イベント識別情報を特定し、前記第2音データに含まれる音声に基づいて、前記他データが撮像された場所において行われたイベントを識別するための第2提示イベント識別情報を特定する音データ取得部をさらに有し、前記同期処理部は、前記第1提示イベント識別情報と前記第2提示イベント識別情報とが一致していることを条件として、前記動画像データと前記他データとを同期させてもよい。 The first sound data associated with the moving image data and the second sound data associated with the other data are acquired, and the moving image data is imaged based on the sound included in the first sound data. The first presented event identification information for identifying the event performed at the place where the data was taken is specified, and the event performed at the place where the other data is captured is identified based on the sound included in the second sound data. It further has a sound data acquisition unit for specifying the second presentation event identification information for the purpose, and the synchronization processing unit indicates that the first presentation event identification information and the second presentation event identification information match. As a condition, the moving image data and the other data may be synchronized.

前記画像データ取得部は、時刻に関連付けられた表示データをさらに取得し、前記同期処理部は、前記動画像データと、前記時刻特定部が特定した時刻に関連付けられた前記表示データとを同期させた状態で合成した合成動画像データを生成し、前記画像提供部は、前記合成動画像データを情報端末に送信してもよい。 The image data acquisition unit further acquires display data associated with the time, and the synchronization processing unit synchronizes the moving image data with the display data associated with the time specified by the time identification unit. The composite moving image data synthesized in this state may be generated, and the image providing unit may transmit the synthesized moving image data to the information terminal.

時刻に関連付けられた第1音楽データを取得する音楽データ取得部をさらに有し、前記同期処理部は、前記動画像データと、前記時刻特定部が特定した時刻に関連付けられた前記第1音楽データとを同期させた状態で合成した合成動画コンテンツを生成し、前記画像提供部は、前記合成動画コンテンツを情報端末に送信してもよい。 It further has a music data acquisition unit that acquires the first music data associated with the time, and the synchronization processing unit further includes the moving image data and the first music data associated with the time specified by the time identification unit. The composite moving image content may be generated in a state of being synchronized with the above, and the image providing unit may transmit the synthesized moving image content to the information terminal.

前記画像データ取得部は、前記第1音楽データに対応する第2音楽データに基づく音楽を情報端末で再生する前に前記情報端末に表示された前記時刻画像データを含む前記動画像データを取得し、前記同期処理部は、前記動画像データと、前記時刻特定部が特定した前記第2音楽データに同期した時刻に関連付けられた前記第1音楽データとを同期させた状態で前記合成動画コンテンツを作成してもよい。 The image data acquisition unit acquires the moving image data including the time image data displayed on the information terminal before playing the music based on the second music data corresponding to the first music data on the information terminal. , The synchronization processing unit synchronizes the moving image data with the first music data associated with the time synchronized with the second music data specified by the time specifying unit, and produces the synthesized moving image content. You may create it.

前記画像データ取得部は、前記時刻画像データを含む前記動画像データを取得し、
前記画像提供部は、前記動画像データのうち前記時刻画像データを除く部分動画像データを前記情報端末に提供してもよい。前記画像データ取得部は、前記時刻画像データが示す時刻の最小単位よりもフレームが更新される時間間隔が大きい前記動画像データを取得してもよい。
The image data acquisition unit acquires the moving image data including the time image data, and obtains the moving image data.
The image providing unit may provide the information terminal with partial moving image data of the moving image data excluding the time image data. The image data acquisition unit may acquire the moving image data in which the time interval in which the frame is updated is larger than the minimum unit of the time indicated by the time image data.

本発明の第2の態様に係る画像管理システムは、複数の情報端末と、前記情報端末から取得した動画像データを管理する画像管理装置と、を備え、前記複数の情報端末それぞれは、他の前記情報端末と同期した時刻を表示する時刻表示部を有し、前記画像管理装置は、それぞれ異なる前記情報端末が表示した時刻を示す時刻画像データを含む複数の動画像データを取得する画像データ取得部と、前記時刻画像データが示す時刻を特定する時刻特定部と、前記時刻特定部が特定した時刻に基づいて、前記画像データ取得部が取得した前記複数の動画像データを同期させる同期処理部と、前記同期処理部が同期させた状態で前記複数の動画像データを情報端末に提供する画像提供部と、を有する。 The image management system according to the second aspect of the present invention includes a plurality of information terminals and an image management device that manages moving image data acquired from the information terminals, and each of the plurality of information terminals has another The image management device has a time display unit that displays a time synchronized with the information terminal, and the image management device acquires image data that acquires a plurality of moving image data including time image data indicating the time displayed by the information terminal. A synchronization processing unit that synchronizes the plurality of moving image data acquired by the image data acquisition unit based on the unit, the time specifying unit that specifies the time indicated by the time image data, and the time specified by the time specifying unit. And an image providing unit that provides the plurality of moving image data to the information terminal in a state in which the synchronization processing unit is synchronized.

前記複数の情報端末それぞれは、複数のグループのいずれかに属し、前記時刻表示部は、同一の前記グループに属する前記情報端末が取得する前記時刻画像データが示す時刻に関連付けられた時刻を表示してもよい。前記時刻表示部は、通信回線を経由して取得した時刻を示すデータに基づく絶対時刻を表示してもよい。前記情報端末は、音楽データを再生する音楽データ再生部をさらに有し、前記音楽データ再生部は、前記時刻表示部が他の前記情報端末と同期した時刻を表示した後に前記音楽データを再生してもよい。 Each of the plurality of information terminals belongs to any of the plurality of groups, and the time display unit displays the time associated with the time indicated by the time image data acquired by the information terminals belonging to the same group. You may. The time display unit may display an absolute time based on data indicating a time acquired via a communication line. The information terminal further has a music data reproduction unit for reproducing music data, and the music data reproduction unit reproduces the music data after the time display unit displays the time synchronized with the other information terminal. You may.

本発明の第3の態様に係る画像管理方法は、コンピュータが実行する、時刻を示す時刻画像データを含む動画像データを取得するステップと、前記時刻画像データが示す時刻を特定するステップと、特定した時刻に基づいて、前記動画像データと、前記動画像データと異なる画像データである他データとを同期させるステップと、同期させた状態で前記動画像データと前記他データとを情報端末に提供するステップと、を有する。 The image management method according to the third aspect of the present invention specifies a step of acquiring moving image data including time image data indicating the time and a step of specifying the time indicated by the time image data, which are executed by a computer. A step of synchronizing the moving image data with other data which is image data different from the moving image data based on the time, and providing the moving image data and the other data to the information terminal in the synchronized state. Has steps to do.

本発明によれば、複数の動画像を同期させることができるという効果を奏する。 According to the present invention, there is an effect that a plurality of moving images can be synchronized.

本発明の実施の形態に係る画像管理システムS1の構成を示す図である。It is a figure which shows the structure of the image management system S1 which concerns on embodiment of this invention. 画像管理システムS1の動作のシーケンスを示す図である。It is a figure which shows the operation sequence of the image management system S1. 情報端末1が第2のQRコード(登録商標)と時刻情報とを表示する場合の画面の一例を示す図である。It is a figure which shows an example of the screen when the information terminal 1 displays the 2nd QR code (registered trademark) and time information. ユーザ端末4が画像管理装置3から取得した提示対象画像データを表示する場合の画面の一例を示す図である。It is a figure which shows an example of the screen when the user terminal 4 displays the presentation target image data acquired from the image management apparatus 3. 情報端末1の構成を示す図である。It is a figure which shows the structure of the information terminal 1. 撮像装置2の構成を示す図である。It is a figure which shows the structure of the image pickup apparatus 2. 画像管理装置3の構成を示す図である。It is a figure which shows the structure of the image management apparatus 3. 同期処理部336が複数の動画像データを同期させる動作について説明するための図である。It is a figure for demonstrating the operation which the synchronization processing unit 336 synchronizes a plurality of moving image data. 画像管理装置3が撮像画像データを記憶部32に記憶させる動作のフローチャートである。It is a flowchart of the operation which the image management apparatus 3 stores the captured image data in a storage unit 32. 画像管理装置3が複数の動画像データを同期させてユーザ端末4に送信する動作のフローチャートである。It is a flowchart of the operation that the image management device 3 synchronizes a plurality of moving image data and transmits it to a user terminal 4. 画像提供部338が複数の動画像データと音データとを同期させた状態で情報端末に送信する動作について説明するための図である。It is a figure for demonstrating the operation which the image providing unit 338 transmits to an information terminal in a state where a plurality of moving image data and sound data are synchronized. 動画像データに含まれる時刻情報に関連付けられた音楽データを提供する場合の画像管理装置3の構成を示す図である。It is a figure which shows the structure of the image management apparatus 3 in the case of providing the music data associated with the time information included in the moving image data. 画像管理システムS2の構成を示す図である。It is a figure which shows the structure of the image management system S2.

[画像管理システムS1の構成]
図1は、本発明の実施の形態に係る画像管理システムS1の構成を示す図である。画像管理システムS1は、一以上の情報端末1と、複数の撮像装置2(2a,2b,2c)と、画像管理装置3と、ユーザ端末4とを有する。画像管理システムS1は、例えば小学校の運動会や音楽ライブ等のイベントにおいて、複数の撮像装置2が撮像した撮像画像データと情報端末1が生成するイベントを識別するための識別情報とを関連付けて画像管理装置3が有する記憶部に記憶させる画像管理システムである。本明細書においては、撮像画像データが動画像データである場合を例示するが、撮像画像データに静止画像データが含まれていてもよい。
[Configuration of image management system S1]
FIG. 1 is a diagram showing a configuration of an image management system S1 according to an embodiment of the present invention. The image management system S1 includes one or more information terminals 1, a plurality of image pickup devices 2 (2a, 2b, 2c), an image management device 3, and a user terminal 4. The image management system S1 manages an image by associating the captured image data captured by the plurality of imaging devices 2 with the identification information for identifying the event generated by the information terminal 1 at an event such as an elementary school athletic meet or a live music. This is an image management system that is stored in a storage unit of the device 3. In the present specification, the case where the captured image data is moving image data is illustrated, but the captured image data may include still image data.

情報端末1と画像管理装置3とはネットワークNを介して接続されている。複数の撮像装置2と画像管理装置3とはネットワークNを介して接続されている。ユーザ端末4と画像管理装置3とはネットワークNを介して接続されている。ネットワークNは、例えばインターネットである。情報端末1と複数の撮像装置2とは、例えばBluetooth(登録商標)等の無線通信方式を用いて接続されていてもよい。 The information terminal 1 and the image management device 3 are connected via a network N. The plurality of image pickup devices 2 and the image management device 3 are connected via the network N. The user terminal 4 and the image management device 3 are connected via the network N. The network N is, for example, the Internet. The information terminal 1 and the plurality of image pickup devices 2 may be connected by using a wireless communication method such as Bluetooth (registered trademark).

情報端末1は、例えば撮像装置2のユーザが使用する端末である。情報端末1は、被写体を撮像する撮像デバイス、ユーザの操作を受け付けるタッチパネル等の操作入力用デバイス、受け付けたユーザの操作に基づいて情報を表示するディスプレイ、現在位置を特定するための電波をGPS(Global Positioning System)衛星のような外部装置から受信する受信機、並びにネットワークNを介して情報を送信するための通信デバイス等を有する端末である。情報端末1は、例えばタブレット又はスマートフォンである。以下の説明においては、情報端末1が、複数の撮像装置2を使用する複数のユーザの代表ユーザの端末である場合を想定して説明するが、複数のユーザそれぞれが自身の情報端末1を使用してもよい。 The information terminal 1 is, for example, a terminal used by the user of the image pickup apparatus 2. The information terminal 1 is an imaging device that captures a subject, an operation input device such as a touch panel that accepts user operations, a display that displays information based on the accepted user operations, and GPS (GPS) for radio waves for specifying the current position. Global Positioning System) A terminal having a receiver for receiving from an external device such as a satellite, and a communication device for transmitting information via network N. The information terminal 1 is, for example, a tablet or a smartphone. In the following description, it is assumed that the information terminal 1 is a terminal of a representative user of a plurality of users who use a plurality of image pickup devices 2, but each of the plurality of users uses their own information terminal 1. You may.

情報端末1は、ユーザの操作に応じて、例えばイベント会場に設置されている第1のQRコードを示す物体を撮像する。第1のQRコードを示す物体は、例えば第1のQRコードが印刷されたポスター、又は第1のQRコードが表示されているタブレットである。情報端末1は、撮像した第1のQRコードから、イベントが開催された場所において提示された提示イベント識別情報である提示イベントIDを抽出する。提示イベントIDは、例えばイベントがA小学校の運動会の場合、「A小学校運動会」を示すデータである。 The information terminal 1 captures, for example, an object indicating a first QR code installed at an event venue according to a user's operation. The object showing the first QR code is, for example, a poster on which the first QR code is printed, or a tablet on which the first QR code is displayed. The information terminal 1 extracts the presentation event ID, which is the presentation event identification information presented at the place where the event is held, from the first QR code captured. The presented event ID is data indicating "A elementary school athletic meet", for example, when the event is an athletic meet of A elementary school.

続いて、情報端末1は、提示イベントIDと、情報端末1に予め設定されている利用許諾情報とを含む第2のQRコードを生成する。利用許諾情報は、例えば「A小学校運動会6年1組」を示すデータであり、利用許諾情報が示す範囲内でのみ撮像画像データを閲覧可能にすることが可能とされる。 Subsequently, the information terminal 1 generates a second QR code including the presentation event ID and the license information preset in the information terminal 1. The license information is, for example, data indicating "A elementary school athletic meet 6th grade 1 group", and it is possible to view the captured image data only within the range indicated by the license information.

そして、情報端末1は、生成した第2のQRコードと時刻を示す時刻情報を含む時刻画像データとを情報端末1が有するディスプレイに表示する。情報端末1が有する時刻表示部は、例えば、通信回線を経由して取得した時刻や日本標準時刻(JJY)、GPS衛星等から取得した電波に基づく絶対時刻又は端末アプリケーションが生成する相対時刻(所定のタイミングを基準とする時刻)を表示する。なお、情報端末1は、第2のQRコードとして、提示イベントIDを含むQRコード(すなわち、第1のQRコード)を生成し、利用許諾情報を別途表示してもよい。また、情報端末1は、例えば受信機がGPS衛星から受信した電波に基づいて特定した現在位置を示す位置情報を画像管理装置3に送信してもよい。 Then, the information terminal 1 displays the generated second QR code and the time image data including the time information indicating the time on the display of the information terminal 1. The time display unit of the information terminal 1 is, for example, a time acquired via a communication line, a Japanese standard time (JJY), an absolute time based on a radio wave acquired from a GPS satellite or the like, or a relative time generated by a terminal application (predetermined time). (Time based on the timing of) is displayed. The information terminal 1 may generate a QR code including the presented event ID (that is, the first QR code) as the second QR code, and display the license information separately. Further, the information terminal 1 may transmit the position information indicating the current position specified by the receiver based on the radio wave received from the GPS satellite to the image management device 3.

なお、情報端末1は、第1のQRコードを撮影することなく、現在位置及び現在時刻に基づいて第2のQRコードを生成してもよい。一例として、情報端末1は、現在位置及び現在時刻を画像管理装置3に送信することにより画像管理装置3から取得した登録イベントIDを提示イベントIDとして表示する。登録イベントIDの詳細については後述する。情報端末1は、受信した登録イベントIDを提示イベントIDとして含む第2のQRコードを生成し、生成した第2のQRコードを表示する。この場合、情報端末1のユーザが第1のQRコードを示す物体を撮影する必要がない。 The information terminal 1 may generate a second QR code based on the current position and the current time without photographing the first QR code. As an example, the information terminal 1 displays the registration event ID acquired from the image management device 3 as the presentation event ID by transmitting the current position and the current time to the image management device 3. Details of the registration event ID will be described later. The information terminal 1 generates a second QR code including the received registration event ID as the presentation event ID, and displays the generated second QR code. In this case, the user of the information terminal 1 does not need to photograph the object showing the first QR code.

撮像装置2は、動画像を撮像することができるカメラであり、例えばカムコーダ、デジタルカメラ又はアクションカメラである。撮像装置2は、情報端末1が表示している第2のQRコード、時刻画像、及び第2のQRコードに関連付けられたイベントを撮像する。撮像装置2は、例えば、第2のQRコード及び時刻画像が表示された情報端末1の画面とイベントとを撮像して生成した動画像データを生成する。撮像装置2は、生成した動画像データを、ネットワークNを介して画像管理装置3に送信する。撮像装置2は、現在位置を特定するための電波をGPS衛星のような外部装置から受信する受信機を有しており、特定した現在位置を示す位置情報を画像管理装置3に送信してもよい。 The image pickup device 2 is a camera capable of capturing a moving image, and is, for example, a camcorder, a digital camera, or an action camera. The image pickup device 2 captures the second QR code, the time image, and the event associated with the second QR code displayed by the information terminal 1. The image pickup device 2 generates moving image data generated by imaging the screen and the event of the information terminal 1 on which the second QR code and the time image are displayed, for example. The image pickup apparatus 2 transmits the generated moving image data to the image management apparatus 3 via the network N. The image pickup device 2 has a receiver that receives radio waves for specifying the current position from an external device such as a GPS satellite, and even if the position information indicating the specified current position is transmitted to the image management device 3. good.

画像管理装置3は、イベントが撮像されて生成された撮像画像データを管理するサーバ又はパーソナルコンピュータである。画像管理装置3は、撮像装置2から受信した撮像画像データと予め登録された登録イベントIDとを記憶部に記憶させる。登録イベントIDは、撮像画像データを管理する対象となるイベントを識別するための登録イベント識別情報であり、例えば、イベントの主催者や撮影者などにより画像管理装置3に登録される。 The image management device 3 is a server or a personal computer that manages captured image data generated by capturing an event. The image management device 3 stores the captured image data received from the image pickup device 2 and the pre-registered registration event ID in the storage unit. The registration event ID is registered event identification information for identifying an event for which the captured image data is to be managed, and is registered in the image management device 3 by, for example, the event organizer or the photographer.

画像管理装置3は、受信した動画像データから第2のQRコードを取得する。画像管理装置3は、取得した第2のQRコードから提示イベントIDを抽出する。画像管理装置3は、抽出した提示イベントIDが、予め取得していた登録イベントIDと一致していることを条件として、抽出した第2のQRコードに関連付けられた動画像データを、情報端末に提示する対象である提示対象画像データとして記憶部に記憶させる。 The image management device 3 acquires a second QR code from the received moving image data. The image management device 3 extracts the presentation event ID from the acquired second QR code. The image management device 3 sends the moving image data associated with the extracted second QR code to the information terminal on condition that the extracted presentation event ID matches the registered event ID acquired in advance. It is stored in the storage unit as the presentation target image data to be presented.

ユーザ端末4は、画像管理装置3が管理する動画像データを閲覧するユーザが使用する情報端末であり、例えばパーソナルコンピュータ又はスマートフォンである。情報端末1がユーザ端末4として用いられてもよい。画像管理装置3は、ユーザ端末4から提示対象画像データの閲覧要求を示す閲覧要求情報を受信した場合、受信した閲覧要求情報が登録イベントIDに対応する情報を含むことを条件として提示対象画像データをユーザ端末4に送信する。ユーザ端末4は、送信された提示対象画像データをディスプレイに表示する。 The user terminal 4 is an information terminal used by a user who browses moving image data managed by the image management device 3, and is, for example, a personal computer or a smartphone. The information terminal 1 may be used as the user terminal 4. When the image management device 3 receives the browsing request information indicating the browsing request of the presentation target image data from the user terminal 4, the presentation target image data includes the information corresponding to the registration event ID in the received browsing request information. Is transmitted to the user terminal 4. The user terminal 4 displays the transmitted image data to be presented on the display.

図2は、画像管理システムS1の動作のシーケンスを示す図である。図2に示すシーケンス図は、イベントの会場で、情報端末1を使用するユーザが第1のQRコードを撮影した時点から開始している。図2においては、撮像装置2として撮像装置2a及び撮像装置2bを例示しているが、より多くの撮像装置2があってもよい。 FIG. 2 is a diagram showing a sequence of operations of the image management system S1. The sequence diagram shown in FIG. 2 starts from the time when the user who uses the information terminal 1 shoots the first QR code at the venue of the event. In FIG. 2, the image pickup device 2a and the image pickup device 2b are illustrated as the image pickup device 2, but there may be more image pickup devices 2.

情報端末1は、生成した提示イベントIDと予め設定された利用許諾情報に基づいて第2のQRコードを生成する。情報端末1は、第2のQRコードと時刻を示す時刻情報とを情報端末1のディスプレイに表示する(S11)。 The information terminal 1 generates a second QR code based on the generated presentation event ID and the preset license information. The information terminal 1 displays the second QR code and the time information indicating the time on the display of the information terminal 1 (S11).

撮像装置2aは、第1ユーザが使用する撮像装置であり、情報端末1のディスプレイに表示された第2のQRコードを撮像する(S12)。撮像装置2aは、第2のQRコードを撮像した後にイベントを撮像して動画像データを生成することにより、第2のQRコードと動画像データとを含む撮像画像データを生成する(S13)。撮像装置2aは、生成した撮像画像データである動画像データP1を画像管理装置3に送信する。なお、本実施の形態においては、第2のQRコードに続いてイベントが撮像されることが想定されているが、イベントの画像の途中に第2のQRコードが撮像されてもよい。 The image pickup device 2a is an image pickup device used by the first user, and captures a second QR code displayed on the display of the information terminal 1 (S12). The imaging device 2a generates captured image data including the second QR code and moving image data by capturing an event after capturing the second QR code and generating moving image data (S13). The image pickup device 2a transmits the moving image data P1 which is the generated captured image data to the image management device 3. In the present embodiment, it is assumed that the event is imaged following the second QR code, but the second QR code may be imaged in the middle of the image of the event.

撮像装置2bは、第2ユーザが使用する撮像装置であり、情報端末1のディスプレイに表示された第2のQRコードを撮像する(S14)。撮像装置2bは、第2のQRコードを撮像した後にイベントを撮像して動画像データを生成することにより、第2のQRコードと動画像データとを含む撮像画像データを生成する(S15)。撮像装置2bは、生成した撮像画像データである動画像データP2を画像管理装置3に送信する。 The image pickup device 2b is an image pickup device used by the second user, and captures a second QR code displayed on the display of the information terminal 1 (S14). The imaging device 2b generates captured image data including the second QR code and moving image data by capturing an event after capturing the second QR code and generating moving image data (S15). The image pickup device 2b transmits the moving image data P2, which is the generated captured image data, to the image management device 3.

画像管理装置3は、動画像データP1と動画像データP2とを受信する。画像管理装置3は、第2のQRコードを撮像した画像であるイベント情報画像を、動画像データP1と動画像データP2のそれぞれから取得する。画像管理装置3は、取得した動画像データP1と動画像データP2とのそれぞれのイベント情報画像から動画像データP1と動画像データP2とのそれぞれに対応する提示イベントIDを抽出する(S16)。 The image management device 3 receives the moving image data P1 and the moving image data P2. The image management device 3 acquires an event information image, which is an image obtained by capturing the second QR code, from each of the moving image data P1 and the moving image data P2. The image management device 3 extracts the presentation event IDs corresponding to the moving image data P1 and the moving image data P2 from the respective event information images of the acquired moving image data P1 and the moving image data P2 (S16).

続いて、画像管理装置3は、動画像データP1と動画像データP2とのそれぞれのイベント情報画像から動画像データP1と動画像データP2のそれぞれに対応する利用許諾情報を抽出する(S17)。 Subsequently, the image management device 3 extracts the license information corresponding to each of the moving image data P1 and the moving image data P2 from the event information images of the moving image data P1 and the moving image data P2 (S17).

画像管理装置3は、予め記憶部に記憶されている登録イベントIDと抽出した提示イベントIDとが一致している場合(S18のYES)、抽出した提示イベントIDに対応する動画像データを、当該動画像データに対応する利用許諾情報と関連付けて記憶部に記憶させる(S19)。一方、登録イベントIDと提示イベントIDとが一致しない場合(S18のNO)、画像管理装置は、登録イベントIDと一致しない提示イベントIDに対応する動画像データを記憶部に記憶させずに処理を終了する。 When the registered event ID stored in the storage unit in advance and the extracted presentation event ID match (YES in S18), the image management device 3 uses the moving image data corresponding to the extracted presentation event ID. It is stored in the storage unit in association with the license information corresponding to the moving image data (S19). On the other hand, when the registered event ID and the presented event ID do not match (NO in S18), the image management device performs processing without storing the moving image data corresponding to the presented event ID that does not match the registered event ID in the storage unit. finish.

例えば、登録イベントIDと動画データP1に含まれる提示イベントIDとが「A小学校運動会」を示すデータである場合、画像管理装置3は、動画像データP1に含まれる動画像データと当該動画像データに対応する利用許諾情報とを関連付けて記憶部に記憶させる。一方、登録イベントIDが「A小学校運動会」であり、提示イベントIDが「B小学校運動会」である場合、画像管理装置3は、動画像データP2に含まれる撮像画像データを記憶部に記憶させずに処理を終了する。 For example, when the registered event ID and the presentation event ID included in the moving image data P1 are data indicating "A elementary school athletic meet", the image management device 3 has the moving image data included in the moving image data P1 and the moving image data. It is stored in the storage unit in association with the license information corresponding to. On the other hand, when the registered event ID is "A elementary school athletic meet" and the presented event ID is "B elementary school athletic meet", the image management device 3 does not store the captured image data included in the moving image data P2 in the storage unit. Ends the process.

図3は、情報端末1が第2のQRコードと時刻情報とを表示する場合の画面の一例を示す図である。情報端末1の画面の上段には、第2のQRコードが表示されている。情報端末1の画面の中段には、利用許諾情報である「A小学校運動会6年1組」を示す文字列が表示されている。利用許諾情報「A小学校運動会6年1組」を示すデータは、情報端末1の画面の上段に表示されている第2のQRコードに含まれている。情報端末1の画面の下段には、時刻(現在の時刻又は端末アプリケーションが生成する相対時刻)を示す時刻情報が表示されている。 FIG. 3 is a diagram showing an example of a screen when the information terminal 1 displays the second QR code and the time information. A second QR code is displayed in the upper part of the screen of the information terminal 1. In the middle of the screen of the information terminal 1, a character string indicating "A elementary school athletic meet 6th grade 1 group" which is license information is displayed. The data indicating the license information "A elementary school athletic meet 6th grade 1 group" is included in the second QR code displayed in the upper part of the screen of the information terminal 1. At the bottom of the screen of the information terminal 1, time information indicating the time (current time or relative time generated by the terminal application) is displayed.

図4は、ユーザ端末4が画像管理装置3から取得した提示対象画像データを表示する場合の画面の一例を示す図である。図4に示す画面は、ユーザがイベント終了後にユーザ端末4を用いて閲覧することが想定されている。ユーザ端末4は、例えば画像管理装置3とネットワークNを介して接続されているパーソナルコンピュータである。画面Dには、複数の提示対象画像データP(P1,P2,P3,P4)が表示されている。複数の提示対象画像データPのそれぞれは、撮影者と撮影時刻とを示す情報が同時に表示されている。 FIG. 4 is a diagram showing an example of a screen when the user terminal 4 displays the presentation target image data acquired from the image management device 3. The screen shown in FIG. 4 is assumed to be viewed by the user using the user terminal 4 after the event ends. The user terminal 4 is, for example, a personal computer connected to the image management device 3 via a network N. A plurality of presentation target image data P (P1, P2, P3, P4) are displayed on the screen D. Information indicating the photographer and the shooting time is simultaneously displayed in each of the plurality of presentation target image data Ps.

複数の提示対象画像データPのそれぞれは、利用許諾情報である「A小学校運動会6年1組」を示すデータに関連付けられて記憶部に記憶されている。複数の提示対象画像データPは、画像管理装置3が「A小学校運動会6年1組」を含む閲覧要求情報をユーザ端末4から取得することにより、ユーザ端末4に送信される。 Each of the plurality of image data P to be presented is stored in the storage unit in association with the data indicating "A elementary school athletic meet 6th grade 1 group" which is the license information. The plurality of presentation target image data Ps are transmitted to the user terminal 4 when the image management device 3 acquires the viewing request information including the "A elementary school athletic meet 6th grade 1 group" from the user terminal 4.

このように、撮像装置2が送信する動画像データには提示イベントIDが含まれており、画像管理装置3は、提示イベントIDが登録イベントIDと一致していることを条件として、動画像データを管理する。したがって、ユーザが、例えばイベントの終了後に自宅のユーザ端末4で動画像データを閲覧する場合に、イベントに参加した人がイベントで撮影した画像を閲覧できるが、イベントに参加していない人が不正に送信した画像はユーザ端末4に表示されない。 As described above, the moving image data transmitted by the imaging device 2 includes the presentation event ID, and the image management device 3 provides the moving image data on the condition that the presented event ID matches the registered event ID. To manage. Therefore, for example, when the user browses the moving image data on the user terminal 4 at home after the event ends, the person who participated in the event can browse the image taken at the event, but the person who does not participate in the event is illegal. The image transmitted to is not displayed on the user terminal 4.

また、動画像データには利用許諾情報が含まれており、画像管理装置3は、利用許諾情報が示す範囲に含まれないユーザのユーザ端末4に対しては、動画像データを提供しない。画像管理装置3がこのように動作することで、利用許諾範囲外の人(例えば、「A小学校運動会6年1組」以外の人)に動画像データを見られることを防止できる。 Further, the moving image data includes the license information, and the image management device 3 does not provide the moving image data to the user terminal 4 of the user who is not included in the range indicated by the license information. By operating the image management device 3 in this way, it is possible to prevent people outside the licensed range (for example, people other than "A elementary school athletic meet 6th grade 1 group") from seeing the moving image data.

[情報端末1の構成]
図5は、情報端末1の構成を示す図である。情報端末1は、撮像部10と、記憶部11と、表示部12と、通信部13と、制御部14とを有する。制御部14は、許諾情報生成部141及びコード生成部142を有する。
[Configuration of information terminal 1]
FIG. 5 is a diagram showing the configuration of the information terminal 1. The information terminal 1 has an imaging unit 10, a storage unit 11, a display unit 12, a communication unit 13, and a control unit 14. The control unit 14 has a license information generation unit 141 and a code generation unit 142.

撮像部10は、被写体を撮像する撮像素子を含む。撮像部10は、例えば第1のQRコードを撮像し、第1のQRコードが含まれる撮像画像データを生成する。撮像部10は、作成した撮像画像データをコード生成部142に入力する。 The image pickup unit 10 includes an image pickup element that captures an image of the subject. The imaging unit 10 captures, for example, the first QR code and generates captured image data including the first QR code. The imaging unit 10 inputs the created captured image data to the code generation unit 142.

記憶部11は、ROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体を有する。記憶部11は、制御部14が実行するプログラムを記憶している。記憶部11は、ユーザが表示部12を操作することにより設定した利用許諾情報を記憶する。 The storage unit 11 has a storage medium such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a hard disk. The storage unit 11 stores a program executed by the control unit 14. The storage unit 11 stores the license information set by the user by operating the display unit 12.

表示部12は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等である。表示部12は、制御部14の制御に基づいて第2のQRコードと現在の時刻とを表示する。また、表示部12は、例えば表示部12の表面にタッチパネルを有しており、ユーザがタッチした位置を示す信号に基づいてユーザの操作内容を特定し、特定したユーザの操作内容をコード生成部142に通知する。 The display unit 12 is, for example, a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like. The display unit 12 displays the second QR code and the current time based on the control of the control unit 14. Further, the display unit 12 has, for example, a touch panel on the surface of the display unit 12, specifies the operation content of the user based on the signal indicating the position touched by the user, and generates the operation content of the specified user as a code generation unit. Notify 142.

通信部13は、ネットワークNを介して情報を送信するための通信デバイスを含む。通信デバイスは、例えば無線LANコントローラである。 The communication unit 13 includes a communication device for transmitting information via the network N. The communication device is, for example, a wireless LAN controller.

制御部14は、例えばCPU(Central Processing Unit)である。制御部14は、記憶部11に記憶されているプログラムを実行することにより、許諾情報生成部141及びコード生成部142として機能する。制御部14は、現在の時刻又は端末アプリケーションが生成する相対時刻を示す時刻情報を表示部12に表示させる。 The control unit 14 is, for example, a CPU (Central Processing Unit). The control unit 14 functions as the license information generation unit 141 and the code generation unit 142 by executing the program stored in the storage unit 11. The control unit 14 causes the display unit 12 to display time information indicating the current time or the relative time generated by the terminal application.

許諾情報生成部141は、表示部12から取得したユーザの操作内容に基づいて、提示対象画像データの利用可能範囲を示す利用許諾情報を生成する。許諾情報生成部141は、生成した利用許諾情報を記憶部11に記憶させるとともに、コード生成部142に通知する。 The license information generation unit 141 generates license information indicating the usable range of the image data to be presented, based on the operation content of the user acquired from the display unit 12. The license information generation unit 141 stores the generated license information in the storage unit 11 and notifies the code generation unit 142.

コード生成部142は、撮像部10が生成した撮像画像データに含まれる第1のQRコードから抽出した提示イベントIDと許諾情報生成部141が生成する利用許諾情報に基づいて第2のQRコードを生成する。コード生成部142は、生成した第2のQRコードを表示部12に表示させる。 The code generation unit 142 generates a second QR code based on the presentation event ID extracted from the first QR code included in the captured image data generated by the imaging unit 10 and the license information generated by the license information generation unit 141. Generate. The code generation unit 142 causes the display unit 12 to display the generated second QR code.

[撮像装置2の構成]
図6は、撮像装置2の構成を示す図である。撮像装置2は、撮像部21と、通信部22と、記憶部23と、制御部24とを有する。撮像部21は、CCD(Charge Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子、及びレンズを含む。撮像部21は、レンズに入力された光信号を電気信号に変換した後に当該電気信号をデジタルデータに変換して制御部24に出力する。デジタルデータは、例えば動画像データ又は静止画像データである。
[Configuration of Imaging Device 2]
FIG. 6 is a diagram showing the configuration of the image pickup apparatus 2. The image pickup device 2 includes an image pickup unit 21, a communication unit 22, a storage unit 23, and a control unit 24. The image pickup unit 21 includes an image pickup element such as a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor) sensor, and a lens. The imaging unit 21 converts the optical signal input to the lens into an electric signal, then converts the electric signal into digital data and outputs the electric signal to the control unit 24. The digital data is, for example, moving image data or still image data.

通信部22は、ネットワークNを介して情報を送信するための通信デバイスを含む。通信デバイスは、例えば無線LANコントローラである。通信部22は、例えば無線LAN通信網を用いて、制御部14が生成した動画像データを画像管理装置3に送信する。 The communication unit 22 includes a communication device for transmitting information via the network N. The communication device is, for example, a wireless LAN controller. The communication unit 22 transmits the moving image data generated by the control unit 14 to the image management device 3 by using, for example, a wireless LAN communication network.

記憶部23は、ROM、RAM及びハードディスク等の記憶媒体を有する。記憶部23は、後述する制御部24が実行するプログラムを記憶している。記憶部23は、制御部24の制御に基づいて、撮像部21が撮像した、第2のQRコードと現在の時刻又は端末アプリケーションが生成する相対時刻を示す時刻情報とが表示された情報端末1の画面の画像に基づく動画像データを記憶する。 The storage unit 23 has a storage medium such as a ROM, a RAM, and a hard disk. The storage unit 23 stores a program executed by the control unit 24, which will be described later. The storage unit 23 is an information terminal 1 in which a second QR code imaged by the imaging unit 21 and time information indicating the current time or a relative time generated by the terminal application are displayed under the control of the control unit 24. Stores moving image data based on the screen image of.

制御部24は、例えばCPUである。制御部24は、記憶部23に記憶されているプログラムを実行することにより、画像生成部241及び画像送信部242として機能する。 The control unit 24 is, for example, a CPU. The control unit 24 functions as an image generation unit 241 and an image transmission unit 242 by executing a program stored in the storage unit 23.

画像生成部241は、イベントが行われる会場に提示された提示イベント識別情報である提示イベントIDに関連付けられた動画像データを生成する。また、画像生成部241は、時刻を示す時刻画像データを含む動画像データを生成する。画像生成部241は、例えば、提示イベントIDを含む第2のQRコードの画像データ及び時刻画像データが所定の時間(例えば動画像データの冒頭の時間帯)に含まれている動画像データを生成する。画像生成部241は、第1時間にわたって第2のQRコードの画像データが含まれており、第1時間の前後の第2時間にわたって時刻画像データが含まれた動画像データを生成してもよい。画像生成部241は、生成した撮像画像データを画像送信部242に出力する。 The image generation unit 241 generates moving image data associated with the presentation event ID, which is the presentation event identification information presented at the venue where the event is held. In addition, the image generation unit 241 generates moving image data including time image data indicating the time. The image generation unit 241 generates, for example, moving image data in which the image data and time image data of the second QR code including the presentation event ID are included in a predetermined time (for example, the time zone at the beginning of the moving image data). do. The image generation unit 241 may generate moving image data in which the image data of the second QR code is included for the first time and the time image data is included for the second time before and after the first time. .. The image generation unit 241 outputs the generated captured image data to the image transmission unit 242.

画像送信部242は、画像生成部241から取得した動画像データを、通信部22を介して画像管理装置3に送信する。 The image transmission unit 242 transmits the moving image data acquired from the image generation unit 241 to the image management device 3 via the communication unit 22.

[画像管理装置3の構成]
図7は、画像管理装置3の構成を示す図である。画像管理装置3は、通信部31と、記憶部32と、制御部33とを有する。
[Configuration of image management device 3]
FIG. 7 is a diagram showing the configuration of the image management device 3. The image management device 3 has a communication unit 31, a storage unit 32, and a control unit 33.

通信部31は、インターネット等の通信ネットワークに接続するためのインタフェースであり、ネットワークNを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLANコントローラである。通信部31は、複数の撮像装置2から動画像データを受信する。通信部31は、受信した動画像データに関連付けられる登録イベントIDを情報端末1から受信する。 The communication unit 31 is an interface for connecting to a communication network such as the Internet, and includes a communication device for transmitting and receiving information via the network N. The communication device is, for example, a LAN controller. The communication unit 31 receives moving image data from a plurality of image pickup devices 2. The communication unit 31 receives the registration event ID associated with the received video data from the information terminal 1.

記憶部32は、ROM、RAM及びハードディスク等の記憶媒体を有する。記憶部32は、後述する制御部33が実行するプログラムを記憶している。記憶部32は、複数の撮像装置2から取得した動画像データを記憶する。また、記憶部32は、予め取得した登録イベントID、並びに情報端末1から受信した提示イベントID及び利用許諾情報を記憶する。 The storage unit 32 has a storage medium such as a ROM, a RAM, and a hard disk. The storage unit 32 stores a program executed by the control unit 33, which will be described later. The storage unit 32 stores moving image data acquired from a plurality of image pickup devices 2. Further, the storage unit 32 stores the registration event ID acquired in advance, the presentation event ID received from the information terminal 1, and the license information.

制御部33は、例えばCPUである。制御部33は、記憶部32に記憶されているプログラムを実行することにより、識別情報取得部331、画像データ取得部332、許諾情報取得部333、時刻特定部334、音データ取得部335、同期処理部336、画像管理部337、画像提供部338、操作受付部339として機能する。 The control unit 33 is, for example, a CPU. By executing the program stored in the storage unit 32, the control unit 33 synchronizes with the identification information acquisition unit 331, the image data acquisition unit 332, the permission information acquisition unit 333, the time identification unit 334, the sound data acquisition unit 335, and the synchronization unit 33. It functions as a processing unit 336, an image management unit 337, an image providing unit 338, and an operation receiving unit 339.

識別情報取得部331は、撮像画像データを管理する対象となるイベントを識別するための登録イベント識別情報である登録イベントIDを取得する。識別情報取得部331は、取得した登録イベントIDを画像管理部337に通知する。識別情報取得部331は、例えば、画像管理部337がアクセス可能な記憶部32に記憶させることにより、登録イベントIDを画像管理部337に通知する。 The identification information acquisition unit 331 acquires a registration event ID, which is registration event identification information for identifying an event for which the captured image data is to be managed. The identification information acquisition unit 331 notifies the image management unit 337 of the acquired registration event ID. The identification information acquisition unit 331 notifies the image management unit 337 of the registration event ID by storing it in a storage unit 32 accessible by the image management unit 337, for example.

画像データ取得部332は、撮像装置2から動画像データを取得する。画像データ取得部332は、撮像装置2から取得した動画像データに含まれている情報格納画像データであるイベント情報画像データを解析することにより、イベント情報画像データに含まれている提示イベントIDを特定する。イベント情報画像データは、第2のQRコードが含まれている画像データである。 The image data acquisition unit 332 acquires moving image data from the image pickup apparatus 2. The image data acquisition unit 332 analyzes the event information image data, which is the information storage image data included in the moving image data acquired from the imaging device 2, to obtain the presentation event ID included in the event information image data. Identify. The event information image data is image data including a second QR code.

画像データ取得部332は、第2のQRコードに含まれている提示イベントIDを特定する。画像データ取得部332は、特定した提示イベントIDと動画像データとを画像管理部337に出力する。 The image data acquisition unit 332 identifies the presentation event ID included in the second QR code. The image data acquisition unit 332 outputs the specified presentation event ID and moving image data to the image management unit 337.

また、画像データ取得部332は、時刻を示す時刻画像データを含む動画像データを取得する。時刻画像データは、例えばイベント情報画像に含まれていると同一であってもよい。画像データ取得部332は、取得した時刻を示す時刻画像データを時刻特定部334に出力する。 In addition, the image data acquisition unit 332 acquires moving image data including time image data indicating the time. The time image data may be the same as that included in the event information image, for example. The image data acquisition unit 332 outputs time image data indicating the acquired time to the time identification unit 334.

許諾情報取得部333は、提示対象画像データの利用可能範囲を示す利用許諾情報を取得する。具体的には、許諾情報取得部333は、イベント情報画像を解析することにより利用許諾情報を取得する。より具体的には、許諾情報取得部333は、第2のQRコードに含まれている利用許諾情報を取得する。許諾情報取得部333は、例えば、イベント情報画像に電子透かしデータが含まれている場合、電子透かしデータを解析することにより利用許諾情報を取得してもよい。許諾情報取得部333は、抽出した利用許諾情報を画像管理部337に通知する。 The license information acquisition unit 333 acquires license information indicating the usable range of the image data to be presented. Specifically, the license information acquisition unit 333 acquires the license information by analyzing the event information image. More specifically, the license information acquisition unit 333 acquires the license information included in the second QR code. The license information acquisition unit 333 may acquire the license information by analyzing the digital watermark data, for example, when the event information image contains the digital watermark data. The license information acquisition unit 333 notifies the image management unit 337 of the extracted license information.

なお、許諾情報取得部333は、動画像データを画像データ取得部332に送信した撮像装置2に関連付けられた情報端末1から利用許諾情報を取得し、動画像データと、情報端末1から取得した利用許諾情報とを関連付けて記憶部32に記憶させてもよい。このように動作することで、画像管理装置3は、例えば動画像データを記憶部32に記憶させた後でも動画像データと利用許諾情報とを関連付けることができる。 The license information acquisition unit 333 acquired the license information from the information terminal 1 associated with the imaging device 2 that transmitted the video data to the image data acquisition unit 332, and acquired the video data and the video data from the information terminal 1. You may store it in the storage unit 32 in association with the license information. By operating in this way, the image management device 3 can associate the moving image data with the license information even after the moving image data is stored in the storage unit 32, for example.

さらに、許諾情報取得部333は、動画像データに対応する撮像画像を撮像装置2が撮像した位置を示す第1位置情報である撮像位置情報を、動画像データを送信した撮像装置2から取得してもよい。許諾情報取得部333は、取得した撮像位置情報を画像管理部337に通知する。 Further, the license information acquisition unit 333 acquires the imaging position information, which is the first position information indicating the position where the imaging device 2 has captured the captured image corresponding to the moving image data, from the imaging device 2 that has transmitted the moving image data. You may. The license information acquisition unit 333 notifies the image management unit 337 of the acquired imaging position information.

時刻特定部334は、画像データ取得部332から取得した時刻画像データが示す時刻を特定することにより、当該時刻画像データに対応する動画像データが撮像された時刻を特定する。具体的には、時刻特定部334は、例えば時刻画像データに撮像されている数字の画像を抽出した後に、抽出した数字の画像を数字のデータに変換することにより時刻を特定する。時刻特定部334は、特定した時刻を同期処理部336に通知する。 The time specifying unit 334 specifies the time when the moving image data corresponding to the time image data is captured by specifying the time indicated by the time image data acquired from the image data acquisition unit 332. Specifically, the time specifying unit 334 specifies the time by, for example, extracting the image of the numbers captured in the time image data and then converting the extracted image of the numbers into the data of the numbers. The time specifying unit 334 notifies the synchronization processing unit 336 of the specified time.

音データ取得部335は、複数の動画像データのそれぞれに含まれる時刻画像データが示す時刻に同期した音データを取得する。時刻画像データが示す時刻に同期した音データは、動画像データの撮像と同じ時刻及び同じ場所で集音された音データであり、例えば、「A小学校運動会のリレー競技」の撮像において「リレー開始」の声音及び歓声音を含む音データである。音データ取得部335は、取得した音データを同期処理部336に出力する。なお、音データは、動画像データと同一のデータフレームにより撮像装置2から画像管理装置3に伝送されてもよい。この場合、例えば画像データ取得部332において音データが分離され、画像データ取得部332から音データ取得部335に音データが入力される。 The sound data acquisition unit 335 acquires sound data synchronized with the time indicated by the time image data included in each of the plurality of moving image data. The sound data synchronized with the time indicated by the time image data is sound data collected at the same time and place as the imaging of the moving image data. For example, in the imaging of "A elementary school athletic meet relay competition", "relay start". It is sound data including a voice sound and a cheering sound. The sound data acquisition unit 335 outputs the acquired sound data to the synchronization processing unit 336. The sound data may be transmitted from the imaging device 2 to the image management device 3 by the same data frame as the moving image data. In this case, for example, the sound data is separated by the image data acquisition unit 332, and the sound data is input from the image data acquisition unit 332 to the sound data acquisition unit 335.

音データ取得部335は、取得した音データに関連付けられた提示イベントIDを特定してもよい。音データ取得部335は、例えば、取得した音データに「A小学校運動会のリレー競技を開催します」というアナウンスが含まれていた場合、提示イベントIDを「A小学校運動会」と特定する。音データ取得部335は、特定した提示イベントIDを取得した音データに関連付けて同期処理部336に通知する。 The sound data acquisition unit 335 may specify the presentation event ID associated with the acquired sound data. For example, when the acquired sound data includes an announcement that "a relay competition of A elementary school athletic meet will be held", the sound data acquisition unit 335 specifies the presented event ID as "A elementary school athletic meet". The sound data acquisition unit 335 notifies the synchronization processing unit 336 of the specified presentation event ID in association with the acquired sound data.

同期処理部336は、画像データ取得部332が時刻画像データを含む複数の動画像データを取得した場合、時刻特定部334が特定した動画像データそれぞれの時刻に基づいて、複数の動画像データを同期させる。同期処理部336は、時刻特定部334が特定した時刻に基づいて、当該特定した時刻に対応する動画像データと、当該動画像データと異なる画像データである他データとを同期させる。他データは、例えば、当該動画像データを送信した撮像装置2と異なる撮像装置2が送信した動画像データである。同期処理部336は、画像データ取得部332が取得した動画像データに関連付けられた提示イベントIDと他データに関連付けられた提示イベントIDとが一致していることを条件として、動画像データと他データとを同期させる。 When the image data acquisition unit 332 acquires a plurality of moving image data including the time image data, the synchronization processing unit 336 acquires a plurality of moving image data based on the respective times of the moving image data specified by the time specifying unit 334. Synchronize. The synchronization processing unit 336 synchronizes the moving image data corresponding to the specified time with other data which is image data different from the moving image data, based on the time specified by the time specifying unit 334. The other data is, for example, moving image data transmitted by an imaging device 2 different from the imaging device 2 that transmitted the moving image data. The synchronization processing unit 336 includes the moving image data and others, provided that the presentation event ID associated with the moving image data acquired by the image data acquisition unit 332 and the presentation event ID associated with the other data match. Synchronize with the data.

ここで、同期処理部336が複数の動画像データを同期させる処理について図8を用いて説明する。図8は、同期処理部336が複数の動画像データを同期させる動作について説明するための図である。図8(a)は、画像データ取得部332が取得した複数の動画像データP(P1,P2)を示している。動画像データP1は、例えば撮像装置2aが生成した動画像データであり、動画像データP2は、例えば撮像装置2bが生成した動画像データである。 Here, a process in which the synchronization processing unit 336 synchronizes a plurality of moving image data will be described with reference to FIG. FIG. 8 is a diagram for explaining an operation in which the synchronization processing unit 336 synchronizes a plurality of moving image data. FIG. 8A shows a plurality of moving image data P (P1, P2) acquired by the image data acquisition unit 332. The moving image data P1 is, for example, moving image data generated by the imaging device 2a, and the moving image data P2 is, for example, moving image data generated by the imaging device 2b.

動画像データPのそれぞれは、イベント情報画像データと、イベントの内容を含むイベント画像データとを含む。例えば、動画像データP1は、イベント情報画像データとイベント画像データA11からA14とを含む。イベント画像データA11からA14のそれぞれは、例えば、動画像データを構成する画像フレームである。動画像データのフレームレートが60fpsである場合、1つのイベント画像データの長さは約0.17秒である。図8においては、1つのイベント画像データの長さが0.17秒である場合を例示している。 Each of the moving image data P includes event information image data and event image data including the content of the event. For example, the moving image data P1 includes event information image data and event image data A11 to A14. Each of the event image data A11 to A14 is, for example, an image frame constituting the moving image data. When the frame rate of the moving image data is 60 fps, the length of one event image data is about 0.17 seconds. FIG. 8 illustrates a case where the length of one event image data is 0.17 seconds.

画像データ取得部332が取得した動画像データPは、一例として、イベント情報画像データに含まれる時刻画像データが示す時刻の最小単位よりもフレームが更新される時間間隔が大きい動画像である。具体的には、1秒間に60枚のイベント画像データを有する動画像データの場合、時刻画像データが示す時刻の最小単位は、60分の1秒未満であり、例えば0.01秒である。このように、フレームが更新される時間間隔よりも小さい単位で変化する時刻を取得することで、同期処理部336は、イベント画像データの時刻を特定する精度を高くすることができる。 The moving image data P acquired by the image data acquisition unit 332 is, for example, a moving image in which the time interval in which the frame is updated is larger than the minimum unit of the time indicated by the time image data included in the event information image data. Specifically, in the case of moving image data having 60 event image data per second, the minimum unit of time indicated by the time image data is less than 1/60 second, for example, 0.01 second. In this way, by acquiring the time that changes in units smaller than the time interval in which the frame is updated, the synchronization processing unit 336 can improve the accuracy of specifying the time of the event image data.

イベント情報画像においては、実線矢印の位置で時刻が切り替わる。同期処理部336は、動画像データPのそれぞれの実線矢印が示す時刻を、時刻特定部334が特定した時刻として時刻特定部334から取得する。同期処理部336は、実線矢印が示す時刻を基準として、内部のタイマーにより時間をカウントすることにより、破線矢印で示すように、イベント画像データそれぞれに対応する撮像時刻を特定する。同期処理部336は、例えば、動画像データP1のイベント画像データA11の開始時刻が「10時30分49秒17」であると特定する。 In the event information image, the time is switched at the position of the solid arrow. The synchronization processing unit 336 acquires the time indicated by each solid line arrow of the moving image data P from the time specifying unit 334 as the time specified by the time specifying unit 334. The synchronization processing unit 336 specifies the imaging time corresponding to each event image data as shown by the broken line arrow by counting the time by the internal timer with reference to the time indicated by the solid line arrow. The synchronization processing unit 336 specifies, for example, that the start time of the event image data A11 of the moving image data P1 is "10:30:49:17".

同期処理部336は、イベント画像データごとに撮像時刻を特定してもよく、複数のイベント画像データごとに撮像時刻を特定してもよい。また、同期処理部336は、時刻画像データにおいて時刻が0.01秒ごとに変化する場合、各フレームの撮像時刻を0.01秒単位で特定してもよく、変化する時刻の時間間隔の整数倍ごとに各フレームの撮像時刻を特定してもよい。 The synchronization processing unit 336 may specify the imaging time for each event image data, or may specify the imaging time for each of a plurality of event image data. Further, when the time changes every 0.01 seconds in the time image data, the synchronization processing unit 336 may specify the imaging time of each frame in units of 0.01 seconds, and is an integer of the time interval of the changing time. The imaging time of each frame may be specified for each magnification.

同期処理部336は、同期処理部336が特定したイベント画像データのそれぞれの撮像時刻に基づいて、動画像データPのそれぞれに含まれるイベント画像データの時刻の位置を揃える。 The synchronization processing unit 336 aligns the time positions of the event image data included in each of the moving image data P based on the respective imaging times of the event image data specified by the synchronization processing unit 336.

図8(b)は、同期処理部336が、動画像データPのそれぞれに含まれるイベント画像データの時刻の位置を揃えた状態を示している。提示対象画像データP1は、動画像データP1に対応し、提示対象画像データP2は、動画像データP2に対応する。 FIG. 8B shows a state in which the synchronization processing unit 336 aligns the time positions of the event image data included in each of the moving image data P. The presentation target image data P1 corresponds to the moving image data P1, and the presentation target image data P2 corresponds to the moving image data P2.

同期処理部336は、例えば、イベント画像データA12とイベント画像データB11との撮像時刻が「10時30分49秒34」と特定する。そして、イベント画像データA12とイベント画像データB11とが同じ時刻に画像管理装置3から出力されるように時刻の位置を揃える。このようにして、同期処理部336は、複数の動画像データを同期させる。 The synchronization processing unit 336 specifies, for example, that the imaging time of the event image data A12 and the event image data B11 is “10:30:49:34”. Then, the time positions are aligned so that the event image data A12 and the event image data B11 are output from the image management device 3 at the same time. In this way, the synchronization processing unit 336 synchronizes a plurality of moving image data.

例えば「A小学校運動会の第1競技」を複数の撮像装置が撮像して動画像データを生成する場合、複数の動画像データのそれぞれは、異なる時刻から生成が開始されている可能性が高い。このように、開始時刻が異なる動画像データがユーザ端末4で同時に再生されると、動画像データごとに異なるシーンが表示されてしまう。 For example, when a plurality of imaging devices image the "first competition of the A elementary school athletic meet" and generate moving image data, it is highly possible that the generation of each of the plurality of moving image data is started at different times. In this way, when moving image data having different start times are simultaneously reproduced on the user terminal 4, different scenes are displayed for each moving image data.

そこで、同期処理部336は、時刻特定部334が特定した時刻に対応する動画像データと他データとを同期させることで、同一のシーンに対応する複数の異なる動画像データがユーザ端末4に表示されるようになる。また、同期処理部336は、複数の動画像データのそれぞれに含まれる提示イベントIDが一致することを条件として同期させることで、同じイベントの動画像データがユーザ端末4に表示されるようになる。 Therefore, the synchronization processing unit 336 synchronizes the moving image data corresponding to the time specified by the time specifying unit 334 with other data, so that a plurality of different moving image data corresponding to the same scene is displayed on the user terminal 4. Will be done. Further, the synchronization processing unit 336 synchronizes the presentation event IDs included in each of the plurality of moving image data on the condition that the presented event IDs match, so that the moving image data of the same event is displayed on the user terminal 4. ..

ところで、画像管理装置3は、複数の異なるイベント会場で撮影された動画像データを管理する。画像管理装置3は、例えば「A小学校の第2競技」の動画像データ、及び「B小学校の第1競技」の動画像データを管理する。異なるイベント会場で撮影された動画像データが同時にユーザ端末4に表示されることがない場合、同期処理部336は異なるイベント会場で撮影された動画像データを同期させる必要がない。そこで、同期処理部336は、画像管理装置3が複数のイベントの動画像データを管理する場合に同一の競技を撮像して生成した複数の動画像データを同期させるために、動画像データに関連付けられた提示イベントIDを用いて、同期させる複数の動画像データを特定する。 By the way, the image management device 3 manages moving image data taken at a plurality of different event venues. The image management device 3 manages, for example, the moving image data of the “second competition of A elementary school” and the moving image data of the “first competition of B elementary school”. When the moving image data taken at different event venues is not displayed on the user terminal 4 at the same time, the synchronization processing unit 336 does not need to synchronize the moving image data taken at different event venues. Therefore, the synchronization processing unit 336 associates the moving image data with the moving image data in order to synchronize the plurality of moving image data generated by imaging the same competition when the image management device 3 manages the moving image data of a plurality of events. Using the presented event ID, a plurality of moving image data to be synchronized are specified.

また、同期処理部336は、音データ取得部335が取得した動画像データに関連付けられた音データに基づいて複数の動画像データを同期させてもよい。例えば、音データ取得部335は、動画像データに関連付けられた第1音データと、当該動画像データとは異なる他データに関連付けられた第2音データとを取得する。同期処理部336は、第1音データ及び第2音データの両方に含まれている特徴的な音(例えばピストル音)に対応する画像フレームが一致するように複数の動画像データを同期させてもよい。 Further, the synchronization processing unit 336 may synchronize a plurality of moving image data based on the sound data associated with the moving image data acquired by the sound data acquisition unit 335. For example, the sound data acquisition unit 335 acquires the first sound data associated with the moving image data and the second sound data associated with other data different from the moving image data. The synchronization processing unit 336 synchronizes a plurality of moving image data so that the image frames corresponding to the characteristic sounds (for example, pistol sounds) included in both the first sound data and the second sound data match. May be good.

また、同期処理部336は、複数の動画像データを同期させるか否かの判定に、第1音データ及び第2音データを用いてもよい。音データ取得部335は、第1音データに含まれる音声に基づいて、動画像データが撮像された場所において行われたイベントを識別するための第1提示イベント識別情報である第1提示イベントIDを特定する。続いて、音データ取得部335は、他データが撮像された場所において行われたイベントを識別するための第2提示イベント識別情報である第2イベントIDを特定する。音データ取得部335は、特定した第1イベントIDと第2イベントIDとを同期処理部336に通知する。同期処理部336は、音データ取得部335から取得した第1イベントIDと第2イベントIDとが一致していることを条件として、動画像データと他データとを同期させる。 Further, the synchronization processing unit 336 may use the first sound data and the second sound data for determining whether or not to synchronize a plurality of moving image data. The sound data acquisition unit 335 uses the first presentation event ID, which is the first presentation event identification information for identifying the event performed at the place where the moving image data is captured, based on the sound included in the first sound data. To identify. Subsequently, the sound data acquisition unit 335 identifies the second event ID, which is the second presentation event identification information for identifying the event performed at the place where the other data is captured. The sound data acquisition unit 335 notifies the synchronization processing unit 336 of the specified first event ID and the second event ID. The synchronization processing unit 336 synchronizes the moving image data with other data on condition that the first event ID and the second event ID acquired from the sound data acquisition unit 335 match.

さらに、同期処理部336は、画像データ取得部332が時刻に関連付けられた表示データをさらに取得した場合、動画像データと、時刻特定部334が特定した時刻に関連付けられた表示データとを同期させた状態で合成した合成動画像データを生成してもよい。表示データは、例えば時刻に関連付けられたテキストデータやCG画像データ等であり、一例としてイベントのタイトルを示すテキストデータである。 Further, when the image data acquisition unit 332 further acquires the display data associated with the time, the synchronization processing unit 336 synchronizes the moving image data with the display data associated with the time specified by the time identification unit 334. The composite moving image data synthesized in the state may be generated. The display data is, for example, text data associated with the time of day, CG image data, or the like, and is, for example, text data indicating the title of an event.

図7に戻って、画像管理部337は、撮像装置2が送信する動画像データを管理する。画像管理部337は、識別情報取得部331部から通知された提示イベントIDが、記憶部32に記憶された登録イベントIDと一致していることを条件として、提示イベントIDに関連付けて画像データ取得部332が取得した動画像データをユーザ端末4に提示する対象である提示対象画像データとして記憶部32に記憶させる。 Returning to FIG. 7, the image management unit 337 manages the moving image data transmitted by the image pickup apparatus 2. The image management unit 337 acquires image data in association with the presentation event ID, provided that the presentation event ID notified from the identification information acquisition unit 331 matches the registration event ID stored in the storage unit 32. The moving image data acquired by the unit 332 is stored in the storage unit 32 as the presentation target image data to be presented to the user terminal 4.

すなわち、画像管理部337は、登録イベントIDと同一の提示イベントIDを含む第2のQRコードの画像データが含まれている動画像データを提示対象画像データとして記憶部32に記憶させる。画像管理部337は、登録イベントIDと同一の提示イベントIDを含む第2のQRコードの画像データが含まれていない撮像画像データを提示対象画像データとして記憶部32に記憶させない。画像管理部337は、動画像データを提示対象画像データとして記憶部32に記憶させる場合、許諾情報取得部333から取得した利用許諾情報を動画像データに関連付けて記憶部32に記憶させる。 That is, the image management unit 337 stores the moving image data including the image data of the second QR code including the same presentation event ID as the registration event ID in the storage unit 32 as the presentation target image data. The image management unit 337 does not store the captured image data that does not include the image data of the second QR code including the presentation event ID that is the same as the registration event ID in the storage unit 32 as the presentation target image data. When the image management unit 337 stores the moving image data as the presentation target image data in the storage unit 32, the image management unit 337 stores the license information acquired from the license information acquisition unit 333 in the storage unit 32 in association with the moving image data.

画像管理部337がこのように動作することで、画像管理装置3は、利用許諾情報と閲覧要求情報とに基づいて撮像画像データを送信するかの判定を行うことにより、閲覧可能なユーザを制限することができる。 When the image management unit 337 operates in this way, the image management device 3 limits the users who can browse by determining whether to transmit the captured image data based on the license information and the browsing request information. can do.

画像管理部337は、提示イベントIDにイベントの位置を示す第2位置情報であるイベント位置情報が含まれている場合、イベント位置情報と動画像データに対応する撮像位置情報との差を算出してもよい。その場合、画像管理部337は、算出したイベント位置情報と撮像位置情報との差が所定の範囲内である場合に、動画像データを記憶部32に記憶する。所定の範囲は、例えばイベントが「A小学校の運動会」の場合、A小学校の敷地が含まれる最小の円の直径以下の範囲である。 When the presented event ID includes the event position information which is the second position information indicating the position of the event, the image management unit 337 calculates the difference between the event position information and the imaging position information corresponding to the moving image data. You may. In that case, the image management unit 337 stores the moving image data in the storage unit 32 when the difference between the calculated event position information and the imaging position information is within a predetermined range. The predetermined range is, for example, a range equal to or less than the diameter of the smallest circle including the site of A elementary school when the event is "A elementary school athletic meet".

画像管理部337がこのように動作することで、画像管理装置3は、イベントが開催されている場所で撮像された動画像データを関連付けて記憶することができる。また、画像管理装置3は、提示イベントIDが示すイベントとは異なるイベントを撮像した撮像画像データが関連付けられていたとしても、当該撮像画像データをユーザ端末4に提供することを抑制できる。 By operating the image management unit 337 in this way, the image management device 3 can associate and store the moving image data captured at the place where the event is held. Further, the image management device 3 can suppress the provision of the captured image data to the user terminal 4 even if the captured image data obtained by capturing an event different from the event indicated by the presented event ID is associated with the image management device 3.

また、画像管理部337は、イベントが行われた時間帯から所定の範囲内の時刻に送信された動画像データであることを条件として動画像データを記憶部32に記憶させてもよい。このようにするために、画像管理部337は、例えば、提示イベントIDに対応するイベントが行われた時間帯を示すイベント時間帯情報を情報端末1から取得し、動画像データを受信した時刻を示す受信時刻を画像データ取得部332から取得する。画像管理部337は、取得した受信時刻が、取得したイベント時間帯情報が示す時間帯に基づく所定の範囲内である場合に、動画像データを記憶部32に記憶させる。 Further, the image management unit 337 may store the moving image data in the storage unit 32 on condition that the moving image data is transmitted at a time within a predetermined range from the time zone in which the event was performed. In order to do so, for example, the image management unit 337 acquires the event time zone information indicating the time zone in which the event corresponding to the presented event ID is performed from the information terminal 1, and sets the time when the moving image data is received. The indicated reception time is acquired from the image data acquisition unit 332. The image management unit 337 stores the moving image data in the storage unit 32 when the acquired reception time is within a predetermined range based on the time zone indicated by the acquired event time zone information.

イベント時間帯情報が示す時間帯に基づく所定の範囲は、例えば「A小学校の運動会」が開始された時刻から、「A小学校の運動会」が終了してから1時間が経過した時刻までの時間帯である。画像管理部337がこのように動作することで、イベントに関係ない動画像データが誤って記憶部32に記憶されることが抑制される。 The predetermined range based on the time zone indicated by the event time zone information is, for example, the time zone from the time when the "athletic meet of A elementary school" is started to the time when one hour has passed since the end of the "athletic meet of A elementary school". Is. By operating the image management unit 337 in this way, it is possible to prevent the moving image data not related to the event from being erroneously stored in the storage unit 32.

画像提供部338は、ネットワークNを介してユーザ端末4に提示対象画像を送信する。画像提供部338は、例えば、提示対象画像データの閲覧要求を示す閲覧要求情報をユーザ端末4から受信した場合に、閲覧要求情報が登録イベントIDに対応する情報を含むことを条件として提示対象画像データをユーザ端末4に送信する。 The image providing unit 338 transmits the image to be presented to the user terminal 4 via the network N. For example, when the image providing unit 338 receives the browsing request information indicating the browsing request of the presentation target image data from the user terminal 4, the presentation target image is provided on the condition that the browsing request information includes the information corresponding to the registration event ID. The data is transmitted to the user terminal 4.

具体的には、例えば登録イベントIDが「A小学校運動会」であり、閲覧要求情報が「A小学校運動会6年1組」である場合、閲覧要求情報は登録イベントIDに対応する情報を含む。この場合、画像提供部338は、ユーザ端末4から受信した閲覧要求情報である「A小学校運動会6年1組」に基づいて、ユーザ端末4に提示対象画像データを送信する。 Specifically, for example, when the registration event ID is "A elementary school athletic meet" and the browsing request information is "A elementary school athletic meet 6th grade 1 group", the browsing request information includes information corresponding to the registration event ID. In this case, the image providing unit 338 transmits the image data to be presented to the user terminal 4 based on the "A elementary school athletic meet 6th grade 1 group" which is the browsing request information received from the user terminal 4.

画像提供部338は、閲覧要求情報を情報端末から受信した場合に、利用許諾情報が示す利用可能範囲であることを閲覧要求情報が示していることを条件として、提示対象画像データを情報端末に送信してもよい。具体的には、例えば利用許諾情報が「A小学校6年1組」であり、閲覧要求情報が「A小学校運動会6年1組」である場合、画像提供部338は、利用許諾情報が示す利用可能範囲を閲覧要求情報が示していると判定する。その結果、情報端末から受信した閲覧要求情報である「A小学校運動会6年1組」に基づいて、情報端末に提示対象画像データを送信する。 When the browsing request information is received from the information terminal, the image providing unit 338 sends the presentation target image data to the information terminal on condition that the browsing request information indicates that it is within the usable range indicated by the license information. You may send it. Specifically, for example, when the license information is "A elementary school 6th grade 1 group" and the browsing request information is "A elementary school athletic meet 6th grade 1 group", the image providing unit 338 uses the usage indicated by the license information. It is determined that the viewing request information indicates the possible range. As a result, the image data to be presented is transmitted to the information terminal based on the "A elementary school athletic meet 6th grade 1 group" which is the browsing request information received from the information terminal.

画像提供部338は、複数の提示対象画像データをユーザ端末4に送信する場合、同期処理部336が同期させた複数の動画像データと他データとをユーザ端末4に提供する。画像提供部338は、同期処理部336が動画像データと音データとを同期させた場合、複数の動画像データと音データとを同期させた状態でユーザ端末4に提供する。 When transmitting a plurality of presentation target image data to the user terminal 4, the image providing unit 338 provides the user terminal 4 with a plurality of moving image data and other data synchronized by the synchronization processing unit 336. When the synchronization processing unit 336 synchronizes the moving image data and the sound data, the image providing unit 338 provides the user terminal 4 with the plurality of moving image data and the sound data synchronized.

画像提供部338は、複数の動画像データと音データとを同期させた状態でユーザ端末4に提供する場合、例えば、複数の音データから1つを選択し、選択した音データと複数の動画像データとを関連付けて提供する。音は伝搬速度が光よりも遅いため、動画像データに対する音データの遅延時間は撮影場所によって異なる。画像提供部338が1つの音データをユーザ端末4に提供することで、少しだけずれた複数の音が再生されて聞きづらくなってしまうことを防止できる。画像提供部338は、例えば、複数の音データのうち最も早いタイミングの音データを選択する。このように動作することで、画像提供部338は、動画像データに対する音の遅延の少ない音をユーザ端末4に提供できる。 When the image providing unit 338 provides a plurality of moving image data and sound data to the user terminal 4 in a synchronized state, for example, one is selected from a plurality of sound data, and the selected sound data and a plurality of moving images are selected. Provided in association with image data. Since sound propagates slower than light, the delay time of sound data with respect to moving image data differs depending on the shooting location. By providing one sound data to the user terminal 4 by the image providing unit 338, it is possible to prevent a plurality of sounds slightly deviated from being reproduced and becoming difficult to hear. The image providing unit 338 selects, for example, the sound data having the earliest timing among the plurality of sound data. By operating in this way, the image providing unit 338 can provide the user terminal 4 with a sound having a small delay in the sound with respect to the moving image data.

また、画像提供部338は、例えば、画像データ取得部332が取得した動画像データが変化するタイミングに最も近いタイミングで変化する音データを選択してもよい。例えば、動画像データに「リレー開始」の合図を示す画像が含まれているとする。その場合、「リレー開始」の声音が含まれている音データのうち、「リレー開始」の合図を示す画像の時刻に最も近いタイミングで「リレー開始」の声音が含まれている音データ(すなわち、「リレー開始」という声を出している人に最も近い位置の撮像装置2で取得された音データ)を選択する。このように動作することで、画像管理装置3は、ユーザに、動画像データと音データとの時刻の差による違和感を与えづらくすることができる。 Further, the image providing unit 338 may select, for example, sound data that changes at a timing closest to the timing at which the moving image data acquired by the image data acquisition unit 332 changes. For example, it is assumed that the moving image data includes an image indicating a signal of "relay start". In that case, among the sound data including the voice sound of "relay start", the sound data including the voice sound of "relay start" at the timing closest to the time of the image indicating the signal of "relay start" (that is, , The sound data acquired by the image pickup device 2 at the position closest to the person who is saying "relay start") is selected. By operating in this way, the image management device 3 can make it difficult for the user to feel a sense of discomfort due to the time difference between the moving image data and the sound data.

さらに、画像提供部338は、取得した複数の集音位置情報が示す複数の位置のうち、取得した被写体位置情報が示す位置に最も近い位置に対応する集音位置情報に関連付けられた音データを選択してもよい。このようにするために、画像提供部338は、音データ取得部335が取得した複数の音データそれぞれが集音された位置を示す複数の集音位置情報を取得する。画像提供部338は、画像データ取得部332が取得した動画像データに含まれる被写体の位置を示す被写体位置情報を取得する。このように動作することで、動画像データに対する音の遅延の少ない音を提供できる。この構成は、例えばコンサート会場のステージで歌手の歌声を集音する場合に好適である。 Further, the image providing unit 338 obtains sound data associated with the sound collecting position information corresponding to the position closest to the position indicated by the acquired subject position information among the plurality of positions indicated by the acquired plurality of sound collecting position information. You may choose. In order to do so, the image providing unit 338 acquires a plurality of sound collecting position information indicating the positions where each of the plurality of sound data acquired by the sound data acquiring unit 335 is collected. The image providing unit 338 acquires subject position information indicating the position of the subject included in the moving image data acquired by the image data acquisition unit 332. By operating in this way, it is possible to provide sound with less delay in sound with respect to moving image data. This configuration is suitable, for example, when collecting the singing voice of a singer on the stage of a concert hall.

画像提供部338は、記憶部32に記憶された動画像データである提示対象画像データが時刻画像データを含む場合、動画像データのうち時刻画像データを除く部分動画像データをユーザ端末4に提供してもよい。例えば動画像データの冒頭部分に時刻画像データが含まれている場合、画像提供部338は、時刻画像データが終了した後にイベントが撮影された部分の動画像データをユーザ端末4に提供する。また、画像提供部338は、同期処理部336が、動画像データにテキストデータ又はCG画像データが合成された合成動画像データを生成した場合、生成された合成動画像データをユーザ端末4に送信する。 When the presentation target image data, which is the moving image data stored in the storage unit 32, includes the time image data, the image providing unit 338 provides the user terminal 4 with partial moving image data excluding the time image data among the moving image data. You may. For example, when the time image data is included in the beginning portion of the moving image data, the image providing unit 338 provides the moving image data of the portion where the event is taken after the time image data is completed to the user terminal 4. Further, when the synchronization processing unit 336 generates the composite moving image data in which the text data or the CG image data is combined with the moving image data, the image providing unit 338 transmits the generated composite moving image data to the user terminal 4. do.

操作受付部339は、ユーザ端末4から閲覧の要求と提示対象画像を取得するために行う操作とを受け付ける。操作受付部339は、受け付けた要求及び操作を画像提供部338に通知する。 The operation reception unit 339 receives a browsing request from the user terminal 4 and an operation performed to acquire the image to be presented. The operation reception unit 339 notifies the image providing unit 338 of the received request and operation.

操作受付部339は、提示対象画像データに音データが関連付けられている場合、提示対象画像データである動画像データに関連付けられた音データを取得するか、動画像データに関連付けられていない音データを取得するかを受け付ける。操作受付部339は、受け付けた操作を音データ取得部335に通知する。 When the sound data is associated with the image data to be presented, the operation reception unit 339 acquires the sound data associated with the moving image data which is the image data to be presented, or the sound data not associated with the moving image data. Accepts whether to get. The operation reception unit 339 notifies the sound data acquisition unit 335 of the received operation.

[画像管理部337の動作]
図9は、画像管理装置3が動画像データを記憶部32に記憶させる動作のフローチャートである。画像管理部337は、例えばイベントの主催者から登録イベントIDを取得して、記憶部32に記憶させる(S31)。画像管理部337は、登録イベントIDに関連付けて、イベントの開催時間帯及びイベントの開催場所等の情報を記憶部32に記憶させてもよい。その後、イベントが始まると、画像データ取得部332は動画像データの取得を開始する。画像データ取得部332は、撮像装置2から動画像データを受信した場合(S32のYES)、当該動画像データに含まれている提示イベントIDを抽出する(S33)。
[Operation of image management unit 337]
FIG. 9 is a flowchart of an operation in which the image management device 3 stores moving image data in the storage unit 32. The image management unit 337 acquires, for example, a registered event ID from the event organizer and stores it in the storage unit 32 (S31). The image management unit 337 may store information such as the event holding time zone and the event holding place in the storage unit 32 in association with the registered event ID. After that, when the event starts, the image data acquisition unit 332 starts acquiring the moving image data. When the image data acquisition unit 332 receives the moving image data from the imaging device 2 (YES in S32), the image data acquisition unit 332 extracts the presentation event ID included in the moving image data (S33).

続いて、許諾情報取得部333は、提示対象画像の利用可能範囲を示す利用許諾情報を取得する(S34)。許諾情報取得部333は、画像データ取得部332が取得した動画像データに含まれている情報格納画像を解析することにより利用許諾情報を取得する。動画像データに含まれている情報格納画像に電子透かしデータが含まれている場合、許諾情報取得部333は、当該電子透かしデータを解析することにより利用許諾情報を取得する。 Subsequently, the license information acquisition unit 333 acquires the license information indicating the usable range of the image to be presented (S34). The license information acquisition unit 333 acquires the license information by analyzing the information storage image included in the moving image data acquired by the image data acquisition unit 332. When the digital watermark data is included in the information storage image included in the moving image data, the license information acquisition unit 333 acquires the license information by analyzing the digital watermark data.

続いて、画像管理部337は、記憶部32に記憶された登録イベントIDと動画像データから抽出された提示イベントIDとが一致するか否かを判定する(S35)。登録イベントIDと提示イベントIDとが一致する場合(S35のYES)、画像管理部337は、取得した動画像データが撮像された位置を特定する処理に進む。登録イベントIDと提示イベントIDとが一致しない場合(S35のNO)、画像管理部337は、当該提示イベントIDに対応する動画像データを記憶部32に記憶させずに処理を終了する。 Subsequently, the image management unit 337 determines whether or not the registered event ID stored in the storage unit 32 and the presentation event ID extracted from the moving image data match (S35). When the registered event ID and the presented event ID match (YES in S35), the image management unit 337 proceeds to the process of specifying the position where the acquired moving image data is captured. When the registered event ID and the presented event ID do not match (NO in S35), the image management unit 337 ends the process without storing the moving image data corresponding to the presented event ID in the storage unit 32.

続いて、許諾情報取得部333は、動画像データに対応する撮像画像に対応する位置を示す第1位置情報である撮像位置情報を撮像装置2から取得する。画像管理部337は、当該撮像位置情報が示す位置と、提示イベントIDに含まれるイベントの位置を示す第2位置情報であるイベント位置情報が示す位置との差を算出する。 Subsequently, the license information acquisition unit 333 acquires the imaging position information, which is the first position information indicating the position corresponding to the captured image corresponding to the moving image data, from the imaging device 2. The image management unit 337 calculates the difference between the position indicated by the imaging position information and the position indicated by the event position information which is the second position information indicating the position of the event included in the presentation event ID.

撮像位置情報が示す位置とイベント位置情報が示す位置との差が閾値以下であり、撮影した位置が所定の範囲内である場合(S36のYES)、画像管理部337は、取得した動画像データを撮像した時間を特定する処理に進む。撮像位置情報が示す位置とイベント位置情報が示す位置との差が閾値以下ではない場合(S36のNO)、画像管理部337は、撮像位置情報を含む提示イベントIDに対応する動画像データを記憶部32に記憶させずに処理を終了する。 When the difference between the position indicated by the imaging position information and the position indicated by the event position information is equal to or less than the threshold value and the captured position is within a predetermined range (YES in S36), the image management unit 337 may use the acquired moving image data. Proceed to the process of specifying the time when the image was taken. When the difference between the position indicated by the imaging position information and the position indicated by the event position information is not equal to or less than the threshold value (NO in S36), the image management unit 337 stores the moving image data corresponding to the presentation event ID including the imaging position information. The process ends without being stored in the unit 32.

続いて、画像管理部337は、動画像データを受信した時刻を示す受信時刻を取得する。そして、画像管理部337は、取得した受信時刻が、予め記憶部32に記憶されたイベント時間帯情報が示す時間帯に基づいて定められた所定の範囲内である場合(S37のYES)、受信時刻に対応する提示イベントIDに関連付けられた動画像データを記憶部32に記憶させる(S38)。 Subsequently, the image management unit 337 acquires a reception time indicating the time when the moving image data is received. Then, when the acquired reception time is within a predetermined range determined based on the time zone indicated by the event time zone information stored in the storage unit 32 in advance (YES in S37), the image management unit 337 receives the data. The moving image data associated with the presentation event ID corresponding to the time is stored in the storage unit 32 (S38).

なお、図9に示すフローチャートにおいては、S36及びS37において、撮影位置及び撮影時間帯が所定の範囲内であることを条件として画像管理部337が動画像データを記憶部32に記憶させたが、画像管理部337はS36及びS37を実行しなくてもよい。すなわち、画像管理部337は、登録イベントIDと提示イベントIDとが一致すると判定したことに応じて、動画像データを記憶部32に記憶させてもよい。 In the flowchart shown in FIG. 9, in S36 and S37, the image management unit 337 stores the moving image data in the storage unit 32 on the condition that the shooting position and the shooting time zone are within a predetermined range. The image management unit 337 does not have to execute S36 and S37. That is, the image management unit 337 may store the moving image data in the storage unit 32 in response to the determination that the registered event ID and the presented event ID match.

[同期処理部336の動作]
上述したように、複数のイベント参加者が撮像した画像のそれぞれは、撮像を開始した時刻が異なる。そのため、閲覧要求を送信したユーザは、イベントに関連付けられた動画像データだけを閲覧できたとしても、動画像データのそれぞれの開始時刻の差により音や動画像がずれてしまうので、複数の動画像を同時に閲覧しづらい。複数の動画像を同時に閲覧しやすくするために、同期処理部336が複数の動画像データを同期させる処理について、次に説明する。
[Operation of synchronization processing unit 336]
As described above, the images captured by the plurality of event participants have different times when the imaging starts. Therefore, even if the user who sent the viewing request can view only the moving image data associated with the event, the sound and the moving image will be shifted due to the difference in the start time of each of the moving image data. It is difficult to view the statue at the same time. Next, a process in which the synchronization processing unit 336 synchronizes a plurality of moving image data in order to facilitate viewing of a plurality of moving images at the same time will be described.

図10は、画像管理装置3が複数の動画像データを同期させてユーザ端末4に送信する動作のフローチャートである。画像データ取得部332は、複数の撮像装置2から複数の動画像データを取得する(S41)。画像データ取得部332は、取得した複数の動画像データのそれぞれに含まれるイベント情報画像データを取得する(S42)。画像データ取得部332は、取得した複数のイベント情報画像データのそれぞれを解析することにより、複数のイベント情報画像データのそれぞれに含まれている複数の提示イベントIDを特定する(S43)。 FIG. 10 is a flowchart of an operation in which the image management device 3 synchronizes a plurality of moving image data and transmits the moving image data to the user terminal 4. The image data acquisition unit 332 acquires a plurality of moving image data from the plurality of imaging devices 2 (S41). The image data acquisition unit 332 acquires event information image data included in each of the acquired plurality of moving image data (S42). The image data acquisition unit 332 identifies a plurality of presentation event IDs included in each of the plurality of event information image data by analyzing each of the acquired plurality of event information image data (S43).

画像データ取得部332は、取得した複数のイベント情報画像データを時刻特定部334に出力する。時刻特定部334は、取得した複数のイベント情報画像データのそれぞれが示す時刻を特定する。 The image data acquisition unit 332 outputs the acquired plurality of event information image data to the time identification unit 334. The time specifying unit 334 specifies the time indicated by each of the acquired plurality of event information image data.

同期処理部336は、画像データ取得部332が特定した複数の提示イベントIDが一致していると判定した場合(S44のYES)、時刻特定部334が特定した複数の動画像データのそれぞれが撮像された時刻を取得する(S45)。 When the synchronization processing unit 336 determines that the plurality of presented event IDs specified by the image data acquisition unit 332 match (YES in S44), each of the plurality of moving image data specified by the time specifying unit 334 is captured. The time set is acquired (S45).

同期処理部336は、画像データ取得部332が取得した複数の動画像データのそれぞれに含まれるイベント画像データに対応する撮像時刻を、時刻特定部334が特定した時刻に基づいて特定する(S46)。同期処理部336は、特定した撮像時刻に基づいて、複数の動画像データのそれぞれに含まれる複数の画像フレームにおける、時刻が一致する画像フレームを特定する(S47)。 The synchronization processing unit 336 specifies the imaging time corresponding to the event image data included in each of the plurality of moving image data acquired by the image data acquisition unit 332 based on the time specified by the time specifying unit 334 (S46). .. Based on the specified imaging time, the synchronization processing unit 336 identifies the image frames having the same time in the plurality of image frames included in each of the plurality of moving image data (S47).

同期処理部336は、時刻が一致する画像フレームが同じタイミングで再生されるように、複数の動画像データの位置を揃える(S48)。画像管理部337は、位置が揃えられた複数の動画像データを記憶部32に記憶させる(S49)。 The synchronization processing unit 336 aligns the positions of a plurality of moving image data so that the image frames having the same time are reproduced at the same timing (S48). The image management unit 337 stores a plurality of moving image data whose positions are aligned in the storage unit 32 (S49).

[音データの選択]
図11は、画像提供部338が複数の動画像データと音データとを同期させた状態でユーザ端末4に送信する動作について説明するための図である。図11(a)は、画像データ取得部332が取得した複数の動画像データP(P1,P2)と、音データ取得部335が取得した複数の音データM(M1,M2)を示している。複数の動画像データPについては、図8(a)と同じである。
[Sound data selection]
FIG. 11 is a diagram for explaining an operation in which the image providing unit 338 transmits a plurality of moving image data and sound data to the user terminal 4 in a synchronized state. FIG. 11A shows a plurality of moving image data P (P1, P2) acquired by the image data acquisition unit 332 and a plurality of sound data M (M1, M2) acquired by the sound data acquisition unit 335. .. The plurality of moving image data P are the same as those in FIG. 8 (a).

音データM1は、動画像データP1に関連付けられた音データである。音データ取得部335は、例えば、画像データ取得部332が動画像データP1に含まれるイベント画像データA11を取得した時刻と同じ時刻にイベント音データE11を取得する。 The sound data M1 is sound data associated with the moving image data P1. The sound data acquisition unit 335 acquires the event sound data E11 at the same time as the time when the image data acquisition unit 332 acquires the event image data A11 included in the moving image data P1, for example.

音データM2は、動画像データP2に関連付けられた音データである。音データ取得部335は、例えば、画像データ取得部332が動画像データP2に含まれるイベント画像データB11を取得した時刻より遅れてイベント音データF11を取得する。 The sound data M2 is sound data associated with the moving image data P2. The sound data acquisition unit 335 acquires the event sound data F11 later than the time when the image data acquisition unit 332 acquires the event image data B11 included in the moving image data P2, for example.

図11(b)は、画像提供部338がユーザ端末4に送信する複数の動画像データと音データとを示している。提示対象画像データP1は、動画像データP1に対応し、提示対象画像データP2は、動画像データP2に対応し、提示対象音データM1は、音データM1に対応する。 FIG. 11B shows a plurality of moving image data and sound data transmitted by the image providing unit 338 to the user terminal 4. The presentation target image data P1 corresponds to the moving image data P1, the presentation target image data P2 corresponds to the moving image data P2, and the presentation target sound data M1 corresponds to the sound data M1.

画像提供部338は、例えば、同期処理部336から取得した複数の動画像データPに同期した複数の音データMのうち、動画像データに対して遅延が少ない音データを選択する。図11(b)においては、音データM1と動画像データP1との遅延よりも音データM2と動画像データP2との遅延が大きい。したがって、画像提供部338は、音データM1を選択して複数の提示対象画像データに関連付けてユーザ端末4に出力する。 The image providing unit 338 selects, for example, sound data having a smaller delay with respect to the moving image data from a plurality of sound data M synchronized with the plurality of moving image data P acquired from the synchronization processing unit 336. In FIG. 11B, the delay between the sound data M2 and the moving image data P2 is larger than the delay between the sound data M1 and the moving image data P1. Therefore, the image providing unit 338 selects the sound data M1, associates it with the plurality of presentation target image data, and outputs the sound data to the user terminal 4.

ところで、画像提供部338は、音データに関連付けられる動画像データの時刻に基づいて音データを選択してもよい。具体的には、複数の動画像データのうち、特定した時刻が早い動画像データに関連付けられた音データを選択してユーザ端末4に出力してもよい。 By the way, the image providing unit 338 may select the sound data based on the time of the moving image data associated with the sound data. Specifically, the sound data associated with the moving image data having the earlier specified time may be selected from the plurality of moving image data and output to the user terminal 4.

画像提供部338は、例えば、コンサートのように演奏曲の開始タイミングで複数の動画像データが同時に撮像される場合、画像提供部338は、動画像データと音データとの遅延が少ない音データを選択する。一方、運動会のように、撮影者によって撮像を開始するタイミングが異なる場合は、開始時刻が早い動画像データに関連付けられた音データを選択する。画像提供部338は、例えば操作受付部339が受け付けた操作内容に基づいて、どのような音データを選択するかを決定してもよい。画像提供部338がこのように動作することで、動画像データが撮像されるイベントの内容に適した音データを選択することができる。 When a plurality of moving image data are simultaneously imaged at the start timing of a performance song, for example, in the image providing unit 338, the image providing unit 338 outputs sound data with a small delay between the moving image data and the sound data. select. On the other hand, when the timing of starting imaging differs depending on the photographer, such as at an athletic meet, sound data associated with moving image data having an earlier start time is selected. The image providing unit 338 may determine what kind of sound data is selected based on, for example, the operation content received by the operation receiving unit 339. By operating the image providing unit 338 in this way, it is possible to select sound data suitable for the content of the event in which the moving image data is captured.

[変形例1]
以上の説明においては、画像管理装置3が、運動会等のイベント会場で撮影された動画像データと当該動画像データに関連付けられた音データとをユーザ端末4に提供する用途で用いられる場合を例示したが、画像管理装置3の用途はこれに限らない。イベントが、一人又は複数のユーザが自宅や店舗等で歌や踊りを撮影するものであり、自宅や店舗等がイベント会場であってもよい。この場合、画像管理装置3は、音楽に合わせて人が歌う動く場面が撮影された動画像データと音楽データとをユーザ端末4に提供する用途で用いられている。音楽データは、例えば、ユーザが単独で開催するイベントを識別するためのイベント識別情報や動画像データに関連付けられた音データに含まれる音楽と同じであり、撮影場所とは異なる場所で録音または集音されたデータである。音楽データは、画像管理装置3が予め記憶部32に記憶させていてもよい。
[Modification 1]
In the above description, the case where the image management device 3 is used for providing the moving image data taken at an event venue such as an athletic meet and the sound data associated with the moving image data to the user terminal 4 is exemplified. However, the application of the image management device 3 is not limited to this. The event is for one or more users to shoot a song or dance at their home or store, and the home or store may be the event venue. In this case, the image management device 3 is used for providing the user terminal 4 with moving image data and music data obtained by capturing a moving scene in which a person sings in time with music. The music data is the same as the music included in the sound data associated with the event identification information or the moving image data for identifying the event held independently by the user, and is recorded or collected at a place different from the shooting place. It is the sounded data. The music data may be stored in the storage unit 32 in advance by the image management device 3.

図12は、動画像データに含まれる時刻情報に関連付けられた音楽データを提供する場合の画像管理装置3の構成を示す図である。図12の画像管理装置3は、音楽データ取得部340を有する点で図7に示す画像管理装置3と異なり、他の点において同じである。 FIG. 12 is a diagram showing a configuration of an image management device 3 when providing music data associated with time information included in moving image data. The image management device 3 of FIG. 12 is different from the image management device 3 shown in FIG. 7 in that it has a music data acquisition unit 340, and is the same in other respects.

音楽データ取得部340は、時刻に関連付けられた第1音楽データを取得する。同期処理部336は、取得した第1音楽データと動画像データとを同期させる。同期処理部336は、動画像データと、時刻特定部334が特定した時刻に関連付けられた第1音楽データとを同期させた状態で、第1音楽データと動画像データとを合成させた合成動画コンテンツを生成する。画像提供部338は、同期処理部336が生成した合成動画コンテンツをユーザ端末4に出力する。 The music data acquisition unit 340 acquires the first music data associated with the time. The synchronization processing unit 336 synchronizes the acquired first music data with the moving image data. The synchronization processing unit 336 synchronizes the moving image data with the first music data associated with the time specified by the time specifying unit 334, and synthesizes the first music data and the moving image data. Generate content. The image providing unit 338 outputs the synthetic moving image content generated by the synchronization processing unit 336 to the user terminal 4.

以下、画像管理装置3が、例えば、音楽、伴奏、又は器楽曲に合わせて歌っているシーンが撮像されて生成された動画像データに音楽データが合成された合成動画コンテンツをユーザ端末4に提供する場合の処理を説明する。 Hereinafter, the image management device 3 provides the user terminal 4 with a composite moving image content in which music data is synthesized with moving image data generated by capturing an image of a scene singing along with music, accompaniment, or instrumental music, for example. The processing in the case of doing so will be described.

動画像データの撮影者であるユーザは、撮像装置2において、ユーザ自身もしくは第三者が設定した基準時刻に対する所定の相対時刻が到来した場合に自身の情報端末1にて第1音楽データと同じ時刻情報に関連付けられた第2音楽データが再生されるように設定しておく。基準時刻は、例えばユーザが情報端末1において所定のアプリケーションソフトウェアの音楽再生機能を起動した時刻であり、音楽再生機能が起動すると、情報端末1は、−10秒、−9秒、・・・のように変化する相対時刻を表示する。情報端末1は、相対時刻の表示を開始してから所定の時間が経過した後に音楽の再生を開始する。例えば、相対時刻の表示を開始してから10秒が経過して相対時刻が0秒になった時点で第2音楽データの再生を開始する。 The user who is the photographer of the moving image data is the same as the first music data on his / her own information terminal 1 when a predetermined relative time with respect to the reference time set by the user himself / herself or a third party arrives in the imaging device 2. The second music data associated with the time information is set to be played. The reference time is, for example, the time when the user activates the music playback function of the predetermined application software on the information terminal 1, and when the music playback function is activated, the information terminal 1 has -10 seconds, -9 seconds, ... Display the relative time that changes as in. The information terminal 1 starts playing music after a predetermined time has elapsed after starting the display of the relative time. For example, when 10 seconds have elapsed from the start of displaying the relative time and the relative time reaches 0 seconds, the reproduction of the second music data is started.

ユーザは、音楽作成機能を起動させた後に、自身の情報端末1に表示された時刻画像データを撮像装置2で撮影してから、ユーザ自身が写るように撮像装置2をセットする。ユーザは、情報端末1が第2音楽データの再生を開始すると、ユーザ自身が撮影されている状態で、第2音楽データに基づく音楽に合わせて自身が歌い始める。撮像装置2は、このようにして作成した動画像データを画像管理装置3に送信する。 After activating the music creation function, the user captures the time image data displayed on the information terminal 1 of the user with the image pickup device 2, and then sets the image pickup device 2 so that the user himself / herself is photographed. When the information terminal 1 starts playing the second music data, the user starts singing along with the music based on the second music data while the user himself / herself is being photographed. The image pickup apparatus 2 transmits the moving image data thus created to the image management apparatus 3.

このような動画像データには、第2音楽データに基づく音楽以外の環境音も含まれているので、このままでは動画コンテンツとしての質が低い。そこで、画像管理装置3は、動画像データに関連付けられている音データを、第2音楽データに対応する第1音楽データに置換することで、質の高い合成動画コンテンツを生成する。 Since such moving image data includes environmental sounds other than music based on the second music data, the quality of the moving image content is low as it is. Therefore, the image management device 3 generates high-quality synthetic moving image content by replacing the sound data associated with the moving image data with the first music data corresponding to the second music data.

撮像装置2から画像管理装置3に動画像データが送信されると、画像データ取得部332は、第1音楽データに対応する第2音楽データに基づく音楽を情報端末1で再生する前に情報端末1に表示された時刻画像データを含む動画像データを取得する。ここで用いられる時刻画像データは、第1音楽データ及び第2音楽データの開始タイミングに同期している。第2音楽データは、情報端末1が有しており、情報端末1において再生する音楽データである。同期処理部336は、動画像データと、時刻特定部334が特定した第2音楽データに同期した時刻に関連付けられた第1音楽データとを同期させた状態で合成画像コンテンツを作成する。 When the moving image data is transmitted from the image pickup device 2 to the image management device 3, the image data acquisition unit 332 receives the information terminal before playing the music based on the second music data corresponding to the first music data on the information terminal 1. Acquire moving image data including the time image data displayed in 1. The time image data used here is synchronized with the start timing of the first music data and the second music data. The second music data is music data possessed by the information terminal 1 and reproduced by the information terminal 1. The synchronization processing unit 336 creates the composite image content in a state in which the moving image data and the first music data associated with the time synchronized with the second music data specified by the time specifying unit 334 are synchronized.

具体的には、同期処理部336は、時刻画像データに基づいて、動画像データに含まれる時刻画像データ以外の画像データ(すなわち画像フレーム)の撮像開始時刻を特定し、特定した動画フレームの撮像開始時刻に第1音楽データが開始するように、動画像データと第1音楽データとを同期させることにより、合成画像コンテンツを作成する。画像提供部338は、このようにして作成された合成画像コンテンツをユーザ端末4に提供する。 Specifically, the synchronization processing unit 336 specifies the imaging start time of image data (that is, image frame) other than the time image data included in the moving image data based on the time image data, and captures the specified moving image frame. The composite image content is created by synchronizing the moving image data and the first music data so that the first music data starts at the start time. The image providing unit 338 provides the composite image content created in this way to the user terminal 4.

[変形例2]
上記の説明においては、情報端末1がGPS衛星から受信した電波に基づく絶対時刻又は端末アプリケーションが生成する相対時刻を表示する場合を例示したが、情報端末1が表示する時刻は、イベントにおいて定められた基準時刻に対する相対時刻であってもよい。例えば、複数の情報端末1のそれぞれは、複数のグループのいずれかに属し、時刻表示部として機能する表示部12は、同一のグループに属する情報端末1が取得する時刻画像データが示す時刻に関連付けられた時刻を表示する。
[Modification 2]
In the above description, the case where the information terminal 1 displays the absolute time based on the radio wave received from the GPS satellite or the relative time generated by the terminal application is illustrated, but the time displayed by the information terminal 1 is determined by the event. It may be a relative time with respect to the reference time. For example, each of the plurality of information terminals 1 belongs to one of the plurality of groups, and the display unit 12 that functions as a time display unit is associated with the time indicated by the time image data acquired by the information terminals 1 belonging to the same group. Display the time.

例えば、同一のグループに属する複数の情報端末1のうち1台の情報端末1が同一のグループに属する他の情報端末1に、内部時計が発生する時刻を示す時刻情報を定期的に送信する。他の情報端末1は、受信した時刻情報に基づく時刻画像データを表示する。 For example, one of the plurality of information terminals 1 belonging to the same group, one information terminal 1 periodically transmits time information indicating the time when the internal clock is generated to the other information terminal 1 belonging to the same group. The other information terminal 1 displays time image data based on the received time information.

[変形例3]
上記の説明においては、撮像装置2が提示イベントIDを含む第2のQRコードの画像データ及び時刻画像データが含まれている動画像データを画像管理装置3に送信する場合を例示したが、情報端末1が撮像装置2の機能を有しており、情報端末1が第1QRコードを撮影し、当該第1QRコードの画像データ及び時刻画像データが含まれている動画像データを画像管理装置3に送信してもよい。
[Modification 3]
In the above description, the case where the image pickup device 2 transmits the image data of the second QR code including the presentation event ID and the moving image data including the time image data to the image management device 3 has been illustrated. The terminal 1 has the function of the image pickup device 2, the information terminal 1 captures the first QR code, and the moving image data including the image data and the time image data of the first QR code is transmitted to the image management device 3. You may send it.

図13は、変形例3に係る画像管理システムS2の構成を示す図である。図13に示すように、情報端末1a〜1cのそれぞれは、提示イベントIDを含む第1QRコードを撮影して作成した動画像データを画像管理装置3に送信する。さらに、情報端末1a〜1cは、図1に示したユーザ端末4として機能することも可能であり、情報端末1a〜1cは、画像管理装置3が管理する動画像データを表示することもできる。このように、画像管理システムS2においては、情報端末1と画像管理装置3を用いて、図1に示した構成と同等の処理を実現することができる。 FIG. 13 is a diagram showing a configuration of the image management system S2 according to the third modification. As shown in FIG. 13, each of the information terminals 1a to 1c transmits the moving image data created by photographing the first QR code including the presented event ID to the image management device 3. Further, the information terminals 1a to 1c can also function as the user terminals 4 shown in FIG. 1, and the information terminals 1a to 1c can also display moving image data managed by the image management device 3. As described above, in the image management system S2, the information terminal 1 and the image management device 3 can be used to realize the same processing as the configuration shown in FIG.

画像管理システムS2においては、撮像装置2が実行可能な各種の処理を情報端末1が実行してもよい。例えば、画像管理装置3の許諾情報取得部333は、動画像データに対応する撮像画像を情報端末1が撮像した位置を示す撮像位置情報を、動画像データを送信した情報端末1から取得してもよい。 In the image management system S2, the information terminal 1 may execute various processes that can be executed by the image pickup apparatus 2. For example, the license information acquisition unit 333 of the image management device 3 acquires the imaging position information indicating the position where the information terminal 1 has captured the captured image corresponding to the moving image data from the information terminal 1 that has transmitted the moving image data. May be good.

なお、情報端末1が第1QRコード及び時刻画像データを生成するとともに、動画像データを生成し、生成した第1QRコードの画像データ及び時刻画像データが含まれている動画像データを画像管理装置3に送信してもよい。 The information terminal 1 generates the first QR code and the time image data, and also generates the moving image data, and the moving image data including the generated image data of the first QR code and the time image data is used as the image management device 3 May be sent to.

[変形例4]
情報端末1は、提示イベントIDが含まれておらず、利用許諾情報が含まれるQRコードを生成してもよい。情報端末1は、例えば情報端末1のユーザが属するグループに対応する利用許諾情報を示すQRコードを生成する。この場合、画像管理部337は、予め登録された利用許諾情報が動画像データに含まれていることを条件として、画像データ取得部332が取得した動画像データをユーザ端末4に提示する対象である提示対象画像データとして記憶部32に記憶させてもよい。そして、画像提供部338は、閲覧要求情報をユーザ端末4から受信した場合に、利用許諾情報が示す利用可能範囲であることを閲覧要求情報が示していることを条件として、提示対象画像データをユーザ端末4に送信する。情報端末1及び画像管理装置3がこのように動作することで、登録イベントIDを用いることなく、同じグループのメンバー内で動画像データを共有することが可能になる。
[Modification example 4]
The information terminal 1 may generate a QR code that does not include the presentation event ID and includes the license information. The information terminal 1 generates, for example, a QR code indicating license information corresponding to the group to which the user of the information terminal 1 belongs. In this case, the image management unit 337 is a target for presenting the moving image data acquired by the image data acquisition unit 332 to the user terminal 4 on condition that the pre-registered license information is included in the moving image data. It may be stored in the storage unit 32 as a certain presentation target image data. Then, when the browsing request information is received from the user terminal 4, the image providing unit 338 sets the image data to be presented on the condition that the browsing request information indicates that the viewing request information is within the usable range indicated by the license information. It is transmitted to the user terminal 4. By operating the information terminal 1 and the image management device 3 in this way, it becomes possible to share moving image data among members of the same group without using the registration event ID.

[変形例5]
上記の説明においては、同期処理部336が、時刻画像データを含む複数の動画像データに関連付けられた複数の音データに共通して含まれている特徴的な音のタイミングに基づいて複数の動画像データを同期させる場合を例示したが、同期処理部336が複数の動画像データと、動画像データに関連付けられていない音データとを同期させてもよい。
[Modification 5]
In the above description, the synchronization processing unit 336 performs a plurality of moving images based on the characteristic sound timing commonly included in the plurality of sound data associated with the plurality of moving image data including the time image data. Although the case of synchronizing the image data has been illustrated, the synchronization processing unit 336 may synchronize the plurality of moving image data with the sound data not associated with the moving image data.

音データに、時刻を示す音時刻データが含まれており、同期処理部336は、時刻画像データが示す時刻と音時刻データが示す時刻とに基づいて、時刻画像データを含む複数の動画像データと音時刻データを含む音データとを同期させてもよい。音時刻データは、例えばイベント会場で集音した時報音又はGPS衛星等から取得した電波に基づいて特定した時刻を示すデータである。音時刻データは可聴音でもよく、可聴帯域以外の帯域の音を表すデータであってもよい。また、音時刻データは、音をデジタル値に変換したデータであってもよく、時刻を表すテキストデータであってもよい。 The sound data includes sound time data indicating the time, and the synchronization processing unit 336 includes a plurality of moving image data including the time image data based on the time indicated by the time image data and the time indicated by the sound time data. And the sound data including the sound time data may be synchronized. The sound time data is data indicating a time specified based on, for example, a time signal sound collected at an event venue or a radio wave acquired from a GPS satellite or the like. The sound time data may be audible sound, or may be data representing sounds in a band other than the audible band. Further, the sound time data may be data obtained by converting the sound into a digital value, or may be text data representing the time.

音データ取得部335又は同期処理部336は、音時刻データを含む音データを取得して、取得した音データに含まれる音時刻データが示す時刻を特定する。同期処理部336は、音時刻データが示す時刻と時刻特定部334が特定した時刻画像データが示す時刻とに基づいて、音時刻データを含む音データと時刻特定部334が特定した時刻に対応する複数の動画像データとを同期させる。 The sound data acquisition unit 335 or the synchronization processing unit 336 acquires sound data including sound time data, and specifies the time indicated by the sound time data included in the acquired sound data. The synchronization processing unit 336 corresponds to the sound data including the sound time data and the time specified by the time specifying unit 334 based on the time indicated by the sound time data and the time indicated by the time image data specified by the time specifying unit 334. Synchronize with multiple moving image data.

具体的には、同期処理部336は、時刻画像データが示す時刻を基準にして、動画像データ内の各フレームの時刻を特定し、音時刻データが示す時刻を基準にして、音データのそれぞれの部分の時刻を特定する。同期処理部336は、同じ時刻に対応する動画像データ内のフレームと音データとを関連付ける。 Specifically, the synchronization processing unit 336 specifies the time of each frame in the moving image data based on the time indicated by the time image data, and each of the sound data is based on the time indicated by the sound time data. Specify the time of the part. The synchronization processing unit 336 associates the frame in the moving image data corresponding to the same time with the sound data.

このように動作することで、画像管理装置3は、時刻画像データとは異なる時刻情報が示す時刻に同期した音データであっても、当該音データと時刻画像データを含む複数の動画像データとを同期させることができる。なお、画像管理装置3は、時刻画像データを表示する情報端末1が生成した、時刻画像データが示す時刻に同期した音時刻データを含む音データを、情報端末1から取得することもできる。このような構成は、例えば音データだけを音源の近くで収集することができる環境において好適である。 By operating in this way, the image management device 3 can generate a plurality of moving image data including the sound data and the time image data even if the sound data is synchronized with the time indicated by the time information different from the time image data. Can be synchronized. The image management device 3 can also acquire sound data including sound time data synchronized with the time indicated by the time image data generated by the information terminal 1 displaying the time image data from the information terminal 1. Such a configuration is suitable, for example, in an environment where only sound data can be collected near a sound source.

[本実施形態の画像管理装置3による効果]
以上説明したように、画像管理装置3は、時刻を示す時刻画像データを含む動画像データを取得する画像データ取得部332と、時刻画像データが示す時刻を特定する時刻特定部334と、時刻特定部334が特定した時刻に基づいて複数の動画像データを同期させる同期処理部336とを有する。そして、画像提供部338が、同期処理部336が同期させた複数の動画像をユーザ端末4に提供する。
[Effect of the image management device 3 of this embodiment]
As described above, the image management device 3 includes an image data acquisition unit 332 that acquires moving image data including time image data indicating the time, a time specifying unit 334 that specifies the time indicated by the time image data, and a time specifying unit. The unit 334 has a synchronization processing unit 336 that synchronizes a plurality of moving image data based on a specified time. Then, the image providing unit 338 provides the user terminal 4 with a plurality of moving images synchronized by the synchronization processing unit 336.

その結果、ユーザ端末4のユーザは、同期した状態の複数の動画像データを閲覧することができるので、複数の動画像データを閲覧しやすくなる。 As a result, the user of the user terminal 4 can browse a plurality of moving image data in a synchronized state, so that it becomes easy to browse a plurality of moving image data.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist thereof. be. For example, all or a part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination also has the effect of the original embodiment.

1 情報端末
2 撮像装置
3 画像管理装置
4 ユーザ端末
10 撮像部
11 記憶部
12 表示部
13 通信部
14 制御部
21 撮像部
22 通信部
23 記憶部
24 制御部
31 通信部
32 記憶部
33 制御部
141 許諾情報生成部
142 コード生成部
241 画像生成部
242 画像送信部
331 識別情報取得部
332 画像データ取得部
333 許諾情報取得部
334 時刻特定部
335 音データ取得部
336 同期処理部
337 画像管理部
338 画像提供部
339 操作受付部
340 音楽データ取得部
1 Information terminal 2 Imaging device 3 Image management device 4 User terminal 10 Imaging unit 11 Storage unit 12 Display unit 13 Communication unit 14 Control unit 21 Imaging unit 22 Communication unit 23 Storage unit 24 Control unit 31 Communication unit 32 Storage unit 33 Control unit 141 License information generation unit 142 Code generation unit 241 Image generation unit 242 Image transmission unit 331 Identification information acquisition unit 332 Image data acquisition unit 333 License information acquisition unit 334 Time identification unit 335 Sound data acquisition unit 336 Synchronous processing unit 337 Image management unit 338 Image Providing unit 339 Operation reception unit 340 Music data acquisition unit

Claims (13)

第1音楽データを取得する音楽データ取得部と、
前記第1音楽データと同期した第2音楽データに基づく音楽を情報端末で再生する前に前記情報端末に表示された、前記第2音楽データの開始タイミングを示す時刻を示す時刻画像データと、前記時刻画像データに続く合成用動画像データと、前記第2音楽データと、を含む動画像データを取得する画像データ取得部と、
前記時刻画像データが示す時刻を特定する時刻特定部と、
前記時刻特定部が特定した時刻に基づいて特定される前記開始タイミングに同期して、前記動画像データにおける前記合成用動画像データと、前記第1音楽データとを同期させた状態で、前記動画像データに含まれる音データを前記第1音楽データに置き換えた合成動画コンテンツを作成する同期処理部と、
前記同期処理部が同期させた状態で前記合成動画コンテンツを情報端末に提供する画像提供部と、
を有する画像管理装置。
The music data acquisition unit that acquires the first music data,
Time image data indicating a time indicating the start timing of the second music data displayed on the information terminal before playing music based on the second music data synchronized with the first music data on the information terminal, and the above An image data acquisition unit that acquires moving image data including the moving image data for composition following the time image data and the second music data, and
A time identification unit that specifies the time indicated by the time image data, and
The moving image is in a state in which the synthetic moving image data in the moving image data and the first music data are synchronized in synchronization with the start timing specified by the time specifying unit based on the specified time. A synchronization processing unit that creates synthetic video content in which the sound data included in the image data is replaced with the first music data, and
An image providing unit that provides the synthetic video content to an information terminal in a state in which the synchronization processing unit is synchronized,
Image management device with.
前記画像データ取得部は、前記時刻画像データを含む複数の前記動画像データを取得し、
前記同期処理部は、前記時刻特定部が特定した前記動画像データそれぞれの時刻に基づいて、複数の前記動画像データを同期させる、
請求項1に記載の画像管理装置。
The image data acquisition unit acquires a plurality of the moving image data including the time image data, and obtains the moving image data.
The synchronization processing unit synchronizes a plurality of the moving image data based on the respective times of the moving image data specified by the time specifying unit.
The image management device according to claim 1.
前記画像データ取得部は、前記動画像データが撮像された場所において提示された提示イベント識別情報をさらに取得し、
前記同期処理部は、前記動画像データに関連付けられた前記提示イベント識別情報と前記動画像データと異なる画像データである他データに関連付けられた提示イベント識別情報とが一致していることを条件として、前記動画像データと前記他データとを同期させる、
請求項2に記載の画像管理装置。
The image data acquisition unit further acquires the presentation event identification information presented at the place where the moving image data is captured.
The synchronization processing unit is subject to the condition that the presented event identification information associated with the moving image data and the presented event identification information associated with other data which is image data different from the moving image data match. , Synchronize the moving image data with the other data,
The image management device according to claim 2.
前記動画像データに関連付けられた第1音データと、前記動画像データと異なる画像データである他データに関連付けられた第2音データとを取得し、前記第1音データに含まれる音声に基づいて、前記動画像データが撮像された場所において行われたイベントを識別するための第1提示イベント識別情報を特定し、前記第2音データに含まれる音声に基づいて、前記他データが撮像された場所において行われたイベントを識別するための第2提示イベント識別情報を特定する音データ取得部をさらに有し、
前記同期処理部は、前記第1提示イベント識別情報と前記第2提示イベント識別情報とが一致していることを条件として、前記動画像データと前記他データとを同期させる、
請求項1又は2に記載の画像管理装置。
The first sound data associated with the moving image data and the second sound data associated with other data which is image data different from the moving image data are acquired, and based on the sound included in the first sound data. Therefore, the first presentation event identification information for identifying the event performed at the place where the moving image data is captured is specified, and the other data is captured based on the sound included in the second sound data. It also has a sound data acquisition unit that identifies the second presentation event identification information for identifying the event that took place at the location.
The synchronization processing unit synchronizes the moving image data with the other data on condition that the first presented event identification information and the second presented event identification information match.
The image management device according to claim 1 or 2.
前記画像データ取得部は、時刻に関連付けられた表示データをさらに取得し、
前記同期処理部は、前記動画像データと、前記時刻特定部が特定した時刻に関連付けられた前記表示データとを同期させた状態で合成した合成動画像データを生成し、
前記画像提供部は、前記合成動画像データを情報端末に送信する、
請求項1から4のいずれか一項に記載の画像管理装置。
The image data acquisition unit further acquires display data associated with the time, and obtains the display data.
The synchronization processing unit generates composite moving image data in which the moving image data and the display data associated with the time specified by the time specifying unit are synchronized with each other.
The image providing unit transmits the composite moving image data to the information terminal.
The image management device according to any one of claims 1 to 4.
前記同期処理部は、前記動画像データと、前記時刻特定部が特定した時刻に関連付けられた前記第1音楽データとを同期させた状態で合成した合成動画コンテンツを生成し、
前記画像提供部は、前記合成動画コンテンツを情報端末に送信する、
請求項1から5のいずれか一項に記載の画像管理装置。
The synchronization processing unit generates synthetic moving image content synthesized in a state in which the moving image data and the first music data associated with the time specified by the time specifying unit are synchronized with each other.
The image providing unit transmits the synthetic moving image content to the information terminal.
The image management device according to any one of claims 1 to 5.
前記画像データ取得部は、前記時刻画像データを含む前記動画像データを取得し、
前記画像提供部は、前記動画像データのうち前記時刻画像データを除く部分動画像データを前記情報端末に提供する、
請求項1からのいずれか一項に記載の画像管理装置。
The image data acquisition unit acquires the moving image data including the time image data, and obtains the moving image data.
The image providing unit provides the information terminal with partial moving image data excluding the time image data among the moving image data.
The image management device according to any one of claims 1 to 6.
前記画像データ取得部は、前記時刻画像データが示す時刻の最小単位よりもフレームが更新される時間間隔が大きい前記動画像データを取得する、
請求項に記載の画像管理装置。
The image data acquisition unit acquires the moving image data having a time interval in which the frame is updated larger than the minimum unit of the time indicated by the time image data.
The image management device according to claim 7.
第1音楽データと動画像データとを同期させた状態で情報端末に提供する画像管理装置と、複数の前記情報端末と、を備え、
前記画像管理装置は、
前記第1音楽データを取得する音楽データ取得部と、
前記第1音楽データと同期した第2音楽データに基づく音楽を前記情報端末で再生する前に前記情報端末に表示された、前記第2音楽データの開始タイミングを示す時刻を示す時刻画像データと、前記時刻画像データに続く合成用動画像データと、前記第2音楽データと、を含む複数の動画像データを複数の前記情報端末それぞれから取得する画像データ取得部と、
前記時刻画像データが示す時刻を特定する時刻特定部と、
前記時刻特定部が特定した時刻に基づいて特定される前記開始タイミングに同期して、前記複数の動画像データにおける前記合成用動画像データと、前記第1音楽データとを同期させた状態で、前記動画像データに含まれる音データを前記第1音楽データに置き換えた複数の合成動画コンテンツを作成する同期処理部と、
前記同期処理部が同期させた状態で前記複数の合成動画コンテンツを情報端末に提供する画像提供部と、
を有し、
複数の前記情報端末それぞれは、
他の前記情報端末と同期した時刻を表示する時刻表示部と、
前記第2音楽データを再生する音楽データ再生部と、
を有する、
画像管理システム。
It is provided with an image management device that provides the information terminal with the first music data and the moving image data in a synchronized state, and a plurality of the information terminals .
The image management device is
The music data acquisition unit that acquires the first music data, and
Time image data indicating a time indicating the start timing of the second music data displayed on the information terminal before playing the music based on the second music data synchronized with the first music data on the information terminal, and An image data acquisition unit that acquires a plurality of moving image data including the combined moving image data following the time image data and the second music data from each of the plurality of information terminals.
A time identification unit that specifies the time indicated by the time image data, and
In a state in which the composite moving image data in the plurality of moving image data and the first music data are synchronized in synchronization with the start timing specified by the time specifying unit based on the specified time. A synchronization processing unit that creates a plurality of synthetic moving image contents in which the sound data included in the moving image data is replaced with the first music data, and a synchronization processing unit.
An image providing unit that provides the plurality of synthetic video contents to an information terminal in a state in which the synchronization processing unit is synchronized, and an image providing unit.
Have a,
Each of the plurality of information terminals
A time display unit that displays the time synchronized with the other information terminal ,
A music data playback unit that reproduces the second music data,
To have a,
Image management system.
複数の前記情報端末それぞれは、複数のグループのいずれかに属し、
前記時刻表示部は、同一の前記グループに属する前記情報端末が取得する前記時刻画像データが示す時刻に関連付けられた時刻を表示する、
請求項に記載の画像管理システム。
Each of the plurality of the information terminal, belong to one of a plurality of groups,
The time display unit displays the time associated with the time indicated by the time image data acquired by the information terminal belonging to the same group.
The image management system according to claim 9.
前記時刻表示部は、通信回線を経由して取得した時刻を示すデータに基づく絶対時刻を表示する、
請求項又は1に記載の画像管理システム。
The time display unit displays an absolute time based on data indicating a time acquired via a communication line.
Image management system as recited in claim 9 or 1 0.
前記音楽データ再生部は、前記時刻表示部が他の前記情報端末と同期した時刻を表示した後に前記第2音楽データを再生する、
請求項から1のいずれか一項に記載の画像管理システム。
The music data reproduction unit reproduces the second music data after the time display unit displays the time synchronized with the other information terminal.
The image management system according to any one of claims 9 to 11.
コンピュータが実行する、
第1音楽データを取得するステップと、
前記第1音楽データと同期した第2音楽データに基づく音楽を情報端末で再生する前に前記情報端末に表示された、前記第2音楽データの開始タイミングを示す時刻を示す時刻画像データと、前記時刻画像データに続く合成用動画像データと、前記第2音楽データと、を含む動画像データを取得するステップと、
前記時刻画像データが示す時刻を特定するステップと、
特定した時刻に基づいて特定される前記開始タイミングに同期して、前記動画像データにおける前記合成用動画像データと、前記第1音楽データとを同期させた状態で、前記動画像データに含まれる音データを前記第1音楽データに置き換えた合成動画コンテンツを作成するステップと、
前記合成用動画像データと前記第1音楽データとを同期させた状態で前記合成動画コンテンツを情報端末に提供するステップと、
を有する画像管理方法。
Computer runs,
The step to acquire the first music data and
Time image data indicating a time indicating a start timing of the second music data displayed on the information terminal before playing music based on the second music data synchronized with the first music data on the information terminal, and the above A step of acquiring moving image data including the moving image data for composition following the time image data and the second music data, and
The step of specifying the time indicated by the time image data and
Synchronized with the start timing specified based on the specified time, the moving image data for synthesis in the moving image data and the first music data are included in the moving image data in a synchronized state. The step of creating a synthetic video content in which the sound data is replaced with the first music data, and
A step of providing the composite moving image content to an information terminal in a state where the composite moving image data and the first music data are synchronized, and
Image management method having.
JP2020109134A 2020-06-24 2020-06-24 Image management device, image management system and image management method Active JP6909903B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020109134A JP6909903B1 (en) 2020-06-24 2020-06-24 Image management device, image management system and image management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020109134A JP6909903B1 (en) 2020-06-24 2020-06-24 Image management device, image management system and image management method

Publications (2)

Publication Number Publication Date
JP6909903B1 true JP6909903B1 (en) 2021-07-28
JP2022006724A JP2022006724A (en) 2022-01-13

Family

ID=76969082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020109134A Active JP6909903B1 (en) 2020-06-24 2020-06-24 Image management device, image management system and image management method

Country Status (1)

Country Link
JP (1) JP6909903B1 (en)

Also Published As

Publication number Publication date
JP2022006724A (en) 2022-01-13

Similar Documents

Publication Publication Date Title
CN110097416B (en) Digital on demand device with karaoke and photo booth functionality and related methods
JP7534476B2 (en) Video display device and display control method thereof
JP2017200200A (en) Content reproduction method, content reproduction device, and content reproduction program
JP2009124206A (en) Multimedia composing data generation device
CN103460128A (en) Alternative audio
JP2014085644A (en) Karaoke system
JP2023153790A (en) program
JP6909903B1 (en) Image management device, image management system and image management method
JP6909904B1 (en) Image management device, image management system and image management method
JP6909902B1 (en) Image management device, image management system and image management method
KR101680551B1 (en) Method for creating and automatic vending private music video
JP7149193B2 (en) karaoke system
JP2010262072A (en) Digital television-compatible karaoke system
JP6849851B2 (en) Shooting system, shooting device and user shooting method
JP2017032725A (en) Karaoke system
TWI221731B (en) Automatic AV production supply system and method thereof
JP2013182073A (en) Collaboration singing video recording system
WO2022176633A1 (en) Video editing device, video editing method, and computer program
JP6146162B2 (en) Image processing apparatus, imaging apparatus, image processing method, imaging method, and image processing program
WO2024057398A1 (en) Presentation video adjustment apparatus, presentation video adjustment method, and presentation video adjustment program
JP7148883B2 (en) Image provision system
JP6424945B2 (en) Imaging device, imaging method, and imaging program
KR20060116624A (en) Apparatus for experiencing famous scene and method thereof
JP2009020234A (en) Image display system and image display method
CN113542791A (en) Personalized video collection generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201120

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201120

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210705

R150 Certificate of patent or registration of utility model

Ref document number: 6909903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150