JP6909903B1 - Image management device, image management system and image management method - Google Patents
Image management device, image management system and image management method Download PDFInfo
- Publication number
- JP6909903B1 JP6909903B1 JP2020109134A JP2020109134A JP6909903B1 JP 6909903 B1 JP6909903 B1 JP 6909903B1 JP 2020109134 A JP2020109134 A JP 2020109134A JP 2020109134 A JP2020109134 A JP 2020109134A JP 6909903 B1 JP6909903 B1 JP 6909903B1
- Authority
- JP
- Japan
- Prior art keywords
- image data
- time
- data
- moving image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】複数の動画像を同期させることができる。【解決手段】画像管理装置3は、時刻を示す時刻画像データを含む動画像データを取得する画像データ取得部332と、時刻画像データが示す時刻を特定する時刻特定部334と、時刻特定部334が特定した時刻に基づいて、動画像データと、動画像データと異なる画像データである他データとを同期させる同期処理部336と、同期処理部336が同期させた状態で動画像データと他データとを情報端末に提供する画像提供部338と、を有する。【選択図】図7PROBLEM TO BE SOLVED: To synchronize a plurality of moving images. An image management device 3 has an image data acquisition unit 332 that acquires moving image data including time image data indicating the time, a time identification unit 334 that specifies the time indicated by the time image data, and a time identification unit 334. Synchronized processing unit 336 that synchronizes the moving image data with other data that is different from the moving image data based on the time specified by, and the moving image data and other data in a state in which the synchronization processing unit 336 synchronizes. It has an image providing unit 338 and the image providing unit 338, which provides the data to the information terminal. [Selection diagram] FIG. 7
Description
本発明は、画像管理装置、画像管理システム及び画像管理方法に関する。 The present invention relates to an image management device, an image management system, and an image management method.
複数のユーザがインターネット等のネットワークを介して送信した画像を公開する画像公開装置が知られている(例えば、特許文献1を参照)。 An image publishing device that publishes an image transmitted by a plurality of users via a network such as the Internet is known (see, for example, Patent Document 1).
入学式、運動会、コンサート等のイベントにおいては、多数の参加者がイベントの様子を撮影することにより多数の動画像データが作成される。各参加者が動画像データをサーバにアップロードすることにより、各参加者が撮影した動画像が閲覧可能になる。動画像を閲覧可能な端末において複数の動画像が同期していない状態で同時に再生されると、音や動画像がずれてしまうので閲覧しづらいという問題があった。 At events such as entrance ceremonies, athletic meet, and concerts, a large number of moving image data are created by a large number of participants taking pictures of the event. By uploading the moving image data to the server by each participant, the moving image taken by each participant can be viewed. If a plurality of moving images are simultaneously played back on a terminal capable of viewing moving images in a state where they are not synchronized, there is a problem that it is difficult to view the moving images because the sound and the moving images are shifted.
そこで、本発明はこれらの点に鑑みてなされたものであり、複数の動画像を同期させることができる画像管理装置、画像管理システム及び画像管理方法を提供することを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to provide an image management device, an image management system, and an image management method capable of synchronizing a plurality of moving images.
本発明の第1の態様に係る画像管理装置は、時刻を示す時刻画像データを含む動画像データを取得する画像データ取得部と、前記時刻画像データが示す時刻を特定する時刻特定部と、前記時刻特定部が特定した時刻に基づいて、前記動画像データと、前記動画像データと異なる画像データである他データとを同期させる同期処理部と、前記同期処理部が同期させた状態で前記動画像データと前記他データとを情報端末に提供する画像提供部と、を有する。 The image management device according to the first aspect of the present invention includes an image data acquisition unit that acquires moving image data including time image data indicating the time, a time specifying unit that specifies the time indicated by the time image data, and the above. Based on the time specified by the time specifying unit, the moving image data is synchronized with the synchronization processing unit that synchronizes the moving image data with other data that is image data different from the moving image data, and the moving image in a state in which the synchronization processing unit is synchronized. It has an image providing unit that provides image data and the other data to an information terminal.
前記画像データ取得部は、前記時刻画像データを含む複数の前記動画像データを取得し、前記同期処理部は、前記時刻特定部が特定した前記動画像データそれぞれの時刻に基づいて、複数の前記動画像データを同期させてもよい。 The image data acquisition unit acquires a plurality of the moving image data including the time image data, and the synchronization processing unit acquires a plurality of the moving image data based on the respective times of the moving image data specified by the time specifying unit. The moving image data may be synchronized.
前記画像データ取得部は、前記動画像データが撮像された場所において提示された提示イベント識別情報をさらに取得し、前記同期処理部は、前記動画像データに関連付けられた前記提示イベント識別情報と前記他データに関連付けられた提示イベント識別情報とが一致していることを条件として、前記動画像データと前記他データとを同期させてもよい。 The image data acquisition unit further acquires the presentation event identification information presented at the place where the moving image data is captured, and the synchronization processing unit further acquires the presentation event identification information associated with the moving image data and the presentation event identification information. The moving image data and the other data may be synchronized on condition that the presentation event identification information associated with the other data matches.
前記動画像データに関連付けられた第1音データと、前記他データに関連付けられた第2音データとを取得し、前記第1音データに含まれる音声に基づいて、前記動画像データが撮像された場所において行われたイベントを識別するための第1提示イベント識別情報を特定し、前記第2音データに含まれる音声に基づいて、前記他データが撮像された場所において行われたイベントを識別するための第2提示イベント識別情報を特定する音データ取得部をさらに有し、前記同期処理部は、前記第1提示イベント識別情報と前記第2提示イベント識別情報とが一致していることを条件として、前記動画像データと前記他データとを同期させてもよい。 The first sound data associated with the moving image data and the second sound data associated with the other data are acquired, and the moving image data is imaged based on the sound included in the first sound data. The first presented event identification information for identifying the event performed at the place where the data was taken is specified, and the event performed at the place where the other data is captured is identified based on the sound included in the second sound data. It further has a sound data acquisition unit for specifying the second presentation event identification information for the purpose, and the synchronization processing unit indicates that the first presentation event identification information and the second presentation event identification information match. As a condition, the moving image data and the other data may be synchronized.
前記画像データ取得部は、時刻に関連付けられた表示データをさらに取得し、前記同期処理部は、前記動画像データと、前記時刻特定部が特定した時刻に関連付けられた前記表示データとを同期させた状態で合成した合成動画像データを生成し、前記画像提供部は、前記合成動画像データを情報端末に送信してもよい。 The image data acquisition unit further acquires display data associated with the time, and the synchronization processing unit synchronizes the moving image data with the display data associated with the time specified by the time identification unit. The composite moving image data synthesized in this state may be generated, and the image providing unit may transmit the synthesized moving image data to the information terminal.
時刻に関連付けられた第1音楽データを取得する音楽データ取得部をさらに有し、前記同期処理部は、前記動画像データと、前記時刻特定部が特定した時刻に関連付けられた前記第1音楽データとを同期させた状態で合成した合成動画コンテンツを生成し、前記画像提供部は、前記合成動画コンテンツを情報端末に送信してもよい。 It further has a music data acquisition unit that acquires the first music data associated with the time, and the synchronization processing unit further includes the moving image data and the first music data associated with the time specified by the time identification unit. The composite moving image content may be generated in a state of being synchronized with the above, and the image providing unit may transmit the synthesized moving image content to the information terminal.
前記画像データ取得部は、前記第1音楽データに対応する第2音楽データに基づく音楽を情報端末で再生する前に前記情報端末に表示された前記時刻画像データを含む前記動画像データを取得し、前記同期処理部は、前記動画像データと、前記時刻特定部が特定した前記第2音楽データに同期した時刻に関連付けられた前記第1音楽データとを同期させた状態で前記合成動画コンテンツを作成してもよい。 The image data acquisition unit acquires the moving image data including the time image data displayed on the information terminal before playing the music based on the second music data corresponding to the first music data on the information terminal. , The synchronization processing unit synchronizes the moving image data with the first music data associated with the time synchronized with the second music data specified by the time specifying unit, and produces the synthesized moving image content. You may create it.
前記画像データ取得部は、前記時刻画像データを含む前記動画像データを取得し、
前記画像提供部は、前記動画像データのうち前記時刻画像データを除く部分動画像データを前記情報端末に提供してもよい。前記画像データ取得部は、前記時刻画像データが示す時刻の最小単位よりもフレームが更新される時間間隔が大きい前記動画像データを取得してもよい。
The image data acquisition unit acquires the moving image data including the time image data, and obtains the moving image data.
The image providing unit may provide the information terminal with partial moving image data of the moving image data excluding the time image data. The image data acquisition unit may acquire the moving image data in which the time interval in which the frame is updated is larger than the minimum unit of the time indicated by the time image data.
本発明の第2の態様に係る画像管理システムは、複数の情報端末と、前記情報端末から取得した動画像データを管理する画像管理装置と、を備え、前記複数の情報端末それぞれは、他の前記情報端末と同期した時刻を表示する時刻表示部を有し、前記画像管理装置は、それぞれ異なる前記情報端末が表示した時刻を示す時刻画像データを含む複数の動画像データを取得する画像データ取得部と、前記時刻画像データが示す時刻を特定する時刻特定部と、前記時刻特定部が特定した時刻に基づいて、前記画像データ取得部が取得した前記複数の動画像データを同期させる同期処理部と、前記同期処理部が同期させた状態で前記複数の動画像データを情報端末に提供する画像提供部と、を有する。 The image management system according to the second aspect of the present invention includes a plurality of information terminals and an image management device that manages moving image data acquired from the information terminals, and each of the plurality of information terminals has another The image management device has a time display unit that displays a time synchronized with the information terminal, and the image management device acquires image data that acquires a plurality of moving image data including time image data indicating the time displayed by the information terminal. A synchronization processing unit that synchronizes the plurality of moving image data acquired by the image data acquisition unit based on the unit, the time specifying unit that specifies the time indicated by the time image data, and the time specified by the time specifying unit. And an image providing unit that provides the plurality of moving image data to the information terminal in a state in which the synchronization processing unit is synchronized.
前記複数の情報端末それぞれは、複数のグループのいずれかに属し、前記時刻表示部は、同一の前記グループに属する前記情報端末が取得する前記時刻画像データが示す時刻に関連付けられた時刻を表示してもよい。前記時刻表示部は、通信回線を経由して取得した時刻を示すデータに基づく絶対時刻を表示してもよい。前記情報端末は、音楽データを再生する音楽データ再生部をさらに有し、前記音楽データ再生部は、前記時刻表示部が他の前記情報端末と同期した時刻を表示した後に前記音楽データを再生してもよい。 Each of the plurality of information terminals belongs to any of the plurality of groups, and the time display unit displays the time associated with the time indicated by the time image data acquired by the information terminals belonging to the same group. You may. The time display unit may display an absolute time based on data indicating a time acquired via a communication line. The information terminal further has a music data reproduction unit for reproducing music data, and the music data reproduction unit reproduces the music data after the time display unit displays the time synchronized with the other information terminal. You may.
本発明の第3の態様に係る画像管理方法は、コンピュータが実行する、時刻を示す時刻画像データを含む動画像データを取得するステップと、前記時刻画像データが示す時刻を特定するステップと、特定した時刻に基づいて、前記動画像データと、前記動画像データと異なる画像データである他データとを同期させるステップと、同期させた状態で前記動画像データと前記他データとを情報端末に提供するステップと、を有する。 The image management method according to the third aspect of the present invention specifies a step of acquiring moving image data including time image data indicating the time and a step of specifying the time indicated by the time image data, which are executed by a computer. A step of synchronizing the moving image data with other data which is image data different from the moving image data based on the time, and providing the moving image data and the other data to the information terminal in the synchronized state. Has steps to do.
本発明によれば、複数の動画像を同期させることができるという効果を奏する。 According to the present invention, there is an effect that a plurality of moving images can be synchronized.
[画像管理システムS1の構成]
図1は、本発明の実施の形態に係る画像管理システムS1の構成を示す図である。画像管理システムS1は、一以上の情報端末1と、複数の撮像装置2(2a,2b,2c)と、画像管理装置3と、ユーザ端末4とを有する。画像管理システムS1は、例えば小学校の運動会や音楽ライブ等のイベントにおいて、複数の撮像装置2が撮像した撮像画像データと情報端末1が生成するイベントを識別するための識別情報とを関連付けて画像管理装置3が有する記憶部に記憶させる画像管理システムである。本明細書においては、撮像画像データが動画像データである場合を例示するが、撮像画像データに静止画像データが含まれていてもよい。
[Configuration of image management system S1]
FIG. 1 is a diagram showing a configuration of an image management system S1 according to an embodiment of the present invention. The image management system S1 includes one or
情報端末1と画像管理装置3とはネットワークNを介して接続されている。複数の撮像装置2と画像管理装置3とはネットワークNを介して接続されている。ユーザ端末4と画像管理装置3とはネットワークNを介して接続されている。ネットワークNは、例えばインターネットである。情報端末1と複数の撮像装置2とは、例えばBluetooth(登録商標)等の無線通信方式を用いて接続されていてもよい。
The
情報端末1は、例えば撮像装置2のユーザが使用する端末である。情報端末1は、被写体を撮像する撮像デバイス、ユーザの操作を受け付けるタッチパネル等の操作入力用デバイス、受け付けたユーザの操作に基づいて情報を表示するディスプレイ、現在位置を特定するための電波をGPS(Global Positioning System)衛星のような外部装置から受信する受信機、並びにネットワークNを介して情報を送信するための通信デバイス等を有する端末である。情報端末1は、例えばタブレット又はスマートフォンである。以下の説明においては、情報端末1が、複数の撮像装置2を使用する複数のユーザの代表ユーザの端末である場合を想定して説明するが、複数のユーザそれぞれが自身の情報端末1を使用してもよい。
The
情報端末1は、ユーザの操作に応じて、例えばイベント会場に設置されている第1のQRコードを示す物体を撮像する。第1のQRコードを示す物体は、例えば第1のQRコードが印刷されたポスター、又は第1のQRコードが表示されているタブレットである。情報端末1は、撮像した第1のQRコードから、イベントが開催された場所において提示された提示イベント識別情報である提示イベントIDを抽出する。提示イベントIDは、例えばイベントがA小学校の運動会の場合、「A小学校運動会」を示すデータである。
The
続いて、情報端末1は、提示イベントIDと、情報端末1に予め設定されている利用許諾情報とを含む第2のQRコードを生成する。利用許諾情報は、例えば「A小学校運動会6年1組」を示すデータであり、利用許諾情報が示す範囲内でのみ撮像画像データを閲覧可能にすることが可能とされる。
Subsequently, the
そして、情報端末1は、生成した第2のQRコードと時刻を示す時刻情報を含む時刻画像データとを情報端末1が有するディスプレイに表示する。情報端末1が有する時刻表示部は、例えば、通信回線を経由して取得した時刻や日本標準時刻(JJY)、GPS衛星等から取得した電波に基づく絶対時刻又は端末アプリケーションが生成する相対時刻(所定のタイミングを基準とする時刻)を表示する。なお、情報端末1は、第2のQRコードとして、提示イベントIDを含むQRコード(すなわち、第1のQRコード)を生成し、利用許諾情報を別途表示してもよい。また、情報端末1は、例えば受信機がGPS衛星から受信した電波に基づいて特定した現在位置を示す位置情報を画像管理装置3に送信してもよい。
Then, the
なお、情報端末1は、第1のQRコードを撮影することなく、現在位置及び現在時刻に基づいて第2のQRコードを生成してもよい。一例として、情報端末1は、現在位置及び現在時刻を画像管理装置3に送信することにより画像管理装置3から取得した登録イベントIDを提示イベントIDとして表示する。登録イベントIDの詳細については後述する。情報端末1は、受信した登録イベントIDを提示イベントIDとして含む第2のQRコードを生成し、生成した第2のQRコードを表示する。この場合、情報端末1のユーザが第1のQRコードを示す物体を撮影する必要がない。
The
撮像装置2は、動画像を撮像することができるカメラであり、例えばカムコーダ、デジタルカメラ又はアクションカメラである。撮像装置2は、情報端末1が表示している第2のQRコード、時刻画像、及び第2のQRコードに関連付けられたイベントを撮像する。撮像装置2は、例えば、第2のQRコード及び時刻画像が表示された情報端末1の画面とイベントとを撮像して生成した動画像データを生成する。撮像装置2は、生成した動画像データを、ネットワークNを介して画像管理装置3に送信する。撮像装置2は、現在位置を特定するための電波をGPS衛星のような外部装置から受信する受信機を有しており、特定した現在位置を示す位置情報を画像管理装置3に送信してもよい。
The
画像管理装置3は、イベントが撮像されて生成された撮像画像データを管理するサーバ又はパーソナルコンピュータである。画像管理装置3は、撮像装置2から受信した撮像画像データと予め登録された登録イベントIDとを記憶部に記憶させる。登録イベントIDは、撮像画像データを管理する対象となるイベントを識別するための登録イベント識別情報であり、例えば、イベントの主催者や撮影者などにより画像管理装置3に登録される。
The image management device 3 is a server or a personal computer that manages captured image data generated by capturing an event. The image management device 3 stores the captured image data received from the
画像管理装置3は、受信した動画像データから第2のQRコードを取得する。画像管理装置3は、取得した第2のQRコードから提示イベントIDを抽出する。画像管理装置3は、抽出した提示イベントIDが、予め取得していた登録イベントIDと一致していることを条件として、抽出した第2のQRコードに関連付けられた動画像データを、情報端末に提示する対象である提示対象画像データとして記憶部に記憶させる。 The image management device 3 acquires a second QR code from the received moving image data. The image management device 3 extracts the presentation event ID from the acquired second QR code. The image management device 3 sends the moving image data associated with the extracted second QR code to the information terminal on condition that the extracted presentation event ID matches the registered event ID acquired in advance. It is stored in the storage unit as the presentation target image data to be presented.
ユーザ端末4は、画像管理装置3が管理する動画像データを閲覧するユーザが使用する情報端末であり、例えばパーソナルコンピュータ又はスマートフォンである。情報端末1がユーザ端末4として用いられてもよい。画像管理装置3は、ユーザ端末4から提示対象画像データの閲覧要求を示す閲覧要求情報を受信した場合、受信した閲覧要求情報が登録イベントIDに対応する情報を含むことを条件として提示対象画像データをユーザ端末4に送信する。ユーザ端末4は、送信された提示対象画像データをディスプレイに表示する。
The user terminal 4 is an information terminal used by a user who browses moving image data managed by the image management device 3, and is, for example, a personal computer or a smartphone. The
図2は、画像管理システムS1の動作のシーケンスを示す図である。図2に示すシーケンス図は、イベントの会場で、情報端末1を使用するユーザが第1のQRコードを撮影した時点から開始している。図2においては、撮像装置2として撮像装置2a及び撮像装置2bを例示しているが、より多くの撮像装置2があってもよい。
FIG. 2 is a diagram showing a sequence of operations of the image management system S1. The sequence diagram shown in FIG. 2 starts from the time when the user who uses the
情報端末1は、生成した提示イベントIDと予め設定された利用許諾情報に基づいて第2のQRコードを生成する。情報端末1は、第2のQRコードと時刻を示す時刻情報とを情報端末1のディスプレイに表示する(S11)。
The
撮像装置2aは、第1ユーザが使用する撮像装置であり、情報端末1のディスプレイに表示された第2のQRコードを撮像する(S12)。撮像装置2aは、第2のQRコードを撮像した後にイベントを撮像して動画像データを生成することにより、第2のQRコードと動画像データとを含む撮像画像データを生成する(S13)。撮像装置2aは、生成した撮像画像データである動画像データP1を画像管理装置3に送信する。なお、本実施の形態においては、第2のQRコードに続いてイベントが撮像されることが想定されているが、イベントの画像の途中に第2のQRコードが撮像されてもよい。
The
撮像装置2bは、第2ユーザが使用する撮像装置であり、情報端末1のディスプレイに表示された第2のQRコードを撮像する(S14)。撮像装置2bは、第2のQRコードを撮像した後にイベントを撮像して動画像データを生成することにより、第2のQRコードと動画像データとを含む撮像画像データを生成する(S15)。撮像装置2bは、生成した撮像画像データである動画像データP2を画像管理装置3に送信する。
The
画像管理装置3は、動画像データP1と動画像データP2とを受信する。画像管理装置3は、第2のQRコードを撮像した画像であるイベント情報画像を、動画像データP1と動画像データP2のそれぞれから取得する。画像管理装置3は、取得した動画像データP1と動画像データP2とのそれぞれのイベント情報画像から動画像データP1と動画像データP2とのそれぞれに対応する提示イベントIDを抽出する(S16)。 The image management device 3 receives the moving image data P1 and the moving image data P2. The image management device 3 acquires an event information image, which is an image obtained by capturing the second QR code, from each of the moving image data P1 and the moving image data P2. The image management device 3 extracts the presentation event IDs corresponding to the moving image data P1 and the moving image data P2 from the respective event information images of the acquired moving image data P1 and the moving image data P2 (S16).
続いて、画像管理装置3は、動画像データP1と動画像データP2とのそれぞれのイベント情報画像から動画像データP1と動画像データP2のそれぞれに対応する利用許諾情報を抽出する(S17)。 Subsequently, the image management device 3 extracts the license information corresponding to each of the moving image data P1 and the moving image data P2 from the event information images of the moving image data P1 and the moving image data P2 (S17).
画像管理装置3は、予め記憶部に記憶されている登録イベントIDと抽出した提示イベントIDとが一致している場合(S18のYES)、抽出した提示イベントIDに対応する動画像データを、当該動画像データに対応する利用許諾情報と関連付けて記憶部に記憶させる(S19)。一方、登録イベントIDと提示イベントIDとが一致しない場合(S18のNO)、画像管理装置は、登録イベントIDと一致しない提示イベントIDに対応する動画像データを記憶部に記憶させずに処理を終了する。 When the registered event ID stored in the storage unit in advance and the extracted presentation event ID match (YES in S18), the image management device 3 uses the moving image data corresponding to the extracted presentation event ID. It is stored in the storage unit in association with the license information corresponding to the moving image data (S19). On the other hand, when the registered event ID and the presented event ID do not match (NO in S18), the image management device performs processing without storing the moving image data corresponding to the presented event ID that does not match the registered event ID in the storage unit. finish.
例えば、登録イベントIDと動画データP1に含まれる提示イベントIDとが「A小学校運動会」を示すデータである場合、画像管理装置3は、動画像データP1に含まれる動画像データと当該動画像データに対応する利用許諾情報とを関連付けて記憶部に記憶させる。一方、登録イベントIDが「A小学校運動会」であり、提示イベントIDが「B小学校運動会」である場合、画像管理装置3は、動画像データP2に含まれる撮像画像データを記憶部に記憶させずに処理を終了する。 For example, when the registered event ID and the presentation event ID included in the moving image data P1 are data indicating "A elementary school athletic meet", the image management device 3 has the moving image data included in the moving image data P1 and the moving image data. It is stored in the storage unit in association with the license information corresponding to. On the other hand, when the registered event ID is "A elementary school athletic meet" and the presented event ID is "B elementary school athletic meet", the image management device 3 does not store the captured image data included in the moving image data P2 in the storage unit. Ends the process.
図3は、情報端末1が第2のQRコードと時刻情報とを表示する場合の画面の一例を示す図である。情報端末1の画面の上段には、第2のQRコードが表示されている。情報端末1の画面の中段には、利用許諾情報である「A小学校運動会6年1組」を示す文字列が表示されている。利用許諾情報「A小学校運動会6年1組」を示すデータは、情報端末1の画面の上段に表示されている第2のQRコードに含まれている。情報端末1の画面の下段には、時刻(現在の時刻又は端末アプリケーションが生成する相対時刻)を示す時刻情報が表示されている。
FIG. 3 is a diagram showing an example of a screen when the
図4は、ユーザ端末4が画像管理装置3から取得した提示対象画像データを表示する場合の画面の一例を示す図である。図4に示す画面は、ユーザがイベント終了後にユーザ端末4を用いて閲覧することが想定されている。ユーザ端末4は、例えば画像管理装置3とネットワークNを介して接続されているパーソナルコンピュータである。画面Dには、複数の提示対象画像データP(P1,P2,P3,P4)が表示されている。複数の提示対象画像データPのそれぞれは、撮影者と撮影時刻とを示す情報が同時に表示されている。 FIG. 4 is a diagram showing an example of a screen when the user terminal 4 displays the presentation target image data acquired from the image management device 3. The screen shown in FIG. 4 is assumed to be viewed by the user using the user terminal 4 after the event ends. The user terminal 4 is, for example, a personal computer connected to the image management device 3 via a network N. A plurality of presentation target image data P (P1, P2, P3, P4) are displayed on the screen D. Information indicating the photographer and the shooting time is simultaneously displayed in each of the plurality of presentation target image data Ps.
複数の提示対象画像データPのそれぞれは、利用許諾情報である「A小学校運動会6年1組」を示すデータに関連付けられて記憶部に記憶されている。複数の提示対象画像データPは、画像管理装置3が「A小学校運動会6年1組」を含む閲覧要求情報をユーザ端末4から取得することにより、ユーザ端末4に送信される。
Each of the plurality of image data P to be presented is stored in the storage unit in association with the data indicating "A elementary school athletic meet
このように、撮像装置2が送信する動画像データには提示イベントIDが含まれており、画像管理装置3は、提示イベントIDが登録イベントIDと一致していることを条件として、動画像データを管理する。したがって、ユーザが、例えばイベントの終了後に自宅のユーザ端末4で動画像データを閲覧する場合に、イベントに参加した人がイベントで撮影した画像を閲覧できるが、イベントに参加していない人が不正に送信した画像はユーザ端末4に表示されない。
As described above, the moving image data transmitted by the
また、動画像データには利用許諾情報が含まれており、画像管理装置3は、利用許諾情報が示す範囲に含まれないユーザのユーザ端末4に対しては、動画像データを提供しない。画像管理装置3がこのように動作することで、利用許諾範囲外の人(例えば、「A小学校運動会6年1組」以外の人)に動画像データを見られることを防止できる。
Further, the moving image data includes the license information, and the image management device 3 does not provide the moving image data to the user terminal 4 of the user who is not included in the range indicated by the license information. By operating the image management device 3 in this way, it is possible to prevent people outside the licensed range (for example, people other than "A elementary school athletic meet
[情報端末1の構成]
図5は、情報端末1の構成を示す図である。情報端末1は、撮像部10と、記憶部11と、表示部12と、通信部13と、制御部14とを有する。制御部14は、許諾情報生成部141及びコード生成部142を有する。
[Configuration of information terminal 1]
FIG. 5 is a diagram showing the configuration of the
撮像部10は、被写体を撮像する撮像素子を含む。撮像部10は、例えば第1のQRコードを撮像し、第1のQRコードが含まれる撮像画像データを生成する。撮像部10は、作成した撮像画像データをコード生成部142に入力する。
The
記憶部11は、ROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体を有する。記憶部11は、制御部14が実行するプログラムを記憶している。記憶部11は、ユーザが表示部12を操作することにより設定した利用許諾情報を記憶する。
The
表示部12は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等である。表示部12は、制御部14の制御に基づいて第2のQRコードと現在の時刻とを表示する。また、表示部12は、例えば表示部12の表面にタッチパネルを有しており、ユーザがタッチした位置を示す信号に基づいてユーザの操作内容を特定し、特定したユーザの操作内容をコード生成部142に通知する。
The
通信部13は、ネットワークNを介して情報を送信するための通信デバイスを含む。通信デバイスは、例えば無線LANコントローラである。
The
制御部14は、例えばCPU(Central Processing Unit)である。制御部14は、記憶部11に記憶されているプログラムを実行することにより、許諾情報生成部141及びコード生成部142として機能する。制御部14は、現在の時刻又は端末アプリケーションが生成する相対時刻を示す時刻情報を表示部12に表示させる。
The
許諾情報生成部141は、表示部12から取得したユーザの操作内容に基づいて、提示対象画像データの利用可能範囲を示す利用許諾情報を生成する。許諾情報生成部141は、生成した利用許諾情報を記憶部11に記憶させるとともに、コード生成部142に通知する。
The license
コード生成部142は、撮像部10が生成した撮像画像データに含まれる第1のQRコードから抽出した提示イベントIDと許諾情報生成部141が生成する利用許諾情報に基づいて第2のQRコードを生成する。コード生成部142は、生成した第2のQRコードを表示部12に表示させる。
The
[撮像装置2の構成]
図6は、撮像装置2の構成を示す図である。撮像装置2は、撮像部21と、通信部22と、記憶部23と、制御部24とを有する。撮像部21は、CCD(Charge Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子、及びレンズを含む。撮像部21は、レンズに入力された光信号を電気信号に変換した後に当該電気信号をデジタルデータに変換して制御部24に出力する。デジタルデータは、例えば動画像データ又は静止画像データである。
[Configuration of Imaging Device 2]
FIG. 6 is a diagram showing the configuration of the
通信部22は、ネットワークNを介して情報を送信するための通信デバイスを含む。通信デバイスは、例えば無線LANコントローラである。通信部22は、例えば無線LAN通信網を用いて、制御部14が生成した動画像データを画像管理装置3に送信する。
The
記憶部23は、ROM、RAM及びハードディスク等の記憶媒体を有する。記憶部23は、後述する制御部24が実行するプログラムを記憶している。記憶部23は、制御部24の制御に基づいて、撮像部21が撮像した、第2のQRコードと現在の時刻又は端末アプリケーションが生成する相対時刻を示す時刻情報とが表示された情報端末1の画面の画像に基づく動画像データを記憶する。
The
制御部24は、例えばCPUである。制御部24は、記憶部23に記憶されているプログラムを実行することにより、画像生成部241及び画像送信部242として機能する。
The
画像生成部241は、イベントが行われる会場に提示された提示イベント識別情報である提示イベントIDに関連付けられた動画像データを生成する。また、画像生成部241は、時刻を示す時刻画像データを含む動画像データを生成する。画像生成部241は、例えば、提示イベントIDを含む第2のQRコードの画像データ及び時刻画像データが所定の時間(例えば動画像データの冒頭の時間帯)に含まれている動画像データを生成する。画像生成部241は、第1時間にわたって第2のQRコードの画像データが含まれており、第1時間の前後の第2時間にわたって時刻画像データが含まれた動画像データを生成してもよい。画像生成部241は、生成した撮像画像データを画像送信部242に出力する。
The
画像送信部242は、画像生成部241から取得した動画像データを、通信部22を介して画像管理装置3に送信する。
The
[画像管理装置3の構成]
図7は、画像管理装置3の構成を示す図である。画像管理装置3は、通信部31と、記憶部32と、制御部33とを有する。
[Configuration of image management device 3]
FIG. 7 is a diagram showing the configuration of the image management device 3. The image management device 3 has a
通信部31は、インターネット等の通信ネットワークに接続するためのインタフェースであり、ネットワークNを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLANコントローラである。通信部31は、複数の撮像装置2から動画像データを受信する。通信部31は、受信した動画像データに関連付けられる登録イベントIDを情報端末1から受信する。
The
記憶部32は、ROM、RAM及びハードディスク等の記憶媒体を有する。記憶部32は、後述する制御部33が実行するプログラムを記憶している。記憶部32は、複数の撮像装置2から取得した動画像データを記憶する。また、記憶部32は、予め取得した登録イベントID、並びに情報端末1から受信した提示イベントID及び利用許諾情報を記憶する。
The
制御部33は、例えばCPUである。制御部33は、記憶部32に記憶されているプログラムを実行することにより、識別情報取得部331、画像データ取得部332、許諾情報取得部333、時刻特定部334、音データ取得部335、同期処理部336、画像管理部337、画像提供部338、操作受付部339として機能する。
The
識別情報取得部331は、撮像画像データを管理する対象となるイベントを識別するための登録イベント識別情報である登録イベントIDを取得する。識別情報取得部331は、取得した登録イベントIDを画像管理部337に通知する。識別情報取得部331は、例えば、画像管理部337がアクセス可能な記憶部32に記憶させることにより、登録イベントIDを画像管理部337に通知する。
The identification
画像データ取得部332は、撮像装置2から動画像データを取得する。画像データ取得部332は、撮像装置2から取得した動画像データに含まれている情報格納画像データであるイベント情報画像データを解析することにより、イベント情報画像データに含まれている提示イベントIDを特定する。イベント情報画像データは、第2のQRコードが含まれている画像データである。
The image
画像データ取得部332は、第2のQRコードに含まれている提示イベントIDを特定する。画像データ取得部332は、特定した提示イベントIDと動画像データとを画像管理部337に出力する。
The image
また、画像データ取得部332は、時刻を示す時刻画像データを含む動画像データを取得する。時刻画像データは、例えばイベント情報画像に含まれていると同一であってもよい。画像データ取得部332は、取得した時刻を示す時刻画像データを時刻特定部334に出力する。
In addition, the image
許諾情報取得部333は、提示対象画像データの利用可能範囲を示す利用許諾情報を取得する。具体的には、許諾情報取得部333は、イベント情報画像を解析することにより利用許諾情報を取得する。より具体的には、許諾情報取得部333は、第2のQRコードに含まれている利用許諾情報を取得する。許諾情報取得部333は、例えば、イベント情報画像に電子透かしデータが含まれている場合、電子透かしデータを解析することにより利用許諾情報を取得してもよい。許諾情報取得部333は、抽出した利用許諾情報を画像管理部337に通知する。
The license
なお、許諾情報取得部333は、動画像データを画像データ取得部332に送信した撮像装置2に関連付けられた情報端末1から利用許諾情報を取得し、動画像データと、情報端末1から取得した利用許諾情報とを関連付けて記憶部32に記憶させてもよい。このように動作することで、画像管理装置3は、例えば動画像データを記憶部32に記憶させた後でも動画像データと利用許諾情報とを関連付けることができる。
The license
さらに、許諾情報取得部333は、動画像データに対応する撮像画像を撮像装置2が撮像した位置を示す第1位置情報である撮像位置情報を、動画像データを送信した撮像装置2から取得してもよい。許諾情報取得部333は、取得した撮像位置情報を画像管理部337に通知する。
Further, the license
時刻特定部334は、画像データ取得部332から取得した時刻画像データが示す時刻を特定することにより、当該時刻画像データに対応する動画像データが撮像された時刻を特定する。具体的には、時刻特定部334は、例えば時刻画像データに撮像されている数字の画像を抽出した後に、抽出した数字の画像を数字のデータに変換することにより時刻を特定する。時刻特定部334は、特定した時刻を同期処理部336に通知する。
The
音データ取得部335は、複数の動画像データのそれぞれに含まれる時刻画像データが示す時刻に同期した音データを取得する。時刻画像データが示す時刻に同期した音データは、動画像データの撮像と同じ時刻及び同じ場所で集音された音データであり、例えば、「A小学校運動会のリレー競技」の撮像において「リレー開始」の声音及び歓声音を含む音データである。音データ取得部335は、取得した音データを同期処理部336に出力する。なお、音データは、動画像データと同一のデータフレームにより撮像装置2から画像管理装置3に伝送されてもよい。この場合、例えば画像データ取得部332において音データが分離され、画像データ取得部332から音データ取得部335に音データが入力される。
The sound
音データ取得部335は、取得した音データに関連付けられた提示イベントIDを特定してもよい。音データ取得部335は、例えば、取得した音データに「A小学校運動会のリレー競技を開催します」というアナウンスが含まれていた場合、提示イベントIDを「A小学校運動会」と特定する。音データ取得部335は、特定した提示イベントIDを取得した音データに関連付けて同期処理部336に通知する。
The sound
同期処理部336は、画像データ取得部332が時刻画像データを含む複数の動画像データを取得した場合、時刻特定部334が特定した動画像データそれぞれの時刻に基づいて、複数の動画像データを同期させる。同期処理部336は、時刻特定部334が特定した時刻に基づいて、当該特定した時刻に対応する動画像データと、当該動画像データと異なる画像データである他データとを同期させる。他データは、例えば、当該動画像データを送信した撮像装置2と異なる撮像装置2が送信した動画像データである。同期処理部336は、画像データ取得部332が取得した動画像データに関連付けられた提示イベントIDと他データに関連付けられた提示イベントIDとが一致していることを条件として、動画像データと他データとを同期させる。
When the image
ここで、同期処理部336が複数の動画像データを同期させる処理について図8を用いて説明する。図8は、同期処理部336が複数の動画像データを同期させる動作について説明するための図である。図8(a)は、画像データ取得部332が取得した複数の動画像データP(P1,P2)を示している。動画像データP1は、例えば撮像装置2aが生成した動画像データであり、動画像データP2は、例えば撮像装置2bが生成した動画像データである。
Here, a process in which the
動画像データPのそれぞれは、イベント情報画像データと、イベントの内容を含むイベント画像データとを含む。例えば、動画像データP1は、イベント情報画像データとイベント画像データA11からA14とを含む。イベント画像データA11からA14のそれぞれは、例えば、動画像データを構成する画像フレームである。動画像データのフレームレートが60fpsである場合、1つのイベント画像データの長さは約0.17秒である。図8においては、1つのイベント画像データの長さが0.17秒である場合を例示している。 Each of the moving image data P includes event information image data and event image data including the content of the event. For example, the moving image data P1 includes event information image data and event image data A11 to A14. Each of the event image data A11 to A14 is, for example, an image frame constituting the moving image data. When the frame rate of the moving image data is 60 fps, the length of one event image data is about 0.17 seconds. FIG. 8 illustrates a case where the length of one event image data is 0.17 seconds.
画像データ取得部332が取得した動画像データPは、一例として、イベント情報画像データに含まれる時刻画像データが示す時刻の最小単位よりもフレームが更新される時間間隔が大きい動画像である。具体的には、1秒間に60枚のイベント画像データを有する動画像データの場合、時刻画像データが示す時刻の最小単位は、60分の1秒未満であり、例えば0.01秒である。このように、フレームが更新される時間間隔よりも小さい単位で変化する時刻を取得することで、同期処理部336は、イベント画像データの時刻を特定する精度を高くすることができる。
The moving image data P acquired by the image
イベント情報画像においては、実線矢印の位置で時刻が切り替わる。同期処理部336は、動画像データPのそれぞれの実線矢印が示す時刻を、時刻特定部334が特定した時刻として時刻特定部334から取得する。同期処理部336は、実線矢印が示す時刻を基準として、内部のタイマーにより時間をカウントすることにより、破線矢印で示すように、イベント画像データそれぞれに対応する撮像時刻を特定する。同期処理部336は、例えば、動画像データP1のイベント画像データA11の開始時刻が「10時30分49秒17」であると特定する。
In the event information image, the time is switched at the position of the solid arrow. The
同期処理部336は、イベント画像データごとに撮像時刻を特定してもよく、複数のイベント画像データごとに撮像時刻を特定してもよい。また、同期処理部336は、時刻画像データにおいて時刻が0.01秒ごとに変化する場合、各フレームの撮像時刻を0.01秒単位で特定してもよく、変化する時刻の時間間隔の整数倍ごとに各フレームの撮像時刻を特定してもよい。
The
同期処理部336は、同期処理部336が特定したイベント画像データのそれぞれの撮像時刻に基づいて、動画像データPのそれぞれに含まれるイベント画像データの時刻の位置を揃える。
The
図8(b)は、同期処理部336が、動画像データPのそれぞれに含まれるイベント画像データの時刻の位置を揃えた状態を示している。提示対象画像データP1は、動画像データP1に対応し、提示対象画像データP2は、動画像データP2に対応する。
FIG. 8B shows a state in which the
同期処理部336は、例えば、イベント画像データA12とイベント画像データB11との撮像時刻が「10時30分49秒34」と特定する。そして、イベント画像データA12とイベント画像データB11とが同じ時刻に画像管理装置3から出力されるように時刻の位置を揃える。このようにして、同期処理部336は、複数の動画像データを同期させる。
The
例えば「A小学校運動会の第1競技」を複数の撮像装置が撮像して動画像データを生成する場合、複数の動画像データのそれぞれは、異なる時刻から生成が開始されている可能性が高い。このように、開始時刻が異なる動画像データがユーザ端末4で同時に再生されると、動画像データごとに異なるシーンが表示されてしまう。 For example, when a plurality of imaging devices image the "first competition of the A elementary school athletic meet" and generate moving image data, it is highly possible that the generation of each of the plurality of moving image data is started at different times. In this way, when moving image data having different start times are simultaneously reproduced on the user terminal 4, different scenes are displayed for each moving image data.
そこで、同期処理部336は、時刻特定部334が特定した時刻に対応する動画像データと他データとを同期させることで、同一のシーンに対応する複数の異なる動画像データがユーザ端末4に表示されるようになる。また、同期処理部336は、複数の動画像データのそれぞれに含まれる提示イベントIDが一致することを条件として同期させることで、同じイベントの動画像データがユーザ端末4に表示されるようになる。
Therefore, the
ところで、画像管理装置3は、複数の異なるイベント会場で撮影された動画像データを管理する。画像管理装置3は、例えば「A小学校の第2競技」の動画像データ、及び「B小学校の第1競技」の動画像データを管理する。異なるイベント会場で撮影された動画像データが同時にユーザ端末4に表示されることがない場合、同期処理部336は異なるイベント会場で撮影された動画像データを同期させる必要がない。そこで、同期処理部336は、画像管理装置3が複数のイベントの動画像データを管理する場合に同一の競技を撮像して生成した複数の動画像データを同期させるために、動画像データに関連付けられた提示イベントIDを用いて、同期させる複数の動画像データを特定する。
By the way, the image management device 3 manages moving image data taken at a plurality of different event venues. The image management device 3 manages, for example, the moving image data of the “second competition of A elementary school” and the moving image data of the “first competition of B elementary school”. When the moving image data taken at different event venues is not displayed on the user terminal 4 at the same time, the
また、同期処理部336は、音データ取得部335が取得した動画像データに関連付けられた音データに基づいて複数の動画像データを同期させてもよい。例えば、音データ取得部335は、動画像データに関連付けられた第1音データと、当該動画像データとは異なる他データに関連付けられた第2音データとを取得する。同期処理部336は、第1音データ及び第2音データの両方に含まれている特徴的な音(例えばピストル音)に対応する画像フレームが一致するように複数の動画像データを同期させてもよい。
Further, the
また、同期処理部336は、複数の動画像データを同期させるか否かの判定に、第1音データ及び第2音データを用いてもよい。音データ取得部335は、第1音データに含まれる音声に基づいて、動画像データが撮像された場所において行われたイベントを識別するための第1提示イベント識別情報である第1提示イベントIDを特定する。続いて、音データ取得部335は、他データが撮像された場所において行われたイベントを識別するための第2提示イベント識別情報である第2イベントIDを特定する。音データ取得部335は、特定した第1イベントIDと第2イベントIDとを同期処理部336に通知する。同期処理部336は、音データ取得部335から取得した第1イベントIDと第2イベントIDとが一致していることを条件として、動画像データと他データとを同期させる。
Further, the
さらに、同期処理部336は、画像データ取得部332が時刻に関連付けられた表示データをさらに取得した場合、動画像データと、時刻特定部334が特定した時刻に関連付けられた表示データとを同期させた状態で合成した合成動画像データを生成してもよい。表示データは、例えば時刻に関連付けられたテキストデータやCG画像データ等であり、一例としてイベントのタイトルを示すテキストデータである。
Further, when the image
図7に戻って、画像管理部337は、撮像装置2が送信する動画像データを管理する。画像管理部337は、識別情報取得部331部から通知された提示イベントIDが、記憶部32に記憶された登録イベントIDと一致していることを条件として、提示イベントIDに関連付けて画像データ取得部332が取得した動画像データをユーザ端末4に提示する対象である提示対象画像データとして記憶部32に記憶させる。
Returning to FIG. 7, the
すなわち、画像管理部337は、登録イベントIDと同一の提示イベントIDを含む第2のQRコードの画像データが含まれている動画像データを提示対象画像データとして記憶部32に記憶させる。画像管理部337は、登録イベントIDと同一の提示イベントIDを含む第2のQRコードの画像データが含まれていない撮像画像データを提示対象画像データとして記憶部32に記憶させない。画像管理部337は、動画像データを提示対象画像データとして記憶部32に記憶させる場合、許諾情報取得部333から取得した利用許諾情報を動画像データに関連付けて記憶部32に記憶させる。
That is, the
画像管理部337がこのように動作することで、画像管理装置3は、利用許諾情報と閲覧要求情報とに基づいて撮像画像データを送信するかの判定を行うことにより、閲覧可能なユーザを制限することができる。
When the
画像管理部337は、提示イベントIDにイベントの位置を示す第2位置情報であるイベント位置情報が含まれている場合、イベント位置情報と動画像データに対応する撮像位置情報との差を算出してもよい。その場合、画像管理部337は、算出したイベント位置情報と撮像位置情報との差が所定の範囲内である場合に、動画像データを記憶部32に記憶する。所定の範囲は、例えばイベントが「A小学校の運動会」の場合、A小学校の敷地が含まれる最小の円の直径以下の範囲である。
When the presented event ID includes the event position information which is the second position information indicating the position of the event, the
画像管理部337がこのように動作することで、画像管理装置3は、イベントが開催されている場所で撮像された動画像データを関連付けて記憶することができる。また、画像管理装置3は、提示イベントIDが示すイベントとは異なるイベントを撮像した撮像画像データが関連付けられていたとしても、当該撮像画像データをユーザ端末4に提供することを抑制できる。
By operating the
また、画像管理部337は、イベントが行われた時間帯から所定の範囲内の時刻に送信された動画像データであることを条件として動画像データを記憶部32に記憶させてもよい。このようにするために、画像管理部337は、例えば、提示イベントIDに対応するイベントが行われた時間帯を示すイベント時間帯情報を情報端末1から取得し、動画像データを受信した時刻を示す受信時刻を画像データ取得部332から取得する。画像管理部337は、取得した受信時刻が、取得したイベント時間帯情報が示す時間帯に基づく所定の範囲内である場合に、動画像データを記憶部32に記憶させる。
Further, the
イベント時間帯情報が示す時間帯に基づく所定の範囲は、例えば「A小学校の運動会」が開始された時刻から、「A小学校の運動会」が終了してから1時間が経過した時刻までの時間帯である。画像管理部337がこのように動作することで、イベントに関係ない動画像データが誤って記憶部32に記憶されることが抑制される。
The predetermined range based on the time zone indicated by the event time zone information is, for example, the time zone from the time when the "athletic meet of A elementary school" is started to the time when one hour has passed since the end of the "athletic meet of A elementary school". Is. By operating the
画像提供部338は、ネットワークNを介してユーザ端末4に提示対象画像を送信する。画像提供部338は、例えば、提示対象画像データの閲覧要求を示す閲覧要求情報をユーザ端末4から受信した場合に、閲覧要求情報が登録イベントIDに対応する情報を含むことを条件として提示対象画像データをユーザ端末4に送信する。
The
具体的には、例えば登録イベントIDが「A小学校運動会」であり、閲覧要求情報が「A小学校運動会6年1組」である場合、閲覧要求情報は登録イベントIDに対応する情報を含む。この場合、画像提供部338は、ユーザ端末4から受信した閲覧要求情報である「A小学校運動会6年1組」に基づいて、ユーザ端末4に提示対象画像データを送信する。
Specifically, for example, when the registration event ID is "A elementary school athletic meet" and the browsing request information is "A elementary school athletic meet
画像提供部338は、閲覧要求情報を情報端末から受信した場合に、利用許諾情報が示す利用可能範囲であることを閲覧要求情報が示していることを条件として、提示対象画像データを情報端末に送信してもよい。具体的には、例えば利用許諾情報が「A小学校6年1組」であり、閲覧要求情報が「A小学校運動会6年1組」である場合、画像提供部338は、利用許諾情報が示す利用可能範囲を閲覧要求情報が示していると判定する。その結果、情報端末から受信した閲覧要求情報である「A小学校運動会6年1組」に基づいて、情報端末に提示対象画像データを送信する。
When the browsing request information is received from the information terminal, the
画像提供部338は、複数の提示対象画像データをユーザ端末4に送信する場合、同期処理部336が同期させた複数の動画像データと他データとをユーザ端末4に提供する。画像提供部338は、同期処理部336が動画像データと音データとを同期させた場合、複数の動画像データと音データとを同期させた状態でユーザ端末4に提供する。
When transmitting a plurality of presentation target image data to the user terminal 4, the
画像提供部338は、複数の動画像データと音データとを同期させた状態でユーザ端末4に提供する場合、例えば、複数の音データから1つを選択し、選択した音データと複数の動画像データとを関連付けて提供する。音は伝搬速度が光よりも遅いため、動画像データに対する音データの遅延時間は撮影場所によって異なる。画像提供部338が1つの音データをユーザ端末4に提供することで、少しだけずれた複数の音が再生されて聞きづらくなってしまうことを防止できる。画像提供部338は、例えば、複数の音データのうち最も早いタイミングの音データを選択する。このように動作することで、画像提供部338は、動画像データに対する音の遅延の少ない音をユーザ端末4に提供できる。
When the
また、画像提供部338は、例えば、画像データ取得部332が取得した動画像データが変化するタイミングに最も近いタイミングで変化する音データを選択してもよい。例えば、動画像データに「リレー開始」の合図を示す画像が含まれているとする。その場合、「リレー開始」の声音が含まれている音データのうち、「リレー開始」の合図を示す画像の時刻に最も近いタイミングで「リレー開始」の声音が含まれている音データ(すなわち、「リレー開始」という声を出している人に最も近い位置の撮像装置2で取得された音データ)を選択する。このように動作することで、画像管理装置3は、ユーザに、動画像データと音データとの時刻の差による違和感を与えづらくすることができる。
Further, the
さらに、画像提供部338は、取得した複数の集音位置情報が示す複数の位置のうち、取得した被写体位置情報が示す位置に最も近い位置に対応する集音位置情報に関連付けられた音データを選択してもよい。このようにするために、画像提供部338は、音データ取得部335が取得した複数の音データそれぞれが集音された位置を示す複数の集音位置情報を取得する。画像提供部338は、画像データ取得部332が取得した動画像データに含まれる被写体の位置を示す被写体位置情報を取得する。このように動作することで、動画像データに対する音の遅延の少ない音を提供できる。この構成は、例えばコンサート会場のステージで歌手の歌声を集音する場合に好適である。
Further, the
画像提供部338は、記憶部32に記憶された動画像データである提示対象画像データが時刻画像データを含む場合、動画像データのうち時刻画像データを除く部分動画像データをユーザ端末4に提供してもよい。例えば動画像データの冒頭部分に時刻画像データが含まれている場合、画像提供部338は、時刻画像データが終了した後にイベントが撮影された部分の動画像データをユーザ端末4に提供する。また、画像提供部338は、同期処理部336が、動画像データにテキストデータ又はCG画像データが合成された合成動画像データを生成した場合、生成された合成動画像データをユーザ端末4に送信する。
When the presentation target image data, which is the moving image data stored in the
操作受付部339は、ユーザ端末4から閲覧の要求と提示対象画像を取得するために行う操作とを受け付ける。操作受付部339は、受け付けた要求及び操作を画像提供部338に通知する。
The
操作受付部339は、提示対象画像データに音データが関連付けられている場合、提示対象画像データである動画像データに関連付けられた音データを取得するか、動画像データに関連付けられていない音データを取得するかを受け付ける。操作受付部339は、受け付けた操作を音データ取得部335に通知する。
When the sound data is associated with the image data to be presented, the
[画像管理部337の動作]
図9は、画像管理装置3が動画像データを記憶部32に記憶させる動作のフローチャートである。画像管理部337は、例えばイベントの主催者から登録イベントIDを取得して、記憶部32に記憶させる(S31)。画像管理部337は、登録イベントIDに関連付けて、イベントの開催時間帯及びイベントの開催場所等の情報を記憶部32に記憶させてもよい。その後、イベントが始まると、画像データ取得部332は動画像データの取得を開始する。画像データ取得部332は、撮像装置2から動画像データを受信した場合(S32のYES)、当該動画像データに含まれている提示イベントIDを抽出する(S33)。
[Operation of image management unit 337]
FIG. 9 is a flowchart of an operation in which the image management device 3 stores moving image data in the
続いて、許諾情報取得部333は、提示対象画像の利用可能範囲を示す利用許諾情報を取得する(S34)。許諾情報取得部333は、画像データ取得部332が取得した動画像データに含まれている情報格納画像を解析することにより利用許諾情報を取得する。動画像データに含まれている情報格納画像に電子透かしデータが含まれている場合、許諾情報取得部333は、当該電子透かしデータを解析することにより利用許諾情報を取得する。
Subsequently, the license
続いて、画像管理部337は、記憶部32に記憶された登録イベントIDと動画像データから抽出された提示イベントIDとが一致するか否かを判定する(S35)。登録イベントIDと提示イベントIDとが一致する場合(S35のYES)、画像管理部337は、取得した動画像データが撮像された位置を特定する処理に進む。登録イベントIDと提示イベントIDとが一致しない場合(S35のNO)、画像管理部337は、当該提示イベントIDに対応する動画像データを記憶部32に記憶させずに処理を終了する。
Subsequently, the
続いて、許諾情報取得部333は、動画像データに対応する撮像画像に対応する位置を示す第1位置情報である撮像位置情報を撮像装置2から取得する。画像管理部337は、当該撮像位置情報が示す位置と、提示イベントIDに含まれるイベントの位置を示す第2位置情報であるイベント位置情報が示す位置との差を算出する。
Subsequently, the license
撮像位置情報が示す位置とイベント位置情報が示す位置との差が閾値以下であり、撮影した位置が所定の範囲内である場合(S36のYES)、画像管理部337は、取得した動画像データを撮像した時間を特定する処理に進む。撮像位置情報が示す位置とイベント位置情報が示す位置との差が閾値以下ではない場合(S36のNO)、画像管理部337は、撮像位置情報を含む提示イベントIDに対応する動画像データを記憶部32に記憶させずに処理を終了する。
When the difference between the position indicated by the imaging position information and the position indicated by the event position information is equal to or less than the threshold value and the captured position is within a predetermined range (YES in S36), the
続いて、画像管理部337は、動画像データを受信した時刻を示す受信時刻を取得する。そして、画像管理部337は、取得した受信時刻が、予め記憶部32に記憶されたイベント時間帯情報が示す時間帯に基づいて定められた所定の範囲内である場合(S37のYES)、受信時刻に対応する提示イベントIDに関連付けられた動画像データを記憶部32に記憶させる(S38)。
Subsequently, the
なお、図9に示すフローチャートにおいては、S36及びS37において、撮影位置及び撮影時間帯が所定の範囲内であることを条件として画像管理部337が動画像データを記憶部32に記憶させたが、画像管理部337はS36及びS37を実行しなくてもよい。すなわち、画像管理部337は、登録イベントIDと提示イベントIDとが一致すると判定したことに応じて、動画像データを記憶部32に記憶させてもよい。
In the flowchart shown in FIG. 9, in S36 and S37, the
[同期処理部336の動作]
上述したように、複数のイベント参加者が撮像した画像のそれぞれは、撮像を開始した時刻が異なる。そのため、閲覧要求を送信したユーザは、イベントに関連付けられた動画像データだけを閲覧できたとしても、動画像データのそれぞれの開始時刻の差により音や動画像がずれてしまうので、複数の動画像を同時に閲覧しづらい。複数の動画像を同時に閲覧しやすくするために、同期処理部336が複数の動画像データを同期させる処理について、次に説明する。
[Operation of synchronization processing unit 336]
As described above, the images captured by the plurality of event participants have different times when the imaging starts. Therefore, even if the user who sent the viewing request can view only the moving image data associated with the event, the sound and the moving image will be shifted due to the difference in the start time of each of the moving image data. It is difficult to view the statue at the same time. Next, a process in which the
図10は、画像管理装置3が複数の動画像データを同期させてユーザ端末4に送信する動作のフローチャートである。画像データ取得部332は、複数の撮像装置2から複数の動画像データを取得する(S41)。画像データ取得部332は、取得した複数の動画像データのそれぞれに含まれるイベント情報画像データを取得する(S42)。画像データ取得部332は、取得した複数のイベント情報画像データのそれぞれを解析することにより、複数のイベント情報画像データのそれぞれに含まれている複数の提示イベントIDを特定する(S43)。
FIG. 10 is a flowchart of an operation in which the image management device 3 synchronizes a plurality of moving image data and transmits the moving image data to the user terminal 4. The image
画像データ取得部332は、取得した複数のイベント情報画像データを時刻特定部334に出力する。時刻特定部334は、取得した複数のイベント情報画像データのそれぞれが示す時刻を特定する。
The image
同期処理部336は、画像データ取得部332が特定した複数の提示イベントIDが一致していると判定した場合(S44のYES)、時刻特定部334が特定した複数の動画像データのそれぞれが撮像された時刻を取得する(S45)。
When the
同期処理部336は、画像データ取得部332が取得した複数の動画像データのそれぞれに含まれるイベント画像データに対応する撮像時刻を、時刻特定部334が特定した時刻に基づいて特定する(S46)。同期処理部336は、特定した撮像時刻に基づいて、複数の動画像データのそれぞれに含まれる複数の画像フレームにおける、時刻が一致する画像フレームを特定する(S47)。
The
同期処理部336は、時刻が一致する画像フレームが同じタイミングで再生されるように、複数の動画像データの位置を揃える(S48)。画像管理部337は、位置が揃えられた複数の動画像データを記憶部32に記憶させる(S49)。
The
[音データの選択]
図11は、画像提供部338が複数の動画像データと音データとを同期させた状態でユーザ端末4に送信する動作について説明するための図である。図11(a)は、画像データ取得部332が取得した複数の動画像データP(P1,P2)と、音データ取得部335が取得した複数の音データM(M1,M2)を示している。複数の動画像データPについては、図8(a)と同じである。
[Sound data selection]
FIG. 11 is a diagram for explaining an operation in which the
音データM1は、動画像データP1に関連付けられた音データである。音データ取得部335は、例えば、画像データ取得部332が動画像データP1に含まれるイベント画像データA11を取得した時刻と同じ時刻にイベント音データE11を取得する。
The sound data M1 is sound data associated with the moving image data P1. The sound
音データM2は、動画像データP2に関連付けられた音データである。音データ取得部335は、例えば、画像データ取得部332が動画像データP2に含まれるイベント画像データB11を取得した時刻より遅れてイベント音データF11を取得する。
The sound data M2 is sound data associated with the moving image data P2. The sound
図11(b)は、画像提供部338がユーザ端末4に送信する複数の動画像データと音データとを示している。提示対象画像データP1は、動画像データP1に対応し、提示対象画像データP2は、動画像データP2に対応し、提示対象音データM1は、音データM1に対応する。
FIG. 11B shows a plurality of moving image data and sound data transmitted by the
画像提供部338は、例えば、同期処理部336から取得した複数の動画像データPに同期した複数の音データMのうち、動画像データに対して遅延が少ない音データを選択する。図11(b)においては、音データM1と動画像データP1との遅延よりも音データM2と動画像データP2との遅延が大きい。したがって、画像提供部338は、音データM1を選択して複数の提示対象画像データに関連付けてユーザ端末4に出力する。
The
ところで、画像提供部338は、音データに関連付けられる動画像データの時刻に基づいて音データを選択してもよい。具体的には、複数の動画像データのうち、特定した時刻が早い動画像データに関連付けられた音データを選択してユーザ端末4に出力してもよい。
By the way, the
画像提供部338は、例えば、コンサートのように演奏曲の開始タイミングで複数の動画像データが同時に撮像される場合、画像提供部338は、動画像データと音データとの遅延が少ない音データを選択する。一方、運動会のように、撮影者によって撮像を開始するタイミングが異なる場合は、開始時刻が早い動画像データに関連付けられた音データを選択する。画像提供部338は、例えば操作受付部339が受け付けた操作内容に基づいて、どのような音データを選択するかを決定してもよい。画像提供部338がこのように動作することで、動画像データが撮像されるイベントの内容に適した音データを選択することができる。
When a plurality of moving image data are simultaneously imaged at the start timing of a performance song, for example, in the
[変形例1]
以上の説明においては、画像管理装置3が、運動会等のイベント会場で撮影された動画像データと当該動画像データに関連付けられた音データとをユーザ端末4に提供する用途で用いられる場合を例示したが、画像管理装置3の用途はこれに限らない。イベントが、一人又は複数のユーザが自宅や店舗等で歌や踊りを撮影するものであり、自宅や店舗等がイベント会場であってもよい。この場合、画像管理装置3は、音楽に合わせて人が歌う動く場面が撮影された動画像データと音楽データとをユーザ端末4に提供する用途で用いられている。音楽データは、例えば、ユーザが単独で開催するイベントを識別するためのイベント識別情報や動画像データに関連付けられた音データに含まれる音楽と同じであり、撮影場所とは異なる場所で録音または集音されたデータである。音楽データは、画像管理装置3が予め記憶部32に記憶させていてもよい。
[Modification 1]
In the above description, the case where the image management device 3 is used for providing the moving image data taken at an event venue such as an athletic meet and the sound data associated with the moving image data to the user terminal 4 is exemplified. However, the application of the image management device 3 is not limited to this. The event is for one or more users to shoot a song or dance at their home or store, and the home or store may be the event venue. In this case, the image management device 3 is used for providing the user terminal 4 with moving image data and music data obtained by capturing a moving scene in which a person sings in time with music. The music data is the same as the music included in the sound data associated with the event identification information or the moving image data for identifying the event held independently by the user, and is recorded or collected at a place different from the shooting place. It is the sounded data. The music data may be stored in the
図12は、動画像データに含まれる時刻情報に関連付けられた音楽データを提供する場合の画像管理装置3の構成を示す図である。図12の画像管理装置3は、音楽データ取得部340を有する点で図7に示す画像管理装置3と異なり、他の点において同じである。
FIG. 12 is a diagram showing a configuration of an image management device 3 when providing music data associated with time information included in moving image data. The image management device 3 of FIG. 12 is different from the image management device 3 shown in FIG. 7 in that it has a music
音楽データ取得部340は、時刻に関連付けられた第1音楽データを取得する。同期処理部336は、取得した第1音楽データと動画像データとを同期させる。同期処理部336は、動画像データと、時刻特定部334が特定した時刻に関連付けられた第1音楽データとを同期させた状態で、第1音楽データと動画像データとを合成させた合成動画コンテンツを生成する。画像提供部338は、同期処理部336が生成した合成動画コンテンツをユーザ端末4に出力する。
The music
以下、画像管理装置3が、例えば、音楽、伴奏、又は器楽曲に合わせて歌っているシーンが撮像されて生成された動画像データに音楽データが合成された合成動画コンテンツをユーザ端末4に提供する場合の処理を説明する。 Hereinafter, the image management device 3 provides the user terminal 4 with a composite moving image content in which music data is synthesized with moving image data generated by capturing an image of a scene singing along with music, accompaniment, or instrumental music, for example. The processing in the case of doing so will be described.
動画像データの撮影者であるユーザは、撮像装置2において、ユーザ自身もしくは第三者が設定した基準時刻に対する所定の相対時刻が到来した場合に自身の情報端末1にて第1音楽データと同じ時刻情報に関連付けられた第2音楽データが再生されるように設定しておく。基準時刻は、例えばユーザが情報端末1において所定のアプリケーションソフトウェアの音楽再生機能を起動した時刻であり、音楽再生機能が起動すると、情報端末1は、−10秒、−9秒、・・・のように変化する相対時刻を表示する。情報端末1は、相対時刻の表示を開始してから所定の時間が経過した後に音楽の再生を開始する。例えば、相対時刻の表示を開始してから10秒が経過して相対時刻が0秒になった時点で第2音楽データの再生を開始する。
The user who is the photographer of the moving image data is the same as the first music data on his / her
ユーザは、音楽作成機能を起動させた後に、自身の情報端末1に表示された時刻画像データを撮像装置2で撮影してから、ユーザ自身が写るように撮像装置2をセットする。ユーザは、情報端末1が第2音楽データの再生を開始すると、ユーザ自身が撮影されている状態で、第2音楽データに基づく音楽に合わせて自身が歌い始める。撮像装置2は、このようにして作成した動画像データを画像管理装置3に送信する。
After activating the music creation function, the user captures the time image data displayed on the
このような動画像データには、第2音楽データに基づく音楽以外の環境音も含まれているので、このままでは動画コンテンツとしての質が低い。そこで、画像管理装置3は、動画像データに関連付けられている音データを、第2音楽データに対応する第1音楽データに置換することで、質の高い合成動画コンテンツを生成する。 Since such moving image data includes environmental sounds other than music based on the second music data, the quality of the moving image content is low as it is. Therefore, the image management device 3 generates high-quality synthetic moving image content by replacing the sound data associated with the moving image data with the first music data corresponding to the second music data.
撮像装置2から画像管理装置3に動画像データが送信されると、画像データ取得部332は、第1音楽データに対応する第2音楽データに基づく音楽を情報端末1で再生する前に情報端末1に表示された時刻画像データを含む動画像データを取得する。ここで用いられる時刻画像データは、第1音楽データ及び第2音楽データの開始タイミングに同期している。第2音楽データは、情報端末1が有しており、情報端末1において再生する音楽データである。同期処理部336は、動画像データと、時刻特定部334が特定した第2音楽データに同期した時刻に関連付けられた第1音楽データとを同期させた状態で合成画像コンテンツを作成する。
When the moving image data is transmitted from the
具体的には、同期処理部336は、時刻画像データに基づいて、動画像データに含まれる時刻画像データ以外の画像データ(すなわち画像フレーム)の撮像開始時刻を特定し、特定した動画フレームの撮像開始時刻に第1音楽データが開始するように、動画像データと第1音楽データとを同期させることにより、合成画像コンテンツを作成する。画像提供部338は、このようにして作成された合成画像コンテンツをユーザ端末4に提供する。
Specifically, the
[変形例2]
上記の説明においては、情報端末1がGPS衛星から受信した電波に基づく絶対時刻又は端末アプリケーションが生成する相対時刻を表示する場合を例示したが、情報端末1が表示する時刻は、イベントにおいて定められた基準時刻に対する相対時刻であってもよい。例えば、複数の情報端末1のそれぞれは、複数のグループのいずれかに属し、時刻表示部として機能する表示部12は、同一のグループに属する情報端末1が取得する時刻画像データが示す時刻に関連付けられた時刻を表示する。
[Modification 2]
In the above description, the case where the
例えば、同一のグループに属する複数の情報端末1のうち1台の情報端末1が同一のグループに属する他の情報端末1に、内部時計が発生する時刻を示す時刻情報を定期的に送信する。他の情報端末1は、受信した時刻情報に基づく時刻画像データを表示する。
For example, one of the plurality of
[変形例3]
上記の説明においては、撮像装置2が提示イベントIDを含む第2のQRコードの画像データ及び時刻画像データが含まれている動画像データを画像管理装置3に送信する場合を例示したが、情報端末1が撮像装置2の機能を有しており、情報端末1が第1QRコードを撮影し、当該第1QRコードの画像データ及び時刻画像データが含まれている動画像データを画像管理装置3に送信してもよい。
[Modification 3]
In the above description, the case where the
図13は、変形例3に係る画像管理システムS2の構成を示す図である。図13に示すように、情報端末1a〜1cのそれぞれは、提示イベントIDを含む第1QRコードを撮影して作成した動画像データを画像管理装置3に送信する。さらに、情報端末1a〜1cは、図1に示したユーザ端末4として機能することも可能であり、情報端末1a〜1cは、画像管理装置3が管理する動画像データを表示することもできる。このように、画像管理システムS2においては、情報端末1と画像管理装置3を用いて、図1に示した構成と同等の処理を実現することができる。
FIG. 13 is a diagram showing a configuration of the image management system S2 according to the third modification. As shown in FIG. 13, each of the
画像管理システムS2においては、撮像装置2が実行可能な各種の処理を情報端末1が実行してもよい。例えば、画像管理装置3の許諾情報取得部333は、動画像データに対応する撮像画像を情報端末1が撮像した位置を示す撮像位置情報を、動画像データを送信した情報端末1から取得してもよい。
In the image management system S2, the
なお、情報端末1が第1QRコード及び時刻画像データを生成するとともに、動画像データを生成し、生成した第1QRコードの画像データ及び時刻画像データが含まれている動画像データを画像管理装置3に送信してもよい。
The
[変形例4]
情報端末1は、提示イベントIDが含まれておらず、利用許諾情報が含まれるQRコードを生成してもよい。情報端末1は、例えば情報端末1のユーザが属するグループに対応する利用許諾情報を示すQRコードを生成する。この場合、画像管理部337は、予め登録された利用許諾情報が動画像データに含まれていることを条件として、画像データ取得部332が取得した動画像データをユーザ端末4に提示する対象である提示対象画像データとして記憶部32に記憶させてもよい。そして、画像提供部338は、閲覧要求情報をユーザ端末4から受信した場合に、利用許諾情報が示す利用可能範囲であることを閲覧要求情報が示していることを条件として、提示対象画像データをユーザ端末4に送信する。情報端末1及び画像管理装置3がこのように動作することで、登録イベントIDを用いることなく、同じグループのメンバー内で動画像データを共有することが可能になる。
[Modification example 4]
The
[変形例5]
上記の説明においては、同期処理部336が、時刻画像データを含む複数の動画像データに関連付けられた複数の音データに共通して含まれている特徴的な音のタイミングに基づいて複数の動画像データを同期させる場合を例示したが、同期処理部336が複数の動画像データと、動画像データに関連付けられていない音データとを同期させてもよい。
[Modification 5]
In the above description, the
音データに、時刻を示す音時刻データが含まれており、同期処理部336は、時刻画像データが示す時刻と音時刻データが示す時刻とに基づいて、時刻画像データを含む複数の動画像データと音時刻データを含む音データとを同期させてもよい。音時刻データは、例えばイベント会場で集音した時報音又はGPS衛星等から取得した電波に基づいて特定した時刻を示すデータである。音時刻データは可聴音でもよく、可聴帯域以外の帯域の音を表すデータであってもよい。また、音時刻データは、音をデジタル値に変換したデータであってもよく、時刻を表すテキストデータであってもよい。
The sound data includes sound time data indicating the time, and the
音データ取得部335又は同期処理部336は、音時刻データを含む音データを取得して、取得した音データに含まれる音時刻データが示す時刻を特定する。同期処理部336は、音時刻データが示す時刻と時刻特定部334が特定した時刻画像データが示す時刻とに基づいて、音時刻データを含む音データと時刻特定部334が特定した時刻に対応する複数の動画像データとを同期させる。
The sound
具体的には、同期処理部336は、時刻画像データが示す時刻を基準にして、動画像データ内の各フレームの時刻を特定し、音時刻データが示す時刻を基準にして、音データのそれぞれの部分の時刻を特定する。同期処理部336は、同じ時刻に対応する動画像データ内のフレームと音データとを関連付ける。
Specifically, the
このように動作することで、画像管理装置3は、時刻画像データとは異なる時刻情報が示す時刻に同期した音データであっても、当該音データと時刻画像データを含む複数の動画像データとを同期させることができる。なお、画像管理装置3は、時刻画像データを表示する情報端末1が生成した、時刻画像データが示す時刻に同期した音時刻データを含む音データを、情報端末1から取得することもできる。このような構成は、例えば音データだけを音源の近くで収集することができる環境において好適である。
By operating in this way, the image management device 3 can generate a plurality of moving image data including the sound data and the time image data even if the sound data is synchronized with the time indicated by the time information different from the time image data. Can be synchronized. The image management device 3 can also acquire sound data including sound time data synchronized with the time indicated by the time image data generated by the
[本実施形態の画像管理装置3による効果]
以上説明したように、画像管理装置3は、時刻を示す時刻画像データを含む動画像データを取得する画像データ取得部332と、時刻画像データが示す時刻を特定する時刻特定部334と、時刻特定部334が特定した時刻に基づいて複数の動画像データを同期させる同期処理部336とを有する。そして、画像提供部338が、同期処理部336が同期させた複数の動画像をユーザ端末4に提供する。
[Effect of the image management device 3 of this embodiment]
As described above, the image management device 3 includes an image
その結果、ユーザ端末4のユーザは、同期した状態の複数の動画像データを閲覧することができるので、複数の動画像データを閲覧しやすくなる。 As a result, the user of the user terminal 4 can browse a plurality of moving image data in a synchronized state, so that it becomes easy to browse a plurality of moving image data.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist thereof. be. For example, all or a part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination also has the effect of the original embodiment.
1 情報端末
2 撮像装置
3 画像管理装置
4 ユーザ端末
10 撮像部
11 記憶部
12 表示部
13 通信部
14 制御部
21 撮像部
22 通信部
23 記憶部
24 制御部
31 通信部
32 記憶部
33 制御部
141 許諾情報生成部
142 コード生成部
241 画像生成部
242 画像送信部
331 識別情報取得部
332 画像データ取得部
333 許諾情報取得部
334 時刻特定部
335 音データ取得部
336 同期処理部
337 画像管理部
338 画像提供部
339 操作受付部
340 音楽データ取得部
1
Claims (13)
前記第1音楽データと同期した第2音楽データに基づく音楽を情報端末で再生する前に前記情報端末に表示された、前記第2音楽データの開始タイミングを示す時刻を示す時刻画像データと、前記時刻画像データに続く合成用動画像データと、前記第2音楽データと、を含む動画像データを取得する画像データ取得部と、
前記時刻画像データが示す時刻を特定する時刻特定部と、
前記時刻特定部が特定した時刻に基づいて特定される前記開始タイミングに同期して、前記動画像データにおける前記合成用動画像データと、前記第1音楽データとを同期させた状態で、前記動画像データに含まれる音データを前記第1音楽データに置き換えた合成動画コンテンツを作成する同期処理部と、
前記同期処理部が同期させた状態で前記合成動画コンテンツを情報端末に提供する画像提供部と、
を有する画像管理装置。 The music data acquisition unit that acquires the first music data,
Time image data indicating a time indicating the start timing of the second music data displayed on the information terminal before playing music based on the second music data synchronized with the first music data on the information terminal, and the above An image data acquisition unit that acquires moving image data including the moving image data for composition following the time image data and the second music data, and
A time identification unit that specifies the time indicated by the time image data, and
The moving image is in a state in which the synthetic moving image data in the moving image data and the first music data are synchronized in synchronization with the start timing specified by the time specifying unit based on the specified time. A synchronization processing unit that creates synthetic video content in which the sound data included in the image data is replaced with the first music data, and
An image providing unit that provides the synthetic video content to an information terminal in a state in which the synchronization processing unit is synchronized,
Image management device with.
前記同期処理部は、前記時刻特定部が特定した前記動画像データそれぞれの時刻に基づいて、複数の前記動画像データを同期させる、
請求項1に記載の画像管理装置。 The image data acquisition unit acquires a plurality of the moving image data including the time image data, and obtains the moving image data.
The synchronization processing unit synchronizes a plurality of the moving image data based on the respective times of the moving image data specified by the time specifying unit.
The image management device according to claim 1.
前記同期処理部は、前記動画像データに関連付けられた前記提示イベント識別情報と前記動画像データと異なる画像データである他データに関連付けられた提示イベント識別情報とが一致していることを条件として、前記動画像データと前記他データとを同期させる、
請求項2に記載の画像管理装置。 The image data acquisition unit further acquires the presentation event identification information presented at the place where the moving image data is captured.
The synchronization processing unit is subject to the condition that the presented event identification information associated with the moving image data and the presented event identification information associated with other data which is image data different from the moving image data match. , Synchronize the moving image data with the other data,
The image management device according to claim 2.
前記同期処理部は、前記第1提示イベント識別情報と前記第2提示イベント識別情報とが一致していることを条件として、前記動画像データと前記他データとを同期させる、
請求項1又は2に記載の画像管理装置。 The first sound data associated with the moving image data and the second sound data associated with other data which is image data different from the moving image data are acquired, and based on the sound included in the first sound data. Therefore, the first presentation event identification information for identifying the event performed at the place where the moving image data is captured is specified, and the other data is captured based on the sound included in the second sound data. It also has a sound data acquisition unit that identifies the second presentation event identification information for identifying the event that took place at the location.
The synchronization processing unit synchronizes the moving image data with the other data on condition that the first presented event identification information and the second presented event identification information match.
The image management device according to claim 1 or 2.
前記同期処理部は、前記動画像データと、前記時刻特定部が特定した時刻に関連付けられた前記表示データとを同期させた状態で合成した合成動画像データを生成し、
前記画像提供部は、前記合成動画像データを情報端末に送信する、
請求項1から4のいずれか一項に記載の画像管理装置。 The image data acquisition unit further acquires display data associated with the time, and obtains the display data.
The synchronization processing unit generates composite moving image data in which the moving image data and the display data associated with the time specified by the time specifying unit are synchronized with each other.
The image providing unit transmits the composite moving image data to the information terminal.
The image management device according to any one of claims 1 to 4.
前記画像提供部は、前記合成動画コンテンツを情報端末に送信する、
請求項1から5のいずれか一項に記載の画像管理装置。 The synchronization processing unit generates synthetic moving image content synthesized in a state in which the moving image data and the first music data associated with the time specified by the time specifying unit are synchronized with each other.
The image providing unit transmits the synthetic moving image content to the information terminal.
The image management device according to any one of claims 1 to 5.
前記画像提供部は、前記動画像データのうち前記時刻画像データを除く部分動画像データを前記情報端末に提供する、
請求項1から6のいずれか一項に記載の画像管理装置。 The image data acquisition unit acquires the moving image data including the time image data, and obtains the moving image data.
The image providing unit provides the information terminal with partial moving image data excluding the time image data among the moving image data.
The image management device according to any one of claims 1 to 6.
請求項7に記載の画像管理装置。 The image data acquisition unit acquires the moving image data having a time interval in which the frame is updated larger than the minimum unit of the time indicated by the time image data.
The image management device according to claim 7.
前記画像管理装置は、
前記第1音楽データを取得する音楽データ取得部と、
前記第1音楽データと同期した第2音楽データに基づく音楽を前記情報端末で再生する前に前記情報端末に表示された、前記第2音楽データの開始タイミングを示す時刻を示す時刻画像データと、前記時刻画像データに続く合成用動画像データと、前記第2音楽データと、を含む複数の動画像データを複数の前記情報端末それぞれから取得する画像データ取得部と、
前記時刻画像データが示す時刻を特定する時刻特定部と、
前記時刻特定部が特定した時刻に基づいて特定される前記開始タイミングに同期して、前記複数の動画像データにおける前記合成用動画像データと、前記第1音楽データとを同期させた状態で、前記動画像データに含まれる音データを前記第1音楽データに置き換えた複数の合成動画コンテンツを作成する同期処理部と、
前記同期処理部が同期させた状態で前記複数の合成動画コンテンツを情報端末に提供する画像提供部と、
を有し、
複数の前記情報端末それぞれは、
他の前記情報端末と同期した時刻を表示する時刻表示部と、
前記第2音楽データを再生する音楽データ再生部と、
を有する、
画像管理システム。 It is provided with an image management device that provides the information terminal with the first music data and the moving image data in a synchronized state, and a plurality of the information terminals .
The image management device is
The music data acquisition unit that acquires the first music data, and
Time image data indicating a time indicating the start timing of the second music data displayed on the information terminal before playing the music based on the second music data synchronized with the first music data on the information terminal, and An image data acquisition unit that acquires a plurality of moving image data including the combined moving image data following the time image data and the second music data from each of the plurality of information terminals.
A time identification unit that specifies the time indicated by the time image data, and
In a state in which the composite moving image data in the plurality of moving image data and the first music data are synchronized in synchronization with the start timing specified by the time specifying unit based on the specified time. A synchronization processing unit that creates a plurality of synthetic moving image contents in which the sound data included in the moving image data is replaced with the first music data, and a synchronization processing unit.
An image providing unit that provides the plurality of synthetic video contents to an information terminal in a state in which the synchronization processing unit is synchronized, and an image providing unit.
Have a,
Each of the plurality of information terminals
A time display unit that displays the time synchronized with the other information terminal ,
A music data playback unit that reproduces the second music data,
To have a,
Image management system.
前記時刻表示部は、同一の前記グループに属する前記情報端末が取得する前記時刻画像データが示す時刻に関連付けられた時刻を表示する、
請求項9に記載の画像管理システム。 Each of the plurality of the information terminal, belong to one of a plurality of groups,
The time display unit displays the time associated with the time indicated by the time image data acquired by the information terminal belonging to the same group.
The image management system according to claim 9.
請求項9又は10に記載の画像管理システム。 The time display unit displays an absolute time based on data indicating a time acquired via a communication line.
Image management system as recited in claim 9 or 1 0.
請求項9から11のいずれか一項に記載の画像管理システム。 The music data reproduction unit reproduces the second music data after the time display unit displays the time synchronized with the other information terminal.
The image management system according to any one of claims 9 to 11.
第1音楽データを取得するステップと、
前記第1音楽データと同期した第2音楽データに基づく音楽を情報端末で再生する前に前記情報端末に表示された、前記第2音楽データの開始タイミングを示す時刻を示す時刻画像データと、前記時刻画像データに続く合成用動画像データと、前記第2音楽データと、を含む動画像データを取得するステップと、
前記時刻画像データが示す時刻を特定するステップと、
特定した時刻に基づいて特定される前記開始タイミングに同期して、前記動画像データにおける前記合成用動画像データと、前記第1音楽データとを同期させた状態で、前記動画像データに含まれる音データを前記第1音楽データに置き換えた合成動画コンテンツを作成するステップと、
前記合成用動画像データと前記第1音楽データとを同期させた状態で前記合成動画コンテンツを情報端末に提供するステップと、
を有する画像管理方法。 Computer runs,
The step to acquire the first music data and
Time image data indicating a time indicating a start timing of the second music data displayed on the information terminal before playing music based on the second music data synchronized with the first music data on the information terminal, and the above A step of acquiring moving image data including the moving image data for composition following the time image data and the second music data, and
The step of specifying the time indicated by the time image data and
Synchronized with the start timing specified based on the specified time, the moving image data for synthesis in the moving image data and the first music data are included in the moving image data in a synchronized state. The step of creating a synthetic video content in which the sound data is replaced with the first music data, and
A step of providing the composite moving image content to an information terminal in a state where the composite moving image data and the first music data are synchronized, and
Image management method having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020109134A JP6909903B1 (en) | 2020-06-24 | 2020-06-24 | Image management device, image management system and image management method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020109134A JP6909903B1 (en) | 2020-06-24 | 2020-06-24 | Image management device, image management system and image management method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6909903B1 true JP6909903B1 (en) | 2021-07-28 |
JP2022006724A JP2022006724A (en) | 2022-01-13 |
Family
ID=76969082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020109134A Active JP6909903B1 (en) | 2020-06-24 | 2020-06-24 | Image management device, image management system and image management method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6909903B1 (en) |
-
2020
- 2020-06-24 JP JP2020109134A patent/JP6909903B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2022006724A (en) | 2022-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097416B (en) | Digital on demand device with karaoke and photo booth functionality and related methods | |
JP7534476B2 (en) | Video display device and display control method thereof | |
JP2017200200A (en) | Content reproduction method, content reproduction device, and content reproduction program | |
JP2009124206A (en) | Multimedia composing data generation device | |
CN103460128A (en) | Alternative audio | |
JP2014085644A (en) | Karaoke system | |
JP2023153790A (en) | program | |
JP6909903B1 (en) | Image management device, image management system and image management method | |
JP6909904B1 (en) | Image management device, image management system and image management method | |
JP6909902B1 (en) | Image management device, image management system and image management method | |
KR101680551B1 (en) | Method for creating and automatic vending private music video | |
JP7149193B2 (en) | karaoke system | |
JP2010262072A (en) | Digital television-compatible karaoke system | |
JP6849851B2 (en) | Shooting system, shooting device and user shooting method | |
JP2017032725A (en) | Karaoke system | |
TWI221731B (en) | Automatic AV production supply system and method thereof | |
JP2013182073A (en) | Collaboration singing video recording system | |
WO2022176633A1 (en) | Video editing device, video editing method, and computer program | |
JP6146162B2 (en) | Image processing apparatus, imaging apparatus, image processing method, imaging method, and image processing program | |
WO2024057398A1 (en) | Presentation video adjustment apparatus, presentation video adjustment method, and presentation video adjustment program | |
JP7148883B2 (en) | Image provision system | |
JP6424945B2 (en) | Imaging device, imaging method, and imaging program | |
KR20060116624A (en) | Apparatus for experiencing famous scene and method thereof | |
JP2009020234A (en) | Image display system and image display method | |
CN113542791A (en) | Personalized video collection generation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201120 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201120 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210202 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210615 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210705 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6909903 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |