最初に、本発明の一実施形態に係る画像編集装置を含む画像管理システムの概要を、図1を参照して説明する。図1に示す画像管理システム1には、撮影装置2(2a、2b)、画像編集装置3、画像管理サーバ4、コード表示端末5、ユーザ端末6、及び主催者装置7が含まれる。
撮影装置2は、例えば、静止画を撮影するためのデジタルカメラや、動画を撮影するためのデジタルムービーカメラ(ビデオカメラ)といった撮影装置である。一眼レフカメラやスマートフォンなども撮影装置2に含まれるが、これらの装置は、静止画だけでなく動画も撮影することが可能である。
図1の例では、一眼レフカメラ(撮影装置2a−1)にビデオカメラ(撮影装置2a−2)が取り付けられた撮影装置2aが示されているが、この撮影装置2aは、1人のカメラマンにより、同じ撮影対象を静止画と動画で撮影するためのものである。例えば、カメラマンは、一眼レフカメラ(撮影装置2a−1)の移動・撮影操作して、撮影対象について所望の角度で静止画を撮影すると、この間、一眼レフカメラ(撮影装置2a−1)に取り付けられたビデオカメラ(撮影装置2a−2)は、一眼レフカメラ(撮影装置2a−1)の移動操作に応じて同じ撮影対象に向けられ、そこで動画を撮影し続けることになる。
一眼レフカメラ(撮影装置2a−1)により撮影された撮影データ12a−1は、ここでは静止画のデータであり、可搬型記録媒体(例えば、SDカード)やネットワークを介して画像編集装置3に入力される。ビデオカメラ(撮影装置2a−2)により撮影された撮影データ12a−2は、動画のデータであり、これも、可搬型記録媒体やネットワークを介して画像編集装置3に入力される。
図1の例では、撮影装置2aに加え、他のカメラマンが操作する一眼レフカメラ(撮影装置2b)が示されている。この一眼レフカメラ(撮影装置2b)も、カメラマンの移動・撮影操作により、撮影対象について所望の角度で静止画が撮影される。一眼レフカメラ(撮影装置2b)により撮影された撮影データ12bは、ここでは静止画のデータであり、これも、可搬型記録媒体やネットワークを介して画像編集装置3に入力される。
また、図1の例では、一眼レフカメラ(撮影装置2a−1)とビデオカメラ(撮影装置2a−2)は、コード表示端末5のディスプレイに示されたコード10を撮影する。カメラマンは、一眼レフカメラ(撮影装置2a−1)でこのコード10を画角に収め、シャッターを押し、それとともに、ビデオカメラ(撮影装置2a−2)の動画撮影開始の操作を行って、コード10の映像をビデオカメラで記録する。
同様に、一眼レフカメラ(撮影装置2b)のカメラマンは、コード表示端末5のディスプレイに示されたコード10を撮影する。ここで、撮影装置2a−1、2a−2でコード10を撮影するコード表示端末5と、撮影装置2bでコード10を撮影するコード表示端末5は、基本的に同じ装置である。ただし、後述するように、撮影のタイミングが異なれば、同じコード表示端末5で表示されたコード10でも、その表示内容は異なったものとなる。
その後、それぞれの撮影装置2によって、イベントなどの撮影対象の撮影を行う。なお、この例では、最初に、それぞれの撮影装置2によってコード10の撮影を行うものとするが、イベントを撮影している途中や最後に、コード10の撮影を行ってもよい。
画像編集装置3は、入力した撮影データ(12a−1、12a−2、12b等)を同期させる。このような、画像編集装置3の同期処理は、入力した撮影データのそれぞれに含まれるコード10の撮影画像に基づいて行われるものであり、詳細は後で説明する。なお、本明細書において、撮影データを同期させるとは、複数の撮影データに含まれる各画像データを、共通の時間軸で(共通した時間の流れに沿って)揃えて管理することを意味する。
画像編集装置3は、それぞれの撮影データを同期した後、それらの撮影データを用いて1つの動画を編集できるコンテンツ編集画面を表示する。編集担当者は、このコンテンツ編集画面で所定の操作を行うことによって、例えば、動画のデータである撮影データ12a−2に対して不要な部分をカットしたりエフェクトを追加するとともに、静止画のデータである撮影データ12a−1の1つを、動画のなかの対応するタイミング(同じ時刻のタイミング)で数秒間再生するように指定する。
このような編集作業において、撮影データ12a−1のそれぞれは、撮影データ12a−2の各タイミングに同期して対応付けられているので、静止画の単純な挿入であれば、編集担当者は、静止画を挿入するタイミングを指定したり調整したりする必要がない。
画像編集装置3は、編集担当者による編集作業が終了した後、編集担当者の操作に応じて、編集結果としてのデータを、コンテンツデータ13として外部記憶装置に記憶する。
画像編集装置3で記憶されたコンテンツデータ13は、その後、画像管理サーバ4の外部記憶装置に送信され、ユーザ端末6からの再生リクエスト15を受信すると、指定されたコンテンツデータ13を適宜、そのユーザ端末6に送信し、そこで、ユーザ端末6におけるコンテンツデータ13の再生が実行される。
ユーザは、ここでは、イベントの当事者や参加者であり、所望のコンテンツデータ13をユーザ端末6で再生することができる。ユーザ端末6は、例えば、スマートフォンやタブレット端末などの携帯機器であってもよいし、据え置き型のPC(パーソナルコンピュータ)等であってもよい。
この例では、ユーザがユーザ端末6を用いてコンテンツデータ13を再生しようとする場合、イベントごとに利用申請を行う必要があり、その利用申請が、当該イベントの主催者により承認された場合に、そのユーザのユーザIDを用いて当該イベントのコンテンツデータ13を再生することができる。
この場合、例えば、イベントの主催者は、主催者装置7を用いて画像管理サーバ4にアクセスしてユーザの申請リスト16を受信し、その申請リスト16を主催者装置7のディスプレイに表示し、所定の条件を満たすユーザ(例えば、イベントの参加者名簿に登録されている正規ユーザであること等)について認証を行う。認証を受けたユーザのユーザIDは、再生許可情報17として、主催者装置7から画像管理サーバ4に送信される。
本実施形態の、このような利用申請と承認の仕組みは、イベントの様子が撮影されたコンテンツデータ13を、関係のない者が閲覧できないようにするためのものである。
また、イベントに関係する複数のコンテンツデータ13のすべて、又は個々のコンテンツデータ13について、閲覧のための対価を設定することもできる。また、この例では、動画のコンテンツデータ13を、再生のタイミングに応じて順次、ユーザ端末6に送信するストリーミング再生を行うが、コンテンツデータ13の全体をダウンロード可能とし、ダウンロード後に、ユーザ端末6で再生するようにしてもよい。また、ユーザは、ユーザ端末6において、コンテンツデータ13を再生するコンテンツ再生画面で、所定の再生タイミングを指定し、そのタイミングでの画像をプリントするよう、画像管理サーバ4に依頼することもできる。
コード表示端末5は、上述の通り、ディスプレイにコード10を表示するが、コード10は、画像管理サーバ4から送信されるコード表示情報11に基づいて生成される。コード10は、例えば、QRコード(登録商標)のような2次元コードであるが、バーコードや他のコードであってもよい。
コード表示情報11は、例えば、現在時刻を示す時刻情報を含んでおり、1秒ごとに送信される。コード表示端末5は、このコード表示情報11を受信すると、コード表示情報11に含まれる現在時刻の時刻情報をコード10に埋め込み、1秒ごとにディスプレイの表示を更新する。なお、この例では、1秒ごとにコード10の表示が更新される構成としているが、必要に応じて、それ以下の更新インターバル(例えば、0.1秒等)でコード10の表示を更新するように構成することもできる。この場合、当然、コード表示情報11も、更新インターバルに応じた間隔でコード表示端末5に送信されることになる。
このような構成により、コード表示情報11のディスプレイには、概ね現在時刻に近い時刻の時刻情報を含んだコード10が表示されることになる。このような構成の場合、それぞれのコード表示端末5が、コード10を同じ仕様で表示する機能を有する限り、複数のコード表示端末5を用いることができる。また、後述するように、複数のコード表示端末5のコード10に含まれる時刻情報が、後で正確な現在時刻に基づいて調整される場合は、コード10を表示する段階で、複数のコード表示端末5のコード10を同期しておく必要はない。
例えば、撮影場所が異なり、1台のコード表示端末5で表示されるコード10を撮影することが難しい場合に、このような複数のコード表示端末5を用いることが想定される。
なお、コード表示情報11は、時刻情報ではなく、時刻に対応付けられた別の情報を含むようにしてもよい。
また、コード表示端末5が、コード10を表示する場合に、このようなコード表示情報11を受信せずに、コード表示端末5においてスタンドアロンで実行されるアプリケーションにより(例えば1秒ごとに)、時刻情報を含んだコード10を生成し、ディスプレイに表示するようにしてもよい。この場合、コード表示端末5の現在時刻が正確でない可能性もあり、コード10に含まれる時刻情報は、正確な現在時刻とは限らないことが前提となる。
また、コード表示端末5で実行されるアプリケーションにより、所定の時間間隔でNTPサーバにアクセスし、コード表示端末5の時計を現在時刻に同期させた状態で(例えば1秒ごとに)、時刻情報を含んだコード10を生成し、ディスプレイに表示するようにしてもよい。この場合、コード10に含まれる時刻情報は、現在時刻となる。
その他、スタンドアロン構成のコード表示端末5を用いる場合においては、コード表示端末5が、事前にネットワーク経由で(例えば、上記のようなNTPサーバにアクセスして)正確な時刻を取得しておき、こうして取得した時刻に基づいてコード10を生成・表示するようにできる。また、コード表示端末5は、1台であっても、複数であってもよい。複数のコード表示端末5が使用される場合は、それぞれについて上記の処理が行われる。なお、ここで、1台または複数のコード表示端末5が、特定のURLにアクセスするだけで、同期された、又は正確なコード表示情報11を取得するような仕組みを用意することも可能である。
また、スタンドアロン構成のコード表示端末5を用いる場合においては、コード表示端末5の時計部(内部時計)による時刻に基づいてコード10を生成・表示し、例えば、コード10が撮影装置2で撮影された後、画像編集装置3で編集を行うまでの所定のタイミングで、コード表示端末5の時計部による現在時刻と正確な現在時刻との差を把握し、当該把握した差に基づいて、コード10に含まれる時刻情報や、同期処理における時刻を調整するようにすることもできる。ここで、コード表示端末5は、1台であっても、複数であってもよい。複数のコード表示端末5が使用される場合は、最終的に、それぞれについて、正確な現在時刻との差が調整されるため、複数のコード表示端末5の間で事前に調整がされている必要はない。
なお、図1では、説明の便宜上、画像編集装置3や画像管理サーバ4を1つのコンピュータとして表しているが、例えば、それぞれを、異なる場所(又は、近接する位置)に設置された複数のコンピュータとして構成することができ、当該複数のコンピュータは、必要に応じてネットワーク接続される。
また、図1では、一例として、撮影装置2a、2bが表されているが、さらに多くの撮影装置から撮影データを取得するようにしてもよい。また、撮影装置として、様々なタイプの装置を使用することができる。例えば、スマートフォン、無人航空機(ドローン)、固定カメラ(監視用途のものを含む)などを使用することができる。いずれの場合も、それぞれの撮影装置において、コード表示端末5で表示されるコード10の撮影が行われる。
次に、図2を参照して、撮影装置2のハードウエア構成の例について説明する。ただし、図2の撮影装置2は、図1に示したような撮影装置2((2a−1、2a−2、2b))の代表的な構成を例示したにすぎない。他の様々なコンピュータを撮影装置2として利用することができる。
撮影装置2は、CPU(Central Processing Unit)201、メモリ202、撮影部203、GPS制御部204、GPS用アンテナ205、オーディオ制御部208、マイクロフォン209、スピーカ210、ディスプレイ制御部211、入力機器インタフェース212、タッチスクリーン213、センサー215、及び外部記録媒体インタフェース217を含んでいる。
CPU201は、撮影装置2の各構成要素の動作を制御し、OSの制御下で、各機能を実行する。
メモリ202は通常RAM(Random Access Memory)で構成される。メモリ202には、CPU201で実行される各機能を実現するためのプログラムが実行時にロードされ、また、当該プログラムに必要なデータ等が記憶される。
撮影部203は、撮影装置2が備える撮影装置(カメラ)で、撮影素子がCCDやCMOSといったタイプのものがある。これらのカメラによって、コード10やイベントの様子などが撮影される。
時計部214は、撮影装置2の時刻を管理する。時計部214で管理される時刻の情報(時刻情報)は、動画や静止画を撮影した場合に、撮影データの一部として、あるいは、撮影データとともに補助記憶装置216や外部記録媒体220に記憶される。時計部214で管理される時刻は、後述のタッチスクリーン213に表示されるメニュー画面から時刻設定の操作を行うことで適宜調整可能である。
GPS制御部204は、GPS用アンテナ205を介して、複数のGPSから信号を受信し、撮影装置2の位置を調べる。こうして求められた位置情報は、撮影データの一部として、あるいは、撮影データとともに補助記憶装置216や外部記録媒体220に記憶される。
オーディオ制御部208は、マイクロフォン209を制御して、撮影部203で動画が撮影される場合に、周囲の音声を記録する。また、スピーカ210を制御して撮影した動画を再生する際に、記憶された音声を出力することができる。
タッチスクリーン213は、例えば、LCD(Liquid Crystal Display)などで構成される表示装置で、撮影部203で捉えた撮影対象の映像、撮影データの再生画像、メニュー画面の情報等を表示するとともに、カメラマンが指などで画面表面をタッチした(押した)位置を、抵抗膜方式や静電容量方式などのタッチセンサーで検知する。ディスプレイ制御部211は、CPU201が発行する描画データを処理して、例えば、上述した撮影対象の映像などを、タッチスクリーン213の表示装置に出力する。入力機器インタフェース212は、タッチスクリーン213のタッチセンサーが、ユーザによる操作を検知し、これを所定の信号としてCPU201に送信する。
センサー215は、タッチスクリーン213のタッチセンサー以外のセンサーであり、モーションセンサー、光センサー、近接センサーなどがある。
補助記憶装置216は、例えば、フラッシュメモリと呼ばれる半導体メモリ等で構成される。補助記憶装置216は、CPU201で実行される各機能を実現するためのプログラムを記憶するほか、撮影データを含む各種データを記憶する。
外部記録媒体インタフェース217は、外部記録媒体220にアクセスして、そこに記録されているデータを読み取る一方で、補助記憶装置216に記憶されている撮影データ等を外部記録媒体220に書き込む。外部記録媒体(可搬型記録媒体)220は、例えば、可搬型のフラッシュメモリである。
次に、図3を参照して、画像編集装置3のハードウエア構成の例について説明する。ただし、図3の画像編集装置3は、代表的な構成を例示したにすぎない。他の様々なコンピュータを画像編集装置3として利用することができる。
画像編集装置3は、CPU(Central Processing Unit)301、メモリ302、ネットワークインタフェース303、ディスプレイコントローラ304、ディスプレイ305、入力機器インタフェース306、キーボード307、マウス308、外部記憶装置309、及び外部記録媒体インタフェース310を含んでいる。
CPU301は、画像編集装置3の各構成要素の動作を制御し、OSの制御下で、各機能を実行する。
メモリ302は通常、不揮発性メモリであるROM(Read Only Memory)、及び揮発性メモリであるRAM(Random Access Memory)から構成される。ROMには、画像編集装置3の起動時に実行されるプログラム等が格納される。RAMには、CPU301で実行されるプログラムや、それらのプログラムが実行中に使用するデータ等が一時的に格納される。
ネットワークインタフェース303は、ネットワーク320に接続するためのインタフェースである。ネットワーク320は、例えば、無線通信ネットワーク、及びインターネットを含むネットワークである。画像編集装置3は、このネットワークインタフェース303を介して、図1の画像管理サーバ4と接続される。また、ネットワークインタフェース303を介して、撮影装置2に接続して、撮影データ12を受信することも可能である。
ディスプレイコントローラ304は、CPU301が発行する描画命令を実際に処理するための専用コントローラである。ディスプレイコントローラ304で処理された描画データは、一旦グラフィックメモリに書き込まれ、その後、ディスプレイ305に出力される。ディスプレイ305は、例えば、LCD(Liquid Crystal Display)で構成される表示装置であり、後述するコンテンツ編集画面820等が表示される。
入力機器インタフェース306は、キーボード307やマウス308から入力された信号を受信して、その信号パターンに応じて所定の指令をCPU301に送信する。
外部記憶装置309は、例えば、ハードディスクドライブ(HDD)のような記憶装置であり、この装置内には上述したプログラムやデータが記録され、実行時に、必要に応じてそこからメモリ302のRAMにロードされる。また、編集のために、撮影装置2によって撮影された撮影データ12や、複数の撮影データ12を編集した結果得られる、コンテンツデータ13等が記憶される。
外部記録媒体インタフェース310は、CD(Compact Disc)、DVD(Digital Versatile Disc)などの可搬型の外部記録媒体330の記録面にアクセスして、そこに記録されているデータを読み取る装置である。外部記録媒体330には、本発明に係る画像編集方法を実現するためのプログラムも記録することが可能である。外部記録媒体330に記録されているデータは、外部記録媒体インタフェース310を介して外部記憶装置309に格納され、プログラムであれば、実行時にメモリ302のRAMにロードされる。
なお、本発明に係る画像編集方法を実現するためのプログラムは、上述のネットワーク320、及びネットワークインタフェース303を介して受信され、外部記憶装置309に格納することもできる。
また、外部記録媒体インタフェース310は、例えば、可搬型のフラッシュメモリである外部記録媒体(可搬型記録媒体)340にアクセスして、そこに記録されているデータを読み取る。例えば、撮影装置2に格納されていた外部記録媒体340から撮影データ12を読み取って、それを(編集等を行うために)メモリ302や外部記憶装置309に記憶する。
なお、図1に示した主催者装置7のハードウエア構成も、図3に示す構成と同様のものである。
次に、図4を参照して、画像管理サーバ4のハードウエア構成の例について説明する。ただし、図4の画像管理サーバ4は、代表的な構成を例示したにすぎない。他の様々なコンピュータを画像管理サーバ4として利用することができる。
画像管理サーバ4は、CPU401、メモリ402、ネットワークインタフェース403、外部記憶装置409、及び外部記録媒体インタフェース410を含んでいる。
CPU401は、画像管理サーバ4の各構成要素の動作を制御し、OSの制御下で、各機能を実行する。
メモリ402は通常、不揮発性メモリであるROM(Read Only Memory)、及び揮発性メモリであるRAM(Random Access Memory)から構成される。ROMには、画像管理サーバ4の起動時に実行されるプログラム等が格納される。RAMには、CPU401で実行されるプログラムや、それらのプログラムが実行中に使用するデータ等が一時的に格納される。
ネットワークインタフェース403は、ネットワーク420に接続するためのインタフェースである。ネットワーク420は、例えば、無線通信ネットワーク、及びインターネットを含むネットワークである。画像管理サーバ4は、このネットワークインタフェース403を介して、図1の画像編集装置3と接続される。
外部記憶装置409は、例えば、ハードディスクドライブ(HDD)のような記憶装置であり、この装置内には上述したプログラムやデータが記録され、実行時に、必要に応じてそこからメモリ402のRAMにロードされる。画像編集装置3によって編集されたコンテンツデータ13も、イベントごとに対応付けられて、外部記憶装置409に記憶される。
外部記録媒体インタフェース410は、CD(Compact Disc)、DVD(Digital Versatile Disc)などの可搬型の外部記録媒体430の記録面にアクセスして、そこに記録されているデータを読み取る装置である。外部記録媒体430には、本発明に係る画像管理方法を実現するためのプログラムも記録することが可能である。外部記録媒体430に記録されているデータは、外部記録媒体インタフェース410を介して外部記憶装置409に格納され、プログラムであれば、実行時にメモリ402のRAMにロードされる。
次に、図5を参照して、ユーザ端末6のハードウエア構成の例について説明する。ただし、図5のユーザ端末6は、代表的なスマートフォンの構成を例示したにすぎない。他の様々なコンピュータをユーザ端末6として利用することができる。
ユーザ端末6は、CPU(Central Processing Unit)601、メモリ602、インカメラ603a、アウトカメラ603b、GPS制御部604、GPS用アンテナ605、無線信号処理部606、無線通信用アンテナ607、オーディオ制御部608、マイクロフォン609、スピーカ610、ディスプレイ制御部611、入力機器インタフェース612、タッチスクリーン613、非接触ICリーダ/ライタ614、センサー615、補助記憶装置616、及び外部記録媒体インタフェース617を含んでいる。
CPU601は、ユーザ端末6の各構成要素の動作を制御し、OSの制御下で、各機能を実行する。
メモリ602は通常RAM(Random Access Memory)で構成される。メモリ602には、CPU601で実行される各機能を実現するためのプログラムが実行時にロードされ、当該プログラムに必要なデータ等が一時的に記憶される。
インカメラ603a、アウトカメラ603bは、ユーザ端末6に内蔵される小型の撮影装置で、撮影素子がCCDやCMOSといったタイプのものがある。インカメラ603aは、後述するタッチスクリーン613の付近に設けられた内側のカメラであり、アウトカメラ603bは、後述するタッチスクリーン613の反対側に設けられた外側のカメラである。
GPS制御部604は、GPS用アンテナ605を介して、複数のGPSから信号を受信し、ユーザ端末6の位置を調べる。
無線信号処理部606は、無線通信用アンテナ607を介して携帯電話基地局と通信を行い、他の機器との間での通話データの送受信や、(インターネットを介した)他端末との間でのWEBページ表示用データやメールデータの送受信を制御する。また、無線信号処理部606は、無線通信用アンテナ607を用いて無線LANアクセスポイントとの間で無線LANによる通信を実現し、インターネット経由のデータ送受信を行う(ここでは、便宜上、無線信号処理部606と無線通信用アンテナ607が、携帯電話基地局との間の無線通信及び無線LANアクセスポイントとの間の無線通信を行うものとした)。
オーディオ制御部608は、マイクロフォン609とスピーカ610を制御して無線通信による通話を実現し、一方で、アプリケーションにおいて動画や音楽を再生する場合に、音声を出力するよう制御する。また、オーディオ制御部608は、スピーカ610を制御して、画像管理サーバ4から提供された動画を再生する際に、その動画の音声を出力することができる。
タッチスクリーン613は、例えば、LCD(Liquid Crystal Display)などで構成される表示装置で情報を表示するとともに、ユーザが指などで画面表面をタッチした(押した)位置を、抵抗膜方式や静電容量方式などのタッチセンサーで検知する。ディスプレイ制御部611は、CPU601が発行する描画データを処理して、例えば、画像管理サーバ4から提供された動画を再生する際に、その動画の画像を、タッチスクリーン613の表示装置に出力する。入力機器インタフェース612は、タッチスクリーン613のタッチセンサーが、ユーザによる操作を検知し、これを所定の信号としてCPU601に送信する。
また、タッチスクリーン613には、後述するコンテンツ指定画面850や、コンテンツ再生画面860が表示される。
非接触ICリーダ/ライタ614は、非接触ICチップや非接触ICチップが埋め込まれたカードがユーザ端末6の所定の位置にかざされた場合に、CPU601の指令に基づいて、そのICチップに記憶されているデータを読み取り、又は、ICチップに所定のデータを書き込む。
センサー615は、タッチスクリーン613のタッチセンサー以外のセンサーであり、モーションセンサー、光センサー、近接センサーなどがある。
補助記憶装置616は、例えば、フラッシュメモリと呼ばれる半導体メモリやハードディスクで構成される。補助記憶装置616は、CPU601で実行される各機能を実現するためのプログラムを記憶するほか、各種データを記憶する。
外部記録媒体インタフェース617は、外部記録媒体620にアクセスして、そこに記録されているデータを読み取る。外部記録媒体620は、例えば、可搬型のフラッシュメモリである。CPU601で実行され本発明の各機能を実現するためのプログラムは、この外部記録媒体インタフェース617や、前述したような、無線信号処理部606及び無線通信用アンテナ607を介した携帯電話網やネットワークを経由してユーザ端末6に提供される。
なお、図1に示したコード表示端末5のハードウエア構成も、図5に示す構成と同様のものである。コード表示情報11は、例えば、無線信号処理部により、無線通信用アンテナを介して画像管理サーバ4から取得され、タッチスクリーンには、コード10が表示される。
次に、図6の機能ブロック図を参照して、本発明の実施形態に係る撮影装置2の機能の概要について説明する。この撮影装置2は、静止画を撮影するためのデジタルカメラや、動画を撮影するためのデジタルムービーカメラ(ビデオカメラ)として一般的なものである。ここでは、本願の画像管理システム1において特に関連する機能についてのみ説明する。
図6に示すように、撮影装置2は、撮影制御部251、時刻取得部252、及び入出力制御部253を含んでいる。
撮影制御部251は、カメラマンによる操作に基づいて、図2に示す撮影部203を制御して、コード10やイベントの様子を撮影する。例えば、一眼レフカメラ(撮影装置2a−1)で静止画を撮影する場合は、画角を被写体に合わせてシャッタを押すことで静止画の撮影データ12a−1が記憶され、ビデオカメラ(撮影装置2a−2)で動画を撮影する場合は、動画撮影開始の操作を行うことで、動画の撮影データ12a−2が記録される。
時刻取得部252は、図2に示す時計部214で管理する撮影装置内部の時刻情報を取得し、撮影データの一部として記憶する。例えば、静止画の撮影データ12a−1であれば、撮影日時を記憶し、動画の撮影データ12a−2であれば、撮影終了日時等を記憶する。
入出力制御部253は、カメラマンの操作をCPU201に伝え、撮影データ12を補助記憶装置216に記憶するよう制御する。例えば、カメラマンが、シャッターを押すと、その操作がCPU201に伝えられ、これに応じて撮影部203が被写体を撮影し、撮影データ12を補助記憶装置216に記憶するよう動作する。
次に、図7の機能ブロック図を参照して、本発明の実施形態に係る画像編集装置3の機能の概要について説明する。この画像編集装置3は、撮影データ入力部351、デコード部352、画像タイミング調整部353、コンテンツ編集部354、入出力制御部355、及びネットワークインタフェース(I/F)部356を備え、外部記憶装置370(図3の外部記憶装置309に対応)には、イベント管理テーブル371とコンテンツデータ372が記憶されている。
なお、例えば、撮影データ入力部351、デコード部352、画像タイミング調整部353、及びコンテンツ編集部354は、画像編集装置3にインストールされる本願のアプリケーションにより実現され、入出力制御部355、及びネットワークインタフェース部356は、主として、画像編集装置3のOSによって実現される。
撮影データ入力部351は、図3の外部記録媒体インタフェース310を介して、撮影装置2の可搬型記録媒体(SDカード等)から、撮影データ12を取り込む。より具体的には、カメラマンが、撮影装置2において、撮影データ12を可搬型記録媒体(SDカード1とする)に移動、又はコピーする処理を行って、撮影データ12をSDカード1に記憶させ、それを撮影装置2の可搬型記録媒体用ドライブから抜き取り、編集担当者に渡す。その後、編集担当者は、受け取ったSDカード1を画像編集装置3の可搬型記録媒体用ドライブに差し込み、そこで、画像編集装置3のメニュー画面を操作し、撮影データ12の取り込みが行われ、撮影データ12が、メモリ302や外部記憶装置309に記憶される。
このような処理を、それぞれの撮影装置2について行うことで、複数の撮影装置2で撮影された撮影データ12が、画像編集装置3に記憶されることになる。
また、ここでは、カメラマンから編集担当者に対してSDカード1を手渡しすることで、撮影データ12の受け渡しが行われていたが、このような撮影データ12をメールに添付する等して画像編集装置3に送信することもできる。また、撮影装置2と画像編集装置3を所定のネットワーク(例えば、インターネット、USBケーブル、無線LAN等)で接続し、撮影データ12の受け渡しを行うことができる。
デコード部352は、撮影装置2から取得した撮影データ12から、コード10(図1参照)の画像(コード画像)を抽出し、抽出されたコード画像を、容易に入手可能なデコードプログラムにてデコードし時刻情報を取得する。
コード10は、例えば、2次元コードであり、一般的なデコード方法によってデコードすると、デコード結果のなかに時刻情報がそのまま含まれているものである。なお、デコード結果として、他のデータを参照する際のキー情報が含まれ、そのキー情報を用いて当該他のデータにアクセスすることで、時刻情報が得られるようにしてもよい。
また、例えば、動画の撮影データ12a−2の場合、動画のなかの1シーンにコード10が撮影されているため、Iフレーム(MPEG系の画像コーデックの場合)を順に探索し、コード10の画像があるか否かを判断する。
一方、静止画の撮影データ12a−1の場合、所定の静止画のグループにおいて、コード10の画像があるか否かを順に探索する。なお、静止画のグループは、例えば、上述したSDカード1の1つのフォルダに含まれる撮影データのグループ、画像編集装置3において、編集担当者によって個別に指定された撮影データのグループ、データ内に含まれるカメラマンIDとイベントIDが同じである撮影データのグループなど、様々なグループで把握することが考えられる。
画像タイミング調整部353は、コード画像に基づいて取得された時刻情報に基づいて、撮影データ12のタイミングを調整する(すなわち、動画の撮影データ12の各画像データと、静止画のグループからなる撮影データ12の各画像データとが、共通の時間軸で管理されるよう同期をとる)。このような方法により、撮影されたコード10のコード画像が、同期をとる対象となる撮影データ12にそれぞれ含まれるため、タイミングの調整を実施する処理が非常にシンプルなものとなる。
なお、それぞれの撮影装置2で、他の装置の時計表示を撮影することで、撮影データ12の同期をとるようにすることもできるが、時計の画像から時刻情報を取得する場合、反射やブレによって時計の鮮明な画像を取得しにくく、そのような画像から正確な時刻情報を得ることは難しい。
具体的には、例えば、動画の撮影データ12a−2の場合、コード画像に基づいて取得された時刻情報で示された時刻を、コード画像のIフレームに対応付け、これを基準として、撮影データ12a−2の他のフレームについて(それまでに管理されていたそのフレームの時刻との差を利用して)、あらたな時刻を設定する。このとき、撮影データ12a−2のなかで保持されている時刻情報を書き換えてもよいし、各フレームと時刻情報を対応付けるデータを生成するようにしてもよい。
また、静止画の撮影データ12a−1の場合、コード画像に基づいて取得された時刻情報で示された時刻を、コード画像の静止画に対応付け、これを基準として、そのグループに含まれる他の静止画について(それまでに管理されていたその静止画の時刻との差を利用して)、あらたな時刻を設定する。このとき、それぞれの静止画データのなかで保持されている時刻情報を書き換えてもよいし、各静止画と時刻情報を対応付けるデータを生成するようにしてもよい。
コンテンツ編集部354は、編集担当者が、例えば、静止画の撮影データ12a−1と動画の撮影データ12a−2を用いて、カット、インサート、リプレース、並行表示などの編集操作を行うためのコンテンツ編集画面を画像編集装置3のディスプレイに表示し、編集担当者の操作に応じて、対応する編集処理を行い、編集結果(編集後のコンテンツデータ13)を外部記憶装置309に出力する。なお、このような編集処理において、一時的な画像データは、例えば、メモリ302に記憶される。
このようなコンテンツ編集画面において、静止画の撮影データ12a−1と動画の撮影データ12a−2は、同期がとられているため、同じ時間軸で整合性のある表示がなされる。すなわち、静止画の撮影データ12a−1と動画の撮影データ12a−2は、上述のように、画像タイミング調整部353において、それぞれのコード画像に基づいてタイミング調整が行われているが、このコード画像は、基本的に1台のコード表示端末5によって表示された一貫性のある(1秒ごとに、それに対応する時刻情報を含んだ、あるいは当該時刻情報に対応付けられた)コード10を撮影したものであるため、結果として、静止画の撮影データ12a−1と動画の撮影データ12a−2は同期がとられたタイミングで表示可能となる。
入出力制御部355は、編集担当者の編集操作をCPU301に伝えることによってコンテンツ編集画面において編集処理を可能とし、編集中の撮影データ12は、メモリ302に記憶して、そこで編集作業(画像データのリードライト)を行い、その後、コンテンツデータ13を外部記憶装置309に記憶するよう制御する。また、編集担当者の指示に応じて、コンテンツデータ13を画像管理サーバ4に送信する。
ネットワークインタフェース部356は、図3のネットワークインタフェース303等を利用して、画像管理サーバ50に対するコンテンツデータ13の送信を制御する。
次に、図8の機能ブロック図を参照して、本発明の実施形態に係る画像管理サーバ4の機能の概要について説明する。この画像管理サーバ4は、ユーザ管理部451、コンテンツ管理部452、申請リクエスト受信部453、再生権限設定管理部454、再生リクエスト受信部455、コンテンツ再生制御部456、及びネットワークインタフェース(I/F)部457を備え、外部記憶装置470(図4の外部記憶装置409に対応)には、ユーザ管理テーブル471、主催者管理テーブル472、再生管理テーブル473、及びコンテンツデータ474が記憶されている。
なお、例えば、ユーザ管理部451、コンテンツ管理部452、申請リクエスト受信部453、再生権限設定管理部454、再生リクエスト受信部455、コンテンツ再生制御部456、は、画像管理サーバ4にインストールされる本願のアプリケーションにより実現され、ネットワークインタフェース部457は、主として、画像管理サーバ4のOSによって実現される。
ユーザ管理部451は、編集後のコンテンツデータ13を再生しようとするユーザによって、ユーザ端末6からのログイン要求があった場合に、ユーザ管理テーブル471を参照して、当該ユーザのログインを許可するか否かを判定する。
コンテンツ管理部452は、画像編集装置3からコンテンツデータ13を受信すると、そのコンテンツデータ13をイベントIDごとに、コンテンツデータ474に記憶する。このような、コンテンツデータ13の受信に応じて、後述する(ユーザ端末6のディスプレイに表示するための)コンテンツ指定画面850を作成・更新する。コンテンツ指定画面850では、イベントごとにコンテンツデータ13のリストが表示される(図18参照)。
申請リクエスト受信部453は、ユーザ端末6から申請リクエスト14を受信し、その申請リクエスト14に基づいて、再生管理テーブル473を更新する。
再生権限設定管理部454は、例えば、主催者の要求に基づいて、再生管理テーブル473を参照し、ユーザからの申請リクエスト14の内容が記憶された申請リスト16を主催者装置7に送信する。ここで、主催者は、主催者装置7において、受信した申請リスト16に基づき、自身のイベントに関してコンテンツの再生を許可するユーザを決定し(例えば、イベントの参加名簿等に基づいて決定し)、そこで許可したユーザの情報を含む再生許可情報17を生成し、画像管理サーバ4に送信する。ここで、再生権限設定管理部454は、主催者装置7から再生許可情報17を受信し、この再生許可情報17に基づいて再生管理テーブル473を更新する。
再生リクエスト受信部455は、ユーザ端末6から送信される再生リクエスト15を受信すると、再生管理テーブル473の再生権限を参照し、ユーザが指定したコンテンツデータ13のイベントに関し、当該ユーザに再生権限があるか否かを判定し、再生権限がある場合、指定されたコンテンツデータ13について、コンテンツ再生制御部456による再生を開始するよう制御する。また、このとき、再生管理テーブル473の再生回数に1を加算する。
コンテンツ再生制御部456は、再生リクエスト受信部455の制御により、指定されたコンテンツデータ13のストリーミング再生を実行し、ユーザ端末6でコンテンツデータ13が再生されるタイミングに応じて、コンテンツデータ13を順次、ユーザ端末6に送信する。
ネットワークインタフェース部457は、図4のネットワークインタフェース403等を利用して、ネットワークを介して画像編集装置3からコンテンツデータ13を受信するよう制御する。また、ユーザ端末6から、申請リクエスト14と再生リクエスト15を受信するとともに、コンテンツデータ13をユーザ端末6に送信するよう制御する。さらに、主催者装置7に申請リスト16を送信し、主催者装置7から再生許可情報17を受信するよう制御する。
本実施形態では、上述のように、イベントの主催者が、当該イベントに関するコンテンツの再生が可能なユーザを決定するものとしたが、コンテンツの編集を行う事業者などを含む他の事業者が、各ユーザに関する再生許可の制御を行うようにすることができる。
また、本実施形態では、ユーザが再生可能なコンテンツを、イベントごとに許可するようにしたが、イベントのなかの個々のコンテンツの単位で許可したり、イベントのなかの所定のグループに属するコンテンツの単位で許可したりすることもできる。このようなレベルの再生制限を設けることによって、ユーザがイベントに参加していたとしても、ユーザに関係した人物や情景のみを閲覧可能とするように制御することができる。
また、本実施形態では、ユーザが所定の対価を支払うことにより、コンテンツの再生が可能となるが、上記のように、主催者がユーザにコンテンツの再生を許可する場合に、(例えば、申請リクエスト14を送信する際に)対価を支払ったユーザに対してのみ当該許可を行うようにすることができる。また、ユーザがユーザ端末6においてコンテンツの再生を行う場合に、対価の支払いを要求するようにしてもよい。また、対価の支払いは、例えば、カード決済、所定のポイント利用、銀行振込などで行うことができるほか、他の様々なタイミング、方法で、ユーザによる対価の支払いが行われうる。
次に、図9の機能ブロック図を参照して、本発明の実施形態に係るユーザ端末6の機能の概要について説明する。このユーザ端末6は、リクエスト送信管理部651、コンテンツ受信部652、コンテンツ再生制御部653、入出力制御部654、及びネットワークインタフェース(I/F)部655を備えている。
なお、例えば、リクエスト送信管理部651、コンテンツ受信部652、及びコンテンツ再生制御部653は、ユーザ端末6にインストールされる本願のアプリケーションにより実現され、入出力制御部654、及びネットワークインタフェース部655は、主として、ユーザ端末6のOSによって実現される。
リクエスト送信管理部651は、ユーザの操作に応じて、画像管理サーバ4にログインを行い、イベントに関するコンテンツデータ13を再生できるように申請を行うための申請リクエスト14と、指定したコンテンツデータ13の再生をユーザ端末6で行うための再生リクエスト15を、画像管理サーバ4に対して送信する。
コンテンツ受信部652は、再生リクエスト15に応じて画像管理サーバ4から送信されるコンテンツデータ13を受信する。
コンテンツ再生制御部653は、コンテンツ受信部652で受信したコンテンツデータ13を再生(ストリーム再生)する。
入出力制御部654は、ユーザの申請リクエスト14の指示や再生リクエスト15の指示をCPU601に伝えることによって、それぞれのリクエストを画像管理サーバ4に送信することを可能とする。また、ユーザのコンテンツ再生指示をCPU601に伝えることによって、受信したコンテンツデータ13の再生を可能とする。
ネットワークインタフェース部655は、図5の無線信号処理部606等を利用して、上述した申請リクエスト14や再生リクエスト15を画像管理サーバ4に送信するよう制御し、また、画像管理サーバ4からのコンテンツデータ13の受信を制御する。
次に、図10の機能ブロック図を参照して、本発明の実施形態に係るコード表示端末5の機能の概要について説明する。このコード表示端末5は、コード表示制御部551、入出力制御部552、及びネットワークインタフェース(I/F)部553を備えている。
なお、例えば、コード表示制御部551は、コード表示端末5にインストールされる本願のアプリケーションにより実現され、入出力制御部552、及びネットワークインタフェース部553は、主として、コード表示端末5のOSによって実現される。
コード表示制御部551は、画像管理サーバ4から送信されるコード表示情報11を、例えば、1秒ごとに受信し、受信したコード表示情報11に基づいて2次元コードであるコード10を生成し、コード表示端末5のディスプレイに表示する。コード10は、例えば、コード10を撮影したコード画像をデコードしたときに、コード表示情報11が再現されるようなコードとして生成される。
入出力制御部552は、ユーザの所定の操作を(図5に示すCPU601と同様の)CPUに伝えることによって、コード表示制御部551を起動させ、その結果、ディスプレイにコード10が表示される。
ネットワークインタフェース部553は、(図5に示す無線信号処理部606と同様の)無線信号処理部等を利用して、上述したコード表示情報11を画像管理サーバ4から受信するよう制御する。
次に、図11ないし図13を参照して、本発明の実施形態に係る画像管理システム1のテーブル、及びデータについて説明する。図11Aは、画像編集装置3の外部記憶装置370に記憶されたイベント管理テーブル371の例を示している(図7参照)。本実施形態では、イベント管理テーブル371には、イベントID、主催者ID、イベントが開催された日付、イベントが開催された場所、イベント内容の概略を表すイベント概要、及び主催者やイベント施設のメールアドレスが含まれる。
図11Bは、画像編集装置3の外部記憶装置370に記憶されたコンテンツデータ372の例を示している(図7参照)。本実施形態では、コンテンツデータ372として、編集の素材として各撮影装置2から取得した動画の撮影データ12、及び静止画の撮影データ12が記憶される。
ここで、動画の撮影データ12のような動画のデータは、例えば、MP4ファイルフォーマットの形式である。MP4ファイルフォーマットは、図11Bに示すように、ftypボックス、moovボックス、mdatボックスの各領域からなり、ftypボックスには、そのファイルの規格を表すブランドやバージョンが記憶される。
moovボックスには、動画の撮影が終了してファイルが最終的に記憶された更新日時が記憶され、その動画の全体の時間(すなわち録画時間)やフレームレートが記憶される。また、画像のサイズ(幅・高さ(ピクセル))の情報が記憶される。また、撮影開始日時が記憶されるようにしてもよい。
さらに、moovボックスには、カメラマンの操作等によって、イベントIDやカメラマンIDを記憶させることができ、それぞれの動画データに対して、ファイルIDを設定することもできる。また、moovボックスには、例えば、トラック1に関するサイズ情報や格納情報(mdatに映像データがどのように記録されているかを示す情報)を含むメタ情報が記録され、さらに、トラック2に関するサイズ情報や格納情報(mdatに音声データがどのように記録されているかを示す情報)を含むメタ情報が記録される。また、メタ情報として、映像データと音声データの同期情報も記憶されている。
mdatボックスには、トラック1とトラック2が配置され、トラック1には映像データ(例えば、MPEG−4)、トラック2には音声データ(例えば、MP3)が記憶される。映像データを構成する各フレームには、フレームオフセット時間が対応付けられうる。また、このようなフレームオフセット時間の代わりに、フレームレートに基づいて、各フレームの相対時刻を算出することもできる。
静止画の撮影データ12のような静止画のデータは、例えば、JPGファイルフォーマットの形式である。JPGファイルフォーマットは、図11Bに示すように、Exifデータと、画像データであるJPEGデータを含んでいる。
Exifデータには、静止画の撮影が行われてファイルが最終的に記憶された日時(撮影日時)が記憶される。また、画像のサイズ(幅・高さ(ピクセル))の情報が記憶される。また、Exifデータには、カメラマンの操作等によって、イベントIDやカメラマンIDを記憶させることができ、それぞれの動画データに対して、ファイルIDを設定することもできる。
ここで、動画の撮影データ12、及び静止画の撮影データ12のそれぞれのフォーマットで記憶されている時刻に関する時刻情報(更新日時、再生開始日時、フレームオフセット時間等)は、その撮影データ12を撮影した撮影装置2の時計部214(図2参照)によって得られた、その装置内部の時刻情報であり、これらの時刻情報は、複数の撮影装置2の間で同期がとられている保証のないものである。
なお、コンテンツデータ372として、画像編集装置3で編集された動画データである、編集後のコンテンツデータ13も記憶される。コンテンツデータ13は、例えば、上述したMP4ファイルフォーマットの形式であり、当該ファイル内の時刻に関する時刻情報(更新日時、再生開始日時、フレームオフセット時間等)は、本願の画像管理システム1により、撮影されたコード10に基づいて同期がされた時刻情報となっている。
図12Aは、画像管理サーバ4の外部記憶装置470に記憶されたユーザ管理テーブル471の例を示している(図8参照)。本実施形態では、ユーザ管理テーブル471には、ユーザID、パスワード、住所、氏名、ユーザのメールアドレスが含まれる。
図12Bは、画像管理サーバ4の外部記憶装置470に記憶された主催者管理テーブル472の例を示している(図8参照)。本実施形態では、主催者管理テーブル472には、主催者ID、パスワード、住所、名称、主催者のメールアドレスが含まれる。
図13は、画像管理サーバ4の外部記憶装置470に記憶された再生管理テーブル473の例を示している(図8参照)。本実施形態では、再生管理テーブル473には、ユーザID、イベントID、再生権限、再生回数が含まれる。再生権限は、そのユーザが、申請リクエスト14を画像管理サーバ4に送信した場合に、主催者により許可されれば「有り」となり、そうでなければ「申請中」となる。主催者から拒否された場合に、「拒否」といったステータスを記憶するようにしてもよい。
次に、図14、及び図15を参照して、本願の画像管理システム1の画像編集装置3によって、2つの撮影装置2でそれぞれ撮影された動画の撮影データ12、及び静止画の撮影データ12が同期され、1つの動画データであるコンテンツデータ13として編集される処理について説明する。
図14Aは、例えば、撮影装置2a−2で撮影された動画の撮影データ12a−2(図1参照)と、別のカメラマンによって撮影装置2bで撮影された静止画のグループ、撮影データ12bとを表したものである。
ここで、画像編集装置3は、動画の撮影データ12a−2を読み込んで、(例えば、図11に示したような、MP4ファイルフォーマットのmoovボックスの情報から)、撮影開始時刻は、13:21:02(13時21分02秒)であり、撮影終了時刻は13:26:12であることを把握する(moovボックス等の情報からは、日付情報も把握可能であるが、ここでは省略する)。
また、撮影データ12a−2の特定のフレーム(例えば、iフレーム)を順に解析して、コード表示端末5のディスプレイに表示されたコード10を撮影したコード画像(コード10a)が含まれるフレームの時刻を特定する。図14Aの例では、コード10aが撮影された時刻は、13:21:34である。なお、これらの時刻は、撮影装置2a−2の内部で管理されている時刻に基づいたものである。
一方、画像編集装置3は、静止画のグループである、撮影データ12bを読み込んで、(例えば、図11に示したような、JPEGファイルフォーマットのExifデータの情報から)、最初の撮影データ12b−1の撮影時刻は、13:22:04(13時22分04秒)であり、次の撮影データ12b−2の撮影時刻は、13:23:10であり、その次の撮影データ12b−3の撮影時刻は、13:24:15であり、その次の撮影データ12b−4の撮影時刻は、13:25:20であることを把握する(Exifデータ等の情報からは、日付情報も把握可能であるが、ここでは省略する)。
また、撮影データ12bのグループに属する撮影データを順に解析して、コード表示端末5のディスプレイに表示されたコード10を撮影したコード画像(コード10b)が含まれる静止画を特定する。図14Aの例では、コード10bが撮影された静止画は、撮影データ12b−1であり、その撮影時刻は、13:22:04である。なお、これらの時刻は、撮影装置2bの内部で管理されている時刻に基づいたものである。
ここで、撮影データ12a−2で撮影されたコード10aと、撮影データ12b−1で撮影されたコード10bは、同じコード表示端末5のディスプレイを撮影して得られたものであるが、撮影したタイミングが異なるので、コード自体の内容(模様・形状)は異なるものである。コード10は、例えば、1秒ごとに順次異なる内容を表示するようになっている。
また、撮影データ12a−2でコード10aが撮影された時刻は、13:21:34であり、コード10bを撮影した撮影データ12b−1の撮影時刻は、13:22:04であり、その差は30秒であるが、この30秒という時間差は、それぞれ同期がされていない異なる撮影装置2によって管理されている時刻情報に基づいたものであるため、これらの2つの時刻を比較することに意味はない。
ここで、画像編集装置3は、図14Bに示すように、撮影データ12a−2において、コード10aが撮影されたフレームを探索し、コード10aをデコードすることによって、そのコード10aに関連付けられた時刻(基準時刻)を取得する。この例では、13:22:14(13時22分14秒)である。次に、画像編集装置3は、コード10aから取得された基準時刻から、撮影データ12a−2の撮影開始時刻(13:21:42)と、撮影終了時刻(13:26:52)を把握する。これは、図14Aで把握されているコード10aの撮影時刻と、撮影データ12a−2の撮影開始時刻、撮影終了時刻との関係から求めることができる。なお、撮影データ12a−2のような動画データが、上述のように、(例えば、fps(frames per second)といった単位の)フレームレートを記憶している場合は、コード10aが撮影されたフレームにおいて、そのコード10aに関連付けられた時刻(基準時刻)を取得すると、撮影装置2によって管理されている時刻情報を用いなくても、その基準時刻とフレームレートから、各フレームの並びに従って、撮影データ12a−2の撮影開始時刻、撮影終了時刻、及び他のフレームについての時刻を求めることができる。
次に、画像編集装置3は、図14Bに示すように、コード12bが撮影されている撮影データ12b−1において、コード12bをデコードすることによって、そのコード10bに関連付けられた時刻(基準時刻)を取得する。この例では、13:23:00(13時23分00秒)である。次に、画像編集装置3は、コード10bから取得された基準時刻から、撮影データ12bのグループに属する撮影データの撮影時刻を把握する。例えば、撮影データ12b−2は13:24:06、撮影データ12b−3は13:25:11、撮影データ12b−4は13:26:16となる。これは、図14Aで把握されているコード10bの撮影時刻と、撮影データ12bのグループに属する各撮影データの撮影時刻とから求めることができる。
このような画像編集装置3による処理の結果、動画の撮影データ12a−2と、撮影データ12bのグループに属する各撮影データは、基準時刻に基づいて、互いに同期がとられた状態となる。すなわち、動画の撮影データ12a−2における所定のタイミングでの画像と、これに同期する撮影データ12bの静止画の画像は、同じタイミングの情景等を写したものとなる。
ここで、撮影データ12a−2でコード10aが撮影された時刻は、13:22:14であり、コード10bを撮影した撮影データ12b−1の撮影時刻は、13:23:00であり、その差は46秒であるが、この46秒という時間差は、整合性のある時系列に基づいて管理されたコード10aとコード10bに基づいたものであるため、実際の時間差と一致する(又は、極めて近いものとなる)。
図15Aでは、図14Bのように同期がされた動画の撮影データ12a−2と、撮影データ12bのグループに属する静止画の各撮影データに関して、画像編集装置3を用いて編集者が編集を行い、新たなコンテンツデータ13を生成しようとする状況が示されている。
例えば、最初に、動画の撮影データ12a−2において、コード10aを撮影したフレームの20秒後である13:22:34から13:24:06までの92秒間の撮影データ12a−2aが選択され、次に、その撮影データ12a−2aの終わりのタイミングに一致する、静止画の撮影データ12b−2bが選択されて、70秒間再生することが指定される。その次に、動画の撮影データ12a−2において、撮影データ12a−2bの次のタイミングの13:24:06から13:25:11までの65秒間の撮影データ12a−2bが選択され、次に、その撮影データ12a−2bの終わりのタイミングに一致する、静止画の撮影データ12b−3が選択されて、30秒間再生することが指定される。
次に、動画の撮影データ12a−2において、撮影データ12a−2bの次のタイミングの13:25:11から13:26:16までの65秒間の撮影データ12a−2cが選択され、次に、その撮影データ12a−2cの終わりのタイミングに一致する、静止画の撮影データ12b−4が選択されて、20秒間再生することが指定される。最後に、動画の撮影データ12a−2において、撮影データ12a−2cの次のタイミングの13:26:16から13:26:46までの30秒間の撮影データ12a−2dが選択され、1つのコンテンツデータ13にまとめられる。
このような画像編集装置3による処理により、図15Bに示すような編集後コンテンツ(コンテンツデータ13)が生成される。こうしたコンテンツデータ13では、例えば、動画の撮影データ12a−2の再生で、13:24:06の時点で再生がストップされ、その次に、その時刻に対応する撮影データ12b−2の静止画が所定時間再生されるように編集される。これによって、動画での連続的な動きが表現されている人物や情景が、途中で、別のアングルや拡大された静止画で表現され、再び動き出すような一連の動画を生成することができる。このような動画と静止画の結合は、動画と静止画とが同期しているからこそ自然な表現として実現可能となる。
なお、上記の説明では、例えば、動画の撮影データ12a−2において、13:22:34から13:24:06までの92秒間の撮影データ12a−2aが選択されるように記載したが、これは便宜上の表現であり、実際には、撮影データ12a−2aの最後のフレームは、13:24:06の直前のフレームである。他の部分的な撮影データの選択についても同じである。
また、図14、図15の例では、動画の撮影データ12a−2の各フレームの撮影時刻は、図11に示すような、MP4ファイルフォーマットのmoovボックスにおいて、更新日時や撮影開始日時を更新することで同期が可能となるが(動画の撮影データ12a−2の各フレームの撮影時刻は、更新日時や撮影開始日時からのオフセット時間、又は、更新日時や撮影開始日時とフレームレートに基づいて特定される)、別途、時刻を調整するためのデータを用意して、各フレームの撮影時刻を、同期された時刻に変換するようにしてもよい。
同様に、撮影データ12bのグループに属する各撮影データの撮影時刻は、図11に示すような、JPEGファイルフォーマットのExifデータにおいて、撮影日時を更新することで同期が可能となるが、別途、時刻を調整するためのデータを用意して、各撮影データの撮影時刻を、同期された時刻に変換するようにしてもよい。
また、図14、図15の例では、1つの動画の撮影データ12a−2と、1つの撮影データ12bのグループに属する各撮影データを互いに同期するようにしたが、複数の動画の撮影データ12を同期させたり、複数のグループの静止画の撮影データ12を同期させたり、さらに、複数の動画の撮影データ12と複数のグループの静止画の撮影データ12を同期させたりすることもできる。
例えば、第1の動画の所定期間Aを再生した後、第2の動画の(所定期間Aの終了時のタイミングから始まる)所定期間Bを再生し、その後、第3の動画の所定期間Bを再生するようにコンテンツデータ13を構成すると、所定期間Aの映像が再生された後に、アングルの異なる映像が所定期間Bで続けて自然な流れで再生され、その後、さらに別のアングルで所定期間Bにおける映像がリプレイされるような映像を作ることができる。
また、例えば、第1の動画の所定期間Aを再生した後、第1の静止画の(所定期間Aの終了時のタイミングの)映像を所定期間再生し、その後、第2の静止画の(所定期間Aの終了時のタイミングの)映像を所定期間再生するようにコンテンツデータ13を構成すると、所定期間Aの映像が再生された後に、その次の瞬間の映像がストップモーションで所定期間再生され、その後さらに、その瞬間の別のアングルの映像がストップモーションで所定期間再生されるような映像を作ることができる。
次に、画像編集装置3において編集担当者がコンテンツデータ13を生成するためのGUIの一例を、図16を参照して説明する。
図16に示すコンテンツ編集画面820は、編集担当者が画像編集装置3で所定の操作を行うことにより、画像編集装置3のディスプレイに表示される。コンテンツ編集画面820には、この例では、ファイルメニュー821、画像表示部822、画像情報表示部823、画像再生制御部824、フレーム表示部825、サウンド表示部827、サウンド設定ボタン828、撮影データ表示部830、編集範囲指定部835、及び編集指示部836が配置される。
ファイルメニュー821は、編集担当者のマウス等の操作に応じて、編集に使用する撮影データを指定する「ファイルを開く」の操作、編集後の撮影データをコンテンツデータ13として保存する「名前を付けて保存」の操作、及びコンテンツ編集画面820を閉じて、このプログラムを終了させる「終了」の操作が選択可能となっている。
また、上述の「ファイルを開く」の操作では、コンテンツデータ13の元となるマスター動画である編集対象動画(撮影データ12)を選択する「編集対象動画を選択」の操作、一部の動画をマスター動画に挿入するために使用される動画を選択する「動画を追加」の操作、一部の静止画をマスター動画に挿入するために使用される静止画のグループをフォルダ単位で指定する「静止画フォルダを追加」の操作、及び一部の静止画をマスター動画に挿入するために使用される静止画を個別に選択して、それらをグループとして指定する「静止画グループを追加」の操作を選択することができる。
図16の例では、最初に、コンテンツデータ13の元となるマスター動画である編集対象動画を選択するが、このようなマスター画像を選択することなく、それぞれ指定した動画と静止画の一部を、所望の順序で追加していくことによって、コンテンツデータ13を作成するようにしてもよい。
編集の最初の段階では、マスター動画についての表示と指定が行われている。例えば、画像表示部822にそのマスター動画の再生画像が表示される。画像情報表示部823には、そのマスター動画のファイル名や画像サイズ、フレームレート、再生時刻が表示される。再生時刻は、ここでは、動画の撮影開始時点を0時0分0秒として表示される。
編集担当者によって、画像再生制御部824に配置されている再生ボタンや停止ボタンが操作されると、それに応じて、画像表示部822に表示されたマスター動画の画像が再生されたり、一時停止されたりする。
フレーム表示部825には、マスター画像のフレームがサムネイルとして表示されており、基本的に、Iフレーム以外のフレームは一部が表示されるか、又は表示が省略される。符号825aで示される縦線は、再生されている時点が、フレームのどの位置になるかを表している。
サウンド表示部827には、マスター動画の音声データの波形が示されている。編集担当者によってサウンド設定ボタン828が押下されると、そのマスター動画の音声をどのように処理するかについての設定画面が表示される。例えば、音量や音声有無の設定、他の音声への変更などを設定することができる。
撮影データ表示部830は、左側に、上述した画像表示部822にどの撮影データを表示させるかを指定するチェックボックスを含んでいる。この例では、ファイルメニュー821の「ファイルを開く」の操作により、動画1(マスター動画)、動画2、静止画グループ1、静止画グループ2が選択され、画像編集装置3のメモリ等に読み込まれている。編集担当者は、これらの撮影データを使用して、コンテンツデータ13を編集しようとしている。
チェックボックスで撮影データが指定されると、画像表示部822だけでなく、画像情報表示部823、フレーム表示部825、サウンド表示部827にその撮影データの情報が表示される(ただし、サウンド表示部827には、動画の撮影データの場合のみ波形データが表示される)。図16では、編集の最初の段階として動画1(マスター動画)が選択されている。このチェックボックスのチェックを変更することで、別の撮影データを画像表示部822等に表示させることができる。
また、撮影データ表示部830は、チェックボックスの右側に、それぞれの撮影データに対応したタイミング表示部831〜834が表示され、動画1については、タイミング表示部831が表示され、ここには、スライダーバー831aとスライダー831bが配置され、スライダー831bをスライダーバー831aに沿って移動させることで、動画1の再生位置が移動される。動画2についても同様に、タイミング表示部832が表示され、そこに、スライダーバー832aとスライダー832bが配置される。
ここで、動画2は、本願の方法により動画1に同期付けられており、そのタイミングに合わせて、同期された時刻を基準として、スライダーバー831aとスライダーバー832aが配置され、長さや開始位置、終了位置が調整されている。
静止画グループ1については、タイミング表示部833が表示され、ここには、バー833aと、静止画グループ1の各画像データに対応付けられた三角形のシンボル833b、833d等が配置される。ここで、三角形のシンボル833b、833dの位置は、本願の方法により、動画1に同期付けられており、符号830aや符号830bで示された点線は、静止画グループ1に属する1つの静止画が、動画1のどの再生位置に同期付けられているかという対応関係を、同期された時刻を基準として示している。
また、矩形のシンボル833cは、静止画グループ1に属する(連写等で得られた)静止画群を示しており、これらについても、上述の点線によって、動画1のどの再生位置に同期付けられているかという対応関係を、同期された時刻を基準として示している。他の点線についても動画1との同期関係を示すものである。
また、矩形のシンボル833cは、上述のように、連写等で、対応する動画の1フレーム(又は数フレーム)に対して、複数の静止画が存在することを示しており、編集担当者がこのシンボルを選択すると、それらの静止画の一覧が表示され、そこで、どの静止画を動画にインサートするかを選択することができる。
静止画グループ2については、タイミング表示部834が表示され、ここには、バー834aと、静止画グループ1の各画像データに対応付けられた三角形のシンボル834b、複数の静止画に対応付けられた矩形のシンボル834cが配置される。三角形のシンボル834bや矩形のシンボル834cの位置は、静止画グループ1と同様に、本願の方法により、動画1に同期付けられている。
コンテンツ編集画面820の最下部には、編集範囲指定部835が配置されている。編集範囲指定部835には、撮影データ表示部830のチェックボックスでチェックされた撮影データを対象として範囲指定を行ったり、編集を行ったりするためのボタンと、編集の指示を行う編集指示部836が配置されている。
編集指示部836は、例えば、「カット」、「インサート」、「リプレース」、「並行表示」等の編集を指示するためのプルダウンメニューである。
例えば、撮影データ表示部830のチェックボックスで動画1がチェックされている場合、動画1について編集範囲指定部835で範囲を指定し、その後、編集指示部836で「カット」を選択し実行すれば、指定した範囲がカットされ、それに応じて、対応する動画2の範囲がカットされ、撮影データ表示部830の動画1のタイミング表示部831の表示と、動画2のタイミング表示部832の表示が、そのカットされた範囲を表示しないように更新される。
また、このような動画1のカット操作に応じて、対応する静止画がある場合は、静止画グループ1のタイミング表示部833と、静止画グループ2のタイミング表示部834の表示が更新され、対応する静止画のシンボル(三角形のシンボルや矩形のシンボル)が表示されないようになる。
また、例えば、動画1のタイミング表示部831において、スライダー831bを移動させて編集ポイントを特定した後、撮影データ表示部830のチェックボックスで動画2をチェックし、編集範囲指定部835で範囲を指定し、その後、編集指示部836で「インサート」を選択し実行すれば、指定した動画2の範囲が、動画1の編集ポイントに挿入され、それに応じて、撮影データ表示部830の動画1のタイミング表示部831の表示と、動画2のタイミング表示部832の表示が、その挿入に応じて更新される。また、動画1のタイミング表示部831では、スライダーバー831aの挿入された範囲が、他の範囲とは異なる表示態様で表示される。
また、このときに、編集指示部836で「リプレース」を選択し実行すれば、指定した動画2の範囲が、動画1の編集ポイントから置換される。この場合は、撮影データ表示部830の動画1のタイミング表示部831の表示と、動画2のタイミング表示部832の表示の長さに変更はないが、動画1のタイミング表示部831では、スライダーバー831aのリプレースされた範囲が、他の範囲とは異なる表示態様で表示される。
また、例えば、動画1のタイミング表示部831でスライダー831bを移動させて編集ポイントを特定した後、撮影データ表示部830のチェックボックスで動画2をチェックし、編集範囲指定部835で範囲を指定し、その後、編集指示部836で「並行表示」を選択し実行すれば、指定した動画2の範囲が、動画1の編集ポイントから、動画1とともに再生されるように構成される。この場合は、撮影データ表示部830におけるタイミング表示部831の表示と、動画2のタイミング表示部832の表示の長さに変更はないが、動画1のタイミング表示部831では、動画1と動画2がともに再生・表示される範囲が分かるように、他とは異なる表示態様で表示が行われる。
上記のような、動画1に対して動画2を挿入・リプレース等する編集と同様に、静止画グループ1、静止画グループ2のなかのそれぞれの静止画についても、三角形のシンボルを選択した後(矩形のシンボルに関しては、矩形のシンボルを選択した後、さらに特定の静止画を選択した後)、編集指示部836で「カット」、「インサート」、「リプレース」、「並行表示」を選択し実行することができる。なお、静止画については、後述するように、再生時間を指定して、動画1に対する編集を行うことになる。
図17Aは、編集指示部836で「インサート」を選択した場合に表示されるインサート詳細設定画面841の例を示している。
インサート詳細設定画面841は、動画1に挿入する画像が動画であっても静止画であっても表示される。インサート詳細設定画面841の上部には、挿入する動画/静止画を同期位置に挿入するか、指定位置に挿入するかを指定する位置指定部が配置される。本願では、上述のように、編集に使用される撮影データは、互いに同期がとられているため、挿入の指示をするだけで同期位置に挿入することができる。しかしながら、より精密な時間合わせや、意図的にタイミングを必要とする場合に、指定位置(例えば、同期位置の数十ミリ秒後)を設定する。
再生時間は、挿入する画像が静止画である場合に、コンテンツデータ13においてその静止画をどれだけ静止画として再生するかを指定する。また、挿入する画像が動画である場合は、この再生時間を指定することにより、コンテンツ編集画面820における動画の範囲指定が不要になる。
トランジッション設定は、動画1と、挿入する画像とのつなぎ目のエフェクトを指定するものであり、この例では、「cross fade」、「whiteout」、「なし」のいずれかを選択できる。
サウンドは、その動画のサウンドを使う「動画で設定されているサウンドを使う」、元の動画のサウンドを使う「挿入元の動画で設定されているサウンドを使う」、新たなサウンドを設定する「サウンドを設定する」、又は「なし」のいずれかを選択できる。静止画の場合は、サウンドがないので、その静止画の撮影データから取得することはない。
インサート詳細設定画面841において設定が終了すると、編集担当者は、決定ボタンを押下して設定を確定させる。
図17Bは、編集指示部836で「並行表示」を選択した場合に表示される並行表示詳細設定画面842の例を示している。
並行表示詳細設定画面842は、動画1とともに表示する画像が動画であっても静止画であっても表示される。並行表示詳細設定画面842には、インサート詳細設定画面841と同様に、同期位置・指定位置の設定、再生時間の設定、トランジッション設定、サウンドの設定があり、これらは、インサート詳細設定画面841における設定と同様のものである。
並行表示詳細設定画面842では、表示パターンの設定が設けられている。これは、動画1の画面と、指定された動画や静止画をどようなパターンで並行表示するかを指定するものである。この例では、左右に並べて表示する「左右」のほか、所定の移動パターンで動画や静止画を遷移させるエフェクトによって表示する「デザイン1」、「デザイン2」を選択可能である。
並行表示詳細設定画面842において設定が終了すると、編集担当者は、決定ボタンを押下して設定を確定させる。
次に、ユーザ端末6において、ユーザがコンテンツデータ13を再生するためのGUIの一例を、図18、及び図19を参照して説明する。図18のコンテンツ指定画面850、及び図19のコンテンツ再生画面860はともに、画像管理サーバ4から表示用データや動画再生用データを受信することで表示され、この表示用データや動画再生用データは、ユーザの操作に基づいてユーザ端末6から画像管理サーバ4に送信されたデータ(再生リクエスト15を含む)に応じて、画像管理サーバ4が生成したものである。
図18に示すコンテンツ指定画面850は、ユーザがユーザ端末6において、画像管理サーバ4に対してログイン操作を行うことにより、ユーザ端末6のディスプレイに表示される。コンテンツ指定画面850は、イベント動画再生サービスを提供するものであり、この例では、ユーザID表示部851、再生可能イベント指定部852、及び再生可能コンテンツ指定部853が配置される。
ユーザID表示部851は、ログインしたユーザのユーザIDを示すものであり、ユーザは、事前に登録したユーザIDとパスワードで画像管理サーバ4にログインする。
再生可能イベント指定部852は、そのユーザIDのユーザが再生可能なイベントのイベントIDを、指定(選択)可能な態様で表示している。この例では、イベントID=「00101」、「00102」を選択することができる。このように表示されるイベントは、画像管理サーバ4の再生管理テーブル473において、対応するユーザIDにおいて再生権限=「有り」となっているイベントIDである。また、再生可能イベント指定部852では、画像管理サーバ4が、画像編集装置3のイベント管理テーブル371(又は、画像管理サーバ4にコピーしたイベント管理テーブル)の日付、場所、イベント概要に基づいて編集が行われる。
再生可能コンテンツ指定部853には、ユーザが、再生可能イベント指定部852でイベントIDを選択した場合に、選択されたイベントIDに関するコンテンツデータ13のファイル名が、サムネイル画像とともに一覧表示される。このとき、画像管理サーバ4は、コンテンツデータ474を参照して、選択されたイベントIDに関するコンテンツデータ13を検索し、そのファイル名とサムネイルを一覧表示する。それぞれのコンテンツデータ13がどのイベントIDに関するものであるかは、例えば、コンテンツデータ13に含まれるデータ(例えば、moovボックスのデータ)や、コンテンツデータ13とイベントIDの関連付けを記憶したテーブル(不図示)を参照して判定することができる。
また、この例では、ファイル名とサムネイル画像を一覧表示するようにしたが、これらに代えて、あるいはこれらに加えて、コンテンツの内容を表現したテキスト等、他のデータを表示することもできる。
ユーザ端末6において、ユーザがタッチ操作等によってファイル名を選択すると、ユーザ端末6のディスプレイは、図19に示すコンテンツ再生画面860に遷移する。
図19に示すコンテンツ再生画面860は、ユーザ端末6におけるユーザの操作に基づいて、イベント動画再生サービスを提供するものであり、この例では、ユーザID表示部861、コンテンツデータ13のファイル名を表示するファイル名表示部862、画像表示部863、再生時刻表示部864、コンテンツデータタイミングバー865、画像再生制御部866、及びプリント指示ボタン867が配置される。
ユーザID表示部861は、ログインしたユーザのユーザIDを示すものであり、この表示は、図18のコンテンツ指定画面850から引き継がれる。ファイル名表示部862には、図18のコンテンツ指定画面850においてユーザが選択したコンテンツデータ13のファイル名が表示される。
画像表示部863には、コンテンツデータ13の再生画像が表示される。また、画像表示部863の内部に(又は外側に)、再生時刻表示部864を表示するようにしてもよい。再生時刻表示部864は、図1に示すコード表示情報11が、現在時刻に関する情報を含んでコード表示端末5に提供される場合や、コード表示端末5においてコード10を表示する場合に、所定のタイミングでNTPサーバにアクセスし、現在時刻の精度をある程度担保している場合等に、再生している画像がどの時刻のものであるかを示すようにすることができる。
また、この再生時刻表示部864の位置等に、動画の最初をゼロとした、動画再生時刻を表示させることもできる。
コンテンツデータタイミングバー865は、コンテンツデータ13の再生位置を示すスライダーバーを含み、符号865aで示されたシンボルは、再生しているコンテンツデータ13の全体における位置を表している。
画像再生制御部866は、再生ボタン、停止ボタン、早戻しボタン、早送りボタン、音量調整スライダーバーを含み、これらをユーザがタッチ操作等で操作すると、これに応じてコンテンツデータ13の再生が開始されたり、一時停止されたりする。
プリント指示ボタン867は、コンテンツデータ13を一時停止した状態でこれをタッチ等すると、その停止された画像をプリントする指令が、画像管理サーバ4に送信され、ユーザは、所望のタイミングのプリントを注文することができる。プリント指示ボタン867をタッチ等した後、さらに、ユーザによって、プリントサイズ、加工、決済方法、送付先等が指定される。
次に、図20とともに図16を参照して、画像編集装置3において、複数の指定された撮影データについて同期を行い、その後、編集担当者の操作に応じてコンテンツデータ13を図16のコンテンツ編集画面820で生成する(編集する)処理の流れについて説明する。
最初に、ステップS11において、撮影データ12の読取指示があったか否かが判定される。この読取指示は、編集担当者が、コンテンツ編集画面820において、ファイルメニュー821の「ファイルを開く」の操作を行って、「編集対象動画を選択」の操作、「動画を追加」の操作、「静止画フォルダを追加」の操作、又は「静止画グループを追加」の操作を行うことによって実行される。
撮影データ12の読取指示がない場合は(ステップS11のNO)、再びステップS11に戻って、上記の判定を繰り返す。撮影データ12の読取指示があった場合(ステップS11のYES)、画像編集装置3は、例えば、撮影装置2から取り出された可搬型記憶媒体から、指定された撮影データ12を読み取る(ステップS12)。
次に、ステップS13において、静止画の読取であるか否か、すなわち、コンテンツ編集画面820において、ファイルメニュー821の「静止画フォルダを追加」の操作、又は「静止画グループを追加」の操作が行われたか否かを判定する。ステップS13において、静止画の読取であると判定された場合(ステップS13のYES)、ステップS14において、読み取った複数の静止画を1グループとして管理する。
このとき、例えば、編集担当者は、コンテンツ編集画面820において、ファイルメニュー821の「静止画フォルダを追加」の操作を行って、撮影装置2から取り出された可搬型記憶媒体に格納されたフォルダを指定し、そのフォルダに格納されている複数の静止画をまとめて1グループの静止画として管理する。また、編集担当者が、コンテンツ編集画面820において、ファイルメニュー821の「静止画グループを追加」の操作を行う場合は、撮影装置2から取り出された可搬型記憶媒体に格納された静止画を個々に指定し、こうして指定された複数の静止画をまとめて1グループの静止画として管理する。その他、編集担当者は、コンテンツ編集画面820において、複数の静止画を1グループとして管理させるさまざまな方法を用いることができる。
ステップS13において、静止画の読取でないと判定された場合(ステップS13のNO)、読み取られた撮影データ12は動画であり、ステップS15において、その動画をマスター動画、又はそれ以外の動画として管理する。例えば、編集担当者が、コンテンツ編集画面820において、ファイルメニュー821の「編集対象動画を選択」の操作を行った場合は、読み取った動画をマスター動画(すなわち、生成するコンテンツデータ13の元となる動画)として管理し、ファイルメニュー821の「動画を追加」の操作を行った場合は、読み取った動画をマスター動画以外の動画として管理する。
なお、上述のように、編集後の動画データであるコンテンツデータ13を生成する場合に、マスター動画を設定せずに編集することもできるため、編集方式に合わせて動画を管理することができる。
ステップS14、及びステップS15の後、ステップS16において、編集対象動画(マスター動画)を含む複数の撮影データ12を読み込んだか否かを判定する。複数の撮影データ12が読み込まれていない場合(ステップS16のNO)、ステップS11に戻り、再び、編集担当者によって撮影データが読み込まれるのを待機する。
複数の撮影データ12が読み込まれている場合(ステップS16のYES)、ステップS17において、動画の撮影データ12のフレームを解析し、コード10が撮影されたフレームを特定し、その画像を抽出する。次に、ステップS18において、抽出された画像に基づいて、コード10をデコードし、デコード結果から時刻情報を取得し、取得された時刻情報から、当該撮影データ12の時刻を調整する。
コード10のデコード結果は、時刻情報そのものである場合もあるし、所定のキー情報である場合もある。キー情報が得られた場合は、そのキー情報に基づいてテーブル等にアクセスし、そこで対応する時刻情報を取得する。
時刻情報を取得した場合、コード10を撮影したフレームの時刻が、その時刻情報の時刻に置き換えられ、他のフレームは、コード10を撮影したフレームとの相対時間により新たな時刻に調整される。この概念は、図14を参照して説明した通りである。
なお、ステップS17、及びステップS18の処理は、動画の撮影データ12が複数あれば、それぞれについて個別に行われる。撮影されたコード10は、撮影したタイミングが異なれば、異なるデコード結果となる。また、動画の撮影データ12のなかに、コード10を撮影したフレームが複数ある場合は、例えば、最初のフレームであったり、より鮮明な写りのフレームであったりといった所定のルールによって1つに絞り込み、デコードを行うようにすることができる。
次に、ステップS19において、指定された静止画のグループのなかで、コード10が撮影された静止画を特定し、その後、ステップS20において、撮影されたコード10をデコードし、デコード結果から時刻情報を取得し、取得された時刻情報から、当該撮影データ12の時刻を調整する。
コード10のデコード結果は、時刻情報そのものである場合もあるし、所定のキー情報である場合もある。キー情報が得られた場合は、そのキー情報に基づいてテーブル等にアクセスし、そこで対応する時刻情報を取得する。
時刻情報を取得した場合、コード10を撮影した静止画の時刻が、その時刻情報の時刻に置き換えられるとともに、そのグループに属する他の静止画は、コード10を撮影した静止画との相対時間により新たな時刻に調整される。この概念は、図14を参照して説明した通りである。
なお、ステップS19、及びステップS20の処理は、静止画の撮影データ12のグループが複数あれば、それぞれについて個別に行われる。撮影されたコード10は、撮影したタイミングが異なれば、異なるデコード結果となる。また、静止画のグループのなかに、コード10を撮影した静止画が複数ある場合は、例えば、最初の静止画であったり、より鮮明な写りの静止画であったりといった所定のルールによって1つに絞り込み、デコードを行うようにすることができる。
また、ステップS19、及びステップS20の処理は、静止画の撮影データ12のグループが1つも指定されていない場合はスキップされる。
次に、ステップS21において、編集対象動画として管理されている時刻調整後の撮影データ12(マスター動画)と、他の調整後の撮影データ12とを、調整された時刻に基づいて同期させ、例えば、コンテンツ編集画面820の撮影データ表示部830において、各撮影データ12の同期関係を表示し、又は、同期された状態での画像の編集を可能とする。
例えば、図16に関して説明したように、コンテンツ編集画面820の撮影データ表示部830において、動画1(マスター動画)と動画2のスライダーバーは、同期関係に基づいて、それぞれの長さが異なったり、開始・終了位置が異なったりしている。
また、例えば、静止画グループ1の三角形のシンボルを選択して、「インサート」の編集指示を行うと、その静止画グループ1が、動画1の同期された位置に挿入されるよう編集される。
ステップS21が終了すると、ステップS11において、さらに撮影データ12の読取指示があるか否かを判定するため待機する。
ここまで、本発明の一実施形態に係る画像管理システム1を参照して、本発明の特徴的な構成を説明してきたが、本実施形態は一例に過ぎない。上記以外の様々な構成によって、本発明の画像管理システムを実現することができる。