JP2011045018A - 画像表示装置、その制御方法及びプログラム - Google Patents

画像表示装置、その制御方法及びプログラム Download PDF

Info

Publication number
JP2011045018A
JP2011045018A JP2009193372A JP2009193372A JP2011045018A JP 2011045018 A JP2011045018 A JP 2011045018A JP 2009193372 A JP2009193372 A JP 2009193372A JP 2009193372 A JP2009193372 A JP 2009193372A JP 2011045018 A JP2011045018 A JP 2011045018A
Authority
JP
Japan
Prior art keywords
image data
camera
image
moving image
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009193372A
Other languages
English (en)
Other versions
JP5473478B2 (ja
Inventor
Takuma Mikawa
拓馬 三河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009193372A priority Critical patent/JP5473478B2/ja
Publication of JP2011045018A publication Critical patent/JP2011045018A/ja
Application granted granted Critical
Publication of JP5473478B2 publication Critical patent/JP5473478B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

【課題】同一の時間帯に複数のカメラで撮影された複数の画像データが混在する状況下において、撮影時の時間の流れや内容を把握しやすいように画像データを表示する。
【解決手段】複数のカメラで撮影された複数の画像データを表示対象とする場合において、画像データを撮影したカメラを指定可能とし(90)、あるカメラで撮影された画像データを表示している際に、他のカメラが指定された場合に、表示中の画像データの撮影時刻を維持して、他のカメラで撮影された画像データを表示する。
【選択図】図9

Description

本発明は、画像データの表示を行う画像表示装置、その制御方法、プログラム、及びコンピュータ読み取り可能な記録媒体に関する。
デジタルカメラ、デジタルビデオカメラの普及や通信技術の発展に伴い、個人で撮影した画像データを他の人と交換したり、複数名のグループで共有したりすることが一般的に行われるようになっている。例えば結婚式などのイベントで複数人がそれぞれのカメラで同じ時間帯に画像データを撮影し、その後、複数のカメラで同じ時間帯に撮影された画像データをまとめて扱う状況などが考えられる。
このような状況で画像データを表示する際に全ての画像データを撮影時間順に表示すると、同じような画像が繰り返し表示される場合があるため、画像データの内容や時間の流れを把握しづらいという問題が発生する。このような問題に鑑みて特許文献1には、画像データに付加されているメタデータを利用して画像を順番に表示する方法が開示されている。より詳しくは、特許文献1に開示された方法は、撮影時に画像データに付加されたメタデータの「マーク」を利用することで、画像のマーク付加部分が時間順に並ぶような再生プログラムを自動的に作成する、というものである。
特開2004−056738号公報
しかしながら、特許文献1に開示された方法では、マークの付加された画像データに限定されて表示が行われるため、マークの付いていない任意の一般的な画像データを扱うことは考慮されていない。そのため、マークの付いていない画像データを見たい場合は、その画像データを指定して改めて見る必要があり、つまるところ、撮影時の時間の流れや内容を把握しづらいという問題を解消することはできない。
本発明は上述した問題に鑑みて、同一の時間帯に複数のカメラで撮影された複数の画像データが混在する状況下において、撮影時の時間の流れや内容を把握しやすいように画像データを表示することが可能な画像表示装置等の提供を目的とする。
本発明の画像表示装置は、複数のカメラで撮影された複数の画像データを表示対象とする画像表示装置であって、画像データに関連付けられた撮影時刻を示す撮影時刻情報を取得する撮影時刻取得手段と、画像データに関連付けられた撮影したカメラを識別するためのカメラ識別情報を取得するカメラ識別情報取得手段と、画像データを撮影したカメラを、前記カメラ識別情報を基に指定可能とするカメラ指定手段と、前記カメラ指定手段で指定されたカメラで撮影された画像データを、前記撮影時刻情報を基に撮影時刻順に表示する表示処理手段と、前記表示処理手段で画像データを表示している際に、前記カメラ指定手段によって他のカメラが指定された場合に、表示中の画像データの撮影時刻に応じて、前記他のカメラで撮影された画像データのうちから前記表示処理手段で次に表示すべき画像データを選択する表示制御手段と、を有することを特徴とする。
本発明によれば、同一の時間帯に複数のカメラで撮影された複数の画像データが混在する状況において、任意の画像データを時間の流れに沿って表示することができ、画像データの撮影時の時間の流れや内容を把握しやすい表示が可能となる。
本発明の第1の実施の形態に係る画像表示装置の動作の流れを示すフローチャートである。 本発明の第1の実施の形態に係る画像表示装置を含むパーソナルコンピュータの構成を示すブロック図である。 図1におけるステップS100の詳細動作を示すフローチャートである。 本発明の第1の実施の形態に係る画像表示装置で扱う動画データの概念図である。 本発明の第1の実施の形態に係る画像表示装置で作成する全動画リストの概念図である。 本発明の第1の実施の形態に係る画像表示装置で作成するカメラ動画リストの概念図である。 本発明の第1の実施の形態に係る画像表示装置で作成するソート済みのカメラ動画リストを時間軸に沿って表した図である。 本発明の第1の実施の形態に画像表示装置で表示する画面(ユーザインタフェース(UI))の一例を示した図である。 本発明の第1の実施の形態に画像表示装置で表示する動画データを表示した画面(ユーザインタフェース(UI))の一例を示した図である。 図1におけるステップS190の詳細動作を示すフローチャートである。 本発明の第2の実施の形態に係る画像表示装置を含む画像表示システム全体の概要を示した図である。 本発明の第2の実施の形態に係る画像表示装置を含むパーソナルコンピュータのブロック図である。 本発明の第3の実施の形態に係る画像表示装置の動作の流れを示すフローチャートである。 本発明の第3の実施の形態に係る画像表示装置で表示するウィンドウの例を示した図である。 図13のステップS1390の詳細動作を示すフローチャートである。 本発明の第3の実施の形態に係る画像表示装置で表示するウィンドウの例を示した図である。
(第1の実施の形態)
本発明を実施するための第1の実施の形態について説明する。図1は、本実施の形態に係る画像表示装置の動作の流れを示すフローチャートであり、図2は、本実施の形態に係る画像表示装置を含むパーソナルコンピュータの構成を示すブロック図である。以下の説明では、本実施の形態に係る画像表示装置がパーソナルコンピュータ(PC)上で動作し、画像データとして動画データを扱う例を説明する。
先ず、図2を用いて本実施の形態に係る画像表示装置を含むパーソナルコンピュータの構成について説明する。図2において、210は画像表示装置全体の動作を制御する演算処理装置(CPU)であり、220はプログラムや画像データなどのデジタルデータを記録するハードディスク(HD)である。ハードディスク220には、本実施の形態で扱う動画データが記録され、また、各種処理を実行するためのプログラム(画像表示プログラムを含む)が記録される。ハードディスク220に記録されたプログラムは、CPU210が読み取り可能なプログラムコードとして記録され、本実施の形態に係る画像表示装置では、ハードディスク220に記録されたプログラムコードをCPU210が実行することで各種処理が行われる。
230は内部メモリ(メモリ)であり、240はCRTディスプレイや液晶パネルなどの表示部(ディスプレイ)である。250は音声を出力するスピーカーであり、260はキーボードやマウスなどからなる操作部である。270は外部記録媒体280からデータを読み込むためのドライブであり、280はCD−ROMやDVD−ROMなどの外部記録媒体である。290はPCIバスなどのコンピュータ内部の各処理部を相互に接続するための内部バスである。
なお、本実施の形態ではハードディスク220にプログラムを記録する例を示したが、プログラムをCD−ROMなどの外部記録媒体280に記録し、記録媒体ドライブ270を介してCPU210がプログラムを読み出して実行する形態でも良い。また同様に、ネットワーク上にプログラムがある場合でも本発明は適用される。
次に、本実施の形態に係る画像表示装置の動作概要について図1に示すフローチャートを用いて説明する。なお、以下で説明する動作は、CPU210がハードディスク220から読み出した画像表示プログラムを実行することで実現される。また、本実施の形態で扱う(表示対象とする)動画データは、ハードディスク220上の特定のフォルダ(特定フォルダ)に記録されているものとする。
先ず、ステップS100においてCPU210は、ハードディスク220の特定フォルダ内にある全ての動画データ(図中では動画と記載)についての情報を取得し、動画ファイルリスト(以下、動画リストと呼ぶ)を作成する。作成される動画リストとしては、全ての動画データのリストである全動画リストと、カメラ識別情報毎の動画データのリストであるカメラ動画リストを作成する。なお、カメラ識別情報とは、動画データを撮影したカメラを識別するための情報である。すなわち、カメラ動画リストは、動画データをカメラ毎にまとめたリストである。
ここでステップS100の動画リスト作成処理の詳細動作について、図3のフローチャートを用いて説明する。
ステップS300においてCPU210は、対象となる全ての動画データのファイル名を取得し、全ての動画データのリスト(全動画リスト)を作成する。
次にステップS310においてCPU210は、ステップS300で作成した全動画リスト中の動画データに関連付けられた画像付加情報を取得する。取得した画像付加情報は、対応する動画データ毎に全動画リストで管理する。画像付加情報には、少なくとも画像データを撮影したカメラを識別するためのカメラ識別情報、画像データが撮影された撮影時刻を示す撮影時刻情報及び画像データの記録時間を示す記録時間情報が含まれるが、もちろんそれ以外の画像付加情報があっても良い。なお、このステップは、撮影時刻取得手段、及びカメラ識別情報取得手段の処理に対応する。
次にステップS320においてCPU210は、全動画リストの全ての動画データの画像付加情報を取得したかどうか判断する。もし全ての動画データに対して処理が終了していなければステップS310に戻り、リスト順に画像付加情報を取得する処理を繰り返す。すなわち、ステップS310、ステップS320の処理は、全ての動画データ数分だけ繰り返される。
次にステップS330においてCPU210は、取得した全ての動画データに対する画像付加情報の中のカメラ識別情報を基に、全動画リストの中に何種類のカメラ識別情報があるかを判断する。カメラ識別情報は、画像データを撮影したカメラを識別するための情報であるため、カメラ識別情報の種類を調べることによりカメラの台数が判断できる。
次にステップS340においてCPU210は、カメラ識別情報毎の動画ファイルリスト(カメラ動画リスト)を作成する。詳しくは、全動画リストを基に、同じカメラ識別情報を持った動画データだけを集めた動画データのリストを作成する処理を行う。
次にステップS350においてCPU210は、各動画リストを、撮影時刻情報を基にソート、すなわち時系列順に順番を定める処理をする。動画リストとしては、全動画リストとカメラ動画リストがソート対象となる。つまり、(カメラ台数+1)台分の動画リストが対象となる。
次にステップS360においてCPU210は、動画リストの全てをソートしたかどうかの判断を行う。動画リストの全てのソート処理が終了していなければ、ステップS350に戻り、動画リストをソートする処理を繰り返す。
以上のステップS300〜ステップS360までが、動画リストの作成処理となる。以下、この動画リスト作成処理動作についてより具体的に説明する。以下では、ハードディスク220上の特定フォルダとして使用する"C:\Movies"フォルダの中に、次に示すような11個の動画データがある場合を例に挙げ、具体的な処理の流れを説明する。なお、ここでは、特定フォルダとして、"c:\Movies"フォルダを指定する場合の例を示すが、もちろんそれ以外のフォルダでも良いし、複数フォルダを指定できるような構成でも良い。
<"C:\Movies"フォルダの中にある動画データ(全部で11個)>
AAA_0001.avi
AAA_0002.avi
AAA_0003.avi
AAA_0004.avi
BBB_0001.avi
BBB_0002.avi
BBB_0003.avi
CCC_0001.avi
CCC_0002.avi
CCC_0003.avi
CCC_0004.avi
ステップS300においてCPU210は、上記11個の動画データのファイル名を取得し、全動画リストを作成する。ここで動画データの概念図を図4に示す。図4において(A)は画像付加情報ファイルを示し、(B)は動画データ本体を示している。このように、本実施の形態では動画データと画像付加情報は別ファイルで管理されるが、もちろん動画データの中に画像付加情報を含め単一のファイルとした場合でも本発明を適用できるのは言うまでもない。画像付加情報ファイルは拡張子「thm」のファイルとして記述され、動画データと画像付加情報ファイルは拡張子以外のファイル名が同じというルールで関連付けされる。
図4(A)に示す画像付加情報ファイルの一例では、ファイル名を「AAA_0001.thm」としている。画像付加情報ファイルのデータ構造としては、「カメラ識別情報」、「撮影時刻情報」、「記録時間情報」、「先頭フレームの画像データ」、が順番に入っている構造となる。もちろん、イベント情報などこれ以外の画像付加情報が入っている構造でも本発明は適用される。
一方、図4(B)に示す動画データ本体の一例では、ファイル名を「AAA_0001.avi」としている。このように、画像付加情報ファイルと動画データは、拡張子以外のファイル名が同じであり、これにより関連付けをして管理される。なお、動画データの内部構造は一般的に使用されているものと同じであるため、本実施の形態では説明を省略する。
次にS310においてCPU210は、動画データのファイル名を基に、それに対応する画像付加情報ファイルを読み込み、各種の画像付加情報を取得し、ステップS320においては、全ての画像付加情報を取得できたか判断する。ここで取得された画像付加情報は、全動画リストに動画データのファイル名と一緒に管理される。このようにステップS310、ステップS320では、各動画データに対応する画像付加情報ファイルを読み込み、画像付加情報を取得する処理を行う。
ステップS320までの処理が終了すると、全動画リストに画像付加情報が入力された状態になる。このときの全動画リストの例を示す概念図を図5に示す。図5においては、紙面左から、「リスト番号(No)」、「ファイル名」、「カメラ識別情報」、「撮影時刻」、「記録時間」の各情報を示している。この例では動画データが11個あるので、リストの要素数も11個となっている。本実施の形態では、画像付加情報ファイルにある「先頭フレームの画像データ」は使用しないため動画リストで管理しないが、これを使用するような構成でも良い。また、ここで言う「撮影時刻」は、動画データの撮影開始時の時刻を示すが、本発明でいう「撮影時刻」は広義に、再生中の動画データの1シーンでの時刻も含むものとする。
次にステップS330においてCPU210は、カメラ識別情報を基に全動画リストの中に何種類のカメラ識別情報があるかを判断する。図5の例で「カメラ識別情報」を見ると、「AAA」、「CCC」、「BBB」という3種類のカメラ識別情報があることが分かる。つまり、この例では、3種類のカメラで撮影された動画データを扱っていると判断できる。なお、カメラ識別情報はカメラを識別(区別)するための情報であり、一般的にはGUID(Globally Unique Identifier)のようなユニークな値が入っているのが望ましいが、ここでは説明の便宜のためカメラ識別情報は単純化しておく。
次にステップS340においてCPU210は、図5の全動画リストを基に、各カメラ識別情報毎に3種類のカメラ動画リストを作成する。各カメラ動画リストの概念図を図6に示す。ここでの説明では、「AAA」、「BBB」、「CCC」という3種類のカメラ識別情報があったので、それぞれのカメラ動画リストが作成される(図6(A)〜(C))。
次にステップS350、ステップS360においてCPU210は、全動画リストと3つのカメラ動画リストの、計4つの動画リストに対して、それぞれ撮影日時順にソートする処理を行う。この例では撮影時刻順にそろっている例を示したため、ソート処理を行っても同様の順番となる。
ソート済みのカメラ動画リストを、理解しやすいように時間軸に沿って表した図を図7に示す。図7においては、縦軸が撮影時刻を示している。この縦軸は目盛で仕切られており、1目盛が10分を表している。また横軸は各カメラの種類を示しており、左から「AAA」、「BBB」、「CCC」のカメラを示している。また、図7において示すそれぞれのカメラで撮影した動画データの欄には、対応する動画データのファイル名を表示している。カメラ動画リストは、この図で示すようなカメラ毎の動画リストとして作成されるものである。
ステップS100(ステップS300〜ステップS360)では、具体的には上述のようにして全動画リストと各カメラ動画リストを作成する。
図1の説明に戻り、ステップS110においてCPU210は、本実施の形態に係る画像表示プログラムの初期画面表示を行う。ステップS110では、図2のディスプレイ240に、例えば図8に示すような画面(ユーザインタフェース(UI))を表示する。ユーザは、図2の操作部260を用いてこのUIを操作することができる。操作部260は、マウスやタッチパネルなど一般的に使用されているものを使用することができる。
図8において、81はプログラムのウィンドウタイトル、82は終了ボタン、83は撮影時刻表示部、84は画像表示部、85は再生スライダー、85Aは再生スライダー85に含まれる、動画データの中でどの程度の動画再生が進んだのかを示すつまみである。ステップS110の時点では、ウィンドウタイトル81と画像表示部84には何も表示されない。撮影時刻表示部83も、動画データが表示されていない状態なので、"--:--.--"、と表示する。また、再生スライダー85も動画データが再生されるまでは操作できない状態で表示する。また、終了ボタン82を押すことで、本実施の形態に係る画像表示プログラムを終了することができるが、これについては説明を省略する。
次にステップS120においてCPU210は、全動画リストから撮影時刻が一番古い動画データを調べて、撮影時刻が一番古い動画データのあるカメラ動画リストを読み込む処理を行う。先に説明した、図5の11個の動画データの例だと、「AAA_0001.avi」の動画データが一番古いので、カメラ識別子「AAA」のカメラ動画リストを読み込む処理を行う。
次にステップS130においてCPU210は、ステップS120で読み込んだカメラ動画リストの先頭動画データを読み込み、表示する処理を行う。図6の例の場合では、「AAA_0001.avi」が読み込まれて表示される。このときの表示画面を図9に示す。
図9においては、画像表示部84に、動画データの再生画面を表示され、ステップS130で読み込まれた動画データが再生表示される。また、ウィンドウタイトル81には、表示中の動画データのカメラ識別情報を示す文字列が表示され、図9の例では、カメラ識別子「AAA」の動画データが最初は再生表示されていることを示している。
また、撮影時刻表示部83には、表示中の動画データにおけるフレーム画像の撮影時の時刻が表示される。本実施の形態で使用する動画データは、撮影時刻がフレーム画像毎に記録されていないので、「撮影時刻」+「先頭フレームからの時刻」で表示フレーム画像の撮影された時刻を求めて表示する。なお、上記でも述べたが、このような表示中の時点における撮影時刻も、本発明でいう「撮影時刻」に含まれる概念とする。
また、図9においては、カメラ切替ボタン90が表示される。カメラ切替ボタン90はカメラ識別情報の種類分のボタンを含んでおり、ユーザがボタンを操作することでカメラを切り替えられるようにする(すなわち、カメラを指定可能とする)。先ほど図5で説明した例の場合、「AAA」「BBB」「CCC」の3種類のカメラがあったので、ここでは3つのボタンを配置しカメラを指定できるようにする。また、図9の例はカメラ「AAA」が選択されている状態であるため、選択されているカメラのボタンが分かるように色を変えて表示されている。なお、本実施の形態では3つのボタンを表示する例だけを説明したが、実際にはカメラ識別情報の種類数に応じて、配置するボタンの数を変更するように動作する。また、本実施の形態ではカメラ切り替え手段としてボタンの例を示したが、リストボックス、タブ、単一のボタンから構成され操作のごとにカメラを切り替える切り替えボタン、ユーザからの直接の操作でカメラを切り替えるタッチパネルなど使用しても良い。また、ここで説明したカメラ切替ボタン90は、カメラ指定手段の一例に対応するものである。
ステップS130で動画データが表示されると、再生スライダー85の操作が可能となる。再生スライダー85に含まれるつまみ85Aは、カメラ動画リストの全体記録時間の中でどの程度の動画再生が進んだのかを示す。ユーザは、再生スライダー85のつまみ85Aを移動させることで動画データの再生位置(時刻)を自由に移動することができる。本実施の形態では、動画データの再生コントロール手段として再生スライダー85の例を示すが、それ以外の動画再生コントロール手段でも本発明が適用されるのは言うまでもない。例えば、再生、ポーズ、ストップなどのボタンを配置して再生コントロールする例でも良い。
次にステップS140においてCPU210は、ステップS130で表示した動画データを継続して画像表示部84に表示する。
次にステップS150においてCPU210は、ユーザによって再生スライダー85が操作されたかどうかを判断する。もし再生スライダー85を操作された場合はステップS160に進み、操作されていない場合はステップS180に進む。
ステップS160においては、CPU210は、ステップS160で移動された再生スライダー85のつまみ85Aの位置から、カメラ動画リスト中のどの動画データに対応するのかを判断し、対応する動画データを読み込む処理を行う。
そしてステップS170においては、CPU210は、再生スライダー85のつまみ85Aの位置に対応する時刻に動画データを移動して表示する処理を行う。すなわち、ステップS160、ステップS170の処理では、再生スライダー85のつまみ85Aの位置に対応した時刻からの動画データを表示するようにする。
次にステップS180においては、CPU210は、カメラ切替ボタン90がユーザに操作されたかどうかを判断する。もしカメラ切替ボタン90が操作された場合はステップS190に進み、カメラ切替ボタン90が操作されていない場合にはステップS200に進む。
ステップS190においては、CPU210は、カメラ動画リストを切り替える処理を行う。ここでステップS190の動作を、図10のフローチャートを用いて詳しく説明する。
ステップS1000においてCPU210は、カメラ切替ボタン90の中でどのボタンが押されたのかを判断し、そのボタンに対応したカメラ動画リストを読み込む。例えば、「カメラBBB」と表示しているボタンが押された場合は、カメラ識別情報「BBB」をもつカメラ動画リストを読み込む。
次にステップS1010においてCPU210は、ステップS1000で読み込んだカメラ動画リスト内の動画データに、今表示している動画データの表示フレーム画像の撮影された時刻と同じ撮影時刻のものがあるかどうかを判断する。もし同じ撮影時刻を含む動画データがある場合はステップS1020に進み、同じ時刻を含む動画データが無い場合はステップS1040に進む。
ステップS1020においては、CPU210は、ステップS1000で読み込んだカメラ動画リスト内で、表示フレーム画像と同じ撮影時刻を持つ動画データを読み込む。そして、ステップS1030において、CPU210は、ステップS1020で読み込んだ動画データを、直前に表示していた動画データの表示フレーム画像の撮影時刻に移動する処理を行い、新たな動画データを表示する。
一方、ステップS1040においては、CPU210は、ステップS1000で読み込んだカメラ動画リストの中から、表示フレーム画像の撮影時刻を越えた(以後の)撮影時刻を持つ動画データの中で、最も時刻の近い動画データを読み込む。もし表示フレーム画像の撮影時刻を越えた動画ファイルが無い場合は、特別にカメラ動画リストの最後の動画ファイルを読み込むようにする。
このようにステップS1020、ステップS1030、ステップS1040の処理を実行することで、ユーザが指定したカメラの動画データの表示に切り替えることができる。ここで、切り替えたカメラで同じ時刻に撮影していた動画データがあった場合は、その位置(同じ時刻)から続けて再生するため、画像データの撮影時の時間の流れや内容を把握しやすくなる。なお、本実施の形態ではカメラ切り替え時に同時刻で切り替える構成としたが、同時刻ではなく、例えば数秒前に切り替えるような構成でも良い。また、図10を用いて説明した処理は、表示制御手段の処理例に対応するものである。
図1のフローチャートの説明に戻り、ステップS200においては、CPU210は、動画データの終わりまで再生が進んだかどうかの判断を行う。もし動画データの最後まで再生したのであればステップS210に進み、まだ動画データの途中であり、最後でないのであればステップS140に戻り、再生表示処理を続ける。
そしてステップS210においてCPU210は、カメラ動画リストの全ての動画データを再生したかどうかの判断を行う。まだ全ての動画データを再生していない場合は、次の動画データを再生するためにステップS220に進む。一方、カメラ動画リストの全ての動画データの再生した場合は、動画再生処理を終了する。
なお、ステップS220においては、CPU210は、カメラ動画リストの中から、今まで再生していた動画データの次の動画データを読み込み、読み込み処理が終了したらステップS140に移動し、次の動画データの再生を行う。
以上が、本実施の形態に係る画像表示装置の動作の流れである。ここで、図6、図7のカメラ動画リストの例を用いて、本実施の形態に係る画像表示装置における具体的な表示動作の例を説明する。
例えば、「AAA」カメラを指定して再生した場合は、次の順に動画が再生される。
(1)AAA_0001.avi→(2)AAA_0002.avi→(3)AAA_0003.avi→(4)AAA_0004.avi
この例では、カメラを指定した際にはそのカメラで撮影された動画データだけを、順番に表示することが分かる。
また別の例として、「AAA」カメラを指定して再生中に、10:42の時刻に「BBB」カメラに切り替えた場合は次のように再生される。
(1)AAA_0001.avi→(2)AAA_0002.avi→(3)AAA_0003.avi(10:42まで再生)→(4)BBB_0002.avi(10:42から再生)→(5)BBB_0003.avi
この例では、カメラ切り替えを行った際に、時刻を維持するように切り替えて再生を続けることが分かる。
またさらに別の例として、「AAA」カメラを指定して再生中に10:09の時刻に「CCC」カメラに切り替え、10:48の時刻に「BBB」カメラに切り替え、さらに10:57の時刻に「AAA」カメラに戻した場合は次のように再生される。
(1)AAA_0001.avi(10:09まで再生)→(2)CCC_0001.avi(10:09から再生)→(3)CCC_0002.avi→(4)CCC_0003.avi(10:48まで再生)→(5)BBB_0003.avi(10:55から10:57まで再生)→(6)AAA_0004.avi(10:57から再生)
この例では、カメラ切り替えを行った際に切り替え後のカメラに同時刻に撮影された動画データがない場合を示しており、最も時刻の近い動画データを表示するようにしていることが分かる(5番目の動画ファイル)。
以上のように本発明の第1の実施の形態では、同一の時間帯で複数のカメラで撮影された複数の動画データを表示対象とする際に、動画データをカメラ毎に切り替えて表示することを可能とした。そして、カメラを切り替えた際に、表示中の時刻を維持して切り替え後の動画データを表示することを可能とした。このような構成により、同一の時間帯に複数のカメラで撮影された複数の動画データが混在する状況において、任意の動画データを時間の流れに沿って表示することができるため、動画データの撮影時の時間の流れや内容を把握しやすい表示が可能となる。すなわち、複数のカメラで同一の時間帯に大量の動画データを撮影した場合でも、ユーザはその全てを時間順に見ることができるため、ユーザにとって、動画データの時間の流れやイベントの流れを把握しやすい表示が可能となる。また、ユーザは、過剰に多くの画像を確認しなくても、動画データの時間の流れやイベントの流れを把握できるため、効率的に動画データを把握することが可能となる。
なお、本実施の形態では、画像データとして動画データのみを扱う例を示したが、静止画データも同様に扱っても良い。この場合、静止画データは一定の時間(時間幅)を持つものとして扱う。例えば、静止画は2秒間の画像データとして扱うなど、一定の時間を持つデータとして扱っても良い。なお、これについては後述の第2、第3の実施の形態でも同様に言えるものである。
また、本実施の形態では特定フォルダにある動画データを指定して表示対象として扱う例を示したが、別の条件で動画データを指定しても良い(なお、この構成は、画像データ指定手段の一例である)。例えば時間情報、位置情報、撮影者情報、結婚式などのイベントごとに分類されたイベント情報、任意に付加したコメント情報など、ある特定の画像付加情報の関連付いた画像データを扱うような構成でも良い。なお、これについては後述の第2、第3の実施の形態でも同様に言えるものである。
また、上述のステップS1010では、表示中の動画データの表示フレーム画像の撮影された時刻と同じ撮影時刻を含む動画データが指定されたカメラの動画データの中にあるかどうかを判断し、無い場合は最も時刻の近い動画データを読み込むとした。これに代えて、このような場合には他のカメラの指定を不能とするようにしても良く、具体的には、図9に示すカメラ切替ボタン90のうちのいずれかを指定できないようにするなどしても良い。
また、上述のステップS220では、カメラ動画リストの中から今まで再生していた動画データの次の動画データを読み込み、読み込み処理が終了したら、次の動画データの再生を行うことを説明した。この場合に、今まで再生していた動画データと次の動画データとの間に、動画データを撮影していない時間帯がある場合は、この撮影していない時間帯に撮影をしている他のカメラの動画データを表示するようにしても良い。
(第2の実施の形態)
次に、本発明の第2の実施の形態について説明する。本実施の形態では、本発明に係る画像表示装置が、パーソナルコンピュータ(PC)上で動作し、ネットワーク上にある動画データを表示する例を説明する。なお、画像データとして動画データを扱う例を説明するが、第1の実施の形態で説明したように静止画データも同様に扱っても良い。
図11は、本実施の形態に係る画像表示装置を含む画像表示システム(以下、システム)全体の概要を示した図である。
図11において、1110は動画データを記録し管理する画像管理サーバであり、1120、1130、1140はそれぞれ、パーソナルコンピュータA、B、Cであり、1150はインターネットを示す。図11に示すように本実施の形態に係るシステムは、動画データを管理する画像管理サーバ1110と、パーソナルコンピュータA1120と、パーソナルコンピュータB1130と、パーソナルコンピュータC1140とがインターネット1150で接続してなる。この例では、パーソナルコンピュータA〜Cの3台が、インターネット1150を通じて画像管理サーバ1110に接続されている例であるが、それ以外のパーソナルコンピュータが接続されていてもよいことは言うまでもない。またパーソナルコンピュータだけでなく、例えば携帯電話のような、ネットワークに接続可能な他の情報機器でも良い。
第1の実施の形態では、動画データがパーソナルコンピュータのハードディスク上の特定のフォルダに記録されている例を示したが、本実施の形態では画像管理サーバ1110に動画データ及びこれに関連付けされた画像付加情報が記録されている例を示す。画像管理サーバ1110は、ファイルサーバとして動作しており、ユーザは各自のパーソナルコンピュータを使うことで画像管理サーバ1110にアクセス可能となっている。本実施の形態に係るシステムでは、ユーザが画像管理サーバ1110にアクセスし、画像データをアップロードすることで、複数の人々と画像データを共有することが可能となる。ファイルサーバとしては、一般に利用されているFTPやWebDAVの技術を利用するが、もちろんそれ以外の技術を利用しても良い。また本実施の形態に係る画像管理サーバ1110ではユーザ管理の説明は行わないが、ユーザ管理を行っても本発明は適用されることは言うまでもない。
図12は、パーソナルコンピュータA1120のブロック図である。ここではパーソナルコンピュータA1120の説明を行うが,パーソナルコンピュータB1130、パーソナルコンピュータC1140も同様の構成となるため説明を省略する。
図12において、1210は画像表示装置全体の動作を制御する演算処理装置(CPU)であり、1220はプログラムや画像データなどのデジタルデータを記録するハードディスク(HD)である。ハードディスク1220には、各種処理を実行するためのプログラム(画像表示プログラムを含む)がCPU1210に読み取り可能なプログラムコードとして記録されている。画像表示装置では、ハードディスク1220に記録されたプログラムコードをCPU1210が実行することで各種処理が行われる。
1230は内部メモリ(メモリ)であり、1240はCRTディスプレイや液晶パネルなどの表示部(ディスプレイ)である。1250は音声を出力するスピーカーであり、1260はキーボードやマウスなどからなる操作部である。1270は外部記録媒体1280からのデータを読み込むためのドライブであり、1280はCD−ROMやDVD−ROMなどの外部記録媒体である。1290は、PCIバスなどのコンピュータ内部の各処理部を相互に接続するための内部バスである。1295はネットワーク接続部であり、インターネット1150を通して画像管理サーバ1110に接続される。
なお、本実施の形態ではハードディスク1220にプログラムを記録する例を示したが、プログラムをCD−ROMなどの外部記録媒体1280に記録し、記録媒体ドライブ1270を介してCPU1210がプログラムを読み出して実行する形態でも良い。また同様に、画像管理サーバ1110などのネットワーク上にプログラムがある場合でも本発明は適用される。
ここで、本実施の形態に係る画像表示装置の動作概要は、図1に示したフローチャートと基本的に同様となるため、図1を用いて簡単に説明する。本実施の形態と第1の実施の形態との相違点は、ファイルを読み込む場所がハードディスク上の特定のフォルダではなく、画像管理サーバ1110となる点である。つまり本実施の形態では、ファイルアクセスに関する処理が画像管理サーバ1110と通信して行う以外は、第1の実施の形態と同様となる。以下、図1を用いて動作の流れを説明する。
先ず、ステップS100においてCPU1210は、画像管理サーバ1110で管理されている全ての動画データについて情報を取得し、動画ファイルリスト(以下、動画リストと呼ぶ)を作成する。作成する動画リストとしては、全ての動画データのリストである全動画リストと、カメラ識別情報毎の動画データのリストであるカメラ動画リストを作成する。ステップS100の詳細な動作は、第1の実施の形態で説明した図3と同様であるため説明を省略する。
次にステップS110においてCPU1210は、本実施の形態に係る画像表示プログラムの初期画面表示を行う。ステップS110では、図12のディスプレイ1240に図8で示した画面と同様の画面(ユーザインタフェース(UI))を表示する。ユーザは、図12の操作部1260を用いてこのUIを操作することができる。
次にステップS120においてCPU1210は、全動画リストから撮影時刻が一番古い動画データを調べて、撮影時刻が一番古い動画データのあるカメラ動画リストを読み込む処理を行う。
次にステップS130においてCPU1210は、ステップS120で読み込んだカメラ動画リストの先頭動画データを読み込み、表示する処理を行う。このときの表示画面例は、図9に示した画面と同様となる。
次にステップS140においてCPU1210は、ステップS130で表示した動画データを継続して表示する。動画データの再生は、画像管理サーバ1110から動画データを読み込みながら表示する。
次にステップS150においてCPU1210は、ユーザによって再生スライダー85が操作されたかどうかを判断する。なお、図8、9で示した画面構成は、本実施の形態と第1の実施の形態とで同様であるため、そのまま引用して説明を行う。もし再生スライダー85を操作された場合はステップS160に進み、操作されていない場合はステップS180に進む。
ステップS160においては、CPU1210は、ステップS160で移動された再生スライダー85のつまみ85Aの位置から、カメラ動画リスト中のどの動画データに対応するのかを判断し、対応する動画データを読み込む処理を行う。
そしてステップS170においては、CPU1210は、再生スライダー85のつまみ85Aの位置に対応する時刻に動画データを移動して表示する処理を行う。
次にステップS180においては、CPU210は、カメラ切替ボタン90が、ユーザに操作されたかどうかを判断する。もしカメラ切替ボタン90が操作された場合はステップS190に進み、カメラ切替ボタン90が操作されていない場合にはステップS200に進む。
ステップS190においては、CPU1210は、カメラ動画リストを切り替える処理を行う。ステップS190の詳細な動作は、第1の実施の形態で説明した図9と同様であるため説明を省略する。
次にステップS200においては、CPU1210は、動画データの終わりまで再生が進んだかどうかの判断を行う。もし動画データの最後まで再生したのであればステップS210に進み、まだ動画データの途中であり、最後でないのであればステップS140に戻り、再生表示処理を続ける。
そしてステップS210においては、CPU1210は、カメラ動画リストの全ての動画データを再生したかどうかの判断を行う。まだ全ての動画データを再生していない場合は、次の動画データを再生するためにステップS220に進む。一方、カメラ動画リストの全ての動画ファイルの再生した場合は、動画再生処理を終了する。
また、ステップS220においては、カメラ動画リストの中から、今まで再生していた動画データの次の動画データを読み込み、読み込み処理が終了したらステップS140に移動し、次の動画データの再生を行う。
以上が、第2の実施の形態に係る画像表示装置の動作の流れである。ここではパーソナルコンピュータA1120の説明を行ったが、パーソナルコンピュータB1130、パーソナルコンピュータC1140も同様の処理となるため、複数ユーザが画像管理サーバ1110にアクセス可能となる。
以上のように本発明の第2の実施の形態では、同一の時間帯で複数のカメラで撮影された複数の動画データをネットワーク上で複数人が共有し表示対象とする際に、動画データをカメラ毎に切り替えて表示することを可能とした。そして、カメラを切り替えた際に、表示中の時刻を維持して切り替え後の動画データを表示することを可能とした。このような構成により、同一の時間帯に複数のカメラで撮影された複数の動画データが混在する状況において、任意の動画データを時間の流れに沿って表示することができるため、動画データの撮影時の時間の流れや内容を把握しやすい表示が可能となる。すなわち、複数のカメラで同一の時間帯に大量の動画データを撮影した場合でも、ユーザはその全てを時間順に見ることができるため、ユーザにとって、動画データの時間の流れやイベントの流れを把握しやすい表示が可能となる。また、ユーザは、過剰に多くの画像を確認しなくても、動画データの時間の流れやイベントの流れを把握できるため、効率的に動画データを把握することが可能となる。
なお、本実施の形態では画像管理サーバ1110はファイルサーバとしてのみ動作する例を示したが、画像管理サーバ1110が動画リストを管理し、動画再生処理としてストリーミング配信するサービスを提供するような構成でも本発明は適用される。
(第3の実施の形態)
次に、本発明の第3の実施の形態について説明する。本実施の形態では、第1の実施の形態で説明した本発明に係る画像表示装置の構成に表示対象となる画像データを一覧表示する手段を追加したものを説明する。以下で説明する本実施の形態では、画像表示装置がパーソナルコンピュータ(PC)上で動作し、画像データとして動画データを扱う例を説明するが、第1の実施の形態で説明したように静止画データも同様に扱っても良い。
本実施の形態に係る画像表示装置を含むパーソナルコンピュータの構成は、第1の実施の形態で図2を用いて説明した構成と同様であるため説明は省略するが、図2で示した構成要素の符号を用いて以下の説明を行うものとする。図13は、本実施の形態に係る画像表示装置の動作の流れを示すフローチャートである。以下、図13を用いて、画像表示装置の動作概要を説明する。なお、本実施の形態で扱う動画データは、ハードディスク220上の特定のフォルダ(特定フォルダ)に記録されている例を説明する。
先ず、ステップS1300においてCPU210は、ハードディスク220の特定フォルダ内にある全ての動画データについて情報を取得し、動画ファイルリスト(以下、動画リストと呼ぶ)を作成する。作成する動画ファイルリストとしては、全ての動画データのリストである全動画リストと、カメラ識別情報毎の動画データのリストであるカメラ動画リストを作成する。ステップS1300の動作の詳細は、第1の実施の形態で図3を用いて説明した動作と同様であるため説明を省略する。
次にステップS1310においてCPU210は、全動画リストから撮影時刻が一番古い動画データを調べて、撮影時刻が一番古い動画データのあるカメラ動画リストを読み込む処理を行う。
次にステップS1320においてCPU210は、ステップS1310で読み込んだカメラ動画リストの先頭動画データを読み込む処理を行う。
次にステップS1330においてCPU210は、本実施の形態に係る画像表示プログラムの初期画面表示を行う。ステップS1330では、図2で示したディスプレイ240に図14に示すような画面(ユーザインタフェース(UI))を表示する。ユーザは、図2の操作部260を用いてこのUIを操作することができる。
図14において、(A)は画像一覧表示ウィンドウを示し、(B)は画像表示ウィンドウを示す。本実施の形態では、このような2つのウィンドウが表示される。なお、ここでは動画リストとして、図5、図6で示した動画リストを扱う場合の表示例を示している。
図14(A)において、1400は画像一覧表示ウィンドウのウィンドウタイトルを示し、1410は終了ボタンを示す。1420は時刻表示部を示し、上から下に向かって10分おきの時刻の値を表示する。本実施の形態では10分おきの表示の場合を説明するが、それ以外の間隔でも良いし、表示間隔を変更できるような実装でも良い。
1430はカメラ識別情報を表示するカメラ識別情報表示部を示す。カメラ識別情報は、カメラの台数分だけ横に並べて表示され、この表示例では、「AAA」、「BBB」、「CCC」の3つのカメラがあることを示している。
1440は現在再生している時刻を示す再生時刻バーを示す。再生当初は、再生時刻バー1440は、時刻表示部1420の一番上部に対応する部分に表示されており、動画データの再生とともに再生時刻にあわせて下方向に移動する。図14の表示例では10:22頃の時刻を再生していることを示している。
1450は動画データの縮小画像(画像識別情報)を示す。縮小画像は、各動画データの先頭フレームの縮小画像であり、カメラと撮影時刻に対応した場所に表示する。またその際、撮影した時間(記録時間)が分かるように、撮影時間分の長さを縦方向に持たせて表示する。このように画像一覧表示ウィンドウでは、カメラ識別情報を基に動画データを分類し、撮影時刻情報を基に動画データに対応する縮小画像を時系列的に表示することで、各動画データについて撮影されたカメラ、撮影時刻、記録時間を一目で分かるようにしている。なお、本実施の形態では縮小画像を表示する例を示したが、動画データのファイル名を表示するような構成でも良い。
また、1460は現在再生しているカメラを分かりやすく示すための強調表示枠である。図14の例では、「AAAカメラ」の画像を表示していることが分かる。
図14(B)において、1470は画像表示ウィンドウのウィンドウタイトルを示し、1480は終了ボタンを示す。1490は撮影時刻表示部、1500は画像表示部、1510は再生スライダーを示す。また、1510Aは、再生スライダー1510に含まれる、動画データの中でどの程度の動画再生が進んだのかを示すつまみである。これらは第1の実施の形態で図8(B)を用いて説明したものと同様のものである。
図13の説明に戻り、次にステップS1340においてCPU210は、ステップS1310で読み込んだ動画データを再生する。すなわち、画像表示部1500に、動画データを表示する。
次にステップS1350においてCPU210は、ユーザによって再生スライダー1510が操作されたかどうかを判断する。もし再生スライダー1510を操作された場合はステップS1360に進み、操作されていない場合はステップS1380に進む。
ステップS1360においては、CPU210は、移動された再生スライダー1510のつまみ1510Aの位置から、カメラ動画リスト中のどの動画データに対応するのかを判断し、対応する動画データを読み込む処理を行う。
そしてステップS1370においては、CPU210は、再生スライダー1510のつまみ1510Aの位置に対応する時刻に動画データを移動して表示する処理を行う。
更にステップS1375においてCPU210は、再生スライダー1510のつまみ1510Aの位置に対応する時刻に、再生時刻バー1440を移動する処理を行う。再生時刻バー1440も再生スライダー1510と同様、再生時刻を位置で示すため、再生時刻バー1440と再生スライダー1510は連動して移動する。
このようにステップS1360、ステップS1370の処理で、再生スライダー1510のつまみ1510Aの位置に対応した時刻からの動画データを表示するようにすることができる。またステップS1375の処理で、再生時刻バー1440も再生スライダー1510のつまみ1510Aの移動に同期して移動することができる。
次にステップS1380においてCPU210は、図14(A)に示す画像一覧表示ウィンドウがユーザに操作されたかどうかを判断する処理を行う。もし画像一覧表示ウィンドウが操作された場合はステップS1390に進み、画像一覧表示ウィンドウが操作されていない場合にはステップS1400に進む。本実施の形態ではステップS1380でのユーザ操作の判断は、マウスでクリックをされたかどうかの判断で行う。もちろんそれ以外の操作を判断するような構成でも良い。これはユーザが、再生したいカメラと時刻を指定する動作に対応する。なお、画像一覧表示ウィンドウは、カメラ指定手段の一例に対応するものである。
画像一覧表示ウィンドウが操作された場合のステップS1390においてCPU210は、カメラ動画リストと再生時刻を切り替える処理を行う。ここでステップS1390の詳細動作について、図15のフローチャートを用いて説明する。
ステップS1500においてCPU210は、ユーザが画像一覧表示ウィンドウでクリックした位置から、切り替えようとしているカメラ識別情報と時刻情報を取得する。カメラ識別情報表示部1430がクリックされた場合は、クリックされた場所に対応するカメラ識別情報を取得する。またこの場合は、時刻情報は現在表示している時刻情報から変更なしとする。
時刻表示部1420がクリックされた場合は、クリックされた位置に対応する時刻を取得する。またこの場合は、カメラ識別情報は、現在表示しているカメラ動画リストのカメラ識別情報と変更なしとする。
縮小画像1450などの画像一覧表示ウィンドウ上の縮小画像がクリックされた場合は、クリックされた縮小画像に対応する動画データのカメラ識別情報と、そのクリックされた位置(指定位置)に対応する時刻を取得する。ここで取得する時刻は、次に表示する画像の表示開始位置となる。縮小画像の縦方向が時刻に対応しているので、縮小画像の上部のほうをクリックすると動画の先頭付近の時刻になり、縮小画像の下のほうをクリックすると動画の終了付近の時刻となる。
このようにしてステップS1500では、切り替えようとしているカメラと時刻を取得する。本実施の形態ではカメラ識別情報表示部1430がクリックされた場合は、対応するカメラ識別情報を無条件に取得する例を示したが、現在の表示時刻と同じ時刻に撮影された動画データがないカメラの場合には、カメラ識別情報を取得しない実装でも良い。これは、表示時刻と同時刻の画像がないカメラには、カメラを切り替えられないような動作になることを意味する。
次にステップS1510においてCPU210は、ステップS1500で取得したカメラ識別情報が、現在再生中の動画データのものと同じかどうかを判断する。もし同じ場合はステップS1540に進み、異なっている場合はステップS1520に進む。
ステップS1520においては、CPU210は、ステップS1500で取得したカメラ識別情報に対応したカメラ動画リストを読み込む処理を行う。
次にステップS1530においては、CPU210は、ステップS1500で取得したカメラ識別情報に対応した表示場所に、強調表示枠1460を表示する処理を行う。
次にステップS1540においてCPU210は、読み込んだカメラ動画リスト内の動画データに、ステップS1500で取得した時刻と同じ撮影時刻を含む動画データがあるかどうかを判断する。もし同じ撮影時刻を含む動画データがある場合はステップS1550に進み、同じ時刻を含む動画ファイルが無い場合はステップS1570に進む。
ステップS1550においては、CPU210は、ステップS1520で読み込んだカメラ動画リスト内で、ステップS1500で取得した時刻と同じ撮影時刻を含む動画データを読み込む処理を行う。
次にステップS1560においては、CPU210は、ステップS1550で読み込んだ動画データを、ステップS1500で取得した時刻に移動する処理を行う。
また、ステップS1570においては、CPU210は、ステップS1520で読み込んだカメラ動画リストの中から、ステップS1500で取得した時刻を越えた撮影時刻を持つ動画データの中で、最も時刻の近い動画データを読み込む。もしその時刻を越えた動画ファイルが無い場合は、特別にカメラ動画リストの最後の動画ファイルを読み込むようにする。
そして、ステップS1580においてCPU210は、動画データの再生時刻に再生時刻バー1440を移動する処理を行う。
以上がステップS1390におけるカメラ切り替え処理の説明となる。ここでカメラ切り替え処理によって表示がどのように変わるかを、図14と図16を用いて具体的に説明する。
図14の状態のときに、ユーザが「CCCカメラ」の列の時刻10:45付近をクリックした場合は、カメラ切り替え処理後は図16のように表示される。ユーザがクリックした位置を、図16のマウスポインタ1600に示す。
この場合、再生時刻バー1440はクリックされた位置に対応する時刻の場所に表示される。図16の例では、時刻10:45付近に表示される。
また、強調表示枠1460は、ユーザがクリックした位置のカメラ部分を強調表示する。図16の例では、「CCCカメラ」部分が強調表示される。また、ウィンドウタイトル1400、1470は、切り替えられたカメラが分かるように、カメラ識別情報を示す文字列を表示する。
また、撮影時刻表示部1490は、再生時刻バー1440と同様にクリックされた位置に対応する時刻を表示する。また、画像表示部1500には、「CCCカメラ」の時刻10:45頃の動画ファイルの再生画面を表示し、以後、「CCCカメラ」の動画データが再生される。また、再生スライダー1510は、再生時刻に対応した場所につまみ1510Aを移動する。このように、画像一覧表示部へのユーザの操作によって、カメラと時刻の切り替えが可能となる。
図13の説明に戻り、ステップS1400においてCPU210は、動画データの終わりまで再生が進んだかどうかの判断を行う。もし動画データの最後まで再生したのであればステップS1410に進み、まだ動画データの途中であり、最後でないのであれば、ステップS1340に戻り、再生表示処理を続ける。
ステップS1410においては、CPU210は、カメラ動画リストの全ての動画データを再生したかどうかの判断を行う。まだ全ての動画データを再生していない場合は、次の動画データを再生するためにステップS1420に進み、カメラ動画リストの全ての動画データを再生した場合は、動画再生処理を終了する。
なお、ステップS1420においては、CPU210は、カメラ動画リストの中から、今まで再生していた動画データの次の動画データを読み込み、読み込み処理が終了したらステップS1340に移動して、次の動画データの再生を行う。
以上が、本実施の形態に係る画像表示装置の動作である。本実施の形態では動画データの再生が終了したら、カメラ動画リスト中の次の動画データを読み込む例を示したが、次動画データの撮影時刻までに他のカメラで撮影した動画データがあれば、その間だけ他のカメラの動画データを再生するような構成でも良い。すなわち、今まで再生していた動画データと次の動画データとの間に、動画データを撮影していない時間帯がある場合は、この撮影していない時間帯に撮影をしている他のカメラの動画データを表示するようにしても良い。
以上のように本発明の第3の実施の形態では、第1の実施の形態で説明した構成に表示対象とする動画データの一覧表示をする手段を追加することによって、カメラと時刻を同時に切り替え可能としている。また動画データの一覧表示時に、カメラ識別情報と撮影時刻という二つのパラメータで2次元表示するようにしている。これにより、動画データの撮影時の時間の流れや内容を一層把握しやすい表示が可能となり、ユーザにとっての利便性も向上させることができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
210,1210 演算処理装置(CPU)、220,1220 ハードディスク、230,1230 内部メモリ、240,1240 ディスプレイ、260,1260 操作部、270,1270 記録媒体ドライブ、280,1280 外部記録媒体、1295 ネットワーク接続部。

Claims (20)

  1. 複数のカメラで撮影された複数の画像データを表示対象とする画像表示装置であって、
    画像データに関連付けられた撮影時刻を示す撮影時刻情報を取得する撮影時刻取得手段と、
    画像データに関連付けられた撮影したカメラを識別するためのカメラ識別情報を取得するカメラ識別情報取得手段と、
    画像データを撮影したカメラを、前記カメラ識別情報を基に指定可能とするカメラ指定手段と、
    前記カメラ指定手段で指定されたカメラで撮影された画像データを、前記撮影時刻情報を基に撮影時刻順に表示する表示処理手段と、
    前記表示処理手段で画像データを表示している際に、前記カメラ指定手段によって他のカメラが指定された場合に、表示中の画像データの撮影時刻に応じて、前記他のカメラで撮影された画像データのうちから前記表示処理手段で次に表示すべき画像データを選択する表示制御手段と、を有することを特徴とする画像表示装置。
  2. 前記表示制御手段は、前記他のカメラで撮影された画像データのうちの、前記表示処理手段で表示中の画像データの撮影時刻と同じ時刻を含んで撮影されている画像データを選択することを特徴とする請求項1に記載の画像表示装置。
  3. 前記表示制御手段は、前記選択した前記他のカメラで撮影された画像データを、前記表示処理手段で表示中の画像データの撮影時刻と同じ時刻から表示するよう前記表示処理手段を制御することを特徴とする請求項2に記載の画像表示装置。
  4. 前記表示制御手段は、前記表示処理手段で表示中の画像データの撮影時刻と同じ時刻を含んで撮影されている画像データが前記他のカメラで撮影された画像データにない場合に、前記表示中の画像データの撮影時刻と最も近い撮影時刻に撮影された画像データを、前記他のカメラで撮影された画像データのうちから選択することを特徴とする請求項1に記載の画像表示装置。
  5. 前記カメラ指定手段で指定可能なカメラの数を、前記カメラ識別情報取得手段で取得した前記カメラ識別情報に応じて変更することを特徴とする請求項1に記載の画像表示装置。
  6. 前記カメラ指定手段は、リストボックス、ボタン、タブ、切り替えボタン、及びタッチパネルのうちのいずれかで構成されることを特徴とする請求項1に記載の画像表示装置。
  7. 前記カメラ指定手段は、前記表示処理手段で表示中の画像データの撮影時刻と同じ時刻を含んで撮影されている画像データが他のカメラで撮影された画像データにない場合に、該他のカメラの指定を不能とすることを特徴とする請求項1に記載の画像表示装置。
  8. 前記表示処理手段は、前記カメラ指定手段で指定されたカメラの画像データを表示中に該カメラで画像データを撮影していない時刻になった際に、他のカメラに前記撮影していない時刻に撮影をしている画像データがあれば、該他のカメラの画像データを表示することを特徴とする請求項1に記載の画像表示装置。
  9. 前記カメラ指定手段は、画像データを、前記カメラ識別情報を基に分類し、前記撮影時刻情報を基に、画像データを識別する画像識別情報をカメラごとに時系列的に一覧表示することを特徴とする請求項1に記載の画像表示装置。
  10. 前記カメラ指定手段は、前記画像識別情報を指定することで、前記画像識別情報に対応する画像データを指定可能とし、
    前記表示制御手段は、前記表示処理手段で画像データを表示している際に、前記カメラ指定手段によって前記画像識別情報が指定された場合に、前記画像識別情報に対応する画像データを前記表示処理手段で表示するよう制御することを特徴とする請求項9に記載の画像表示装置。
  11. 前記表示制御手段は、前記カメラ指定手段で指定された前記画像識別情報の指定位置に応じて、前記表示処理手段で表示する画像データの表示開始位置を変えることを特徴とする請求項10に記載の画像表示装置。
  12. 前記画像識別情報は、画像データの縮小画像であることを特徴とする請求項9〜11のいずれか1項に記載の画像表示装置。
  13. 前記カメラ指定手段は、前記表示処理手段で表示中の画像データの撮影時刻と同じ時刻を含んで撮影されている画像データが他のカメラで撮影された画像データにない場合に、該他のカメラで撮影された画像データに対応する前記画像識別情報の指定を不能とすることを特徴とする請求項10に記載の画像表示装置。
  14. 画像データとして動画データと静止画データを表示対象とし、静止画データを任意の時間幅を持つデータとして扱うことを特徴とする請求項1〜13のいずれか1項に記載の画像表示装置。
  15. 表示対象とする画像データを指定するための画像データ指定手段を有することを特徴とする請求項1〜14のいずれか1項に記載の画像表示装置。
  16. 前記画像データ指定手段はフォルダを指定する手段を有し、指定したフォルダにある画像データを表示対象とすることを特徴とする請求項15に記載の画像表示装置。
  17. 前記画像データ指定手段は、画像データに関連付けられた画像付加情報を指定する手段を有し、指定した画像付加情報を有する画像データを表示対象とすることを特徴とする請求項15に記載の画像表示装置。
  18. 前記画像付加情報には、時間情報、位置情報、撮影者情報、イベント情報、及びコメント情報のうちの少なくともいずれかが含まれることを特徴とする請求項17に記載の画像表示装置。
  19. 複数のカメラで撮影された複数の画像データを表示対象とする画像表示装置の制御方法であって、
    画像データに関連付けられた撮影時刻を示す撮影時刻情報を取得する撮影時刻取得ステップと、
    画像データに関連付けられた撮影したカメラを識別するためのカメラ識別情報を取得するカメラ識別情報取得ステップと、
    画像データを撮影したカメラを、前記カメラ識別情報を基に指定可能とするカメラ指定ステップと、
    前記カメラ指定ステップで指定されたカメラで撮影された画像データを、前記撮影時刻情報を基に撮影時刻順に表示する表示処理ステップと、
    前記表示処理ステップで画像データを表示している際に、前記カメラ指定ステップにおいて他のカメラが指定された場合に、表示中の画像データの撮影時刻に応じて、前記他のカメラで撮影された画像データのうちから前記表示処理ステップで次に表示すべき画像データを選択する表示制御ステップと、を有することを特徴とする画像表示装置の制御方法。
  20. 複数のカメラで撮影された複数の画像データを表示対象とする画像表示装置の制御をコンピュータに実行させるためのプログラムであって、
    画像データに関連付けられた撮影時刻を示す撮影時刻情報を取得する撮影時刻取得ステップと、
    画像データに関連付けられた撮影したカメラを識別するためのカメラ識別情報を取得するカメラ識別情報取得ステップと、
    画像データを撮影したカメラを、前記カメラ識別情報を基に指定可能とするカメラ指定ステップと、
    前記カメラ指定ステップで指定されたカメラで撮影された画像データを、前記撮影時刻情報を基に撮影時刻順に表示する表示処理ステップと、
    前記表示処理ステップで画像データを表示している際に、前記カメラ指定ステップにおいて他のカメラが指定された場合に、表示中の画像データの撮影時刻に応じて、前記他のカメラで撮影された画像データのうちから前記表示処理ステップで次に表示すべき画像データを選択する表示制御ステップと、をコンピュータに実行させることを特徴とするプログラム。
JP2009193372A 2009-08-24 2009-08-24 画像表示装置、その制御方法及びプログラム Expired - Fee Related JP5473478B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009193372A JP5473478B2 (ja) 2009-08-24 2009-08-24 画像表示装置、その制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009193372A JP5473478B2 (ja) 2009-08-24 2009-08-24 画像表示装置、その制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011045018A true JP2011045018A (ja) 2011-03-03
JP5473478B2 JP5473478B2 (ja) 2014-04-16

Family

ID=43832091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009193372A Expired - Fee Related JP5473478B2 (ja) 2009-08-24 2009-08-24 画像表示装置、その制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5473478B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013125379A (ja) * 2011-12-14 2013-06-24 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2016039547A (ja) * 2014-08-08 2016-03-22 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP2016100778A (ja) * 2014-11-21 2016-05-30 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2017504234A (ja) * 2013-11-20 2017-02-02 グーグル インコーポレイテッド マルチビューオーディオおよびビデオインタラクティブプレイバック
JP2017200200A (ja) * 2012-04-27 2017-11-02 パナソニックIpマネジメント株式会社 コンテンツ再生方法、コンテンツ再生装置およびコンテンツ再生プログラム
JP2018170035A (ja) * 2018-06-29 2018-11-01 株式会社東芝 監視情報再生装置、監視情報再生方法及びコンピュータプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07107437A (ja) * 1993-10-01 1995-04-21 Nippon Telegr & Teleph Corp <Ntt> 映像再生装置
JP2003234987A (ja) * 2002-02-07 2003-08-22 Canon Inc 撮像装置及び撮像装置の制御方法及び撮像装置の制御プログラム及び記憶媒体
JP2004056738A (ja) * 2002-07-24 2004-02-19 Canon Inc 編集再生システム
JP2005217886A (ja) * 2004-01-30 2005-08-11 Canon Inc 画像表示装置および画像表示方法およびその動作処理プログラムおよびそのプログラムを記憶した記憶媒体
WO2009078132A1 (ja) * 2007-12-18 2009-06-25 Panasonic Corporation 画像再生装置、画像再生方法及び画像再生プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07107437A (ja) * 1993-10-01 1995-04-21 Nippon Telegr & Teleph Corp <Ntt> 映像再生装置
JP2003234987A (ja) * 2002-02-07 2003-08-22 Canon Inc 撮像装置及び撮像装置の制御方法及び撮像装置の制御プログラム及び記憶媒体
JP2004056738A (ja) * 2002-07-24 2004-02-19 Canon Inc 編集再生システム
JP2005217886A (ja) * 2004-01-30 2005-08-11 Canon Inc 画像表示装置および画像表示方法およびその動作処理プログラムおよびそのプログラムを記憶した記憶媒体
WO2009078132A1 (ja) * 2007-12-18 2009-06-25 Panasonic Corporation 画像再生装置、画像再生方法及び画像再生プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013125379A (ja) * 2011-12-14 2013-06-24 Sony Corp 情報処理装置、情報処理方法およびプログラム
CN103197866A (zh) * 2011-12-14 2013-07-10 索尼公司 信息处理系统、信息处理方法和程序
JP2017200200A (ja) * 2012-04-27 2017-11-02 パナソニックIpマネジメント株式会社 コンテンツ再生方法、コンテンツ再生装置およびコンテンツ再生プログラム
JP2017504234A (ja) * 2013-11-20 2017-02-02 グーグル インコーポレイテッド マルチビューオーディオおよびビデオインタラクティブプレイバック
US10754511B2 (en) 2013-11-20 2020-08-25 Google Llc Multi-view audio and video interactive playback
US11816310B1 (en) 2013-11-20 2023-11-14 Google Llc Multi-view audio and video interactive playback
JP2016039547A (ja) * 2014-08-08 2016-03-22 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP2016100778A (ja) * 2014-11-21 2016-05-30 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2018170035A (ja) * 2018-06-29 2018-11-01 株式会社東芝 監視情報再生装置、監視情報再生方法及びコンピュータプログラム

Also Published As

Publication number Publication date
JP5473478B2 (ja) 2014-04-16

Similar Documents

Publication Publication Date Title
JP5473478B2 (ja) 画像表示装置、その制御方法及びプログラム
JP5701017B2 (ja) 動画再生装置、動画再生方法、コンピュータプログラム、記憶媒体
US20060039674A1 (en) Image editing apparatus, method, and program
JP2006295236A (ja) 記録再生装置、コンテンツ管理装置、コンテンツ管理方法および撮像装置
JP5870742B2 (ja) 情報処理装置、システムおよび情報処理方法
JP2005303907A (ja) 画像編集装置,方法およびプログラム
US20060050166A1 (en) Digital still camera
JP2007019963A (ja) 表示制御装置、カメラ、表示制御方法、プログラム、記録媒体
JP2006311268A (ja) 電子カメラ装置、画像記録装置及び画像記録用アプリケーションソフトウェア
JP2015154404A (ja) 電子機器、方法及びプログラム
TWI547156B (zh) 媒體檔案管理方法
US20170150237A1 (en) Image processing device, image processing method, and program
JP2006166208A (ja) コマ分類情報付与装置及びプログラム
JP2006279118A (ja) 画像再生装置及びプログラム
WO2017094800A1 (ja) 表示装置、表示プログラムおよび表示方法
JP2013161467A (ja) 作品評価装置、作品評価方法、プログラムおよび集積回路
JP5575494B2 (ja) 撮像装置、記録装置、ファイル管理装置、表示装置及びファイル管理プログラム
JP2012044451A (ja) 画像再生装置、その制御方法、及び画像再生プログラム、並びに記録媒体
JP2018092254A (ja) 表示装置、表示プログラムおよび表示方法
JP2006085632A (ja) ファイル表示装置、ファイル表示方法、およびファイル表示プログラム
JP5428661B2 (ja) 情報処理装置及び情報処理方法
JP5282632B2 (ja) 表示制御装置、表示制御方法、プログラム
JP2009055618A (ja) 電子カメラ、及び電子カメラの制御プログラム
CN108462817A (zh) 通信装置及其控制方法和存储介质
JP2005303906A (ja) フォトムービーのフレーム検出方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140204

R151 Written notification of patent or utility model registration

Ref document number: 5473478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees