本発明の実施形態に係る撮像装置(動画再生装置)100の外観構成を、図1を用いて説明する。図1は、本発明の実施形態に係る撮像装置の外観側面図である。
撮像装置100は、例えば、デジタルビデオカメラ、デジタルカメラ、ビデオカメラなどである。撮像装置100は、ケーシング114、レンズユニット102a、マイクユニット101a、操作ボタン群110a、液晶ディスプレイ104a、バッテリースロット115及びファインダー104bを備える。
レンズユニット102aは、ケーシング114の前面に設けられて、被写体に向けられる。同様に、マイクユニット101aは、ケーシング114の前面に設けられて、被写体に向けられる。これらにより、被写体の動画及び音声を取得することができる。
ファインダー104bは、ケーシング114においてレンズユニット102aと対向する位置に設けられ、被写体の動画が表示される。液晶ディスプレイ104aは、ケーシング114の側面に設けられ、被写体の動画が表示される。これらにより、撮影前又は撮影中の被写体を確認することができる。
操作ボタン群110aは、ケーシング114において操作可能な位置に設けられる。操作ボタン群110aは、押されたりすることにより、ユーザーから指示を受け付ける。
バッテリースロット115は、ケーシング114に着脱可能に接続されている。バッテリースロット115は、各部に電源を供給する。
次に、本発明の実施形態に係る撮像装置100の構成及び動作を、図2を用いて説明する。図2は、本発明の実施形態に係る撮像装置の構成図である。
撮像装置100は、マイク101、撮影部102、スピーカ103、表示部(表示装置)104、付加情報検知処理部105、符号化/復号化処理部106、表示制御部(表示手段)107及びCPU(設定手段)108を備える。撮像装置100は、記録再生処理部(再生手段、読み取り手段)109、操作入力部(操作入力手段)110、記録媒体112及びメモリ113を備える。
マイク101は、マイクユニット101a(図1参照)を含む。マイク101は、撮影部102が被写体の動画を撮影する際に、被写体の音声をデジタル音声信号に変換して出力する。
撮影部102は、レンズユニット102a(図1参照)、CCD、A/D変換器及びタイマなどを含む。撮影部102では、レンズユニット102aが被写体の光学像をCCDへ結像する。CCDは、撮影指令に従い、光信号をアナログ画像信号に変換する。A/D変換器は、アナログ画像信号をデジタル画像信号に変換する。また、タイマは、撮影指令に従い、撮影開始からの経過時間をカウントして時間情報を生成する。時間情報は、動画の撮影開始からの経過時間を示す情報である。
符号化/復号化処理部106は、エンコーダ106a及びデコーダ106bを含む。エンコーダ106aは、デジタル画像信号及び時間情報を撮影部102から受け取り、デジタル音声信号をマイク101から受け取り、符号化指令をCPU108から受け取る。エンコーダ106aは、符号化指令に従い、デジタル画像信号を、MPEG2を代表とする動画圧縮方法により圧縮して、さらに時系列順に多重化して圧縮動画データとして生成する。すなわち、エンコーダ106aは、デジタル画像信号を符号化して圧縮動画データを生成する。また、エンコーダ106aは、符号化指令に従い、デジタル音声信号を、MP3を代表とする音声圧縮方法により圧縮して、さらに時系列順に多重化して圧縮音声データとして生成する。すなわち、エンコーダ106aは、デジタル音声信号を符号化して圧縮音声データを生成する。エンコーダ106aは、圧縮動画データ、時間情報及び圧縮音声データを記録再生処理部109へ出力する。
デコーダ106bは、圧縮動画データ、時間情報や圧縮音声データを記録再生処理部109から受け取り、伸張指令をCPU108から受け取る。デコーダ106bは、伸張指令に従い、圧縮動画データを伸張して(復号化して)デジタル画像信号を生成する。また、デコーダ106bは、伸張指令に従い、圧縮音声データを伸張して(復号化して)デジタル音声信号を生成する。デコーダ106bは、デジタル画像信号を表示制御部107へ出力し、デジタル音声信号をスピーカ103へ出力する。
また、エンコーダ106aは、デジタル動画信号からデジタル静止画信号を抽出するとともに、デジタル静止画信号に対してJPEG方式などの圧縮を行って圧縮静止画データを生成して記録再生処理部109へ出力する。デコーダ106bは、圧縮静止画データを伸張してデジタル静止画信号を生成して表示制御部107へ出力する。
記録再生処理部109は、記録媒体112への書き込み及び読み出しをおこなうためのヘッドやモータなどの機構やそれらを制御するための制御回路を含む。
記録媒体112は、ケーシング114(図1参照)に設けられた読み取りインターフェース(図示せず)に着脱可能に接続される。
メモリ113は、記録再生処理部109が記録媒体112へ情報を書き込んだり記録媒体112から情報を読み出したりする際に、バッファーとして機能する。
バス116は、マイク101、撮影部102、スピーカ103、表示部104、符号化/復号化処理部106、記録再生処理部109、表示制御部107、CPU108及び操作入力部110を互いに接続する。マイク101、撮影部102、スピーカ103、表示部104、符号化/復号化処理部106、記録再生処理部109、表示制御部107、CPU108及び操作入力部110は、バス116を介してデータのやり取りを行う。
CPU108は、バス116を介して、各部から情報を収集したり、各部へ指令を供給したりする。これにより、CPU108は、全体の制御を行う。
表示制御部107は、デジタル画像信号を符号化/復号化処理部106から受け取り、表示指令をCPU108から受け取る。表示制御部107は、表示指令に従い、デジタル画像信号に応じた画像を表示部104に表示させる。また、後述のように、表示制御部107は、付加情報及び時間情報に基づいて、付加情報の経時変化を視覚的に表したユーザーインターフェース(バー情報及びカーソル)を作成し、ユーザーインターフェースを表示部104に表示する。付加情報は、撮影時における撮像装置100(特に、撮影部102)の状態に関する情報である。付加情報は、例えば、手ぶれ量、ズーム動作、合焦状態及び撮影モードの少なくとも1つに関する情報を含む。時間情報は、撮影開始からの経過時間を示す情報である。
表示部104は、液晶ディスプレイ104a及びファインダー104bを含む。表示部104は、デジタル画像信号に応じた画像を表示する。例えば、表示部104は、各種設定メニューやタイトルなどの情報を表示する。
スピーカ103は、符号化/復号化処理部106からデジタル音声信号を受け取る。スピーカ103は、デジタル音声信号に基づき、音声を出力する。
操作入力部110には、ユーザーにより、指示が入力される。例えば、操作入力部110には、ユーザーインターフェースを操作するための指示が入力される。あるいは、例えば、操作入力部110には、再生開始の指示が入力される。あるいは、例えば、操作入力部110には、再生位置変更の指示が入力される。操作入力部110は、指示を示す情報をCPU108へ渡す。CPU108は、指示を示す情報に対応した指令を生成する。
付加情報検知処理部105は、マイク101、撮影部102及び符号化/復号化処理部106より出力されたデータから、所定の項目の値を付加情報として検知する。付加情報検知処理部105は、付加情報を記録再生処理部109へ出力する。記録再生処理部109は、付加情報を記録媒体112に記録する。
次に、撮影部102が動画を撮影する際における撮像装置100の動作を説明する。
操作入力部110には、撮影開始の指示を示す情報が入力される。CPU108は、撮影開始の指示を示す情報を操作入力部110から受け取り、その情報に基づき、撮影指令を生成して撮影部102及びマイク101へ出力する。撮影部102は、撮影指令に従い、被写体の動画を撮影して、デジタル画像信号を符号化/復号化処理部106へ出力する。マイク101は、撮影指令に従い、被写体の音声を取得して、デジタル音声信号を符号化/復号化処理部106へ出力する。
符号化/復号化処理部106は、デジタル画像信号を符号化して圧縮動画データを生成するとともに記録再生処理部109へ出力する。また、符号化/復号化処理部106は、デジタル音声信号を符号化して圧縮音声データを生成するとともに記録再生処理部109へ出力する。
また、撮影部102は、周知のズーム機能、手ぶれ補正機能を有しており、ズーム操作の履歴や手ぶれ補正時の手ぶれ量の情報を付加情報検知処理部105へ供給する。付加情報検知処理部105は、手ぶれ量の情報、ズーム動作の情報などを、付加情報として検知する。
付加情報検知処理部105は、付加情報を記録再生処理部109へ供給する。記録再生処理部109は、圧縮動画データ及び圧縮音声データと付加情報と時間情報とを多重し、記録に適した形態に変換する。これにより、記録再生処理部109は、付加情報と時間情報とに関連付けて、圧縮動画データ(動画)及び圧縮音声データ(音声)を記録媒体112へ記録する。
また、ユーザーにより、操作入力部110に記録停止の指示が入力されると、CPU108は、その指示を受け取り、その指示に基づいて、各部を制御し、記録媒体112への記録を停止する。
ここで、記録開始の指示から記録停止の指示までの間に記録媒体112へ記録された1シーンの圧縮動画データ(動画)及び圧縮音声データ(音声)は、1つのファイルになっていることが好ましい。
なお、記録再生処理部109は、圧縮動画データを記録媒体112へ記録している間に、圧縮静止画データを記録媒体112へ記録できるようになっていてもよい。すなわち、ユーザーにより、操作入力部110に静止画記録の指示が入力されると、CPU108は、その指示を受け取り、その指示に基づいて、静止画抽出指令を符号化/復号化処理部106へ供給する。符号化/復号化処理部106は、静止画抽出指令に従い、デジタル画像信号よりデジタル静止画信号を抽出する。符号化/復号化処理部106は、抽出したデジタル静止画信号をJPEG方式で符号化して圧縮静止画データ(静止画)を生成する。
次に、記録再生処理部109が動画を再生する際における撮像装置100の動作を説明する。
操作入力部110には、サムネイル表示の指示を示す情報が入力される。CPU108は、サムネイル表示の指示を示す情報を操作入力部110から受け取り、その情報に基づき、サムネイル画像生成指令を生成して記録再生処理部109及び表示制御部107へ出力する。
記録再生処理部109は、サムネイル画像生成指令に従い、記録媒体112を参照して、各シーンの先頭部分の画像データを再生して圧縮動画データ符号化/復号化処理部106へ渡す。符号化/復号化処理部106は、再生された圧縮動画データを伸張して(復号化して)、その先頭の1フレームを抽出して表示制御部107へ出力する。
表示制御部107は、符号化/復号化処理部106から出力された各シーンの先頭の1フレームの画像データを縮小し、サムネイル画像データを生成する。
ユーザーにより、サムネイル一覧画面の中から所望のシーンを選択して再生決定する旨の指示である再生開始の指示が、操作入力部110に入力される。
CPU108は、操作入力部110より再生開始の指示を受け取ると、選択されたシーンの先頭から再生を開始するための指令である再生開始指令を生成して記録再生処理部109に供給する。
記録再生処理部109は、再生開始指令に従い、選択されたシーンの先頭以降の圧縮動画データ及び圧縮音声データを記録媒体112から読み出して符号化/復号化処理部106へ供給する。また、記録再生処理部109は、再生開始指令に従い、圧縮動画データ及び圧縮音声データに多重化されている付加情報及び時間情報を記録媒体112から読み出してCPU108へ供給する。
符号化/復号化処理部106は、圧縮動画データと圧縮音声データとを伸張して(復号化して)、復号後の動画データを表示制御部107へ供給し、復号後の音声データをスピーカ103へ供給する。
一方、CPU108は、記録再生処理部109より受け取った付加情報と時間情報とを表示制御部107へ転送する。表示制御部107は、付加情報と時間情報とに基づいて、現在再生中のシーンの時間経過と付加情報との関係を示すバー情報の画像を生成する。また、表示制御部107は、このバー情報における経時位置を指定するためのカーソルの画像を生成する。すなわち、表示制御部107は、バー情報とカーソルとを含むユーザーインターフェースを生成する。
表示制御部107は、符号化/復号化処理部106から動画データを受け取り、CPU108からユーザーインターフェース(バー情報及びカーソル)の情報を受け取る。表示制御部107は、動画とユーザーインターフェースとを多重化して表示部104に表示する。
一方、スピーカ103は、音声データに基づいて、動画に対応する音声を再生する。
図3は、動画の再生中又は再生一時停止中における表示部104の表示画面を示す図である。
表示画面201の中央付近には、被写体202が表示されている。表示画面201の下部付近には、ユーザーインターフェース205が表示されている。ユーザーインターフェース205は、バー情報203及びカーソル204を含む。
バー情報203において、左端がシーンの始めの部分を示し、右端がシーンの終わりの部分を示している。バー情報203における左端からの横方向(長さ方向)の距離は、動画の撮影開始からの経過時間を示している。すなわち、バー情報203は、長さ方向を時間軸としており内部が対応する付加情報の値により色付けされている長方形である。
また、カーソル204は、バー情報203に重ねて表示されている。CPU108は、動画再生中、時間経過に伴ってカーソル204をバー情報203上で対応する位置に随時移動して表示させる。また、本実施形態では、動画データの再生中、ユーザーが操作入力部110を操作することでカーソル204を移動させ、動画の再生位置を任意に変更することが可能である。即ち、後述の如くユーザーがカーソル204の移動を指示すると、バー情報203上で移動先の位置に応じた位置の画像が再生される。
例えば、付加情報が手ぶれ量の情報である場合について説明する。付加情報検知処理部105は、撮影部102から受け取るデジタル画像信号に基づいて、手ぶれ量を検出する。例えば、付加情報検知処理部105は、デジタル画像信号に基づいて、画像における被写体及び背景の変位量や振動の周波数などを検出する。あるいは、例えば、付加情報検知処理部105は、CCDやレンズなどを制御する信号に基づいて、CCDやレンズなどの傾き等を検出する。付加情報検知処理部105は、これらの検出した値に応じて、手ぶれ量を、例えば、大、中、小の3段階でランク付けする。付加情報検知処理部105は、手ぶれ量の(ランクの)情報を付加情報として記録再生処理部109へ出力する。記録再生処理部109は、付加情報と時間情報とに関連付けて、圧縮動画データ(動画)及び圧縮音声データ(音声)を記録媒体112へ記録する。
CPU108は、この付加情報に基づいて、手ぶれ量のランクごとにバー情報203内での表示色などを変える。例えば、バー情報203において、手ぶれ量が大である時間帯が赤色で表示され、手ぶれ量が中である時間帯が黄色で表示され、手ぶれ量が小である時間帯が白色で表示される。これにより、現在再生中のシーンにおいて、手ぶれの大きい場面を容易に認識できるので、手ぶれが小さい場面を検索したい場合などに、再生したい場面の検索を容易に行うことができる。また、手ぶれが大きく見づらい場面を容易にカットして再生することができる。
また、カーソル204は、動画が再生されている際に、再生しているシーンの経過時間を示す。バー情報203及びカーソル204は、再生中、及び、再生一時停止中に表示される。
この様に動画データの再生中に、操作入力部110により再生停止の指示があると、CPU108は記録再生処理部109を制御して再生を停止し、前述のサムネイル一覧画面を表示部104に表示する。
次に、カーソル204を移動するための操作入力部110の構成例について、詳細に説明する。
操作入力部110(操作ボタン群110a)は、例えば、左へ移動するボタン(以下、左ボタンとする)と右へ移動するボタン(以下、右ボタンとする)とを含む。これにより、表示画面201においてカーソル204をバー情報203上で左右に移動することができる。例えば、左ボタン(右ボタン)を1度押すと、カーソル204がバー情報203上で現地点から5秒分左(右)へ移動する。左ボタン(右ボタン)を2秒以上長押しすると、カーソル204がバー情報203上で現地点から20秒分移動する。そのままボタンを押しつづけることで、20秒分毎にカーソルが左(右)へ移動する。
このとき、CPU108は、再生中の動画像の再生位置をバー情報203内での移動先の位置に対応した位置にスキップし、引き続き動画データの再生を継続する。また、再生一時停止中にカーソル204が移動されると、移動先の位置に対応した位置にスキップし、再生一時停止画面を表示する。
あるいは、操作入力部110(操作ボタン群110a)は、例えば、ダイヤルを含む。このダイヤルを回転させることにより、表示画面201においてカーソル204をバー情報203上で左右に移動することができる。例えば、ダイヤルを右(左)に回すと、ダイヤルの回転量に応じてカーソル204がバー情報203上で右(左)へ移動する。
あるいは、操作入力部110(操作ボタン群110a)は、例えば、タッチパネルを含む。表示画面201のバー情報203において、移動させたい経過時間を示す部分が触れられると、カーソル204がバー情報203上のその部分へ移動する。
前述の実施形態では、再生中(又は再生一時停止中)に、付加情報と時間情報とに基づいて生成したバー情報とカーソルとを表示していた。以下の実施形態では、サムネイル一覧画面(再生前の画面)上でバー情報とカーソルとを表示するものである。
図4は、動画の再生前における表示部104の表示画面(サムネイル一覧画面)を示す図である。
表示画面301には、各シーンの先頭フレームの画像がサムネイル画像302として表示されている。表示画像301には、複数のサムネイル画像302が表示されている。枠305は、現在選択されているシーンを示しており、ユーザーは枠305を移動することでシーンを選択することができる。
本実施形態では、CPU108が、枠305にて選択されているシーンを検出し、選択されたシーンの付加情報及び時間情報を読み出すための読み出し指令を生成して記録再生処理部109に供給する。記録再生処理部109は、読み出し指令に従い、選択されたシーンの付加情報及び時間情報を記録媒体112から読み出して表示制御部107へ供給する。表示制御部107は、読み出された付加情報及び時間情報に基づいて、選択されたシーンのバー情報303及びカーソル304を生成する。表示制御部107は、複数のサムネイル画像302と共に、枠305で選択されているシーンのバー情報303及びカーソル304を表示部104に表示する。
なお、表示部104に表示されるバー情報303及びカーソル304は、選択されているシーンを含む複数のシーンの情報であってもよい。このとき、バー情報において、選択されているシーンがハイライト表示されるようになっていてもよい。
表示部104に表示されたバー情報303及びカーソル304の構成は、図3に示すバー情報203及びカーソル204と同様である。本実施形態でも、カーソル304をバー情報303上で移動させることにより、動画の再生位置を変更可能な点は、図3に示すバー情報203及びカーソル204と同様である。
本実施形態では、サムネイルの一覧表示の指示に応じて表示される各サムネイル画像は、前述のように各シーンの先頭フレームの静止画である。カーソル304を移動する指示(再生位置変更の指示)が操作入力部110に入力されると、CPU108は、再生位置変更の指示を操作入力部110から受け取る。CPU108は、再生位置変更の指示に基づき、再生位置変更指令を生成して記録再生処理部109へ供給する。記録再生処理部109は、再生位置変更指令に基づき、移動先の経時位置に対応した圧縮静止画データ(又は少ないフレーム数の圧縮動画データ)を記録媒体112から読み出し符号化/復号化処理部106へ供給する。符号化/復号化処理部106は、圧縮静止画データ(又は圧縮動画データ)を復号してCPU108へ供給する。CPU108は、復号化した静止画データ(又は動画データ)から1フレームの画像データを、再生位置における動画の内容を表す静止画として抽出する。CPU108は、その1フレームの画像データを表示制御部107に供給する。表示制御部107は、その1フレームの画像データを縮小し、縮小後の画像データを、新たな移動先の経時位置におけるサムネイル画像として表示部104に表示する。
この様に、シーンの先頭だけでなくシーンの途中の静止画(場面)もサムネイル一覧画面上で確認することができる。これにより、ユーザーは、再生したい場面がどのシーンに属しているか把握していない場合でも、再生したい場面を容易に確認することができる。 操作入力部110に再生開始の指示が入力されると、CPU108は、移動先の経時位置(カーソル304により変更された動画の再生位置)の動画の再生を開始するための再生指令を生成する。記録再生処理部109は、再生指令に基づき、動画の再生位置に対応した圧縮動画データを記録媒体112から読み出して符号化/復号化処理部106に復号化させる。記録再生処理部109は、復号化された動画データを符号化/復号化処理部106から受け取り表示制御部107へ供給する。表示制御部107は、サムネイル一覧画面に代えて、動画の再生位置に対応した動画を表示部104に表示する。
なお、本実施形態では、サムネイル一覧画面上での枠305を移動するため、操作入力部110における十字キーを用いる。また、カーソル304を移動するため、早送り、巻き戻しキーを用いる。
このように、本実施形態では、サムネイル一覧画面上で、選択中のシーンの手ぶれ状態などを示すバー情報と再生位置選択用のカーソルとを表示している。そして、カーソルを移動することで、サムネイル一覧画面上で、各シーンの手ぶれの大きい区間を容易に認識できるので、手ぶれが大きく見づらい部分を避けて内容を確認することができる。すなわち、ユーザーは、手ぶれが小さい場面がどのシーンに属しているか把握していない場合でも、手ぶれが小さい場面を容易に探し出すことができる。
次に、バー情報に反映されている付加情報が手ぶれ量以外の情報である場合における画面の動作例を説明する。上記で説明した画面の動作例(図3及び図4参照)と異なる部分を中心に説明し、同様の部分に関しては説明を省略する。
バー情報に反映されている付加情報は、ズーム操作の情報を含んでもよい。このとき、付加情報検知処理部105は、撮影部102から取得したズーム制御情報に基づき、ズーム操作を例えばズームイン、ズームなし及びズームアウトの3段階でランク付けする。付加情報検知処理部105は、ズーム操作の(ランクの)情報を付加情報として記録再生処理部109へ出力する。記録再生処理部109は、付加情報と時間情報とに関連付けて、圧縮動画データ(動画)及び圧縮音声データ(音声)を記録媒体112へ記録する。
また、記録再生処理部109は、付加情報、時間情報、圧縮動画データ(動画)及び圧縮音声データ(音声)を記録媒体112から読み出して、表示制御部107、表示部104及びスピーカ103に動画及び音声を再生させる。このとき、表示部104に表示される表示画面には、バー情報が3色で表示される。例えば、バー情報において、ズームインした時間帯が赤色で表示され、ズームなしの時間帯が白色で表示され、ズームアウトした時間帯が黄色で表示される。これにより、経過時間に対するズーム操作の状態を容易に判断することができるので、ズームインした場面を検索したい場合などに、再生したい場面の検索を容易に行うことができる。
なお、表示部104に表示される表示画面には、ズームインした時間帯がズームインの倍率に応じて赤色から白色へグラデーション表示されても良く、ズームアウトした時間帯がズームアウトの倍率に応じて黄色から白色へグラデーション表示されても良い。また、付加情報検知処理部105は、ズームあり及びズームなしの2段階でランク付けしても良い。このとき、表示部104に表示される表示画面には、ズームありの時間帯が赤色で表示され、ズームなしの時間帯が白色で表示される。
なお、上記のように、記録媒体112に圧縮静止画データ(静止画)が記録されている場合、バー情報に反映されている付加情報は、撮影モードに関する情報(例えば、静止画撮影モードか動画撮影モードかを示す情報)を含んでもよい。このとき、付加情報検知処理部105は、撮影部102から取得した撮影モード情報に基づき、静止画撮影なし及び静止画撮影ありの2段階でランク付けする。付加情報検知処理部105は、動画撮影中に静止画撮影の指示があると、静止画撮影があった時点の前後の数秒間を示す静止画撮影の(ランクの)情報を付加情報として記録再生処理部109へ出力する。記録再生処理部109は、付加情報と時間情報とに関連付けて、圧縮動画データ(動画)及び圧縮音声データ(音声)を記録媒体112へ記録する。
記録再生処理部109は、付加情報、時間情報、圧縮動画データ(動画)及び圧縮音声データ(音声)を記録媒体112から読み出して、表示制御部107、表示部104及びスピーカ103に動画及び音声を再生させる。このとき、表示部104に表示される表示画面には、バー情報が2色で表示される。例えば、バー情報において、静止画撮影した時間帯が赤色で表示され、静止画撮影していない時間帯が白色で表示される。これにより、経過時間に対する静止画撮影の有無を容易に判断することができるので、静止画撮影した場面を検索したい場合などに、再生したい場面の検索を容易に行うことができる。
また、付加情報は、被写体のピントの状態(合焦状態)の情報を含んでもよい。このとき、付加情報検知処理部105は、撮影部102から取得したオートフォーカス制御情報に基づき、合焦状態を例えばフォーカス状態及びデフォーカス状態の2段階でランク付けする。付加情報検知処理部105は、合焦状態の(ランクの)情報を付加情報として記録再生処理部109へ出力する。記録再生処理部109は、付加情報と時間情報とに関連付けて、圧縮動画データ(動画)及び圧縮音声データ(音声)を記録媒体112へ記録する。
また、記録再生処理部109は、付加情報、時間情報、圧縮動画データ(動画)及び圧縮音声データ(音声)を記録媒体112から読み出して、表示制御部107、表示部104及びスピーカ103に動画及び音声を再生させる。このとき、表示部104に表示される表示画面には、バー情報が2色で表示される。例えば、バー情報において、フォーカス状態の時間帯が赤色で表示され、デフォーカス状態の時間帯が白色で表示される。これにより、経過時間に対する合焦状態を容易に判断することができるので、フォーカス状態の場面を検索したい場合などに、再生したい場面の検索を容易に行うことができる。
また、表示部104が表示するユーザーインターフェースに含まれるバー情報は、1つの軸を時間軸とし他の軸を付加情報の値とするグラフであってもよい。例えば、バー情報には、図5に示すように、付加情報が曲線グラフで表示されて反映されても良い。あるいは、例えば、バー情報には、図6に示すように、付加情報が折れ線グラフで表示されて反映されても良い。あるいは、例えば、バー情報には、図7に示すように、付加情報が棒グラフで表示されて反映されても良い。
また、表示部104が表示するユーザーインターフェースに含まれるバー情報は、その上下方向の幅を部分的に変えることにより、付加情報が反映されていてもよい。あるいは、バー情報は、長さ方向を時間軸としており内部が対応する付加情報の値により模様付けされている長方形であってもよい。このように、表示部104は、時間を示す帯状のオブジェクトを、付加情報を反映させた形態で表示する。
なお、前述の実施形態では、図3、図4に示すように、バー情報とカーソルとを表示していたが、ユーザーは、操作入力部110により、これらバー情報とカーソルとの表示を禁止することも可能である。
次に、撮像装置が動画を再生する処理を、図8を用いて説明する。図8は、撮像装置が動画を再生する処理を示すフローチャートである。
ステップS1では、CPU108(図1参照)が、サムネイル表示の指示があったか否かを判断する。すなわち、CPU108は、サムネイル表示の指示を示す情報を操作入力部110から受け取った場合、サムネイル表示の指示があったと判断する。CPU108は、サムネイル表示の指示を示す情報を操作入力部110から受け取らなかった場合、サムネイル表示の指示がなかったと判断する。
ステップS2では、CPU108が、サムネイル表示の指示を示す情報に基づき、サムネイル画像生成指令を生成して記録再生処理部109及び表示制御部107へ出力する。
記録再生処理部109は、サムネイル画像生成指令に従い、記録媒体112を参照して、各シーンの先頭部分の画像データを再生し、圧縮動画データ圧縮動画データ符号化/復号化処理部106へ渡す。符号化/復号化処理部106は、再生された圧縮動画データを伸張して(復号化して)、その先頭の1フレームを抽出して表示制御部107へ出力する。
表示制御部107は、符号化/復号化処理部106から出力された各シーンの先頭の1フレームの画像データを縮小し、サムネイル画像データを生成する。
ステップS3では、操作入力部110に、サムネイル一覧画面において選択されたシーンの再生決定の指示が入力される。CPU108は、その再生決定の指示を示す情報を操作入力部110から受け取る。CPU108は、再生決定の指示を示す情報に基づき、記録再生処理部109に対し、選択されたシーンの画像データ、音声データ及び、付加情報を再生するよう指示する。
そして、記録再生処理部109は、再生された圧縮画像、音声データを符号化/復号化処理部106に出力し、付加情報及び時間情報をCPU108に出力する。
符号化/復号化処理部106は、圧縮動画データと圧縮音声データとを伸張して(復号化して)、画像データを表示制御部107経由で表示部104へ出力し、音声データをスピーカ103へ出力する。
一方、CPU108は、記録再生処理部109より出力された付加情報と時間情報とに基づいて、現在再生中のシーンの時間経過と付加情報との関係を示すバー情報を生成する。また、このバー情報における経時位置を指定するためのカーソル画像を生成し、これらバー情報とカーソル画像とを含むユーザーインターフェース情報を表示制御部107経由へ供給する。
表示制御部107は、符号化/復号化処理部106から出力された動画像データと、CPU108からのユーザーインターフェース情報とを多重して表示部104に表示する。
ステップS4では、CPU108が、再生位置変更の指示があったか否かを判断する。すなわち、CPU108は、再生位置変更の指示を操作入力部110から受け取った場合、再生位置変更の指示があったと判断して、処理をステップS5へ進める。CPU108は、再生位置変更の指示を操作入力部110から受け取らなかった場合、再生位置変更の指示がなかったと判断して、処理をステップS4へ進める。例えば、図3に示すバー情報203の上においてカーソル204が移動された場合、CPU108は、カーソル204の移動先が示す経時位置の情報を、再生位置変更の指示として操作入力部110から受け取る。
ステップS5では、CPU108は、再生位置変更の指示に基づいて、再生位置変更指令を生成して記録再生処理部109へ供給する。記録再生処理部109は、再生位置変更指令に基づき、移動先の経時位置に対応した圧縮動画データを記録媒体112から読み出し符号化/復号化処理部106へ供給する。符号化/復号化処理部106は、圧縮動画データを復号して表示制御部107へ供給する。表示制御部107は、復号された動画データと、付加情報及び時間情報トに基づき、動画とユーザーインターフェース(バー情報及びカーソル)とを多重化して表示部104に表示する。
スピーカ103は、再生指令に従い、デジタル音声信号に基づいて、設定された再生位置の動画に対応する音声を再生する。
以上のように、撮影された動画において再生したい場面を検索する際に、付加情報及び時間情報を検索時のパラメータとして利用することができるので、再生したい場面を探し出す労力を軽減できる。
なお、撮像装置は、例えば、据え置き型又は携帯型の再生専用のビデオプレーヤー、DVDプレーヤーなどでもよいし、据え置き型の録画及び再生可能なビデオレコーダー、DVDレコーダーなどでもよい。
また、バー情報には、被写体又は周辺の音の大きさの情報がさらに反映されてもよい。このとき、付加情報検知処理部105は、マイク101から取得したデジタル音声信号に基づき、音の大きさを例えば大及び小の2段階でランク付けする。付加情報検知処理部105は、音の大きさの(ランクの)情報を付加情報として記録再生処理部109へ出力する。記録再生処理部109は、付加情報と時間情報とに関連付けて、圧縮動画データ(動画)及び圧縮音声データ(音声)を記録媒体112へ記録する。
記録再生処理部109は、付加情報、時間情報、圧縮動画データ(動画)及び圧縮音声データ(音声)を記録媒体112から読み出して、表示制御部107、表示部104及びスピーカ103に動画及び音声を再生させる。このとき、表示部104に表示される表示画面には、バー情報が2色で表示される。例えば、バー情報において、音の大きさが大である時間帯が赤色で表示され、音の大きさが小である時間帯が白色で表示される。これにより、経過時間に対する音の大きさの状態を容易に判断することができるので、音が小さい場面を検索したい場合などに、再生したい場面の検索を容易に行うことができる。また、音が大きくうるさい場面を容易にカットして再生することができる。
付加情報検知処理部105は、音の大きさを3段階以上でランク付けしても良い。このとき、表示部104に表示される表示画面には、例えば、音の大きさが小さくなるに従ってバー情報が赤から白へとグラデーション表示されてもよい。
あるいは、バー情報には、撮影時刻情報がさらに反映されてもよい。このとき、付加情報検知処理部105は、撮影時刻情報を時計(図示せず)から受け取り、撮影時刻情報を付加情報として検知する。撮影時刻情報は、動画を撮影した時刻(動画を撮影した場所における標準時刻)に関する情報である。例えば、付加情報検知処理部105は、撮影時刻情報に基づき、時刻が属する時間帯を、午前5時〜午前10時、午前10時〜午後4時、午後4時〜午後7時及び午後7時〜午前5時の4段階にランク付けする。付加情報検知処理部105は、時刻が属する時間帯の情報を付加情報として記録再生処理部109へ出力する。記録再生処理部109は、付加情報と時間情報とに関連付けて、圧縮動画データ(動画)及び圧縮音声データ(音声)を記録媒体112へ記録する。
記録再生処理部109は、付加情報、時間情報、圧縮動画データ(動画)及び圧縮音声データ(音声)を記録媒体112から読み出して、表示制御部107、表示部104及びスピーカ103に動画及び音声を再生させる。このとき、表示部104に表示される表示画面には、バー情報が4色で表示される。例えば、バー情報において、午前5時〜午前10時(朝)の時間帯が水色、午前10時〜午後4時(昼間)の時間帯が黄色、午後4時〜午後7時(夕方)の時間帯が橙色、午後7時〜午前5時(夜)の時間帯が灰色で表示される。これにより、経過時間に対する撮影時刻を容易に判断することができるので、所定の時間帯(例えば、朝)に撮影した場面を検索したい場合などに、再生したい場面の検索を容易に行うことができる。
また、バー情報には、デジタル動画信号のビットレート及びデジタル動画信号の圧縮率のいずれかがさらに反映されても良い。