以下、図面を参照して、本発明の実施形態を説明する。
まず、図1および図2を参照して、本発明の一実施形態に係る電子機器の構成を説明する。本実施形態の電子機器は、例えば、情報処理装置として機能するノートブック型の携帯型パーソナルコンピュータ10から実現されている。
このパーソナルコンピュータ10は、放送番組データ、外部機器から入力されるビデオデータといった、映像コンテンツデータ(オーディオビジュアルコンテンツデータ)を記録および再生することができる。即ち、パーソナルコンピュータ10は、テレビジョン放送信号によって放送される放送番組データの視聴および録画を実行するためのテレビジョン(TV)機能を有している。このTV機能は、例えば、パーソナルコンピュータ10に予めインストールされているTVアプリケーションプログラムによって実現されている。また、TV機能は、外部のAV機器から入力されるビデオデータを記録する機能、および記録されたビデオデータおよび記録された放送番組データを再生する機能も有している。
さらに、パーソナルコンピュータ10は、映像コンテンツデータ内に含まれる動画像データから抽出された静止画像の一覧等を表示するサムネイル画像表示機能を有している。このサムネイル画像表示機能は、例えば、TV機能内にその一機能として実装されている。このサムネイル画像表示機能は、映像コンテンツデータの概要等をユーザに提示するための映像インデキシング機能の一つである。このサムネイル画像表示機能は、映像コンテンツデータ全体の概要をユーザに提示することができる。
また、パーソナルコンピュータ10は、このサムネイル画像表示機能で用いられる表示エリアを用いて、映像コンテンツデータ内に含まれる動画像データを(簡易的に)再生するプレビュー機能も有している。
さらに、サムネイル画像表示機能は、映像コンテンツデータに登場する人物の顔画像の一覧等を表示する顔画像一覧表示機能も有している。この顔画像一覧表示機能も、上述の映像インデキシング機能の一つである。この顔画像一覧表示機能は、映像コンテンツデータ全体の中のどの時間帯にどの人物が登場するのかをユーザに提示することができる。また、この顔画像一覧表示機能は、映像コンテンツデータ内に含まれる所定の属性区間に着目して人物の一覧を表示することもできる。
図1はコンピュータ10のディスプレイユニットを開いた状態における斜視図である。本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、TFT−LCD(Thin Film Transistor Liquid Crystal Display)17から構成される表示装置が組み込まれている。
ディスプレイユニット12は、コンピュータ本体11に対し、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在に取り付けられている。コンピュータ本体11は薄い箱形の筐体を有しており、その上面にはキーボード13、本コンピュータ10をパワーオン/パワーオフするためのパワーボタン14、入力操作パネル15、タッチパッド16、およびスピーカ18A,18Bなどが配置されている。
入力操作パネル15は、押されたボタンに対応するイベントを入力する入力装置であり、複数の機能をそれぞれ起動するための複数のボタンを備えている。これらボタン群には、TV機能(視聴、録画、録画された放送番組データ/ビデオデータの再生)を制御するための操作ボタン群も含まれている。また、コンピュータ本体11の正面には、本コンピュータ10のTV機能をリモート制御するリモコンユニットとの通信を実行するためのリモコンユニットインタフェース部20が設けられている。リモコンユニットインタフェース部20は、赤外線信号受信部などから構成されている。
コンピュータ本体11の例えば右側面には、TV放送用のアンテナ端子19が設けられている。また、コンピュータ本体11の例えば背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子が設けられている。この外部ディスプレイ接続端子は、放送番組データのような映像コンテンツデータに含まれる映像データ(動画像データ)を外部ディスプレイに出力するために用いられる。
次に、図2を参照して、本コンピュータ10のシステム構成について説明する。
本コンピュータ10は、図2に示されているように、CPU101、ノースブリッジ102、主メモリ103、サウスブリッジ104、グラフィクスプロセッシングユニット(GPU)105、ビデオメモリ(VRAM)105A、サウンドコントローラ106、BIOS−ROM109、LANコントローラ110、ハードディスクドライブ(HDD)111、DVDドライブ112、ビデオプロセッサ113、メモリ113A、カードコントローラ113、無線LANコントローラ114、IEEE 1394コントローラ115、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116、TVチューナ117、およびEEPROM118等を備えている。
CPU101は本コンピュータ10の動作を制御するプロセッサであり、ハードディスクドライブ(HDD)111から主メモリ103にロードされる、オペレーティングシステム(OS)201、およびTVアプリケーションプログラム202のような各種アプリケーションプログラムを実行する。TVアプリケーションプログラム202はTV機能を実行するためのソフトウェアである。このTVアプリケーションプログラム202は、TVチューナ117によって受信された放送番組データを視聴するためのライブ再生処理、受信された放送番組データをHDD111に記録する録画処理、およびHDD111に記録された放送番組データ/ビデオデータを再生する再生処理等を実行する。また、CPU101は、BIOS−ROM109に格納されたBIOS(Basic Input Output System)も実行する。BIOSはハードウェア制御のためのプログラムである。
ノースブリッジ102はCPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ装置1にデジタル映像信号を送出することもできる。
HDMI端子2は上述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号と、デジタルオーディオ信号とを一本のケーブルでテレビのような外部ディスプレイ装置1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ装置1にデジタル映像信号をHDMI端子2を介して送出するためのインタフェースである。
サウスブリッジ104は、LPC(Low Pin Count)バス上の各デバイス、およびPCI(Peripheral Component Interconnect)バス上の各デバイスを制御する。また、サウスブリッジ104は、ハードディスクドライブ(HDD)111およびDVDドライブ112を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
またさらに、サウスブリッジ104には、PCI EXPRESS規格のシリアルバスなどを介してビデオプロセッサ113が接続されている。
ビデオプロセッサ113は、前述の映像インデキシングに関する各種処理を実行するプロセッサである。このビデオプロセッサ113は、映像インデキシング処理を実行するためのインデキシング処理部として機能する。すなわち、映像インデキシング処理においては、ビデオプロセッサ113は、サムネイル画像取得処理を実行する。サムネイル画像取得処理においては、ビデオプロセッサ113は、映像コンテンツデータに含まれる動画像データのシーケンスを構成する複数の区間の各々から少なくとも1フレームの静止画像を抽出する。複数の区間それぞれの時間長は例えば等間隔である。もちろん、必ずしも等間隔である必要はない。例えば、動画像データが圧縮符号化されているならば、フレーム内符号化されたピクチャであるI(イントラ)ピクチャのみを圧縮符号化された動画像データから抽出してもよい。また、ビデオプロセッサ113は、動画像データの各カットまたは各シーンを検出し、検出された各カットまたは各シーンから少なくとも1フレームの静止画像を抽出することもできる。
映像インデキシング処理においては、顔画像抽出処理も行われる。この顔画像抽出処理においては、ビデオプロセッサ113は、映像コンテンツデータに含まれる動画像データから複数の顔画像を抽出する。顔画像の抽出は、例えば、動画像データの各フレームから顔領域を検出する顔検出処理、検出された顔領域をフレームから切り出す切り出し処理等によって実行される。顔領域の検出は、例えば、各フレームの画像の特徴を解析して、予め用意された顔画像特徴サンプルと類似する特徴を有する領域を探索することによって行うことができる。顔画像特徴サンプルは、多数の人物それぞれの顔画像特徴を統計的に処理することによって得られた特徴データである。
さらに、ビデオプロセッサ113は、例えば、映像コンテンツデータ内に含まれるコマーシャル(CM)区間を検出する処理、および音声インデキシング処理も実行する。通常、各CM区間の時間長は、予め決められた幾つかの時間長の内の1つに設定されている。また、CM区間の前後には一定時間長の無音期間が存在する。したがって、CM区間の検出処理においては、例えば、映像コンテンツデータ内に含まれるオーディオデータが分析され、一定時間長の無音区間が検出される。そして、検出された連続する2つの無音区間に挾まれ、且つ一定値以上の時間長を有する部分データを含む区間が、CM区間として検出される。
音声インデキシング処理は、映像コンテンツデータ内に含まれるオーディオデータを分析して、映像コンテンツデータ内に含まれる、音楽が流れている音楽区間、および人物によるトークが行われているトーク区間を検出するインデキシング処理である。音声インデキシング処理においては、例えば、オーディオデータの周波数スペクトルの特徴が分析され、その周波数スペクトルの特徴に応じて、音楽区間、およびトーク区間が検出される。音楽区間に対応する周波数スペクトルの特徴と、トーク区間に対応する周波数スペクトルの特徴とは互いに異なるので、周波数スペクトルの特徴を分析することによって、音楽区間およびトーク区間のそれぞれを検出することができる。また、音楽区間に対応する周波数スペクトルの特徴とトーク区間に対応する周波数スペクトルの特徴とが混ざり合った周波数スペクトルを有する区間は、音楽区間とトーク区間とが重なった重畳区間として検出することができる。
トーク区間の検出処理においては、例えば、話者セグメンテーション技術または話者クラスタリング技術等が用いられ、これによって話者の切り替わりも検出される。同一の話者(または同一の話者グループ)が連続してトークしている期間が、一つのトーク区間となる。
さらに、音声インデキシング処理は、映像コンテンツデータ内の各部分データ(一定時間長のデータ)毎に歓声レベルを検出する歓声レベル検出処理、および映像コンテンツデータ内の各部分データ毎に盛り上がりレベルを検出する盛り上がりレベル検出処理を実行する。
歓声レベルは、歓声の大きさを示す。歓声は、大勢の人の声が合わさった音である。大勢の人の声が合わさった音は、ある特定の周波数スペクトルの分布を有する。歓声レベル検出処理においては、映像コンテンツデータに含まれるオーディオデータの周波数スペクトルが分析され、そしてその周波数スペクトルの分析結果に従って、各部分データの歓声レベルが検出される。盛り上がりレベルは、ある一定以上の音量レベルがある一定時間長以上連続的に発生する区間の音量レベルである。例えば、比較的盛大な拍手、大きな笑い声のような音の音量レベルが、盛り上がりレベルである。盛り上がりレベル検出処理においては、映像コンテンツデータに含まれるオーディオデータの音量の分布が分析され、その分析結果に従って、各部分データの盛り上がりレベルが検出される。
メモリ113Aは、ビデオプロセッサ113の作業メモリとして用いられる。インデキシング処理(映像インデキシング処理、CM検出処理、および音声インデキシング処理)を実行するためには多くの演算量が必要とされる。本実施形態においては、CPU101とは異なる専用のプロセッサであるビデオプロセッサ113がバックエンドプロセッサとして使用され、このビデオプロセッサ113によってインデキシング処理が実行される。よって、CPU101の負荷の増加を招くことなく、インデキシング処理を実行することが出来る。なお、CM検出処理は上述したようにオーディオデータを解析することによって実行することができるので、以下では、CM検出処理を音声インデキシング処理内の1つの処理として扱うことにする。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。
無線LANコントローラ114は、たとえばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。IEEE 1394コントローラ115は、IEEE 1394規格のシリアルバスを介して外部機器との通信を実行する。
エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、電力管理のためのエンベデッドコントローラと、キーボード(KB)13およびタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。このエンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10をパワーオン/パワーオフする機能を有している。さらに、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、リモコンユニットインタフェース20との通信を実行する機能を有している。
TVチューナ117はテレビジョン(TV)放送信号によって放送される放送番組データを受信する受信装置であり、アンテナ端子19に接続されている。このTVチューナ117は、例えば、地上波デジタルTV放送のようなデジタル放送番組データを受信可能なデジタルTVチューナとして実現されている。また、TVチューナ117は、外部機器から入力されるビデオデータをキャプチャする機能も有している。
次に、図3を参照して、本実施形態のサムネイル画像表示機能について説明する。
放送番組データのような映像コンテンツデータに対するインデキシング処理(映像インデキシング処理、および音声インデキシング処理)は、上述したように、インデキシング処理部として機能するビデオプロセッサ113によって実行される。
ビデオプロセッサ113は、TVアプリケーションプログラム202の制御の下、例えば、ユーザによって指定された録画済みの放送番組データ等の映像コンテンツデータに対してインデキシング処理を実行する。また、ビデオプロセッサ113は、TVチューナ117によって受信された放送番組データをHDD111に格納する録画処理と並行して、当該放送番組データに対するインデキシング処理を実行することもできる。
映像インデキシング処理においては、ビデオプロセッサ113は、サムネイル画像取得処理を実行する。サムネイル画像は、映像コンテンツデータ内の動画像データを構成する複数の区間それぞれから抽出された複数のフレームの各々に対応する静止画像(縮小画像)である。すなわち、ビデオプロセッサ113は、動画像データの各区間毎に1以上のフレームを抽出し、抽出した各フレームに対応する画像(サムネイル画像)と、そのサムネイル画像が出現する時点を示すタイムスタンプ情報TSとを出力する。ビデオプロセッサ113から出力されるサムネイル画像取得結果データ(サムネイル画像、タイムスタンプ情報TS)は、データベース111Aにサムネイルインデキシング情報として格納される。このデータベース111Aは、HDD111内に用意されたインデキシングデータ記憶用の記憶領域である。
各サムネイル画像に対応するタイムスタンプ情報としては、映像コンテンツデータの開始から当該サムネイル画像のフレームが登場するまでの経過時間、または当該サムネイル画像のフレームのフレーム番号、等を使用することが出来る。
さらに、映像インデキシング処理においては、ビデオプロセッサ113は、顔画像を抽出する処理も実行する。ビデオプロセッサ113は、映像コンテンツデータに含まれる動画像データをフレーム単位で解析する。そして、ビデオプロセッサ113は、動画像データを構成する複数のフレームそれぞれから人物の顔画像を抽出すると共に、抽出された各顔画像が動画像データ内に登場する時点を示すタイムスタンプ情報を出力する。
さらに、ビデオプロセッサ113は、抽出された各顔画像のサイズ(解像度)も出力する。ビデオプロセッサ113から出力される顔検出結果データ(顔画像、タイムスタンプ情報TS、およびサイズ)は、データベース111Aに顔画像インデキシング情報として格納される。
また、音声インデキシング処理においては、ビデオプロセッサ113は、映像コンテンツに含まれるオーディオデータを分析して、映像コンテンツデータ内に含まれる複数種の属性区間(CM区間、音楽区間、およびトーク区間)を検出し、検出された各属性区間の開始時点および終了時点を示す区間属性情報を出力する。この区間属性情報は、属性検出結果情報としてデータベース111Aに格納される。さらに、音声インデキシング処理においては、ビデオプロセッサ113は、上述の歓声レベル検出処理および盛り上がりレベル検出処理も実行する。これら歓声レベル検出処理の結果および盛り上がりレベル検出処理の結果も、上述の属性検出結果情報の一部としてデータベース111Aに格納される。
属性検出結果情報(区間属性情報)は、図4に示されているように、例えば、CM区間テーブル、音楽区間テーブル、トーク区間テーブル、および歓声/盛り上がりテーブルから構成されている。
CM区間テーブルは、検出されたCM区間の開始時点および終了時点を示すCM区間属性情報を格納する。映像コンテンツデータの開始位置から終端位置までのシーケンス内に複数のCM区間が存在する場合には、それら複数のCM区間それぞれに対応するCM区間属性情報がCM区間テーブルに格納される。CM区間テーブルにおいては、検出された各CM区間毎に当該CM区間の開始時点および終了時点をそれぞれ示すスタートタイム情報およびエンドタイム情報が格納される。
音楽区間テーブルは、検出された音楽区間の開始時点および終了時点を示す音楽区間属性情報を格納する。映像コンテンツデータの開始位置から終端位置までのシーケンス内に複数の音楽区間が存在する場合には、それら複数の音楽区間それぞれに対応する音楽区間属性情報が音楽区間テーブルに格納される。音楽区間テーブルにおいては、検出された各音楽区間毎に当該音楽区間の開始時点および終了時点をそれぞれ示すスタートタイム情報およびエンドタイム情報が格納される。
トーク区間テーブルは、検出されたトーク区間の開始時点および終了時点を示す音楽区間属性情報を格納する。映像コンテンツデータの開始位置から終端位置までのシーケンス内に複数のトーク区間が存在する場合には、それら複数のトーク区間それぞれに対応するトーク区間属性情報がトーク区間テーブルに格納される。トーク区間テーブルにおいては、検出された各トーク区間毎に当該トーク区間の開始時点および終了時点をそれぞれ示すスタートタイム情報およびエンドタイム情報が格納される。
歓声/盛り上がりテーブルは、映像コンテンツデータ内の一定時間長の部分データ(タイムセグメントT1,T2,T3,…)それぞれにおける歓声レベルおよび盛り上がりレベルを格納する。
図3に示されているように、TVアプリケーションプログラム202は、サムネイル画像表示機能を実行するためのサムネイル画像表示処理部301を含んでいる。このサムネイル画像表示処理部301は、例えば、インデキシングビューワプログラムとして実現されており、データベース111Aに格納されたインデキシング情報(顔画像インデキシング情報、サムネイルインデキシング情報、区間属性情報、等)を用いて、映像コンテンツデータの概要を俯瞰するためのインデキシングビュー画面を表示する。
具体的には、サムネイル画像表示処理部301は、データベース111Aからサムネイルインデキシング情報(サムネイル画像、タイムスタンプ情報TS)を読み出し、そしてサムネイルインデキシング情報を用いて、サムネイル画像それぞれを時間順に一列に並べてサムネイル表示エリア(以下、じゃばらサムネイル表示エリアと称する)上に表示する。
また、サムネイル画像表示処理部301は、データベース111Aから顔画像インデキシング情報(顔画像、タイムスタンプ情報TS、およびサイズ)を読み出し、そしてその顔画像インデキシング情報を用いて、映像コンテンツデータに登場する人物の顔画像の一覧を、インデキシングビュー画面上の2次元の表示エリア(以下、顔サムネイル表示エリアと称する)上に表示する。
2次元の顔サムネイル表示エリアは、複数の行および複数の列を含むマトリクス状に配置された複数の顔画像表示エリアを含む。複数の列それぞれには、映像コンテンツデータの総時間長を構成する複数の時間帯が割り当てられている。具体的には、例えば、複数の列それぞれには、映像コンテンツデータの総時間長をこれら複数の列の数で等間隔に分割することによって得られる、互いに同一の時間長を有する複数の時間帯がそれぞれ割り当てられる。もちろん、各列に割り当てられる時間帯は必ずしも同一の時間長でなくてもよい。
サムネイル画像表示処理部301は、顔画像それぞれに対応するタイムスタンプ情報TSに基づき、各列内に属する行数分の顔画像表示エリア上に、当該各列に割り当てられた時間帯に属する顔画像それぞれを、例えば、それら顔画像の出現頻度順(顔画像の検出時間長順)のような順序で並べて表示する。この場合、例えば、当該各列に割り当てられた時間帯に属する顔画像の内から、出現頻度(登場頻度)の高い順に顔画像が行数分だけ選択され、選択された顔画像が登場頻度順に上から下に向かって並んで配置される。もちろん、出現頻度順ではなく、各列に割り当てられた時間帯に出現する顔画像それぞれを、その出現順に並べて表示してもよい。
じゃばらサムネイル表示エリアにより、映像コンテンツデータ全体の概要をユーザに提示でき、さらに顔サムネイル表示エリアにより、映像コンテンツデータ全体の中のどの時間帯にどの人物が登場するのかをユーザに分かりやすく提示することができる。じゃばらサムネイル表示エリアおよび顔サムネイル表示エリアそれぞれの具体的な構成例については、図6以降で後述する。
さらに、サムネイル画像表示処理部301は、データベース111Aから区間属性情報(CM区間属性情報、音楽区間属性情報、トーク区間属性情報)を読み出し、その区間属性情報に従って、映像コンテンツデータの開始位置から終端位置までのシーケンス内における各属性区間(CM区間、音楽区間、トーク区間)の位置(開始時点から終了時点までの区間)を示すバー領域を含む区間バーをインデキシングビュー画面上に表示する。この区間バーは、例えば、3つのサブ区間バー、つまりCM区間の位置を示すCM区間バー、音楽区間の位置を示す音楽区間バー、トーク区間の位置を示すトーク区間バーを含んでいる。
シーケンス内に複数のCM区間が存在する場合、複数のCM区間それぞれの位置を示す複数のバー領域がCM区間バー内に表示される。同様に、シーケンス内に複数の音楽区間が存在する場合には複数の音楽区間それぞれの位置を示す複数のバー領域が音楽区間バー内に表示され、シーケンス内に複数のトーク区間が存在する場合には複数のトーク区間それぞれの位置を示す複数のバー領域がトーク区間バー内に表示される。以下では、シーケンス内に分散して存在する複数のCM区間の各々を部分CM区間と称し、シーケンス内に分散して存在する複数の音楽区間のそれぞれを部分音楽区間と称し、シーケンス内に分散して存在する複数のトーク区間のそれぞれを部分トーク区間と称する。
インデキシングビュー画面上に区間バーを表示することにより、顔サムネイル表示エリア内の各顔画像、およびじゃばらサムネイル表示エリア内の各サムネイル画像が、どのような属性区間(CM区間、音楽区間、トーク区間)に登場する画像であるかを、ユーザに提示することができる。したがって、ユーザは、区間属性をも考慮して、映像コンテンツデータ全体の概要を俯瞰することができる。
さらに、サムネイル画像表示処理部301は、データベース111Aから歓声レベル情報および盛り上がりレベル情報を読み出し、それら歓声レベル情報および盛り上がりレベル情報に従って、映像コンテンツデータの開始位置から終端位置までのシーケンス内における歓声レベルの変化および盛り上がりレベルの変化をそれぞれ示すグラフを、インデキシングビュー画面上に表示する。
このレベル表示エリアを見ることにより、ユーザに、映像コンテンツデータ内のどの辺りに大きな歓声が生じた区間が存在し、また映像コンテンツデータ内のどの辺りに盛り上がりの大きな区間が存在するかを提示することができる。ユーザは、顔画像と、サムネイル画像と、区間属性と、歓声レベルと、盛り上がりレベルとを考慮して、映像コンテンツデータ全体の中から再生を開始すべきデータ位置を見つけることができる。
次に、図5を参照して、インデキシングビューワプログラムと連携して動作するTVアプリケーションプログラム202の機能構成を説明する。
TVアプリケーションプログラム202は、上述のサムネイル画像表示処理部301に加え、記録処理部401、インデキシング制御部402、プレビュー処理部403、再生処理部404等を備えている。サムネイル画像表示処理部301、インデキシング制御部402、およびプレビュー処理部403は、インデキシングビューワプログラムによって実現することができる。
記録処理部401は、TVチューナ117によって受信された放送番組データ、または外部機器から入力されるビデオデータをHDD111に記録する記録処理を実行する。また、記録処理部401は、ユーザによって予め設定された録画予約情報(チャンネル番号、日時)によって指定される放送番組データをTVチューナ117を用いて受信し、その放送番組データをHDD111に記録する予約録画処理も実行する。
インデキシング制御部402は、ビデオプロセッサ(インデキシング処理部)113を制御して、インデキシング処理(映像インデキシング処理、音声インデキシング処理)をビデオプロセッサ113に実行させる。ユーザは、録画対象の放送番組データ毎にインデキシング処理を実行するか否かを指定することができる。例えば、インデキシング処理の実行が指示された録画対象の放送番組データについては、その放送番組データがHDD111に記録された後に、インデキシング処理が自動的に開始される。また、ユーザは、既にHDD111に格納されている映像コンテンツデータの内から、インデキシング処理を実行すべき映像コンテンツデータを指定することもできる。
プレビュー処理部403は、ユーザによって映像コンテンツデータ内のある任意の区間の(簡易的)な再生(プレビュー再生)が要求された場合、映像コンテンツデータ内に含まれる動画像データの(簡易的な)再生(プレビュー再生)を、その要求された区間から実行する。この場合、プレビュー再生は、上述のじゃばらサムネイル表示エリアを用いて行われる。すなわち、プレビュー処理部403は、ある区間の動画像データの再生を要求するイベントが入力された時、まず、再生が要求された区間から抽出された静止画像(サムネイル画像)が表示されているじゃばらサムネイル表示エリア上の画像表示位置を特定し、そしてその特定された画像表示位置上で、再生が要求された区間の動画像データの(簡易的な)再生(プレビュー再生)を実行する。
すなわち、じゃばらサムネイル表示エリア上においては、通常は、複数のサムネイル画像それぞれが時間順に並んで表示されているが、プレビュー再生時においては、再生対象の動画像データの区間から抽出されたサムネイル画像に対応する画像表示位置については、動画像データのプレビュー再生に使用される。プレビュー再生に使用される画像表示位置は、動画像データの再生の進行に伴って、じゃばらサムネイル表示エリア上を移動することができる。つまり、再生対象の区間が変更される度に、プレビュー再生に使用される画像表示位置も変更することができる。
再生処理部404は、HDD111に格納されている各映像コンテンツデータを、インデキシングビュー画面とは異なる画面(ウィンドウ)上で再生する処理を実行する。また、再生処理部404は、ある映像コンテンツデータの顔画像一覧の中の一つの顔画像が選択されている状態でユーザ操作によって再生指示イベントが入力された時、選択されている顔画像が登場する時点よりも所定時間前の時点から映像コンテンツデータの再生を開始する機能を有している。
なお、インデキシング処理は、必ずしもビデオプロセッサ113によって実行する必要はなく、例えば、TVアプリケーションプログラム202にインデキシング処理を実行する機能を設けてもよい。この場合、インデキシング処理は、インデキシングビューワプログラム、またはTVアプリケーションプログラム202の制御の下に、CPU101によって実行される。
次に、図6乃至図8を参照して、インデキシングビュー画面の具体的な構成について説明する。
図6には、サムネイル画像表示処理部301によってLCD17に表示されるインデキシングビュー画面の例が示されている。このインデキシングビュー画面は、ある映像コンテンツデータ(例えば放送番組データ)をインデキシング処理することによって得られた画面である。このインデキシングビュー画面は、顔画像の一覧を表示するための上述の顔サムネイル表示エリアと、上述のレベル表示エリアと、上述の区間バーと、サムネイル画像の一覧をじゃばら形式で表示するための上述のじゃばらサムネイル表示エリアとを含んでいる。
ここで、じゃばら形式とは、選択されているサムネイル画像を通常サイズで表示し、他の各サムネイル画像についてはその横方向サイズを縮小して表示する表示形式である。
つまり、サムネイル画像表示処理部301は、ユーザ操作によって選択されたサムネイル画像を第1の横幅サイズで表示し、他の各サムネイル画像の横幅サイズを第1の横幅サイズよりも小さい横幅サイズで表示する。図6においては、選択されたサムネイル画像との距離が大きいサムネイル画像ほど、その横方向サイズが縮小されている。つまり、選択されたサムネイル画像は通常サイズで表示され、その選択されたサムネイル画像の近傍の各サムネイル画像はその横幅が縮小された状態で表示され、さらに他の各サムネイル画像は僅かな横幅で表示される。選択されているサムネイル画像には、さらに矩形の枠を付加してもよい。
ユーザの操作(リモコンユニットのボタン、カーソルキー等)により、じゃばらサムネイル表示エリア上のいずれか1つのサムネイル画像を選択することができる。
レベル表示エリアにおいては、歓声レベルの変化を示すグラフ(図6中の濃い色で示されるグラフ)と、歓声レベルの変化を示すグラフ(図6中の薄い色で示されるグラフ)が表示される。
区間バーは、トーク区間バーと、音楽区間バーと、CM区間バーとを含んでいる。CM区間バーにおいては、各CM区間(各部分CM区間)の位置にバー領域(図6の黒色の帯状領域)が表示される。音楽区間バーにおいては、各音楽区間(各部分音楽区間)の位置にバー領域(図6のクロスハッチングされた帯状領域)が表示される。トーク区間バーにおいては、各トーク区間(各部分トーク区間)の位置にバー領域(図6のハッチングされた帯状領域)が表示される。ユーザは、リモコンユニットのボタン、上下左右等のカーソルキーの操作により、トーク区間バー、音楽区間バーと、CM区間バーのいずれか一つを選択することができる。また、ユーザは、リモコンユニットのボタン、上下左右等のカーソルキーの操作により、選択された区間バー内の一つのバー領域を選択することもできる。
図7は、顔サムネイル表示エリアの構成例が示されている。
顔サムネイル表示エリアは、複数の行と複数の列とを含むマトリクス状に配置された複数個の顔画像表示エリアを含んでいる。図7においては、顔サムネイル表示エリアは6行×16列から構成されている。顔サムネイル表示エリアに含まれる顔画像表示エリアの数は、96個である。
列1〜列16のそれぞれには、例えば、映像コンテンツデータ(映像コンテンツデータに含まれる動画像データ)の総時間長を列数(=16)で等間隔で分割することによって得られる、互いに同一の時間長Tを有する複数の時間帯がそれぞれ割り当てられる。
例えば、映像コンテンツデータの総時間長が2時間であるならば、その2時間が16個の時間帯に等間隔で分割される。この場合、各時間帯の時間長Tは、7.5分である。例えば、列1には、先頭0:00:00から0:07:30までの時間帯が割り当てられ、列2には、0:07:30から0:15:00までの時間帯が割り当てられ、列3には、0:15:00から0:22:30までの時間帯が割り当てられる。映像コンテンツデータの総時間長に応じて、各時間帯の時間長Tは変化する。
もちろん、複数の列それぞれに割り当てられる時間帯の長さは、必ずしも同一である必要はない。
サムネイル画像表示処理部301は、ビデオプロセッサ113によって抽出された顔画像それぞれに対応するタイムスタンプ情報に基づき、各列内の6個の顔画像表示エリア上に、当該各列に割り当てられた時間帯に属する顔画像それぞれをたとえば上述の頻度順に並べて表示する。この場合、サムネイル画像表示処理部301は、表示処理対象の列に割り当てられた時間帯に属する顔画像の内から行数分(6個)の顔画像を選択し、選択した行数分の顔画像それぞれを並べて表示する。
このように、顔サムネイル表示エリアにおいては、左端位置(1,1)を基点とし、右端位置(6,16)を映像コンテンツデータの終端とする時間軸が用いられている。
顔サムネイル表示エリアの各顔画像表示エリアに表示される顔画像のサイズは“大”、“中”、“小”の内からユーザが選択することができる。行と列の数は、ユーザが選択した顔画像のサイズに応じて変化される。顔画像のサイズと行と列の数との関係は、次の通りである。
(1)“大”の場合; 3行×8列
(2)“中”の場合; 6行×16列
(3)“小”の場合: 10行×24列
“大”の場合においては、各顔画像は、例えば、180×180ピクセルのサイズで表示される。“中”の場合においては、各顔画像は、例えば、90×90ピクセルのサイズで表示される。“小”の場合においては、各顔画像は、例えば、60×60ピクセルのサイズで表示される。デフォルトの顔画像サイズは、例えば、“中”に設定されている。
顔サムネイル表示エリア内の各顔画像は、選択されていない“標準”状態、選択されている“フォーカス”状態の2つの状態のいずれかに設定される。“フォーカス”状態の顔画像のサイズは、“標準”状態の時のサイズ(180×180、90×90、または60×60)よりも大きく設定される。図7においては、座標(1,12)の顔画像が“フォーカス”状態である場合を示している。
じゃばらサムネイル表示エリアに表示されるサムネイル画像の枚数は、ユーザ設定に従って、例えば240枚、144枚、96枚、48枚のいずれかに設定される。デフォルトは例えば240枚である。この場合、動画像データは240個の区間(240個の時間帯)に区分され、240個の区間それぞれから抽出された240枚のサムネイル画像が時間順に並んでじゃばらサムネイル表示エリアに表示される。
サムネイル画像は、選択されていない“標準”状態、選択されている“フォーカス”状態の2つの状態のいずれかに設定される。“フォーカス”状態のサムネイル画像は、他のサムネイル画像よりも大きいサイズで表示される。
次に、図8を参照して、顔サムネイル表示エリアとじゃばらサムネイル表示エリアとの関係について説明する。
同一列に属する顔画像表示エリア群の集合、つまり顔サムネイル表示エリア内の個々の列を“大区間”と称する。また、“大区間”をさらに分割したものを“小区間”と称する。1つの大区間に含まれる小区間の数は、じゃばらサムネイル表示エリアに表示されるサムネイル画像の数を顔サムネイル表示エリアの列数で割った商で与えられる。例えば、顔サムネイル表示エリアが6行×16列で、じゃばらサムネイル表示エリアに表示されるサムネイル画像の数が240枚であるならば、1つの大区間に含まれる小区間の数は、15(=240÷16)となる。1つの大区間は15個の小区間を含む。換言すれば、1つの大区間に対応する時間帯には、15枚のサムネイル画像が属することになる。
じゃばらサムネイル表示エリア上のあるサムネイル画像が選択された時、サムネイル画像表示処理部301は、選択されたサムネイル画像のタイムスタンプ情報に基づき、顔サムネイル表示エリア内の複数の列(複数の大区間)の内で、選択されたサムネイル画像が属する時間帯が割り当てられた列(大区間)を選択する。選択される大区間は、選択されたサムネイル画像が属する区間(小区間)を含む大区間である。そして、サムネイル画像表示処理部301は、選択した大区間を強調表示する。
さらに、サムネイル画像表示処理部301は、選択されたサムネイル画像と選択された大区間との間を接続する縦長のバーを表示する。この縦長のバーは、選択されたサムネイル画像に対応する小区間が、選択された大区間に含まれる15個の小区間の内のどの小区間に対応するかを提示するために使用される。縦長のバーは、選択された大区間に含まれる15個の小区間の内で、選択されたサムネイル画像に対応する小区間の位置に表示される。例えば、選択されたサムネイル画像が、ある大区間に対応する時間帯に属する15枚のサムネイル画像の内の先頭の画像、つまり大区間内の先頭の小区間に対応する画像であるならば、選択されたサムネイル画像は、縦長のバーによって大区間の左端に接続される。また、例えば、選択されたサムネイル画像が、ある大区間に対応する時間帯に属する15枚のサムネイル画像の内の終端の画像、つまり大区間内の終端の小区間に対応する画像であるならば、選択されたサムネイル画像は、縦長のバーによって大区間の右端に接続される。
このように、じゃばらサムネイル表示エリア上のサムネイル画像が選択された時には、顔サムネイル表示エリア内の複数の列の内から、選択されたサムネイル画像が属する時間帯が割り当てられている列(大区間)が自動選択される。これにより、ユーザは、選択したサムネイル画像が、顔サムネイル表示エリア内のどの列(大区間)に対応する画像であるかを識別することができる。さらに、縦長のバーにより、ユーザは、選択したサムネイル画像が、どの列(大区間)内のどの辺りの時点に対応する画像であるかも識別することができる。
また、サムネイル画像表示処理部301は、選択されたサムネイル画像のタイムスタンプ情報に基づいて、選択されたサムネイル画像が出現する時点を示す時間情報もインデキシングビュー画面上に表示する。
“現在位置変更”ボタンは選択されているサムネイル画像を変更するための操作ボタンである。“現在位置変更”ボタンがフォーカスされている状態でユーザが左カーソルキーまたは右カーソルキーを操作すると、選択対象のサムネイル画像は、例えば1小区間単位で、左または右に移動する。
なお、じゃばらサムネイル表示エリア上のサムネイル画像の表示は、必ずしもじゃばら形式を用いる必要はなく、例えば、図9に示すように、複数のサムネイル画像を同じサイズで並べて表示するようにしてもよい。図9においては、動画像データは6つの区間(6つの小区間)に区分されており、区間1〜6の6つの区間それぞれに属する6つのサムネイル画像がじゃばらサムネイル表示エリア上に並んで表示されている。
次に、図10乃至図13を参照して、じゃばらサムネイル表示エリア上で行われるプレビュー再生処理を説明する。
図10は、図9で説明したじゃばらサムネイル表示エリア上でプレビュー再生が行われる様子を示している。ユーザの操作によって区間3からの動画像データのプレビュー再生が要求された場合、区間3に属するサムネイル画像が表示されるサムネイル表示エリア上の画像表示位置がプレビュー再生位置として特定される。そして、区間3に属するサムネイル画像の画像表示位置上で、区間3からの動画像データのプレビュー再生が開始される。
もし、じゃばらサムネイル表示エリア上に表示されている区間3のサムネイル画像が当該区間3内の先頭のフレームの静止画であるならば、表示されている区間3のサムネイル画像が出現する時点から動画像データのプレビュー再生が開始される。もし、サムネイル表示エリア上に表示されている区間3のサムネイル画像が当該区間3内の複数のフレーム内の中間位置に位置するフレームの静止画であるならば、当該区間3内の先頭フレームから動画像データのプレビュー再生が開始される。もちろん、じゃばらサムネイル表示エリア上に表示されている区間3のサムネイル画像が当該区間3内の先頭フレームである否かにかかわらず、表示されている区間3のサムネイル画像が出現する時点から動画像データのプレビュー再生を開始するようにしてもよい。
また、プレビュー再生をどの区間まで継続して実行するかについての制約はない。ユーザからのプレビュー再生終了要求が無い限り、動画像データの最終位置まで継続してプレビュー再生を行うようにしてもよい。この場合、区間3の動画像データのプレビュー再生のみならず、次の区間4,5,6それぞれの動画像データのプレビュー再生も、区間3に属するサムネイル画像の画像表示位置上で実行することができる。
また、ユーザの操作によって例えば区間1からの動画像データのプレビュー再生が要求された時には、区間1に属するサムネイル画像の画像表示位置上で、区間1からの動画像データのプレビュー再生が開始される。同様に、ユーザの操作によって例えば区間4からの動画像データのプレビュー再生が要求された場合には、区間4に属するサムネイル画像の画像表示位置上で、区間4からの動画像データのプレビュー再生が開始される。
図11には、プレビュー再生対象の区間の変更に応じて、プレビュー再生に使用される画像表示位置を自動的に変更する例が示されている。
例えば、ユーザの操作によって区間3からの動画像データのプレビュー再生が要求された場合、区間3に属するサムネイル画像の画像表示位置がプレビュー再生位置として特定される。そして、区間3に属するサムネイル画像の画像表示位置上で、区間3からの動画像データのプレビュー再生が開始される。この後、プレビュー再生処理の進行によって再生対象区間が区間3から区間4に移る時、プレビュー再生に使用される画像表示位置は、区間4に属するサムネイル画像の画像表示位置に変更される。そして、区間4に属するサムネイル画像の画像表示位置上で、区間4の動画像データのプレビュー再生が行われる。
この後、プレビュー再生処理の進行によって再生対象区間が区間4から区間5に移る時、プレビュー再生に使用される画像表示位置は、区間5に属するサムネイル画像の画像表示位置に変更される。そして、区間5に属するサムネイル画像の画像表示位置上で、区間5の動画像データのプレビュー再生が行われる。
さらに、この後、プレビュー再生処理の進行によって再生対象区間が区間5から区間6に移る時、プレビュー再生に使用される画像表示位置は、区間6に属するサムネイル画像の画像表示位置に変更される。そして、区間6に属するサムネイル画像の画像表示位置上で、区間6の動画像データのプレビュー再生が行われる。
このように、本実施形態では、プレビュー再生に使用されるじゃばらサムネイル表示エリア上の画像表示位置はプレビュー再生の進行に伴って自動的に移動され、これにより常にプレビュー再生対象区間の動画像データを当該プレビュー再生対象区間から抽出されたサムネイル画像に対応する画像表示位置に表示することができる。よって、プレビュー再生処理中に、現在プレビュー再生されている動画像データが映像コンテンツデータ全体の中のどの辺りであるかをユーザに対してリアルタイムに提示することが可能となる。
図12は、じゃばら形式表示を用いてプレビュー再生を行う場合の例を示している。
例えば、ユーザの操作によって区間3からの動画像データのプレビュー再生が要求された場合、区間3に属するサムネイル画像の画像表示位置がプレビュー再生位置として特定される。この場合、じゃばらサムネイル表示エリア上の複数のサムネイル画像の内、区間3に属するサムネイル画像が選択され、区間3に属するサムネイル画像は通常サイズに拡大される。そして、区間3に属するサムネイル画像の画像表示位置上で、区間3からの動画像データのプレビュー再生が開始される。この後、プレビュー再生処理の進行によって再生対象区間が区間3から区間4に移る時、区間4に属するサムネイル画像が選択され、プレビュー再生に使用される画像表示位置は、区間4に属するサムネイル画像の画像表示位置に変更される。選択された区間4に属するサムネイル画像は通常サイズに拡大される。そして、区間4に属するサムネイル画像の画像表示位置上で、区間4の動画像データのプレビュー再生が行われる。
この後、プレビュー再生処理の進行によって再生対象区間が区間4から区間5に移る時、区間5に属するサムネイル画像が選択され、プレビュー再生に使用される画像表示位置は、区間5に属するサムネイル画像の画像表示位置に変更される。選択された区間5に属するサムネイル画像は通常サイズに拡大される。そして、区間5に属するサムネイル画像の画像表示位置上で、区間5の動画像データのプレビュー再生が行われる。
この後、プレビュー再生処理の進行によって再生対象区間が区間5から区間6に移る時、区間6に属するサムネイル画像が選択され、プレビュー再生に使用される画像表示位置は、区間6に属するサムネイル画像の画像表示位置に変更される。選択された区間6に属するサムネイル画像は通常サイズに拡大される。そして、区間6に属するサムネイル画像の画像表示位置上で、区間6の動画像データのプレビュー再生が行われる。
なお、ユーザは、サムネイル画像を選択することによって、プレビュー再生対象の区間を指定することができる。すなわち、じゃばらサムネイル表示エリア上に表示されている複数のサムネイル画像の中の1つのサムネイル画像がユーザによって選択されている状態で動画像データの再生を要求するイベントが入力された場合、プレビュー処理部403は、選択されているサムネイル画像の画像表示位置上で、選択されているサムネイル画像が属する区間の先頭(または選択されているサムネイル画像が出現する時点)から動画像データの再生を開始する。
なお、各再生対象区間のプレビュー再生においては、当該再生対象区間から抽出された複数の静止画像を、所定時間間隔で順次表示するようにしてもよい。この場合、映像インデキシング処理においては、各区間毎(各小区間毎に)に複数のフレーム分の静止画像を抽出すればよい。
図13は、選択された属性区間のプレビュー再生を当該属性区間から抽出された複数の静止画像を用いて実行する場合の例が示されている。
図13においては、区間4に対応するじゃばらサムネイル表示エリア上のサムネイル画像が動画像データの先頭から1分30秒目のフレームの静止画像であり、区間5に対応するじゃばらサムネイル表示エリア上のサムネイル画像が動画像データの先頭から1分36秒目のフレームの静止画像である場合を想定している。
区間4および区間5のプレビュー再生を行う場合には、まず、1分30秒目の静止画像(静止画1)が、1分30秒目の静止画像に対応する画像表示位置上で表示され、続いて、同じ画像表示位置上で、例えば1分33秒目の静止画像(静止画2)が表示される。静止画2は、1分30秒目の静止画像と1分36秒目の静止画像との間の中間に位置する静止画像である。
この後、区間5に属する1分36秒目の静止画像が選択され、プレビュー再生に使用される画像表示位置は、1分36秒目の静止画像の画像表示位置に変更される。そして、その変更された画像表示位置上で、1分36秒目の静止画像(静止画3)が表示され、続いて、同じ画像表示位置上で、例えば1分39秒目の静止画像(静止画4)が表示される。静止画4は、1分36秒目の静止画像と、次の区間6に対応する位置に表示されている1分42秒目の静止画像との間の中間に位置する静止画像である。
次に、図14のフローチャートを参照して、インデキシングビューワプログラムによって実行されるインデキシング画面表示処理の手順を説明する。
まず、サムネイル画像表示処理部301は、データベース111Aに格納されている顔画像それぞれを、それら顔画像に対応するタイムスタンプ情報に基づいて、それら顔画像の登場時間順にソートする(ステップS101)。次いで、サムネイル画像表示処理部301は、ユーザによって指定された表示すべき顔画像サイズに応じて行及び列の数を決定すると共に、例えばインデキシング対象の映像コンテンツデータの総時間長を列数で均等に分割することによって、各列(大区間)に割り当てる時間帯を算出する。そして、サムネイル画像表示処理部301は、表示処理対象の列に割り当てられた時間帯内に属する顔画像の内から、行数分の顔画像を選択する(ステップS102)。
次いで、サムネイル画像表示処理部301は、表示処理対象の列内の複数の顔画像表示エリアに、選択した顔画像それぞれを例えば出現頻度順に並べて表示する(ステップS103)。出現頻度の高い顔画像ほど、上方の顔画像表示エリアに表示される。
ステップS102,S103の処理は、全ての列に対する処理が完了するまで、表示処理対象の列の番号を更新しながら繰り返し実行される(ステップS104,S105)。
なお、表示処理対象の列に割り当てられた時間帯内に属する顔画像の数が行数よりも少ない場合には、対応する時間帯内に属するサムネイル画像を表示処理対象の列に表示することも出来る。
全ての列に対する処理が完了すると(ステップS104のNO)、サムネイル画像表示処理部301は、データベース11Aに格納されているサムネイル画像それぞれを、それらサムネイル画像それぞれのタイムスタンプ情報に基づいて、じゃばらサムネイル表示エリア上にそれらサムネイル画像が出現する時間順に一列に並べて表示する(ステップS106)。
次いで、サムネイル画像表示処理部301は、データベース111Aから歓声レベル情報および盛り上がりレベル情報を読み出し、それら歓声レベル情報および盛り上がりレベル情報に従って、レベル表示エリア上に、映像コンテンツデータの開始位置から終端位置までのシーケンス内における歓声レベルの変化を示すグラフと、シーケンス内における盛り上がりレベルの変化をそれぞれ示すグラフとを表示する(ステップS107)。
次に、サムネイル画像表示処理部301は、データベース111AからCM区間属性情報、音楽区間属性情報、およびトーク区間属性情報を読み出し、それらCM区間属性情報、音楽区間属性情報、およびトーク区間属性情報に基づいて、CM区間バー、音楽区間バー、トーク区間バーをそれぞれ表示する(ステップS108)。CM区間バーには、CM区間の位置を示すバー領域が表示される。同様に、音楽区間バーには音楽区間の位置を示すバー領域が表示され、トーク区間バーにはトーク区間の位置を示すトークバー領域が表示される。
この後、もしユーザの操作によってある区間からのプレビュー再生の実行が要求されたならば(ステップS109のYES)、プレビュー処理部403は、じゃばらサムネイル表示エリア上で、再生が要求された区間からの動画像データのプレビュー再生を行う(ステップS110)。ステップS110では、プレビュー処理部403は、まず、再生が要求された区間から抽出されたサムネイル画像が表示されるじゃばらサムネイル表示エリア上の画像表示位置を特定する。そして、プレビュー処理部403は、その特定されたじゃばらサムネイル表示エリアの画像表示位置上で、再生が要求された区間の動画像データのプレビュー再生を開始する。再生された動画像データは、特定されたじゃばらサムネイル表示エリアの画像表示位置上に表示される。
次に、図15のフローチャートを参照して、プレビュー再生処理の具体的な手順の例を説明する。
ユーザによるリモコンユニット、マウス、キーボード等の操作によってプレビュー再生の開始が指示されると、プレビュー再生を要求するイベント(プレビュー再生指示)がインデキシングビューワプログラムに入力される。このプレビュー再生指示が入力された時(ステップS201のYES)、プレビュー処理部403は、プレビュー再生を開始すべき区間(プレビュー再生対象開始区間)を特定する(ステップS202)。ユーザは、例えば、ユーザによる顔サムネイル表示エリア上の顔画像を選択する操作、あるいはじゃばらサムネイル表示エリアのサムネイル画像の選択する操作等によって、プレビュー再生を開始すべき区間(プレビュー再生対象開始区間)を指定することができる。ステップS202では、プレビュー処理部403は、ユーザの操作に応じて、プレビュー再生対象開始区間を特定する。
次いで、プレビュー処理部403は、じゃばらサムネイル表示エリアに表示されているサムネイル画像それぞれのタイムスタンプ情報に基づいて、プレビュー再生対象開始区間に対応するじゃばらサムネイル表示エリア上の画像表示位置を特定する(ステップS203)。このステップS203では、プレビュー処理部403は、プレビュー再生対象開始区間から抽出されたサムネイル画像が表示されているじゃばらサムネイル表示エリア上の画像表示位置を特定する。次いで、プレビュー処理部403は、プレビュー再生対象開始区間に属する動画像データを、特定した画像表示位置上で再生する(ステップS204)。
プレビュー再生の実行中においては、プレビュー処理部403は、プレビュー再生の進行によって、プレビュー再生対象の区間が、プレビュー再生対象開始区間の次の区間に移るタイミングが到来したか否かを判定する(ステップS205)。プレビュー再生対象の区間が次の区間に移るタイミングが到来した場合、つまりプレビュー再生対象開始区間内の最後のフレームの再生が終了した場合には、プレビュー処理部403は、プレビュー再生対象開始区間の次の区間から抽出されたじゃばらサムネイル表示エリア上のサムネイル画像を新たに選択し、動画像データの再生に使用されるじゃばらサムネイル表示エリア上の画像表示位置を、新たに選択されたサムネイル画像が表示されているじゃばらサムネイル表示エリア上の画像表示位置に変更する(ステップS206)。そして、プレビュー処理部403は、次の区間の動画像データのプレビュー再生を、変更後の画像表示位置で行う(ステップS204)。
次に、図16のフローチャートを参照して、プレビュー再生対象開始区間を特定する処理の手順について説明する。
ユーザの操作によってプレビュー再生の実行が指示された時、プレビュー処理部403は、じゃばらサムネイル表示エリア上のサムネイル画像が選択されているか否かを判定する(ステップS301)。
サムネイル画像が選択されているならば(ステップS301のYES)、プレビュー処理部403は、じゃばらサムネイル表示エリア上のサムネイル画像それぞれに対応する複数の区間の中から、選択されているサムネイル画像が属する区間を選択し、その選択した区間を、プレビュー再生対象開始区間に決定する(ステップS302)。もちろん、選択されているサムネイル画像に対応するタイムスタンプ情報が示す時点それ自体を、プレビュー再生対象開始区間の先頭位置として決定してもよい。この場合、選択されているサムネイル画像が出現する時点から、次のサムネイル画像に対応するタイムスタンプ情報が示す時点までの期間が、プレビュー再生対象開始区間となる。
サムネイル画像が選択されていないならば(ステップS301のNO)、プレビュー処理部403は、顔サムネイル表示エリア上の顔画像が選択されているか否かを判定する(ステップS303)。顔画像が選択されているならば(ステップS303のYES)、プレビュー処理部403は、選択されている顔画像のタイムスタンプ情報に基づいて、選択されている顔画像が出現する時点を検出する(ステップS304)。
そして、プレビュー処理部403は、じゃばらサムネイル表示エリア上のサムネイル画像それぞれに対応する複数の区間の中から、検出された時点が属する区間を選択し、その選択した区間を、プレビュー再生対象開始区間に決定する(ステップS305)。
次に、図17のフローチャートを参照して、再生処理部404によって実行される再生処理の手順を説明する。
ユーザ操作に応じて映像コンテンツデータの再生を指示するイベントが入力された時(ステップS401のYES)、再生処理部404は、顔サムネイル表示エリア上のある顔画像がユーザによって選択されているか否かを判定する(ステップS402)。選択されている顔画像が存在するならば(ステップS402のYES)、再生処理部403は、選択されている顔画像のタイムスタンプ情報に基づいて、選択されている顔画像が登場する時点を検出する(ステップS403)。そして、再生処理部403は、検出された時点に対応する映像コンテンツデータ上の位置から、例えば、検出された時点よりも所定時間前の時点(たとえば、2秒前の時点)から、映像コンテンツデータの再生を開始する(ステップS404)。
以上のように、本実施形態においては、映像コンテンツデータ全体の概要をユーザに提示可能なじゃばらサムネイル表示エリアを利用して、動画像データをプレビュー再生することができる。よって、プレビュー専用の表示エリアを使用することなく、映像コンテンツの概要と映像コンテンツ内のある部分の詳細とをユーザに提示することが可能となる。ユーザは、じゃばらサムネイル表示エリアのみに目を向けるだけで、映像コンテンツデータ全体をじゃばらサムネイル表示エリア上のサムネイル画像列によって俯瞰でき、且つ必要に応じて、映像コンテンツデータ内の任意の部分の詳細をじゃばらサムネイル表示エリア上で行われるプレビュー再生によって把握することができる。
さらに、映像コンテンツデータ内のある区間のプレビュー再生は、当該区間から抽出されたサムネイル画像が表示されるじゃばらサムネイル表示エリア上の画像表示位置上で行われる。したがって、ユーザは、プレビュー再生されている動画像データが映像コンテンツデータ内のどの部分に対応するものであるかを、容易に把握することが出来る。
また、本実施形態では、プレビュー再生が行われるじゃばらサムネイル表示エリア上の画像表示位置は、プレビュー再生の進行に伴ってじゃばらサムネイル表示エリア上の時間方向に沿って自動的に移動するので、現在プレビュー再生されている動画像データが映像コンテンツデータ全体の中のどの辺りであるかをユーザに対してリアルタイムに提示することが可能となる。
なお、本実施形態では、インデキシング処理部として機能するビデオプロセッサ113によってインデキシング情報を生成したが、例えば、放送番組データ内に予め当該放送番組データに対応するインデキシング情報が含まれている場合には、インデキシング処理を行う必要はない。よって、本実施形態のサムネイル画像表示機能およびプレビュー再生機能は、データベース111Aとインデキシングビューワプログラム(サムネイル画像表示処理部301、プレビュー処理部403)のみによっても実現することが出来る。
また、本実施形態のサムネイル画像表示機能およびプレビュー再生機能は全てソフトウェアによって実現することができるので、このソフトウェアをコンピュータ読み取り可能な記憶媒体を通じて通常のコンピュータに導入することにより、本実施形態と同様の効果を容易に実現することができる。
また、本実施形態の電子機器はコンピュータ10によって実現するのみならず、例えば、HDDレコーダ、DVDレコーダ、テレビジョン装置といった様々なコンシューマ電子機器によって実現することもできる。この場合、サムネイル画像表示機能およびプレビュー再生機能は、DSP、マイクロコンピュータのようなハードウェアによって実現することができる。
また、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に構成要素を適宜組み合わせてもよい。
10…電子機器(コンピュータ)、111A…データベース、113…ビデオプロセッサ、117…TVチューナ、301…サムネイル画像表示処理部、402…インデキシング制御部、403…プレビュー処理部。