JP4620150B2 - 電子機器および映像処理方法 - Google Patents

電子機器および映像処理方法 Download PDF

Info

Publication number
JP4620150B2
JP4620150B2 JP2008273280A JP2008273280A JP4620150B2 JP 4620150 B2 JP4620150 B2 JP 4620150B2 JP 2008273280 A JP2008273280 A JP 2008273280A JP 2008273280 A JP2008273280 A JP 2008273280A JP 4620150 B2 JP4620150 B2 JP 4620150B2
Authority
JP
Japan
Prior art keywords
video data
face image
face
data files
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008273280A
Other languages
English (en)
Other versions
JP2010103765A (ja
Inventor
浩平 桃崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008273280A priority Critical patent/JP4620150B2/ja
Priority to US12/551,232 priority patent/US8121349B2/en
Publication of JP2010103765A publication Critical patent/JP2010103765A/ja
Application granted granted Critical
Publication of JP4620150B2 publication Critical patent/JP4620150B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording

Description

本発明は複数の映像データファイルに対するユーザ操作を支援する電子機器および映像処理方法に関する。
一般に、カムコーダ、ビデオレコーダ、パーソナルコンピュータといった電子機器は、各種映像データ(動画像データ)を記録及び再生することが可能である。電子機器に格納された各映像データには、撮影日時や放送日時等の映像が記録された日時を示すデータが付加されているが、このようなデータのみからユーザが各映像データの内容を把握することは困難である。このため、映像データの内容を把握するためには、その映像データを再生することが必要となる。しかし、総時間長の長い映像データや複数の映像データの再生には、たとえ早送り再生機能等を用いた場合であっても、多くの時間が要される。
特許文献1には、顔サムネイル画像を表示する情報処理装置が開示されている。この情報処理装置は、動画コンテンツに対応する顔サムネイル画像それぞれをその動画コンテンツの全部または一部分をユーザが選択するためのインデックスとして表示する機能を有している。
特開2008−17041号公報
ところで、カムコーダを用いて同一日に断続して撮影した映像等においては、関連する内容の映像が複数のファイルに亘って記録されることがある。特に、カムコーダの仕様等によっては一時停止ボタンや停止ボタンを押すごとにファイルが作成されるため、このようなカムコーダでは、関連する内容のファイルが多数作成されることとなり、ユーザはいずれのファイルにどのような内容の映像が記憶されているのかを把握するのは困難である。
通常、ユーザは、再生や編集の対象とする1つの映像データファイルについて、シーンの切り替わりや登場人物の検出等に基づいて抽出した映像フレームの一覧により、該映像データファイルを簡易的に把握することができる。これによりユーザは、映像データファイルの全部又は一部分を選択して再生や編集等の操作を行うことができる。しかし、関連する内容の複数の映像データファイルについて、映像データファイル毎にこのような作業を行うことはユーザにとって煩雑といえる。
本発明は上述の事情を考慮してなされたものであり、複数の映像データファイルに対するユーザ操作を支援することができる電子機器及び映像処理方法を提供することを目的とする。
以上の課題を解決するため、本発明の一つの観点によれば、記憶媒体に記憶された映像データファイルから、一定期間内の記録時刻を有する複数の映像データファイルを抽出し、映像データファイルを再生して得られる映像中の人物の顔画像を複数含む顔画像群を、前記抽出された複数の映像データファイルから其々抽出する画像抽出手段と、前記複数の映像データファイルの中から1以上の映像データファイルをユーザに選択可能とする選択画面を表示し、該選択画面上に、前記抽出された顔画像群の各顔画像選択可能に、前記映像データファイル毎に並べて表示し、前記顔画像群のうち1以上の顔画像が選択された場合に、該選択された顔画像を含む1以上の映像データファイルを選択する表示制御手段と、前記選択画面で選択された前記1以上の映像データファイルを、それぞれの記録時刻順に応じて処理するファイル処理手段とを具備することを特徴とする電子機器が提供される。
また、本発明の別の観点によれば、記憶媒体に格納された複数の映像データファイルから、一定期間内の記録時刻を有する映像データファイルを処理対象の映像データファイルとして抽出するファイル抽出手段と、前記処理対象の映像データファイルから人物の顔画像群を抽出すると共に、前記顔画像群を分類して、同一人物として分類された顔画像に其々同一の識別子を付与する画像抽出手段と、前記抽出した顔画像群から前記識別子毎に1枚の顔画像を選択し、前記選択した顔画像を含む画像一覧を表示する表示制御手段と、ユーザによって前記画像一覧から顔画像が選択された場合に、前記選択された顔画像に付与された識別子を検出し、前記選択された顔画像を含む映像データファイルと、前記検出された識別子と同一の識別子が付与された顔画像を含む映像データファイルとを、記録時刻順に応じて結合するファイル処理手段とを具備することを特徴とする電子機器が提供される。
さらに、本発明のまた別の観点によれば、記憶媒体に記憶された映像データファイルのうち、一定期間内の記録時刻を有する複数の映像データファイルを抽出し、映像データファイルを再生して得られる映像中の人物の顔画像を複数含む顔画像群を、前記抽出された複数の映像データファイルから其々抽出する画像抽出ステップと、前記複数の映像データファイルの中から1以上の映像データファイルをユーザに選択可能とする選択画面を表示し、該選択画面上に、前記抽出された顔画像群の各顔画像選択可能に、前記映像データファイル毎に並べて表示し、前記顔画像群のうち1以上の顔画像が選択された場合に、該選択された顔画像を含む1以上の映像データファイルを選択する表示制御ステップと、前記選択画面で選択された前記1以上の映像データファイルをそれぞれの記録時刻順に応じて処理するファイル処理ステップとを具備することを特徴とする映像処理方法が提供される。
本発明によれば、複数の映像データファイルに対するユーザ操作を支援することができる。
以下、図面を参照して、本発明の実施形態を説明する。
まず、図1および図2を参照して、本発明の一実施形態に係る電子機器の構成を説明する。本実施形態の電子機器は、例えば、情報処理装置として機能するノートブック型の携帯型パーソナルコンピュータ10から実現されている。
このパーソナルコンピュータ10は、放送番組データ、外部機器から入力されるビデオデータといった、映像データ(動画像データ)を記録、再生、及び編集することができる。すなわち、パーソナルコンピュータ10は、映像データの視聴及び編集を実行するための映像処理機能を有している。この映像処理機能は、例えば、パーソナルコンピュータ10に予めインストールされている映像処理アプリケーションプログラムによって実現されている。また、映像処理機能は、外部のAV機器から入力されるビデオデータを記録する機能、および記録されたビデオデータおよび記録された放送番組データを再生する機能も有している。
さらに、パーソナルコンピュータ10は、パーソナルコンピュータ10に格納された、ビデオデータ、放送番組データのような映像データ(動画像データ)中に出現する人物の顔画像の一覧等を表示する顔画像一覧表示機能を有している。この顔画像一覧表示機能は、例えば、映像処理機能内にその一機能として実装されている。顔画像一覧表示機能は、ナビゲーション対象としてユーザによって選択された映像データの概要等をユーザに提示するための映像インデキシング機能の一つである。この顔画像一覧表示機能は、ナビゲーション対象の映像データにおいて、登場する人物をユーザに提示することができる。さらに、この顔画像一覧表示機能は、映像データを代表する代表画像から作成されたサムネイル画像を表示することもできる。
また、パーソナルコンピュータ10は、この顔画像一覧表示機能により、複数の映像データファイルに関する顔画像一覧を同時にユーザへ提示することができる。複数の映像データファイルの顔画像一覧を同時に表示することで、ユーザは、関連する複数の映像データファイルの内容を、一度に把握することができる。
複数の映像データファイルに対する顔画像一覧表示機能は、各映像データファイルから抽出された顔画像群を、例えば、映像データファイル毎に、それら顔画像群それぞれの出現頻度順に並べて表示する。ユーザは、映像データファイル毎に表示される顔画像一覧を見て、映像データファイル又は顔画像を選択することで、必要な映像データファイルの選択、及び編集等の操作を行うことができる。
図1はコンピュータ10のディスプレイユニットを開いた状態における斜視図である。本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、TFT−LCD(Thin Film Transistor Liquid Crystal Display)17から構成される表示装置が組み込まれている。
ディスプレイユニット12は、コンピュータ本体11に対し、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在に取り付けられている。コンピュータ本体11は薄い箱形の筐体を有しており、その上面にはキーボード13、本コンピュータ10をパワーオン/パワーオフするためのパワーボタン14、入力操作パネル15、タッチパッド16、およびスピーカ18A,18Bなどが配置されている。
入力操作パネル15は、押されたボタンに対応するイベントを入力する入力装置であり、複数の機能をそれぞれ起動するための複数のボタンを備えている。これらボタン群には、TV機能(放送番組データ/ビデオデータの視聴、放送番組データ/ビデオデータの録画、録画された放送番組データ/ビデオデータの再生)を制御するための操作ボタン群も含まれている。また、コンピュータ本体11の正面には、本コンピュータ10のTV機能をリモート制御するリモコンユニットとの通信を実行するためのリモコンユニットインタフェース部20が設けられている。リモコンユニットインタフェース部20は、赤外線信号受信部などから構成されている。
コンピュータ本体11の例えば右側面には、TV放送用のアンテナ端子19が設けられている。また、コンピュータ本体11の例えば背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子が設けられている。この外部ディスプレイ接続端子は、放送番組データのような映像データに含まれる映像データ(動画像データ)を外部ディスプレイに出力するために用いられる。
次に、図2を参照して、本コンピュータ10のシステム構成について説明する。
本コンピュータ10は、図2に示されているように、CPU101、ノースブリッジ102、主メモリ103、サウスブリッジ104、グラフィクスプロセッシングユニット(GPU)105、ビデオメモリ(VRAM)105A、サウンドコントローラ106、BIOS−ROM109、LANコントローラ110、ハードディスクドライブ(HDD)111、DVDドライブ112、ビデオプロセッサ113、メモリ113A、無線LANコントローラのようなネットワークコントローラ114、IEEE 1394コントローラ115、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116、TVチューナ117、およびEEPROM118等を備えている。
CPU101は本コンピュータ10の動作を制御するプロセッサであり、ハードディスクドライブ(HDD)111から主メモリ103にロードされる、オペレーティングシステム(OS)201、および映像処理アプリケーションプログラム202のような各種アプリケーションプログラムを実行する。映像処理アプリケーションプログラム202は映像処理機能を実行するためのソフトウェアである。この映像処理アプリケーションプログラム202は、カムコーダ21等の外部機器により入力された映像データやTVチューナ117によって受信された放送番組データを視聴するための再生処理、映像データや放送番組データをHDD111に記録する記録処理、およびHDD111に記録された映像データや放送番組データに対するインデキシング処理等を実行する。また、CPU101は、BIOS−ROM109に格納されたBIOS(Basic Input Output System)も実行する。BIOSはハードウェア制御のためのプログラムである。
ノースブリッジ102はCPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ装置1にデジタル映像信号を送出することもできる。
HDMI端子2は上述の外部ディスプレイ接続端子である。HDMI端子2は、デジタルオーディオ信号と、非圧縮のデジタル映像信号とを一本のケーブルでテレビのような外部ディスプレイ装置1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ装置1にデジタル映像信号をHDMI端子2を介して送出するためのインタフェースである。
サウスブリッジ104は、LPC(Low Pin Count)バス上の各デバイス、およびPCI(Peripheral Component Interconnect)バス上の各デバイスを制御する。また、サウスブリッジ104は、ハードディスクドライブ(HDD)111およびDVDドライブ112を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
またさらに、サウスブリッジ104には、PCI EXPRESS規格のシリアルバスなどを介してビデオプロセッサ113が接続されている。
ビデオプロセッサ113は、前述の映像データのインデキシングに関する各種処理を実行するプロセッサである。このビデオプロセッサ113は、映像インデキシング処理を実行するためのインデキシング処理部として機能する。すなわち、映像インデキシング処理においては、ビデオプロセッサ113は、映像データに含まれる動画像データから人物の顔画像群を抽出すると共に、抽出された各顔画像が映像データ内に登場する時点を示すタイムスタンプ情報等を出力する。顔画像の抽出は、例えば、映像データに含まれる動画像データの各フレームから顔領域を検出する顔検出処理、検出された顔領域をフレームから切り出す切り出し処理等によって実行される。顔領域の検出は、例えば、各フレームの画像の特徴を解析して、予め用意された顔画像特徴サンプルと類似する特徴を有する領域を探索することによって行うことができる。顔画像特徴サンプルは、多数の人物それぞれの顔画像特徴を統計的に処理することによって得られた特徴データである。
メモリ113Aは、ビデオプロセッサ113の作業メモリとして用いられる。映像データに対するインデキシング処理を実行するためには多くの演算量が必要とされる。本実施形態においては、CPU101とは異なる専用のプロセッサであるビデオプロセッサ113がバックエンドプロセッサとして使用され、このビデオプロセッサ113によってインデキシング処理が実行される。よって、CPU101の負荷の増加を招くことなく、インデキシング処理を実行することが出来る。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。
ネットワークコントローラ114は、たとえばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。
IEEE 1394コントローラ115は、IEEE 1394規格のシリアルバスを介して外部機器との通信を実行する。IEEE 1394コントローラ115には、例えば、カムコーダ21が接続される。カムコーダ21は、撮影した映像を映像データファイルとして記憶部21Aに格納する。コンピュータ10は、IEEE 1394コントローラ115を介して、記憶部21Aをコンピュータ10の記憶装置の一つとして取り扱うことで、格納された映像データファイルに対する処理を行うことができる。また、コンピュータ10は、記憶部21Aに格納された映像データファイルを主メモリ103にロードすること、又はHDD111にコピーすること等によっても、同様に映像データファイルに対する処理を行うことができる。
エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、電力管理のためのエンベデッドコントローラと、キーボード(KB)13およびタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。このエンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10をパワーオン/パワーオフする機能を有している。さらに、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、リモコンユニットインタフェース20との通信を実行する機能を有している。
TVチューナ117はテレビジョン(TV)放送信号によって放送される放送番組データを受信する受信装置であり、アンテナ端子19に接続されている。このTVチューナ117は、例えば、地上波デジタルTV放送のようなデジタル放送番組データを受信可能なデジタルTVチューナとして実現されている。また、TVチューナ117は、外部機器から入力されるビデオデータをキャプチャする機能も有している。
次に、図3を参照して、映像処理アプリケーションプログラム202によって実行されるインデキシング情報表示機能について説明する。
映像データに対するインデキシング処理は、上述したように、インデキシング処理部として機能するビデオプロセッサ113によって実行される。
ビデオプロセッサ113は、映像処理アプリケーションプログラム202の制御の下、例えば、カムコーダ21を用いてユーザによって撮影された映像データ等に対してインデキシング処理を実行する。また、ビデオプロセッサ113は、カムコーダ21の記憶部21Aに格納された映像データファイルをHDD111へコピーする処理と並行して、当該映像データファイルに対するインデキシング処理を実行することもできる。
映像インデキシング処理(顔画像インデキシング処理とも云う)においては、ビデオプロセッサ113は、映像データに含まれる動画像データをフレーム単位で解析する。そして、ビデオプロセッサ113は、動画像データを構成する複数のフレームそれぞれから人物の顔画像を抽出すると共に、抽出された各顔画像が映像データ内に登場する時点を示すタイムスタンプ情報を出力する。各顔画像に対応するタイムスタンプ情報としては、映像データの開始から当該顔画像が登場するまでの経過時間、または当該顔画像が抽出されたフレーム番号等を使用することが出来る。
さらに、ビデオプロセッサ113は、抽出された各顔画像のサイズ(解像度)も出力する。ビデオプロセッサ113から出力される顔検出結果データ(顔画像、タイムスタンプ情報TS、およびサイズ)は、データベース111Cに顔画像インデキシング情報として格納される。このデータベース111Cは、HDD111内に用意されたインデキシングデータ記憶用の記憶領域である。
さらに、映像インデキシング処理においては、ビデオプロセッサ113は、顔画像を抽出する処理と並行して、サムネイル画像取得処理も実行する。サムネイル画像は、映像データから抽出された例えば所定番目のフレームに対応する画像(縮小画像)である。すなわち、ビデオプロセッサ113は、顔画像を含むフレームであるか否かに関係なく、映像データから例えば所定番目のフレームを抽出し、抽出したフレームに対応する画像(サムネイル画像)と、そのサムネイル画像が出現する時点を示すタイムスタンプ情報TSとを出力する。ビデオプロセッサ113から出力されるサムネイル画像取得結果データ(サムネイル画像、タイムスタンプ情報TS)も、データベース111Cにサムネイルインデキシング情報として格納される。サムネイル画像は、映像データから抽出された所定数毎のフレームに対応する画像(縮小画像)から、複数枚抽出してもよい。
さらに、映像インデキシング処理においては、抽出された複数の顔画像を人物別に複数の顔画像グループに分類する顔画像分類処理も実行される。ある顔画像グループに属する顔画像同士、つまり同一人物に対応する顔画像同士には、当該顔画像グループ、つまり当該人物を識別する識別子(ID)が関連付けられる。
図3に示されているように、映像処理アプリケーションプログラム202は、顔画像一覧表示機能を実行するための顔画像一覧表示処理部301を含んでいる。この顔画像一覧表示処理部301は、例えば、インデキシングビューワプログラムとして実現されており、データベース111Cに格納された各映像データファイルのインデキシング情報(顔画像インデキシング情報、サムネイルインデキシング情報等)を用いて、映像データの概要を提示するためのインデキシングビュー画面を表示する。
具体的には、顔画像一覧表示処理部301は、データベース111Cから各映像データファイルの顔画像インデキシング情報(顔画像、タイムスタンプ情報TS、およびサイズ)を読み出し、そしてその顔画像インデキシング情報を用いて、各映像データファイルに登場する人物の顔画像の一覧を、インデキシングビュー画面上の2次元の表示エリア(以下、顔サムネイルエリアと称する)上に表示する。この場合、顔画像一覧表示処理部301は、映像データファイル毎に抽出された顔画像群のうち、例えば出現頻度の高い顔画像を選択する。そして、顔画像一覧表示処理部301は、映像データファイル毎に、選択した所定個の顔画像それぞれを並べて表示する。この場合、顔画像一覧表示処理部301は、映像データファイル毎に、その映像データファイルから選択された所定個の顔画像を、例えば、それら顔画像の出現頻度順(顔画像の検出時間長順)のような順序で並べて表示する。
顔画像一覧表示処理部301は、インデキシングビュー画面を選択画面として用い、ユーザにより、この選択画面において表示される顔画像群から顔画像が選択され、選択された顔画像に付与された識別子と同一の識別子が付与された他の顔画像が前記選択画面に表示されている場合、同一の識別子が付与された顔画像を、その他の顔画像とは区別して表示することもできる。
また、顔画像一覧表示処理部301は、データベース111Cから各映像データファイルのサムネイルインデキシング情報(代表画像、タイムスタンプ情報TS、およびサイズ)を読み出し、そしてそのサムネイルインデキシング情報を用いて、選択画面(インデキシングビュー画面)上に、複数の映像データファイルにそれぞれ対応する代表画像を表示する。
この顔画像一覧表示機能により、複数の映像データファイルそれぞれにどの人物が登場するのかをユーザに分かりやすく提示することができる。顔サムネイルエリアの具体的な構成例については、図6以降の図により説明する。
図4は、顔画像分類処理によって複数の顔画像を分類することによって得られる幾つかの顔画像グループと各顔画像グループに対応するID(顔ID)との関係を示している。
ビデオプロセッサ113は、ある映像データの動画像データから抽出した顔画像間の特徴データの相関に基づいて、同一人物に対応する顔画像を同一カテゴリーに分類する顔画像分類処理を実行する。顔画像分類処理においては、類似する特徴を有する顔画像同士が同一カテゴリー(同一の顔画像グループ)に分類される。図4に示すように、同一人物に対応する顔画像それぞれには、同一のID(顔ID)が付与される。図4においては、カテゴリー1は、ある人物Aの顔画像の集合を示しており、カテゴリー2は、ある人物Bの顔画像の集合を示しており、またカテゴリー3は、ある人物Cの顔画像の集合を示している。カテゴリー1に属する顔画像それぞれには、人物Aを識別するためのID(顔ID=A)が関連付けられる。カテゴリー2に属する顔画像それぞれには、人物Bを識別するためのID(顔ID=B)が関連付けられる。カテゴリー3に属する顔画像それぞれには、人物Cを識別するためのID(顔ID=C)が関連付けられる。
次に、図5を参照して、映像処理アプリケーションプログラム202の機能構成を説明する。
映像処理アプリケーションプログラム202は、上述の顔画像一覧表示処理部301に加え、記録処理部401、映像ファイル抽出部402、インデキシング制御部403、映像結合部404、再生処理部405等を備えている。
記録処理部401は、TVチューナ117によって受信された放送番組データ、またはカムコーダ21から入力される映像データファイルをHDD111に記録する記録処理を実行する。記録処理部401に入力された映像データは、HDD111において番組データ群111A、又は映像データファイル群111Bとして格納される。また、記録処理部401は、ユーザによって予め設定された録画予約情報(チャンネル番号、日時)によって指定される放送番組データを、TVチューナ117を用いて受信し、その放送番組データをHDD111に記録する予約録画処理も実行する。
映像ファイル抽出部402は、HDD111に格納された番組データ群111A、及び映像データファイル群111Bから、所定の条件に合った映像データを抽出する。映像ファイル抽出部402は、例えば、所定の期間内にカムコーダ21により撮影された映像データファイル群を、HDD111に格納された映像データファイル群111Bから抽出する。具体的には、映像ファイル抽出部402は指定された条件に基づき、例えば、同一日に撮影(記録)された映像データファイル群や記録時刻の間隔が数十分以下である映像データファイル群等を抽出する。また、単にユーザが指定したディレクトリ以下に格納された映像データファイル群を、処理対象の映像データファイル群として用いてもよい。
カムコーダ21による撮影においては、ユーザが撮影を一時停止や停止の操作をする度に映像データファイルが作成される。このため、ユーザが、一時停止や停止等の操作を行いながら撮影を行った場合には、例えば、複数のシーンそれぞれに対応する複数の映像データファイルが作成されることがある。これら各映像データファイルは、そのファイルが作成される時に撮影時刻(記録時刻)を示す情報と一緒にカムコーダ21内の記憶部21Aに格納される。したがって、互いに関連性のある複数の映像データファイルが記憶部21Aに格納されている場合がある。映像ファイル抽出部402は、記憶部21Aに格納されている映像データファイル群またはHDD111に格納された映像データファイル群111B等の記憶媒体に記憶された映像データファイルのうち、一定期間内の記録時刻を有する映像データファイルを抽出する。この結果、互いに関連性のある映像データファイル群を自動的にインデキシング処理の対象として選択することが可能となる。
インデキシング制御部403は、映像ファイル抽出部402において抽出した映像データファイル群に対して、ビデオプロセッサ(インデキシング処理部)113を制御して、上述のインデキシング処理を実行させる。すなわち、抽出した映像データファイルを再生して得られる映像中の人物の顔画像を複数含む顔画像群を、複数の映像データファイルから其々抽出し、複数の映像データファイルに跨って顔画像群を分類して、同一人物として分類された顔画像に同一の識別子を付与する画像抽出を行う。また、複数の映像データファイルのそれぞれについて、映像データファイルを代表する代表画像として少なくとも1枚の映像フレームを取得する。映像データファイル群に対するインデキシング処理結果は、インデキシング情報としてHDD111のデータベース111Cへ格納される。
映像結合部404は、ユーザ操作等によって選択された1以上の映像データファイルを対象として、それぞれの記録時刻順に応じて処理を実行する。映像結合部404は、例えばHDD111に格納されている映像データ同士を結合して一つの映像データを作成する処理を実行する。映像結合部404は、選択画面であるインデキシングビュー画面において、表示される顔画像群から顔画像が選択された場合に、選択された顔画像に付与された識別子を取得し、選択された顔画像が抽出された映像データファイルと、取得された識別子と同一の識別子が付与された他の顔画像が抽出された映像データファイルとを、各映像データファイルそれぞれの記録時刻順に応じて処理する。具体的には、インデキシングビュー画面において、映像データファイル又は顔画像が選択されている状態で、ユーザ操作によって結合要求イベントが入力された場合、選択された映像データファイル及び選択された顔画像が属する映像データファイルからなる映像データファイル群を、例えば、映像データファイル群のそれぞれが記録された時刻順に結合する。この結果、幾つかの映像データファイルそれぞれの映像データ同士が記録時刻順に結合された一つの映像データがファイルとして生成される。
例えば、ある時刻(T1)に撮影された映像データファイルAと時刻(T1)よりも遅い時刻(T2)に撮影された映像データファイルBとを結合する処理においては、映像データファイルAの映像データ(動画像データ)に後続して、映像データファイルBの映像データ(動画像データ)が結合され、一つの映像データが作成される。この作成された映像データは映像データファイルとしてHDD111に格納される。なお、映像結合部404は、このように映像データファイル群を物理的に結合する処理のみならず、映像データファイル群を論理的に結合して一つの映像データを作成する処理を実行することもできる。例えば、上述の映像データファイルAと映像データファイルBとを論理的に結合する場合においては、映像結合部404は、映像データファイルA、映像データファイルBの順序で、それら映像データファイルAおよび映像データファイルBを順次再生するためのプレイリストを生成する。
再生処理部405は、HDD111に格納されている各映像データを再生する処理を実行する。また、再生処理部405は、ある映像データの顔画像一覧の中の一つの顔画像が選択されている状態でユーザ操作によって再生要求イベントが入力された時、選択されている顔画像が出現する、映像データ内の位置に対応する時点から、映像データの再生を開始することができる。
ユーザは、顔画像一覧を見ながら、映像データの再生を開始すべき位置を決定することができる。したがって、ユーザは、顔画像一覧の中の任意の顔画像を選択的に指定することにより、例えば、ユーザにとって興味がある人物が登場する1以上のシーンのみを視聴することができる。
なお、映像データファイル及び顔画像の選択、並びに結合要求イベント及び再生要求イベントの入力等のユーザ操作は、例えば、キーボード13、タッチパッド16、リモコンユニット等を用いて行われる。
インデキシング処理は、必ずしもビデオプロセッサ113によって実行する必要はなく、例えば、映像処理アプリケーションプログラム202にインデキシング処理を実行する機能を設けてもよい。この場合、インデキシング処理は、映像処理アプリケーションプログラム202の制御の下に、CPU101によって実行される。
次に、図6を参照して、インデキシングビュー画面の具体的な構成について説明する。
図6には、顔画像一覧表示処理部301によってLCD17に表示されるインデキシングビュー画面の例が示されている。このインデキシングビュー画面は、複数の映像データファイル(例えばカムコーダ21を用いて撮影及び記録された映像データファイル)をインデキシング処理することによって得られたインデキシング情報を用い、作成された画面である。このインデキシングビュー画面は、複数の映像データファイルの中から1以上の映像データファイルを選択可能とする選択画面である。顔画像一覧表示処理部301は、この選択画面上に、複数の映像データファイルから抽出された顔画像群を映像データファイル毎に並べて表示する。また、顔画像一覧表示処理部301は、選択画面において顔画像群の各顔画像を選択可能に表示し、顔画像群のうち1以上の顔画像が選択された場合に、選択された顔画像が抽出された1以上の映像データファイルを処理対象の映像データファイルとして選択する。
このインデキシングビュー画面には、映像データファイル毎のインデキシング情報を表示する映像ファイルインデキシングビューエリアが表示されている。この映像ファイルインデキシングビューエリアは、各映像データファイルを選択するためのチェックボックスと、各映像データファイルを代表する映像フレームの画像を縮小して表示するための代表サムネイルエリアと、映像データファイル毎に顔画像の一覧を表示するための上述の顔サムネイルエリアと、各映像データファイルの撮影日時及び撮影時間を示す表示等とを含む。インデキシングビュー画面を用いて、ユーザは、複数の映像データファイルから1つ以上の映像データファイルを選択することができる。この選択には、上述のチェックボックスや各サムネイル画像等を用いることができる。
映像ファイル抽出部402によって4つの映像データファイルが関連する映像データファイル群として抽出された場合には、映像ファイルインデキシングビューエリアは、例えば、抽出された4つの映像データファイルにそれぞれ対応する4つのインデキシングビューエリア50、60、70、80から構成される。例えば、インデキシングビューエリア50は、チェックボックス51、代表サムネイルエリア52、顔サムネイルエリア53A〜53Dからなる。また、インデキシングビューエリア60、70、80も同様の構成からなる。つまり、1つの映像データファイルに対して、1つのインデキシングビューエリアが対応付けられ、ここに、該映像データファイルのインデキシング情報が表示される。
代表サムネイルエリア52、62、72、82には、顔画像一覧表示処理部301によりデータベース111Cから取得された映像データファイル群のそれぞれの代表フレームの画像(縮小画像)である代表サムネイル画像が表示される。代表フレームは例えば、各映像データファイルによる映像シーケンスの所定番目の映像フレームである。
顔サムネイルエリア53、63、73、83には、顔画像一覧表示処理部301によりデータベース111Cから取得された映像データファイル群の各映像データファイルに出現する人物の顔画像が表示される。顔画像一覧表示処理部301は、データベース111Cから、各映像データファイルについて、出現する各人物の顔画像を取得する。取得した顔画像群は、例えば各顔画像の出現頻度の順に並べて顔サムネイルエリアに表示する。
例えば、ある映像データファイルについて、1番目に出現頻度の高い人物の顔画像を顔サムネイルエリア53Aに、2番目に出現頻度の高い人物の顔画像を顔サムネイルエリア53Bに、3番目に出現頻度の高い人物の顔画像を顔サムネイルエリア53Cに、……といった順に顔画像を配置して表示する。この場合、1つの映像データファイルのインデキシング情報を示すインデキシングビューエリアの顔サムネイルエリアにおいて、同一人物の顔画像が表示されることはない。つまり、顔サムネイルエリア53A、53B、53C、53Dには、それぞれ別の人物として分類された顔画像が表示される。一方、インデキシングビューエリア間(複数の映像データファイル間)では、顔サムネイルエリアにおいて同一の人物の顔画像が表示されることがある。図6においては、顔サムネイルエリア63A、73A、83Aに同一の人物の顔画像が表示される場合が例示されている。
このようなインデキシングビュー画面の表示により、ユーザは、各映像データファイルに出現する人物を把握できると共に、複数の映像データファイルに跨って出現する人物を把握することができる。つまり、ユーザに対して、登場人物に基づく複数の映像データファイル間の関連を提示することができ、映像データファイルの再生や編集等のユーザ操作を支援することができる。例えば、ある1人の人物に着目して、複数の映像データファイルの閲覧や編集を行う場合に、提示される顔画像一覧等のインデキシング情報に基づき、これら複数の映像データファイルの中から必要な映像データファイルを容易に選択することができる。なお、複数の映像データファイルに跨って出現する人物を把握するために、ユーザが顔画像を選択した場合に、顔画像一覧において、選択された顔画像の人物と同一の人物の顔画像とを、他の人物の顔画像とは区別して表示してもよい。
このようなユーザ操作支援は例えば、AVCHD形式等のディスク媒体を利用するカムコーダを用いて撮影を行った場合に、カメラの一時停止や停止等の操作の度に作成される、複数の映像データファイルを編集する際に有用である。上述したように、AVCHD形式等のカムコーダでは、映像データファイルが一時停止等の操作の度に作成されるため、一時停止等の操作を行いながら断続的に撮影を行った場合には、数分程度の短い撮影時間の映像データファイルが短期間に複数作成されることがある。このような場合に、映像データファイル毎に再生やインデキシング情報の提示を行って各映像データファイルの内容を把握することは、ユーザにとって非常に煩雑な作業といえる。このため、複数の映像データファイルそれぞれのインデキシング情報を一度に提示することで、ユーザは、各映像データファイルの内容と共に、映像データファイル間の関連を把握でき、複数の映像データファイルの中から必要な映像データファイルを選択することができる。
次に、図7のフローチャートを参照して、複数の映像データファイルのインデキシング情報の表示、及びユーザ操作による映像データファイルの結合の流れについて説明する。なおここでは、HDD111に格納された映像データである番組データ群111Aと映像データファイル群111Bのうち、映像データファイル群111Bのみを処理対象の映像データとし、説明を行う。
まず、映像ファイル抽出部402は、HDD111に格納された映像データファイル群111Bから、映像データの記録時刻が指定した期間内である映像データファイル群を抽出する(ステップS101)。なお、ここでは記録時刻に基づいて映像データファイル群を抽出したが、指定したディレクトリ下に格納された映像データファイル群等、映像データファイルを抽出する条件は適宜設定可能である。
次に、インデキシング制御部403により制御されたビデオプロセッサ113は、抽出した各映像データファイルから顔画像群と代表画像を抽出する(ステップS102)。ビデオプロセッサ113は、顔画像群と少なくとも1枚の代表画像から作成した代表サムネイル画像とをHDD111のデータベース111Cへ格納する。また、ビデオプロセッサ113は、代表画像及び顔画像群のそれぞれが抽出されたフレームのタイムスタンプ情報(TS)、並びに顔画像の画像サイズ情報をデータベース111Cへ格納する。
ビデオプロセッサ113はさらに、抽出した顔画像群を分類して、同一人物として分類されたグループ毎に、グループに属する顔画像にID(顔ID)を付与する(ステップS103)。ビデオプロセッサ113は、各顔画像のID情報をデータベース111Cへ格納する。
次に、顔画像一覧表示処理部301は、抽出した映像データファイル毎に、データベース111Cに格納されている顔画像群について、人物毎(顔ID毎)の顔画像の検出時間長又は検出頻度に基づき、インデキシングビュー画面を表示する(ステップS104)。顔画像一覧表示処理部301は、抽出した映像データファイル毎に、チェックボックス、代表サムネイル画像、所定個の顔サムネイル画像、並びに該映像データファイルの記録日時及び記録時間を表示する。代表サムネイル画像には、映像データファイル毎にデータベース111Cに格納した画像を用いる。顔サムネイル画像には、それぞれの映像データファイルについて、例えば、検出頻度が高い人物(顔ID)から順に、対応する所定個の顔画像をデータベース111Cから抽出して用いる。なお、抽出した映像データファイル毎の代表サムネイル画像及び所定個の顔サムネイル画像は、例えば、各映像データファイルの記録時刻順に並べて表示する。
次に、映像結合部404は、キーボード13やタッチパッド16等により、ユーザが編集を指示する入力がされたかどうかを判定する(ステップS105)。編集を指示する入力がされた場合(ステップS105のYES)、インデキシングビュー画面におけるチェックボックス及び顔サムネイル画像のうち、少なくともいずれか一つが選択されているかどうかを判定する(ステップS106)。
編集を指示する入力がされていない場合(ステップS105のNO)、及びインデキシングビュー画面において、チェックボックス又は顔サムネイル画像のいずれも選択されていない場合(ステップS106のNO)、再度ステップS105からの処理を実行する。
インデキシングビュー画面において、表示されているチェックボックス及び顔サムネイル画像のうち、少なくともいずれか一つが選択されている場合(ステップS106のYES)、選択対象がチェックボックスであるかどうかを判定する(ステップS107)。選択対象がチェックボックスである場合(ステップS107のYES)、映像結合部404は、選択されたチェックボックスに対応する映像データファイルを取得する。選択対象がチェックボックスでない場合(ステップS107のNO)、つまり、選択対象が顔サムネイル画像である場合、映像結合部404は、選択された顔サムネイル画像に付与されたIDを取得する(ステップS109)。そして、映像結合部404は、取得したIDが付与された顔サムネイル画像群それぞれが属する映像データファイルからなる映像データファイル群を取得する(ステップS110)。つまり、映像結合部404は、選択された顔サムネイル画像が属する映像データファイルに加えて、選択された顔サムネイル画像に付与されたIDと同一のIDが付与された他の顔サムネイル画像群について、これら他の顔サムネイル画像群のそれぞれが属する映像データファイルを取得する。なおこの際、選択された顔サムネイル画像と同一のIDが付与された顔サムネイル画像群とを強調して表示する等により、他の顔サムネイル画像とは区別して表示してもよい。例えば図6に示すインデキシングビュー画面において、ユーザが顔サムネイル画像63Aを選択した場合、顔サムネイル画像63Aと、顔サムネイル画像63Aと同一の人物である顔サムネイル画像73A、83Aとを強調して表示する。
次に、映像結合部404は、選択されたすべてのチェックボックス又は顔サムネイル画像に対応する映像データファイルを取得したかどうかを判定する(ステップS111)。選択されたすべてのチェックボックス又は顔サムネイル画像に対応する映像データファイル群を取得していない場合(ステップS111のNO)、ステップS107からステップS111までの処理を、注目する選択されたチェックボックス又は顔サムネイル画像を更新しながら繰り返す。選択されたすべてのチェックボックス又は顔サムネイル画像に対応する映像データファイルを取得した場合(ステップS111のYES)、映像結合部404は、取得した映像データファイル群を各映像データファイルの記録時刻順に結合する(ステップS112)。
以上の処理により、複数の映像データファイルに対するインデキシング処理が実行され、インデキシング処理結果に基づくインデキシング情報が、複数の映像データファイルについて同時に、インデキシングビュー画面としてユーザへ提示される。ユーザは、提示されたインデキシングビュー画面により、各映像データファイルの概要と共に、映像データファイル間の関連を把握することができる。また、映像データファイル又は顔画像を選択することで、必要な映像データファイルを指定して、結合することができる。
図8に、顔画像一覧表示処理部301によってLCD17に表示されるインデキシングビュー画面の別の例を示す。このインデキシングビュー画面は、図6に示したインデキシングビュー画面と同様に、複数の映像データファイル(例えばカムコーダ21を用いて撮影された映像データ)をインデキシング処理することによって得られたインデキシング情報を用いて作成された画面である。このインデキシングビュー画面には、顔サムネイルエリアのみが設定されている。
この顔サムネイルエリアには、顔画像一覧表示処理部301処理対象の複数の映像データファイルにおいて出現する人物それぞれの顔画像が表示される。顔サムネイルエリアに表示される顔画像は、人物毎に一枚である。すなわち、処理対象の複数の映像データファイルはあたかもそれらが結合された一つの映像データファイルとして扱われ、その一つの映像データファイルの映像データに出現する各人物毎に一枚の顔画像が顔サムネイルエリア上に表示される。
例えば、顔画像一覧表示処理部301は、処理対象の複数の映像データファイルを構成する全ての映像フレームから抽出した顔画像群を人物毎に分類し、出現頻度の高い人物の順に顔画像を顔サムネイルエリアに表示する。この場合、インデキシング制御部403(ビデオプロセッサ113)は、映像データファイル毎にインデキシング処理を行うのではなく、複数の映像データファイルに跨って同時にインデキシング処理を行ってもよい。すなわち、映像データファイル毎に顔画像を抽出し、これら顔画像を分類して顔IDを付与するのではなく、複数の映像データファイルから抽出したすべての顔画像に対して、クラスタリング処理等を用いた人物による分類を施して、顔IDを付与する。顔サムネイルエリアには、同一の人物として分類された顔画像群につき、1枚の顔サムネイル画像が表示される。
つまり、このインデキシングビュー画面では、処理対象の複数の映像データファイルに出現する人物の顔画像一覧を統合して表示することができる。ユーザは、処理対象の複数の映像データファイルに出現する人物の統合された顔画像一覧を見ることで、ファイルという単位を意識することなく、編集等の操作を行うことができる。例えば、ユーザが顔サムネイルから1つの顔サムネイル画像を選択した場合に、選択した顔サムネイル画像に付与されたIDに基づき、このIDが付与された顔画像が属する全ての映像データファイルを物理的又は論理的に結合する処理を、ユーザに対してファイルという単位を意識させることなく実行することができる。
図9に示すフローチャートは、図8に示したインデキシングビュー画面による複数の映像データファイルのインデキシング情報の表示、及びユーザ操作による映像データファイルの結合の流れについて説明する。なおここでは、HDD111に格納された映像データである番組データ群111Aと映像データファイル群111Bのうち、映像データファイル群111Bのみを処理対象の映像データとし、説明を行う。
まず、映像ファイル抽出部402は、HDD111に格納された映像データファイル群111Bから、映像データの記録時刻が指定した期間内である映像データファイル群を抽出する(ステップS201)。なお、ここでは記録時刻に基づいて映像データファイル群を抽出したが、指定したディレクトリ下に格納された映像データファイル群等、映像データファイルを抽出する条件は適宜設定可能である。
次に、インデキシング制御部403により制御されたビデオプロセッサ113は、抽出した映像データファイル群から顔画像群を抽出する(ステップS202)。ビデオプロセッサ113は、顔画像をHDD111のデータベース111Cへ格納する。また、ビデオプロセッサ113は、顔画像抽出されたフレームのタイムスタンプ情報(TS)、並びに顔画像の画像サイズ情報をデータベース111Cへ格納する。
ビデオプロセッサ113はさらに、抽出した全ての顔画像群を分類して、同一人物として分類された顔画像群のグループ毎に、グループに属する顔画像群のそれぞれにID(顔ID)を付与する(ステップS203)。ビデオプロセッサ113は、各顔画像のID情報をデータベース111Cへ格納する。
次に、顔画像一覧表示処理部301は、データベース111Cに格納されている顔画像群について、人物毎(顔ID毎)の顔画像の検出時間長又は検出頻度に基づき、インデキシングビュー画面を表示する(ステップS204)。顔画像一覧表示処理部301は、所定個の顔サムネイル画像を表示する。顔サムネイル画像には、例えば、検出頻度が高い人物(顔ID)から順に、対応する所定個の顔画像をデータベース111Cから抽出して表示する。
次に、映像結合部404は、キーボード13やタッチパッド16等により、ユーザが編集を指示する入力がされたかどうかを判定する(ステップS205)。編集を指示する入力がされた場合(ステップS205のYES)、インデキシングビュー画面において、少なくとも一つの顔サムネイル画像が選択されているかどうかを判定する(ステップS206)。
編集を指示する入力がされていない場合(ステップS205のNO)、及びインデキシングビュー画面において、顔サムネイル画像がいずれも選択されていない場合(ステップS206のNO)、再度ステップS205からの処理を実行する。
インデキシングビュー画面において、少なくとも一つの顔サムネイル画像が選択されている場合(ステップS206のYES)、映像結合部404は、選択された顔サムネイル画像に付与されたIDを取得する(ステップS207)。そして、映像結合部404は、取得したIDが付与された顔サムネイル画像群それぞれが属する映像データファイルからなる映像データファイル群を取得する(ステップS208)。つまり、映像結合部404は、選択された顔サムネイル画像が属する映像データファイルに加えて、選択された顔サムネイル画像に付与されたIDと同一のIDが付与された他の顔サムネイル画像群について、これら他の顔サムネイル画像群がそれぞれ属する映像データファイルを取得する。
次に、映像結合部404は、選択されたすべての顔サムネイル画像に対応する映像データファイルを取得したかどうかを判定する(ステップS209)。選択されたすべての顔サムネイル画像に対応する映像データファイル群を取得していない場合(ステップS209のNO)、ステップS207からステップS209までの処理を、注目する選択された顔サムネイル画像を更新しながら繰り返す。選択されたすべての顔サムネイル画像に対応する映像データファイル群を取得した場合(ステップS209のYES)、映像結合部404は、取得した映像データファイル群を各映像データファイルの記録時刻順に結合する(ステップS210)。
以上の処理により、複数の映像データファイルに対するインデキシング処理が実行され、インデキシング処理結果に基づくインデキシング情報が、複数の映像データファイルについて統合して、インデキシングビュー画面としてユーザへ提示される。ユーザは、提示されたインデキシングビュー画面により、複数の映像データファイルの概要をファイルとういう単位を意識することなく把握することができる。また、顔画像を選択することで、複数の映像データファイルを、映像データファイルのそれぞれを指定することなく自動的に結合することができる。
図7及び図9に示したフローチャートにおいては、ユーザによるインデキシングビュー画面(選択画面)を用いた入力に基づき、選択された複数の映像ファイルを結合する処理について説明したが、この処理は、これら選択された複数の映像ファイルに何らかの編集を加える処理等であってもよく、映像ファイルを結合する処理に限定されるものではない。
以上のように、本実施形態においては、複数の映像データファイルに関するインデキシング情報が並列して、又は統合してユーザへ提示される。よってユーザに対して、各映像データファイルの概要だけでなく、映像データファイル間の関連を把握するために有用な情報を提示することができるので、映像データファイル群の再生及び編集に関するユーザ操作を支援することができる。
本実施形態では、インデキシング処理、顔画像一覧表示処理、および映像結合処理の全てをコンピュータ10によって実行する場合を説明したが、顔画像一覧表示処理、および映像結合処理をカムコーダ21によって実行し、インデキシング処理のみをコンピュータ10によって実行するという形態も考えられる。この場合、映像処理アプリケーションプログラム202は、カムコーダ21の記憶部21Aに格納されている映像データファイル群から処理対象の複数の映像データファイルを抽出し、それら処理対象の映像データファイルそれぞれに対するインデキシング処理を実行する。そして、映像処理アプリケーションプログラム202は、インデキシング処理の結果を示す情報をカムコーダ21に送信する。具体的には、映像処理アプリケーションプログラム202は、処理対象の映像データファイル群から抽出された顔画像群、各顔画像に付与したID、出現頻度等の情報を、インデキシング処理結果を示す情報をカムコーダ21に送信する。カムコーダ21は、インデキシング処理結果を示す情報に基づいて、図6または図8のインデキシングビュー画面をカムコーダ21の表示装置に表示する。そして、カムコーダ21は、インデキシングビュー画面を見ながらユーザが行う操作に従って、映像データファイル同士を物理的又は論理的に結合する処理を実行する。
本実施形態のインデキシング情報表示処理、再生処理、および結合処理の手順は全てソフトウェアによって実現することができるので、このソフトウェアをコンピュータ読み取り可能な記憶媒体を通じて通常のコンピュータに導入することにより、本実施形態と同様の効果を容易に実現することができる。
また、本実施形態の電子機器はコンピュータ10によって実現するのみならず、例えば、HDDレコーダ、DVDレコーダ、テレビジョン装置といった様々なコンシューマ電子機器によって実現することもできる。また、カムコーダ21単体で実現することもできる。この場合、映像処理アプリケーションプログラム202の機能は、DSP、マイクロコンピュータのようなハードウェアによって実現することができる。
また本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
本発明の一実施形態に係る電子機器の概観の例を示す斜視図。 同実施形態の電子機器のシステム構成の例を示すブロック図。 同実施形態の電子機器のインデキシング情報表示機能を説明するためのブロック図。 同実施形態の電子機器で用いられる顔画像グループの例を示す図。 同実施形態の電子機器で用いられるプログラムの機能構成を示すブロック図。 同実施形態の電子機器によって表示装置に表示されるインデキシングビュー画面の例を示す図。 同実施形態の電子機器によって実行されるインデキシング情報表示処理及び映像データファイル結合処理の手順の例を示すフローチャート。 同実施形態の電子機器によって表示装置に表示されるインデキシングビュー画面の別の例を示す図。 同実施形態の電子機器によって実行されるインデキシング情報表示処理及び映像データファイル結合処理の手順の別の例を示すフローチャート。
符号の説明
111…HDD、111A…番組データ、111B…映像ファイル、111C…データベース、113…ビデオプロセッサ、117…TVチューナ、13…キーボード(KB)、16…タッチパッド、202…映像処理アプリケーション、21…カムコーダ、301…顔画像一覧表示処理部、401…記録処理部、402…映像ファイル抽出部、403…インデキシング処理部、404…映像結合部、405…再生処理部。

Claims (5)

  1. 記憶媒体に記憶された複数の映像データファイルから、一定期間内の記録時刻を有する
    複数の映像データファイルを抽出し、映像データファイルを再生して得られる映像中の人
    物の顔画像を複数含む顔画像群を、前記抽出された複数の映像データファイルから其々抽
    出する画像抽出手段と、
    前記抽出された複数の映像データファイルの中から複数の映像データファイルをユーザ
    に選択可能とする選択画面を表示し、該選択画面上に、前記抽出された顔画像群の各顔画
    像を選択可能に、前記映像データファイル毎に並べて表示し、前記顔画像群のうち複数
    顔画像が選択された場合に、該選択された顔画像を含む複数の映像データファイルを選択
    する表示制御手段と、
    前記選択画面で選択された前記複数の映像データファイルを、それぞれの記録時刻順に
    応じて結合処理するファイル処理手段とを具備することを特徴とする電子機器。
  2. 前記画像抽出手段は、前記複数の映像データファイルに跨って前記顔画像群を分類して
    、同一人物として分類された顔画像に同一の識別子を付与し、
    前記ファイル処理手段は、顔画像が選択された場合に、該選択された顔画像に付与され
    た識別子を検出し、前記選択された顔画像を含む映像データファイルと、前記検出された
    識別子が付与された他の顔画像を含む映像データファイルとを、各映像データファイルそ
    れぞれの記録時刻順に応じて処理することを特徴とする請求項1記載の電子機器。
  3. 前記表示制御手段は、前記選択された顔画像の識別子が付与された顔画像を、当該識別
    子が付与されていない顔画像とは区別して表示すること特徴とする請求項2記載の電子機
    器。
  4. 前記画像抽出手段は、顔画像を抽出する前記複数の映像データファイルのそれぞれにつ
    いて、該映像データファイルを代表する代表画像として少なくとも1枚の映像フレームを
    抽出し、
    前記表示制御手段は、前記選択画面上に、前記複数の映像データファイルにそれぞれ対
    応する前記代表画像を表示することを特徴とする請求項1記載の電子機器。
  5. 記憶媒体に記憶された複数の映像データファイルのうち、一定期間内の記録時刻を有す
    る複数の映像データファイルを抽出し、映像データファイルを再生して得られる映像中の
    人物の顔画像を複数含む顔画像群を、前記抽出された複数の映像データファイルから其々
    抽出する画像抽出ステップと、
    前記複数の映像データファイルの中から複数の映像データファイルをユーザに選択可能
    とする選択画面を表示し、該選択画面上に、前記抽出された顔画像群の各顔画像を選択可
    能に、前記映像データファイル毎に並べて表示し、前記顔画像群のうち複数の顔画像が選
    択された場合に、該選択された顔画像を含む複数の映像データファイルを選択する表示制
    御ステップと、
    前記選択画面で選択された前記複数の映像データファイルをそれぞれの記録時刻順に応
    じて結合処理するファイル処理ステップとを具備することを特徴とする映像処理方法。
JP2008273280A 2008-10-23 2008-10-23 電子機器および映像処理方法 Active JP4620150B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008273280A JP4620150B2 (ja) 2008-10-23 2008-10-23 電子機器および映像処理方法
US12/551,232 US8121349B2 (en) 2008-10-23 2009-08-31 Electronic apparatus and video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008273280A JP4620150B2 (ja) 2008-10-23 2008-10-23 電子機器および映像処理方法

Publications (2)

Publication Number Publication Date
JP2010103765A JP2010103765A (ja) 2010-05-06
JP4620150B2 true JP4620150B2 (ja) 2011-01-26

Family

ID=42117540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008273280A Active JP4620150B2 (ja) 2008-10-23 2008-10-23 電子機器および映像処理方法

Country Status (2)

Country Link
US (1) US8121349B2 (ja)
JP (1) JP4620150B2 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4172498B2 (ja) * 2006-05-16 2008-10-29 ソニー株式会社 伝送システム、伝送方法、映像出力装置及び映像入力装置
KR101454025B1 (ko) * 2008-03-31 2014-11-03 엘지전자 주식회사 영상표시기기에서 녹화정보를 이용한 영상 재생 장치 및 방법
US9727312B1 (en) * 2009-02-17 2017-08-08 Ikorongo Technology, LLC Providing subject information regarding upcoming images on a display
JP5178611B2 (ja) * 2009-04-15 2013-04-10 株式会社東芝 画像処理装置、画像処理方法及びプログラム
JP2011065277A (ja) * 2009-09-15 2011-03-31 Toshiba Corp 電子機器、画像表示方法およびコンテンツ再生プログラム
US8432965B2 (en) 2010-05-25 2013-04-30 Intellectual Ventures Fund 83 Llc Efficient method for assembling key video snippets to form a video summary
US8599316B2 (en) 2010-05-25 2013-12-03 Intellectual Ventures Fund 83 Llc Method for determining key video frames
JP4940345B2 (ja) * 2010-10-29 2012-05-30 株式会社東芝 電子機器及び画像処理方法
US8849956B2 (en) 2011-01-14 2014-09-30 Google Inc. Video processing feedback
US9251854B2 (en) 2011-02-18 2016-02-02 Google Inc. Facial detection, recognition and bookmarking in videos
US8665345B2 (en) * 2011-05-18 2014-03-04 Intellectual Ventures Fund 83 Llc Video summary including a feature of interest
US8643746B2 (en) * 2011-05-18 2014-02-04 Intellectual Ventures Fund 83 Llc Video summary including a particular person
JP5942516B2 (ja) * 2011-06-11 2016-06-29 ブラザー工業株式会社 表示処理装置、表示処理方法及びコンピュータプログラム
JP5491585B2 (ja) * 2011-08-12 2014-05-14 キヤノン株式会社 表示制御装置、制御方法、及びプログラム
US20130100334A1 (en) * 2011-10-20 2013-04-25 Broadcom Corporation Method and System for an Adaptive Auto-Focus Algorithm
US20140133832A1 (en) * 2012-11-09 2014-05-15 Jason Sumler Creating customized digital advertisement from video and/or an image array
KR102209070B1 (ko) * 2014-06-09 2021-01-28 삼성전자주식회사 동영상의 썸네일 영상을 제공하는 장치 및 방법
US10091411B2 (en) * 2014-06-17 2018-10-02 Lg Electronics Inc. Mobile terminal and controlling method thereof for continuously tracking object included in video
US9767101B2 (en) * 2014-06-20 2017-09-19 Google Inc. Media store with a canonical layer for content
KR20160011532A (ko) * 2014-07-22 2016-02-01 삼성전자주식회사 동영상 표시 방법 및 장치
US11495102B2 (en) * 2014-08-04 2022-11-08 LiveView Technologies, LLC Devices, systems, and methods for remote video retrieval
US9881205B2 (en) 2015-05-29 2018-01-30 Aware, Inc. Facial identification techniques
JP6799779B2 (ja) * 2016-10-07 2020-12-16 パナソニックIpマネジメント株式会社 監視映像解析システム及び監視映像解析方法
US10446189B2 (en) * 2016-12-29 2019-10-15 Google Llc Video manipulation with face replacement
KR101938667B1 (ko) * 2017-05-29 2019-01-16 엘지전자 주식회사 휴대 전자장치 및 그 제어 방법
CN108229335A (zh) * 2017-12-12 2018-06-29 深圳市商汤科技有限公司 关联人脸识别方法和装置、电子设备、存储介质、程序
CN109379625B (zh) * 2018-11-27 2020-05-19 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备和计算机可读介质
JP2021136656A (ja) 2020-02-28 2021-09-13 パナソニックi−PROセンシングソリューションズ株式会社 顔検知システム
CN111954058B (zh) * 2020-08-13 2023-11-21 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备以及存储介质
DE102022105123A1 (de) * 2021-05-26 2022-12-01 Adobe Inc. Interagieren mit semantischen Videosegmenten durch interaktive Kacheln

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167110A (ja) * 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd 画像検索方法及びその装置
JP2004304854A (ja) * 2004-07-16 2004-10-28 Hitachi Kokusai Electric Inc 動画像編集方法
JP2006510240A (ja) * 2002-11-29 2006-03-23 ソニー・ユナイテッド・キングダム・リミテッド メディア処理システム
JP2007281680A (ja) * 2006-04-04 2007-10-25 Sony Corp 画像処理装置および画像表示方法
JP2007280325A (ja) * 2006-04-12 2007-10-25 Omron Corp 動画表示装置
JP2008017042A (ja) * 2006-07-04 2008-01-24 Sony Corp 情報処理装置および方法、並びにプログラム
JP2008017041A (ja) * 2006-07-04 2008-01-24 Sony Corp 情報処理装置および方法、並びにプログラム
JP2008077536A (ja) * 2006-09-25 2008-04-03 Sony Corp 画像処理装置および方法、並びにプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07175816A (ja) * 1993-10-25 1995-07-14 Hitachi Ltd 映像の連想検索装置及び方法
EP1456780A4 (en) * 1997-04-01 2007-04-25 Medic Interactive Inc SYSTEM FOR THE AUTOMATIC GENERATION OF MEDIA PROGRAMS FROM A MEDIA ELEMENTS DATABASE
US7222300B2 (en) * 2002-06-19 2007-05-22 Microsoft Corporation System and method for automatically authoring video compositions using video cliplets

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167110A (ja) * 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd 画像検索方法及びその装置
JP2006510240A (ja) * 2002-11-29 2006-03-23 ソニー・ユナイテッド・キングダム・リミテッド メディア処理システム
JP2004304854A (ja) * 2004-07-16 2004-10-28 Hitachi Kokusai Electric Inc 動画像編集方法
JP2007281680A (ja) * 2006-04-04 2007-10-25 Sony Corp 画像処理装置および画像表示方法
JP2007280325A (ja) * 2006-04-12 2007-10-25 Omron Corp 動画表示装置
JP2008017042A (ja) * 2006-07-04 2008-01-24 Sony Corp 情報処理装置および方法、並びにプログラム
JP2008017041A (ja) * 2006-07-04 2008-01-24 Sony Corp 情報処理装置および方法、並びにプログラム
JP2008077536A (ja) * 2006-09-25 2008-04-03 Sony Corp 画像処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
US8121349B2 (en) 2012-02-21
JP2010103765A (ja) 2010-05-06
US20100104146A1 (en) 2010-04-29

Similar Documents

Publication Publication Date Title
JP4620150B2 (ja) 電子機器および映像処理方法
US8666223B2 (en) Electronic apparatus and image data management method
JP4496264B2 (ja) 電子機器及び映像表示方法
JP5057918B2 (ja) 電子機器およびシーン種類表示方法
JP4909856B2 (ja) 電子機器および表示方法
JP4331240B2 (ja) 電子機器および画像表示方法
JP4909854B2 (ja) 電子機器および表示処理方法
JP4322945B2 (ja) 電子機器、及び画像表示制御方法
JP4834639B2 (ja) 電子機器および画像表示制御方法
JP2009038680A (ja) 電子機器および顔画像表示方法
JP4856105B2 (ja) 電子機器および表示処理方法
JP2009089065A (ja) 電子機器および顔画像表示装置
JP2009076982A (ja) 電子機器および顔画像表示方法
JP2010257509A (ja) オーサリング装置、オーサリング方法およびプログラム
JP2011035837A (ja) 電子機器および画像データの表示方法
JP5330551B2 (ja) 電子機器および表示処理方法
JP4709929B2 (ja) 電子機器および表示制御方法
JP2010154131A (ja) オーサリング装置およびオーサリング方法
JP5532344B2 (ja) 電子機器、画像データの表示方法およびプログラム
JP5198609B2 (ja) 電子機器および表示制御方法並びにプログラム
JP2009200827A (ja) 電子機器および画像表示方法
JP4987653B2 (ja) 電子機器および画像表示方法
JP2009088904A (ja) 情報処理装置および顔画像表示方法
JP5284426B2 (ja) 電子機器および画像表示方法
JP5038836B2 (ja) 情報処理装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100831

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101001

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101027

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4620150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350