JP2009015672A - 顔検出装置及び顔検出方法 - Google Patents

顔検出装置及び顔検出方法 Download PDF

Info

Publication number
JP2009015672A
JP2009015672A JP2007178037A JP2007178037A JP2009015672A JP 2009015672 A JP2009015672 A JP 2009015672A JP 2007178037 A JP2007178037 A JP 2007178037A JP 2007178037 A JP2007178037 A JP 2007178037A JP 2009015672 A JP2009015672 A JP 2009015672A
Authority
JP
Japan
Prior art keywords
face
data
unit
detection
scene change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007178037A
Other languages
English (en)
Other versions
JP4964044B2 (ja
Inventor
Yohei Kitahara
陽平 北原
Yoshiaki Kusunoki
恵明 楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007178037A priority Critical patent/JP4964044B2/ja
Publication of JP2009015672A publication Critical patent/JP2009015672A/ja
Application granted granted Critical
Publication of JP4964044B2 publication Critical patent/JP4964044B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】顔検出処理に要する時間を短縮でき、且つ、映像信号に含まれる人物の顔画像を確実に検出することができる顔検出装置及び顔検出方法を提供する。
【解決手段】顔検出装置100は、ストリーム制御部102と、ストリーム制御部102からの映像信号のシーンチェンジを検出するシーンチェンジ検出部111と、人物の顔の画像の検出処理を行い、検出された顔画像の位置情報を含む顔検出データFDを出力する顔位置検出部112と、検出された顔画像の特徴を抽出して顔特徴データFFとして出力する顔特徴抽出部113と、シーンチェンジが発生したフレームおいて、顔位置検出部112に顔画像の検出処理を実行させる顔検出制御部114と、シーンチェンジ発生時間のデータST、顔検出データSD、及び顔特徴データFFを記憶するバッファ部103を有している。
【選択図】図1

Description

本発明は、入力された映像信号を解析し、人物の顔を検出する顔検出装置及び顔検出方法に関するものである。
従来、動画像をフレーム単位に分割して複数の静止画像を生成し、生成した静止画像ごとに人物の顔が含まれているか否かを判定し、静止画像から人物画像を抽出する動画像再生方法の提案がある(例えば、特許文献1参照)。また、動画像の中の移動物体を検出し、移動物体を含む複数の画像情報を抽出し、抽出画像を均等に間引いて所定枚数の画像情報を選択して出力する顔画像監視システムの提案がある(例えば、特許文献2参照)。
特開2005−018451号公報(要約、図1) 特開2004−272933号公報(要約、図1乃至図3)
しかしながら、特許文献1に記載の方法では、すべてのフレームに対応する静止画像ごとに顔を検出しているので、顔検出のためのデータ処理量が膨大になり、顔検出処理に非常に多くの時間が必要になるという問題がある。
また、特許文献2に記載のシステムでは、動画像の中から移動物体を検出するための処理が必要であるので、データ処理に多くの時間が必要になるという問題がある。
また、映像監視システム等に適用される映像記録装置には、入力された映像信号をハードディスク等の記録媒体に記録しながら、人物の顔の検出処理を行い、顔が検出されたときに、記録された映像信号にチャプターマークを付す機能が要求される場合があるが、このような用途に、多くの時間を要する顔検出方法は適していない。
また、特許文献2に記載されているように、M枚の画像を均等に間引いてP枚に減らす技術を採用した場合には、顔検出のためのデータ処理量を減らすことは可能であるが、撮影されたにも拘わらず検出されない人物が発生するという問題もある。
そこで、本発明は、上記従来技術の課題を解決するためになされたものであり、その目的は、顔検出処理に要する時間を短縮でき、且つ、映像信号に含まれる人物の顔画像を確実に検出することができる顔検出装置及び顔検出方法を提供することにある。
本発明の顔検出装置は、入力された映像信号のフレームにシーンチェンジが発生したか否かを検出するシーンチェンジ検出手段と、前記映像信号に対して人物の顔の画像の検出処理を行い、検出された顔画像の位置情報を含む顔検出データを出力する顔位置検出手段と、シーンチェンジの発生が検出されたフレームおいて、前記顔位置検出手段に顔画像の検出処理を実行させる制御手段とを有することを特徴としている。
また、本発明の顔検出方法は、シーンチェンジ検出手段が、入力された映像信号のフレームにシーンチェンジが発生したか否かを検出するステップと、顔位置検出手段が、前記映像信号に対して人物の顔の画像の検出処理を行い、検出された顔画像の位置情報を含む顔検出データを出力するステップと、制御手段が、シーンチェンジの発生が検出されたフレームおいて、前記顔位置検出手段に顔画像の検出処理を実行させるステップとを有することを特徴としている。
本発明によれば、シーンチェンジの発生が検出されたフレームについてのみ顔検出処理を行うので、すべてのフレームに対して顔検出処理を行う場合に比べて、顔検出処理の回数を減らすことができ、その結果、顔検出処理に要する時間を短縮することができる。
また、本発明によれば、シーンチェンジと次のシーンチェンジの間、すなわち、同一のシーン区間における重複した顔検出処理を行わないので、顔検出結果のデータ量を削減できる。
さらに、本発明によれば、顔検出処理を実行しない同一シーン区間は存在しないので、映像信号に含まれる人物の顔画像を確実に検出することができる。
実施の形態1.
図1は、本発明の実施の形態1に係る顔検出装置100(すなわち、実施の形態1に係る顔検出方法を実施する装置)の構成を概略的に示すブロック図である。図1に示されるように、実施の形態1に係る顔検出装置100は、映像入力部130からの映像信号が入力される入力処理部101と、ストリーム制御部102と、第1の記憶手段としてのバッファ部103と、システム制御部104と、顔検出部110とを有している。顔検出部110は、シーンチェンジ検出手段としてのシーンチェンジ検出部111と、顔位置検出手段としての顔位置検出部112と、顔特徴抽出手段としての顔特徴抽出部113と、制御手段としての顔検出制御部114とを有している。
映像入力部130には、例えば、カメラ(図示せず)からの映像信号、アンテナ(図示せず)からの放送波を受信するチューナー(図示せず)からの映像信号、又は映像再生装置(図示せず)からの映像信号などが入力される。映像入力部130は、入力された映像信号を入力処理部101に供給する。図1においては、映像入力部130は、顔検出装置100とは別の構成として図示されているが、映像入力部130は、顔検出装置100の一部として構成されてもよい。また、映像入力部130は、データファイルが入力される装置又はネットワークインターフェースであってもよい。
システム制御部104は、顔検出装置100の各部に対して制御コマンド(例えば、C1,C2,C3,C4)を送ることによって、顔検出装置100の各部の動作を制御する。例えば、システム制御部104は、入力処理部101に対して、入力された映像信号の処理を開始又は終了させる制御コマンドC1を送信し、ストリーム制御部102に対してストリームの制御を開始又は終了させる制御コマンドC2を送信する。また、システム制御部104は、バッファ部103に対するシーンチェンジ発生時間のデータST、顔検出データFD、及び顔特徴データFF等の記録を開始又は終了させる制御コマンドC3を送信し、顔検出部110に対してバッファ部103に対するシーンチェンジ発生時間のデータST、顔検出データFD、及び顔特徴データFF等顔特徴データの記録を開始又は終了させる制御コマンドC4を送信する。
入力処理部101は、入力された映像信号がアナログ信号であるときには、映像信号をエンコード(例えば、MPEG2符号化を用いた映像圧縮)し、入力された映像信号がデジタル信号であるときには、多重化の分離を行い、ストリーム制御部102に符号化ストリーム(Encoded Stream)ESを入力する。顔検出装置100は、入力処理部101を備えているので、入力された映像信号がアナログ信号又はデジタル信号のいずれであっても、シーンチェンジを検出することができる。
ストリーム制御部102は、入力された符号化ストリームESを、表示部120と、顔検出部110のシーンチェンジ検出部111とに安定して転送する。なお、表示部120と顔検出部110に送信される画像データは、圧縮画像又は非圧縮画像のいずれであってもよい。
表示部120は、ストリーム制御部102から送られた符号化ストリームESを受信し、デコードし、符号化ストリームESに応じた画像を表示する。
バッファ部103は、顔検出部110から出力されるシーンチェンジ発生時間のデータST、顔検出データFD、及び顔特徴データFFなどのデータを保存する。顔検出データFDは、フレーム内において検出された顔の位置を示す情報を含むデータである。顔検出データFDは、フレーム内において検出された顔の位置を示す顔位置データFP、顔の個数を示す顔個数データFN、及び顔の面積を示す顔面積データFAの、すべて又は一部を含むことができる。
シーンチェンジ検出部111は、入力された符号化ストリームESにシーンチェンジが発生したか否かを検出し、シーンチェンジの発生が検出された場合にのみ、画像データD1及びシーンチェンジ発生時間のデータSTを出力する。シーンチェンジ発生の検出方法は、公知の技術の中から自由に選択することができる。シーンチェンジ発生の検出方法としては、例えば、現フレーム(シーンチェンジが発生したフレーム)と現フレームの1つ前のフレーム(シーンチェンジ発生直前のフレーム)との間の輝度値の差分値が、所定の閾値を超えたときにシーンチェンジが発生したと判定する方法がある。
顔位置検出部112は、シーンチェンジ検出部111から出力された画像データD1から顔の存在(すなわち、顔の有無)を判定し、顔が検出できた場合に、顔検出データFDを顔検出制御部114に送信する。
顔特徴抽出部113は、顔位置検出部112からの画像データD2及び顔位置検出部112からの顔検出データFDから、顔の詳細なデータの抽出を行う。顔特徴抽出部113は、顔の特徴を認識するために、顔の輪郭、並びに、目、鼻、口などの顔のパーツの位置等の検出を行い、それらを元に顔認識に必要な顔特徴データFFを作成する。
顔検出制御部114は、シーンチェンジ検出部111によるシーンチェンジ検出結果がシーンチェンジの発生が有りであることを示すシーンチェンジ検出信号SDを受信する。顔検出制御部114は、シーンチェンジ検出信号SDを受信すると、シーンチェンジの発生が検出されたフレームについて顔位置検出部112に顔検出処理を実行させるための制御コマンドC11を送信する。顔検出制御部114は、制御コマンドC11を受信した顔位置検出部112から顔検出データFDが送られてきた後に、顔特徴抽出部113に顔特徴データFFの抽出処理を実行させる制御コマンドC12(及び、必要に応じて顔検出データFDに関する情報を含む)を送信する。また、顔検出制御部114は、顔位置検出部112から送られてきた顔検出データFDに基づいて、シーンチェンジ検出部111に対してシーンチェンジの検出処理の対象範囲やシーンチェンジの発生の有無判定に用いられる閾値などを変更する制御コマンドC13を送信する。
顔検出部110は、シーンチェンジ検出部111からのシーンチェンジ発生時間のデータST、顔位置検出部112からの顔検出データFD、顔認識に必要な顔特徴抽出部113からの顔特徴データFFを、バッファ部103に出力する。バッファ部103は、シーンチェンジ検出部111からのシーンチェンジ発生時間のデータST、顔位置検出部112からの顔検出データFD、顔特徴抽出部113からの顔特徴データFFを保存する。なお、図1には、1個のバッファ部103が示されているが、バッファ部103は複数個であってもよい。例えば、バッファ部103として、シーンチェンジ検出部111用のバッファ部、顔位置検出部112用のバッファ部、顔特徴抽出部113用のバッファ部を別々に備えてもよい。
図2は、シーンチェンジ検出部111の構成を概略的に示すブロック図である。図2に示されるように、シーンチェンジ検出部111は、入力された符号化ストリームESをデコードして画像データD1を出力する復号化部141と、デコードされた画像データD1に基づいてシーンチェンジの発生の有無を判定し、シーンチェンジの発生が検出されたときにシーンチェンジの発生が検出されたことを示すシーンチェンジ検出信号SDを出力するシーンチェンジ判定部142と、シーンチェンジ検出信号SDを受信したとときにシーンチェンジ発生時間のデータSTを出力する時間検出部143とを有している。
図3(a)〜(h)は、顔検出処理を説明するための図であり、図3(a)及び(b)は、従来の顔検出処理を示し、図3(c)〜(h)は、実施の形態1における顔検出処理を示している。また、図3(a)〜(h)において、横軸は時間軸である。
図3(a)に示されるように、従来の顔検出処理においては、フレーム1,2,…,8のすべての時点P1,P2,P3,…,P8において顔検出処理を行っていた。そして、例えば、図3(b)に示されるように、フレーム1,3,5,6,7,8の時点Q1,Q2,Q3,Q4,Q5,Q6において顔が検出される。このように、従来の顔検出処理においては、顔が存在しないフレーム2及び4に対しても顔検出処理を行っていた。また、従来の顔検出処理においては、同一のシーン区間(シーンチェンジと次のシーンチェンジの間)において、複数回のシーンチェンジ検出処理を行う場合があった。
これに対し、実施の形態1に係る顔検出装置100においては、図3(c)に示されるように、隣接するフレーム間においてシーンチェンジが発生し(時点T1,T2,T3,T4)、図3(d)に示されるように、シーンチェンジの発生が検出された(時点U1,U2,U3,U4)フレームについてのみ、図3(e)に示されるように顔検出処理が実行される(時点V1,V2,V3,V4)。その結果、図3(f)に示されるように、人物の顔が検出された場合には(時点W1,W2,W3)、図3(g)に示されるように、人物の顔の特徴を抽出する処理が実行され(時点X1,X2,X3)、図3(h)に示されるように、顔検出データFD、顔特徴データFF,シーンチェンジ発生時間のデータST等をバッファ部103に記録する(時点Y1,Y2,Y3)。
上記のように、実施の形態1に係る顔検出装置100又は顔検出方法は、シーンチェンジ検出部111によってシーンチェンジの発生が検出されたフレーム1,3,4,7の時点U1,U2,U3,U4に対してのみ顔位置検出部112が顔検出処理を実行する。このため、すべての映像フレームに対して顔検出処理を実行する場合に比べて、顔位置検出部112の動作回数を低減でき、従来よりも顔検出処理に要する時間を短縮することができる。
図4(a)及び(b)は、顔位置検出部112の動作を説明するための図である。
顔位置検出部112は、シーンチェンジ検出部111から出力される画像データ501(図1及び図2における画像データD1)を数値化する。顔位置検出部112は、図4(a)に示される入力された画像データ501に対応して、図4(b)のように、画像の左下を原点にしたXY座標系の位置座標を用いて位置測定画像502を定める。この位置測定画像502のX軸方向の長さとY軸方向の長さは、いずれも1に正規化されている。位置測定画像502は、例えば、図4(a)に示すように、X軸方向を640分割、Y軸方向を480分割されている。位置測定画像502においては、図4(b)に示すように、顔を検出した範囲を四角形で囲み、位置検出を行った範囲について、左上と右下の座標を(a1,b1)、(a2,b2)とし、顔が画面に占める割合
(|a1−a2|×|b1−b2|)
を人物の重要度とする。なお、上記の例では、位置測定画像502の分割数をX軸方向で640、Y軸方向で480としたが、これらの分割数は他の値でもよく、分割数を少なくすると処理に要する時間を短縮でき、分割数を多くすると検出精度が高くなる。
図5(a)及び(b)は、顔位置検出部112によって検出された顔が画面に占める割合を説明するための図である。図5(a)に示される画面511のように、顔が画面内で大きな範囲を占める人物と、図5(b)に示される画面512のように、顔が画面内で占める範囲が小さい人物とでは、重要度が異なる。例えば、画面に占める顔の割合の大きい人物の方が重要な人物であるという判断ができる。また、顔が画面内で占める範囲に対応する重要度を、予め決定した閾値と比較して、閾値を超える場合についてのみ、顔が検出されたと判定するように構成することもできる。さらに、映像の中で高い重要度が継続するシーンを、その映像の特徴シーンとしてもよい。
図6は、顔位置検出部112で顔画像が検出された画像データ501から顔特徴抽出部113で顔特徴データFFを抽出するときの処理を説明するための図である。図4(b)では、画面全体における顔の占める割合を求めたが、図6では顔特徴データFFを得るために、シーンチェンジ検出部111から出力された画像データ501と顔位置検出部112から出力された顔位置データFPから、画像データ501で示される画面の顔領域521に対して、左下を原点としたXY座標系において、顔領域521のX軸方向の長さとY軸方向の長さをいずれも1に正規化する。この座標系において、顔の目の位置(Ex1,Ey1)、(Ex2,Ey2)、顔の口の位置(Mx1,My1)などを顔特徴データFFとして取得する。取得した顔特徴データFFは、例えば、その後に顔を検出した場合に、同じ顔か否かを判断するために使用する。
図7(a)〜(c)は、入力映像信号による表示画像の一例を示す図である。図7(a)〜(c)に示される連続した3フレームにおいては、フレーム531とフレーム532の間でシーンチェンジの発生が検出され、フレーム532とフレーム533との間では、画面中に顔画像があり顔の表情が異なるが、シーンチェンジの発生が検出されない場合を示している。図1及び図7(a)〜(c)に示されるように、シーンチェンジ検出部111で、フレーム531とフレーム532の間のシーンチェンジの発生が検出され、顔検出制御部114から顔位置検出部112に対して制御コマンドC11が送られ、図7(b)に示されるシーンチェンジの発生が検出された後に、顔位置検出部112は顔位置検出処理を開始する。顔位置検出部112は、顔が検出されたときは、顔位置データFPを含む顔検出データFDを生成し、顔検出データFDを顔検出制御部114に送信する。顔検出制御部114から制御コマンドC13がシーンチェンジ検出部111に対して発行され、例えば、所定のフレーム数だけ、シーンチェンジ検出の条件を図7(c)で示すような、顔の部分をシーンチェンジの検出処理の対象範囲外とするように変更してもよい。これにより、人物の動きや表情などでシーンチェンジの発生が検出されるのを防ぐことができるとともに、類似するシーン区間(すなわち、画面の一部分にしか変化が存在しない期間)における重複した人物の顔の検出処理を実行しないことができる。
図8は、実施の形態1に係る顔検出装置の動作(すなわち、実施の形態1に係る顔検出方法)を示すフローチャートである。図8に示されるように、顔検出装置100を含むシステムに電源が投入されると、システムが起動される(ステップS101)。システム起動後、システム制御部104は、システムの停止操作の有無確認(ステップS102)と映像入力の有無確認(ステップS103)を行ない、システムの停止操作があれば、システムの動作を停止する(ステップS113)。システム制御部104は、システムの停止操作が無く、映像信号の入力があれば、入力処理部101に入力映像信号の処理を実行させ(ステップS104)、ストリーム制御部102にストリーム転送を実行させ(ステップS105)、表示部120にストリームのデコード処理を実行させる(ステップS106)。
シーンチェンジ検出部111に符号化ストリームが入力されると、顔検出制御部114は、シーンチェンジ検出部111にシーンチェンジの検出処理を実行させ(ステップS107)、シーンチェンジの発生が有りの場合には(ステップS108)、顔位置検出部112に顔検出処理を実行させる(ステップS109)。顔検出制御部114は、顔が検出された場合には(ステップS110)、顔特徴抽出部113に顔特徴抽出処理を実行させ(ステップS111)、シーンチェンジ発生時間のデータST、顔検出データFD、及び顔特徴データFFをバッファ部103に出力して、記録させる。ステップS108でシーンチェンジ無し判定の場合、及び、ステップS110で顔検出無しの場合には、処理はステップS102に戻る。
以上に説明したように、実施の形態1に係る顔検出装置100は、シーンチェンジ検出部111を備えており、シーンチェンジの発生が検出されたフレームについてのみ、顔検出処理を行うように構成されている。このため、実施の形態1に係る顔検出装置100によれば、顔検出処理の対象となるフレームの数を減らすことができ、顔検出処理のテータ処理量が減り、顔検出処理に要する時間を短縮することができる。
また、実施の形態1に係る顔検出装置100によれば、シーンチェンジと次のシーンチェンジの間、すなわち、同一のシーン区間における重複した顔検出処理を行わないので、顔検出結果のデータ量及び顔特徴データのデータ量を削減できる。
さらに、実施の形態1に係る顔検出装置100によれば、顔検出処理を実行しない同一シーン区間は存在しないので、映像信号に含まれる人物の顔画像を確実に検出することができる。
さらにまた、実施の形態1に係る顔検出装置100によれば、シーンチェンジ検出部111において、シーンチェンジの発生の検出対象範囲(又は検出除外範囲)や、シーンチェンジの発生の検出に用いる閾値(例えば、フレーム間の差分値が閾値を超えた場合にシーンチェンジの発生が有ると判定する)の設定を変更できるので、特定の範囲のフレーム間の画像変化を、シーンチェンジの発生として判定しないようにすることができる。
また、実施の形態1に係る顔検出装置100によれば、顔位置検出部112からの顔検出データFDにより、画面における顔の占める割合を知ることができ、取得した割合に基づいて、人物の重要度を判断することができる。
さらに、実施の形態1に係る顔検出装置100によれば、バッファ部103にシーンチェンジ発生時間のデータST、顔検出データFD、及び顔特徴データFFを保存するので、これらのデータに基づく評価を実行することができる。
図9は、本発明の実施の形態1の変形例に係る顔検出装置150(すなわち、実施の形態1の変形例に係る顔検出方法を実施する装置)の構成を概略的に示すブロック図である。図9において、図1に示される構成と、同一又は対応する構成には、同じ符号を付す。図9に示される顔検出装置150は、バッファ部103内に第2の記憶手段としてのデータ保存領域103aを有する点、及び、顔位置検出の対象となるフレームの決定方法が、図1に示される顔検出装置100の場合と相違する。
図10は、実施の形態1の変形例に係る顔検出装置150の動作(すなわち、実施の形態1の変形例に係る顔検出方法)を示す説明図である。図1に示される実施の形態1の顔検出装置100の場合には、シーンチェンジ検出部111は、画面内の人物が切り替わるたびにシーンチェンジが発生したと判定し、シーンチェンジが発生したと判定されたフレームについて顔検出処理部112が顔検出処理を実行するする。しかしながら、例えば、2人の人物が交互に切り替わって撮影された場合に、交互に人物が切り替えられるごとに顔検出処理を行うことは、同じ人物を繰り返して検出することになるので、無駄な処理である。そこで、図9及び図10に示される顔検出装置150においては、交互に人物が切り替えられるごとに顔検出処理を行わないように顔検出方法を変更している。
図10に示されるようにシーンチェンジ発生時間T11において、顔検出処理及び顔特徴抽出処理を実行し、顔特徴データFFが人物Xを示したときには、データ保存領域103aにはデータが無いので(顔特徴データが一致しないので)、図1の場合と同様に、シーンチェンジ発生時間のデータST、顔検出データFD、及び顔特徴データFFをバッファ部103に保存させる。
次のシーンチェンジ発生時間T12において、顔検出処理及び顔特徴抽出処理を実行し、顔特徴データFFが人物Yを示したときには、データ保存領域103aにはデータが無いので(顔特徴データが一致しないので)、図1の場合と同様に、シーンチェンジ発生時間のデータST、顔検出データFD、及び顔特徴データFFをバッファ部103に保存させる。このとき、データ保存領域103aに、前回のシーンチェンジの発生の検出時に抽出された人物Xの顔特徴データを保存させる。
次のシーンチェンジ発生時間T13において、顔検出処理及び顔特徴抽出処理を実行し、顔特徴データFFが人物Xを示したときには、データ保存領域103aには人物Xの顔特徴データが保存されているので(顔特徴データが一致するので)、図1の場合とは異なる処理を行う。この場合には、実際にはシーンチェンジ(フレーム間の画素値の大きな変化)が発生しているが、シーンチェンジが発生していないときと同様の処理を行う。すなわち、このときには、シーンチェンジ発生時間のデータST、顔検出データFD、及び顔特徴データFFをバッファ部103に保存させない。なお、このとき、データ保存領域103aに、前回のシーンチェンジの発生の検出時に抽出された人物Yの顔特徴データを上書き保存させる。
次のシーンチェンジ発生時間T14において、顔検出処理及び顔特徴抽出処理を実行し、顔特徴データFFが人物Yを示したときには、データ保存領域103aには人物Yの顔特徴データが保存されているので(顔特徴データが一致するので)、図1の場合とは異なる処理を行う。この場合には、実際にはシーンチェンジが発生しているが、シーンチェンジが発生していないときと同様の処理を行う。すなわち、このときには、シーンチェンジ発生時間のデータST、顔検出データFD、及び顔特徴データFFをバッファ部103に保存させない。なお、このとき、データ保存領域103aに、前回のシーンチェンジの発生の検出時に抽出された人物Xの顔特徴データを上書き保存させる。
次のシーンチェンジ発生時間T15において、顔検出処理及び顔特徴抽出処理を実行し、顔特徴データFFが人物Zを示したときには、データ保存領域103aには人物Xの顔特徴データが保存されているので(顔特徴データが一致しないので)、図1の場合と同様の処理を行う。この場合には、実際にはシーンチェンジが発生しているが、シーンチェンジが発生していないときと同様の処理を行う。すなわち、このときには、シーンチェンジ発生時間のデータST、顔検出データFD、及び顔特徴データFFをバッファ部103に保存させる。なお、このとき、データ保存領域103aに、前回のシーンチェンジの発生の検出時に抽出された人物Yの顔特徴データを上書き保存させる。
図11は、実施の形態1の変形例に係る顔検出装置の動作(すなわち、実施の形態1の変形例に係る顔検出方法)を示すフローチャートである。図11に示される処理は、ステップS121,S122,S123が追加された点において、図8に示される処理と相違する。図11に示されるように、顔検出装置150は、検出された顔特徴データFFと、データ保存領域103aに保存されている顔特徴データFF0とが一致する場合(例えば、差異が所定の閾値以内である場合)にのみ(ステップS122)、シーンチェンジ発生時間のデータST、顔検出データFD、及び顔特徴データFFをバッファ部103に保存させる(ステップS112)点、並びに、データ保存領域103aに保存されている顔特徴データFF0を前回のシーンチェンジの発生の検出時に抽出された人物Yの顔特徴データに変更するステップ(ステップS123)を有する点が、図8に示される処理と相違する。図11において、他の点は、図8に示される処理と同じである。
このように、データ保存領域103aを備え、抽出された顔特徴データが示す人物をデータ保存領域103aの顔特徴データと比較し、この比較結果に基づいて、顔検出対象を制限することによって、人物の切り替わりが交互に起こるようなシーンにおいて、シーンチェンジの発生が頻繁に検出された場合であっても、同一人物に対する複数回の顔検出及び顔特徴抽出処理を回避することができ、また、保存されるデータ量の削減を図ることができる。
実施の形態2.
図12は、本発明の実施の形態2に係る映像記録装置200(すなわち、実施の形態2に係る顔検出方法を実施する装置)の構成を概略的に示すブロック図である。図12において、図1に示される構成と同一又は対応する構成には、同じ符号を付す。映像記録装置200は、実施の形態2に係る顔検出方法を実施する顔検出装置としての機能を有する。
図12に示されるように、映像記録装置200は、映像入力部130からの映像信号が入力される入力処理部101と、ストリーム制御手段としてのストリーム制御部201と、システム制御部104と、第1のデータ記録手段としてのHDD(ハードディスクドライブ)記録部202と、データが記録されるHDD部203と、メタデータ抽出機能付き顔検出部210とを有している。メタデータ抽出機能付き顔検出部210は、シーンチェンジ検出部111と、顔位置検出部112と、顔特徴抽出部113と、メタデータ生成手段としてのメタデータ生成部211と、第2のデータ記録手段(及び第3のデータ記録手段)としてのメタデータ記録部212と、制御手段としての制御部213とを有している。なお、HDD記録部202及びHDD部203は、HDD以外の記録媒体、例えば、光ディスクや半導体記憶装置を用いる装置であってもよい。
システム制御部104から入力処理部101、ストリーム制御部201、HDD記録部202、及びメタデータ抽出機能付き顔検出部210に対して制御コマンドが送られることによって映像記録装置200を含むシステムは制御される。例えば、制御コマンドC6は、HDD記録部202に対してHDD部203へのデータの記録開始又は記録終了を指示する制御コマンドである。
ストリーム制御部201は、入力された符号化ストリームを、表示部120、シーンチェンジ検出部111、及びHDD記録部202に安定して転送する。HDD記録部202は、ストリーム制御部201から送られてきた符号化ストリームをHDD部203に記録する。HDD部203は、HDD記録部202から送られてきた符号化ストリーム及びメタデータ記録部212から送られてきたメタデータMDを保存する。
メタデータ生成部211は、シーンチェンジ検出部111からのシーンチェンジ発生時間のデータST、顔位置検出部112からの顔検出データFD(顔位置データFP、顔個数データFN、顔面積データFAを含む)、及び顔特徴抽出部113からの顔特徴データFFを、メタデータMDとして生成する。メタデータ記録部212は、メタデータ生成部211から送られてきたメタデータMDをHDD部203に記録する。
制御部213は、シーンチェンジ検出部111、顔位置検出部112、顔特徴抽出部113、メタデータ生成部211、及びメタデータ記録部212に対して、制御コマンドC11〜C15を送信する。
図13は、ストリーム制御部201の構成を概略的に示すブロック図である。図13に示されるように、ストリーム制御部201は、ストリームID部221と、ストリーム出力部222とを有している。ストリームID部221は、入力処理部101から送られてきた符号化ストリームを受け取り、符号化ストリームを識別できるようにするために符号化ストリームにストリームID付け(ST01、ST02などの識別データの付加)を行う。ストリームにストリームIDを付けることによって、シーンチェンジ検出部111に送られた符号化ストリームとHDD記録部202に送られた符号化ストリームの関係を明確にできる。メタデータ抽出機能付き顔検出部210に送られメタデータを作成したストリームと、HDD部203に記録したストリームとが同一のストリームであるか否かを、ストリームIDによって判断することができる。ストリーム出力部222は、シーンチェンジ検出部111、HDD記録部202、及び表示部120に符号化ストリームを送る。
図14は、メタデータ生成部211で生成されるメタデータの一例を示す図である。メタデータ生成部211で生成されたメタデータMDは、シーンチェンジ検出部111から取得されたシーンチェンジ発生時間のデータST、顔位置検出部112から取得された顔検出データFD(顔の個数FN、顔の位置FP及び顔の面積FAを含む)、及び顔特徴抽出部113から取得された顔特徴データFFを含んでいる。また、メタデータ生成部211は、作成したメタデータMDにストリームIDを付け、HDD部203に蓄積されているストリームのうちの、どのストリームに関連するメタデータであるかを識別できるようにしている。なお、図14は、1つのストリームに関するメタデータを示しているので、ストリームIDを記載していない。
図15は、メタデータMDの利用方法を説明するための図である。図15に示されるように、メタデータMDには、顔が検出された時間などの情報が含まれるので、検出した点に対してチャプターをマークすれば顔が映っているシーンのチャプターが作成できる。また、例えば、サムネイル作成時に、顔が大きく検出されている区間をサムネイルとして採用することで、特定の人物が繰り返し登場するシーンの画像をサムネイルとして採用することができる。
図16は、実施の形態2に係る顔検出装置の動作(すなわち、実施の形態2に係る顔検出方法)を示すフローチャートである。図16に示されるように、映像記録装置200を含むシステムに電源が投入されると、システムが起動される(ステップS201)。システム起動後、システム制御部104は、システムの停止操作の有無確認(ステップS202)と映像入力の有無確認(ステップS203)を行ない、システムの停止操作があれば、システムの動作を停止する(ステップS215)。システム停止操作が無く、映像入力があれば、入力処理部101に入力映像信号の処理を実行させ(ステップS204)、ストリーム制御部201にストリーム転送を実行させ(ステップS205)、HDD部203へ記録処理を指示する(ステップS206)。HDD部203への記録処理を行う場合には、処理は次のステップS208に移り(ステップS207)、HDD部203への記録処理を行わない場合には(ステップS207)、表示部120に対する表示開始コマンドの入力(ステップS216)、デコードの処理が行われる(ステップS217)。
シーンチェンジ検出部111にストリームが入力されると、シーンチェンジ検出処理(ステップS208)が行われ、シーンチェンジの発生の検出処理が実行される(ステップS209)。シーンチェンジの発生が検出されない場合は、処理はステップS202に遷移する。一方、シーンチェンジの発生が検出された場合は、顔検出処理が行われる(ステップS210)。ステップS211で、顔が検出された場合は、顔特徴抽出処理(ステップS212)が行われ、メタデータMDを生成し(ステップS213)、メタデータMDをHDD部203に記録する(ステップS214)。一方、ステップS211で顔が検出されない場合は、処理はステップS202へ遷移する(ステップS211)。本発明では、シーンチェンジの発生の検出(ステップS209)で得られた時間情報、顔検出(ステップS211)で得られた顔の位置や個数データ、顔特徴抽出(ステップS212)で得られた顔のパーツの位置情報等をメタデータとして記録することで、記録したストリームに関する付随情報を作成できる。 上記構成を採用することによって、映像記録装置200に顔検出機能及びメタデータの付加機能を搭載することができる。
以上に説明したように、実施の形態2に係る映像記録装置200は、シーンチェンジ検出部111を搭載することによってシーンチェンジが発生した箇所だけを顔検出するだけでよいので、顔検出処理及びメタデータの生成処理に要する時間を短縮することができる。
また、実施の形態2に係る映像記録装置200によれば、シーンチェンジ検出部111で取得したシーンチェンジ発生時間のデータST、顔位置検出部112で検出した顔位置データFD、及び顔特徴データFFを記録することによって、それらの情報をもとに顔が映っているシーンのチャプターを作成することができる。
また、実施の形態2に係る映像記録装置200によれば、チャプターとしてサムネイルを表示する際に、顔検出した場所をサムネイル画像として利用するので、登場人物が表示されているシーンをサムネイル化することができる。
また、実施の形態2に係る映像記録装置200によれば、顔特徴データを含むメタデータをHDD部203に記録しているので、入力映像信号内にある類似した顔を検出することができる。
なお、実施の形態2において、上記以外の点は、上記実施の形態1の場合と同じである。
実施の形態3.
図17は、本発明の実施の形態3に係る顔検出装置300(すなわち、実施の形態3に係る顔検出方法を実施する装置)の構成を概略的に示すブロック図である。図17において、図1に示される構成と同一又は対応する構成には、同じ符号を付す。実施の形態3に係る顔検出装置300は、照合部301と、データベース部302と、カウンタ部310とを有している点が、実施の形態1に係る顔検出装置100と相違する。
図17に示されるように、実施の形態3に係る顔検出装置300は、入力処理部101と、ストリーム制御部102と、顔検出部110と、システム制御部104と、第1の記憶手段としてのバッファ部103と、第1の照合手段としての照合部301と、第1のデータベース手段としてのデータベース部302と、第1の計数手段としてのカウンタ部310とを有している。データベース部302は、予め人物の顔の目の位置、顔の輪郭等の顔特徴データを含む参照データを保存している。
図18は、データベース部302が記憶する顔特徴データの一例を示す説明図である。データベース部302には、顔位置検出部112及び顔特徴抽出部113で検出するよりも詳しい情報であるデータベース固有情報(人物名、固有IDなど)が予め保存されている。また、データベース部302には、バッファ部103のデータを記録できるようにユーザー領域が存在している。ユーザー領域には、例えば、頻度情報が記録される。
照合部301は、バッファ部103に保存されている顔特徴データ(例えば、目の位置)を取得し、データベース部302に登録されている参照データの顔特徴データ(例えば、目の位置)と一致しているかの照合を行う。また、バッファ部103に記録されている顔特徴データ(目の位置)以外の頻度(カウンタ部310の出力)のデータなどを、データベース部302のユーザー領域である頻度の部分について更新を行う機能も持つ。カウンタ部310は、データベース部302に記録された顔特徴と顔検出部103によって抽出された顔特徴とを照合する照合部301において、顔特徴が一致した回数を数える機能を持つ。
システム制御部104から入力処理部101、ストリーム制御部102、顔検出部110、照合部301、及びデータベース部302に対して制御コマンドが送られることによって顔検出装置100は制御される。
例えば、バッファ部103に保存されている顔特徴データ(シーンチェンジ発生時間のデータST、顔検出データFD、顔特徴データFFなど)を照合部301が読み込む。照合部301は、データベース部302に顔特徴データFFの問い合わせを行い、バッファ部103の顔特徴データの目の位置とデータベース部302に問い合わせた参照データの顔特徴データである目の位置がある誤差範囲で一致した場合は、同一人物と判定する。これにより照合部301から、特定の人物の情報を問い合わせることも可能である。照合部301は、バッファ部103から取得した顔特徴データについて、データベース部302に登録されている顔特徴データと一致するものがあるかを調べる。一致する顔特徴データが無ければ照合部301は、データベース部302に対して顔特徴データの記録を行う。また、照合部301の顔特徴データとデータベース部302の顔特徴データが一致すれば、カウンタ部310のカウント数を1増加させる。そして、照合部301でデータベース部302のユーザー領域部分(頻度)のデータの変更を行う。
以上に説明したように、実施の形態3に係る顔検出装置300は、シーンチェンジ検出部111を備えており、シーンチェンジの発生が検出されたフレームについてのみ、顔検出処理を行うように構成されている。このため、実施の形態3に係る顔検出装置300によれば、顔検出処理の対象となるフレームの数を減らすことができ、顔検出処理のテータ処理量が減り、顔検出処理に要する時間を短縮することができる。
また、実施の形態3に係る顔検出装置300によれば、データベース部302をバッファ部103と別に備えることで、一時的に顔特徴データをバッファ部103に保存した後、データベース部302で参照するという使い方も可能となり、顔検出処理をシーンチェンジ検出と同時に実行する必要がなくなる。
また、実施の形態3に係る顔検出装置300によれば、データベース部302を作成することで、データベース部302に登録されている特定の人物の検索ができる。
さらに、実施の形態3に係る顔検出装置300によれば、バッファ部103に保存されている頻度のデータを、データベース部302に保存することで、データベース部302の頻度を見ることで特定人物の検出の頻度を瞬時に抽出できる。
なお、実施の形態3において、上記以外の点は、上記実施の形態1の場合と同じである。
実施の形態4.
図19は、本発明の実施の形態4に係る映像記録装置400(すなわち、実施の形態3に係る顔検出方法を実施する装置)の構成を概略的に示すブロック図である。図19において、図12に示される構成と同一又は対応する構成には、同じ符号を付す。実施の形態4に係る顔検出装置400は、照合部401と、データベース部402と、カウンタ部410とを有している点が、実施の形態2に係る映像記録装置200と相違する。
図19に示されるように、実施の形態4に係る映像記録装置400は、入力処理部101と、ストリーム制御部102と、HDD記録部202と、HDD部203と、システム制御部104と、メタデータ抽出機能付き顔検出部210と、第2の照合手段としての照合部401と、第2のデータベース手段としてのデータベース部402と、第2の計数手段としてのカウンタ部410とを有している。データベース部402は、予め人物の顔の目の位置、顔の輪郭等の顔特徴データを含む参照データを保存している。
照合部401は、メタデータ記録部212とデータベース部402からデータを取得し、メタデータ記録部212からの取得データとデータベース部402からの取得データの照合し、照合結果に基づいてデータベース部402のデータを更新する。データベース部402は、顔特徴抽出部113で取得するような目の位置、輪郭等の顔特徴データを保存する。カウンタ部410は、データベース部402に記録された顔特徴と顔検出部103によって抽出された顔特徴とを照合する照合部401において、顔特徴が一致した回数を数える機能を持つ。
システム制御部104から入力処理部101、ストリーム制御部102、HDD記録部202、メタデータ抽出機能付き顔検出部210、システム制御部104、データベース部402、及び照合部401に対して制御コマンドが送られることによって映像記録装置400は制御される。
実施の形態2の場合と同様に、メタデータ記録部212は、シーンチェンジ発生時間のデータをシーンチェンジ検出部111から取得し、顔位置検出部112から顔の個数と顔の位置と顔の面積を取得し、顔特徴抽出部113から顔特徴データを取得する。照合部401は、メタデータ記録部212の顔特徴データ(例えば、目の位置)を取得し、取得した顔特徴データをデータベース部402の顔特徴データ(例えば、目の位置)と照合する。照合の結果、データベース部402の顔特徴データの中に、取得した顔特徴データと一致するデータがあれば、人物の特定を行うことができる。人物を特定できるようなデータを予め顔特徴データとして有しているデータベース部402を搭載することによって特定の人物を検出できる。
以上に説明したように、実施の形態4に係る映像記録装置400は、シーンチェンジ検出部111を備えており、シーンチェンジの発生が検出されたフレームについてのみ、顔検出処理を行うように構成されている。このため、実施の形態4に係る映像記録装置400によれば、顔検出処理の対象となるフレームの数を減らすことができ、顔検出処理のテータ処理量が減り、顔検出処理に要する時間を短縮することができる。
また、実施の形態4に係る映像記録装置400によれば、データベース部402で、特定の人物に対する頻度を記憶しているので、頻度の回数が多い人物ほどより興味がある人物であるなどの判定が可能になり、ユーザー嗜好を類推することができる。
また、実施の形態4に係る映像記録装置400によれば、前記実施の形態2による効果に加えて、ユーザーの嗜好を類推することができる頻度の情報があるので、ユーザーの好みの人物を類推することができる。
なお、実施の形態3において、上記以外の点は、上記実施の形態1の場合と同じである。
本発明の実施の形態1に係る顔検出装置(すなわち、実施の形態1に係る顔検出方法を実施する装置)の構成を概略的に示すブロック図である。 図1のシーンチェンジ検出部の構成を概略的に示すブロック図である。 (a)及び(b)は、すべてのフレームについて顔検出処理を行う従来の顔検出方法を示す説明図であり、(c)〜(h)は、シーンチェンジが発生したフレームについて顔検出処理を行う実施の形態1の顔検出方法を示す説明図である。 (a)及び(b)は、実施の形態1における顔位置検出部による顔位置検出処理を示す説明図である。 (a)及び(b)は、実施の形態1における顔位置検出部による顔位置検出処理を示す説明図である。 実施の形態1における顔特徴抽出部による顔特徴抽出処理を示す説明図である。 (a)〜(c)は、実施の形態1における顔検出制御部による処理を示す説明図である。 実施の形態1に係る顔検出装置の動作(すなわち、実施の形態1に係る顔検出方法)を示すフローチャートである。 本発明の実施の形態1の変形例に係る顔検出装置(すなわち、実施の形態1の変形例に係る顔検出方法を実施する装置)の構成を概略的に示すブロック図である。 本発明の実施の形態1の変形例に係る顔検出装置の動作(すなわち、実施の形態1の変形例に係る顔検出方法)を示す説明図である。 実施の形態1の変形例に係る顔検出装置の動作(すなわち、実施の形態1の変形例に係る顔検出方法)を示すフローチャートである。 本発明の実施の形態2に係る映像記録装置(すなわち、実施の形態2に係る顔検出方法を実施する顔検出装置を含む)の構成を概略的に示すブロック図である。 実施の形態2におけるストリーム制御部の構成を概略的に示すブロック図である。 実施の形態2におけるメタデータ生成部によって生成されるメタデータの一例を示す説明図である。 実施の形態2におけるメタデータの使用法を示す説明図である。 実施の形態2に係る映像記録装置の動作(すなわち、実施の形態2に係る顔検出方法)を示すフローチャートである。 本発明の実施の形態3に係る顔検出装置(すなわち、実施の形態3に係る顔検出方法を実施する装置)の構成を概略的に示すブロック図である。 実施の形態3におけるデータベース部のデータの一例を示す説明図である。 本発明の実施の形態4に係る映像記録装置(すなわち、実施の形態4に係る顔検出方法を実施する顔検出装置を含む)の構成を概略的に示すブロック図である。
符号の説明
100,150,300 顔検出装置、 101 入力処理部、 102 ストリーム制御部、 103 バッファ部、 104 システム制御部、 110 顔検出部、 111 シーンチェンジ検出部、 112 顔位置検出部、 113 顔特徴抽出部、 114 顔検出制御部、 120 表示部、 141 復号化部、 142 シーンチェンジ判定部、 143 時間検出部、 200,400 映像記録装置、 202 HDD記録部、 203 HDD部、 210 メタデータ抽出機能付き顔検出部、 211 メタデータ生成部、 212 メタデータ記録部、 213 制御部、 221 ストリームID部、 222 ストリーム出力部、 301 照合部、 302 データベース部、 310 カウンタ部、 401 照合部、 402 データベース部、 410 カウンタ部、 SD シーンチェンジ検出信号、 ST シーンチェンジ発生時間のデータ、 FD 顔検出データ、 FP 顔位置データ、 FN 顔個数データ、 FA 顔面積データ、 FF 顔特徴データ、 MD メタデータ、 ES 符号化ストリーム、 D1,D2 映像データ、 ID ストリームID。

Claims (20)

  1. 入力された映像信号のフレームにシーンチェンジが発生したか否かを検出するシーンチェンジ検出手段と、
    前記映像信号に対して人物の顔の画像の検出処理を行い、検出された顔画像の位置情報を含む顔検出データを出力する顔位置検出手段と、
    シーンチェンジの発生が検出されたフレームにおいて、前記顔位置検出手段に顔画像の検出処理を実行させる制御手段と
    を有することを特徴とする顔検出装置。
  2. 前記映像信号及び前記顔検出データに基づいて、検出された前記顔画像の特徴を抽出して顔特徴データとして出力する顔特徴抽出手段をさらに有することを特徴とする請求項1に記載の顔検出装置。
  3. 予め顔特徴データを含む第1の参照データを記録する第1のデータベース手段と、
    前記顔特徴抽出手段からの前記顔特徴データを、前記第1のデータベース手段に記録されている前記第1の参照データと照合する第1の照合手段と
    をさらに有することを特徴とする請求項2に記載の顔検出装置。
  4. 第1の記憶手段をさらに有し、
    前記シーンチェンジ検出手段は、シーンチェンジの発生を検出したときに、シーンチェンジ発生時間のデータを出力し、
    前記第1の記憶手段は、前記シーンチェンジ検出手段がシーンチェンジの発生を検出したときに、前記シーンチェンジ発生時間のデータ、前記顔位置検出手段からの前記顔検出データ、及び前記顔特徴抽出手段からの前記顔特徴データを記憶する
    ことを特徴とする請求項2に記載の顔検出装置。
  5. 顔特徴データを記憶する第2の記憶手段をさらに有し、
    前記制御手段は、
    前記シーンチェンジ検出手段が、シーンチェンジの発生を検出したときに前記顔特徴抽出手段によって抽出される前記顔特徴データと、前記第2の記憶手段に記憶されている前記顔特徴データを比較し、
    前記比較の結果が不一致のときには、前記第1の記憶手段に、前記シーンチェンジ発生時間のデータ、前記顔位置検出手段からの前記顔検出データ、及び前記顔特徴抽出手段からの前記顔特徴データを記憶させ、かつ、前記第2の記憶手段に前回のシーンチェンジ発生時に抽出された顔特徴データを記憶させ、
    前記比較の結果が一致のときには、前記第1の記憶手段に、前記シーンチェンジ発生時間のデータ、前記顔位置検出手段からの前記顔検出データ、及び前記顔特徴抽出手段からの前記顔特徴データを記憶させずに、かつ、前記第2の記憶手段に前回のシーンチェンジ発生時に抽出された顔特徴データを記憶させる
    ことを特徴とする請求項2乃至4のいずれか1項に記載の顔検出装置。
  6. 前記第1の照合手段による前記照合の結果が一致である場合の回数を数える第1の計数手段をさらに有し、
    前記第1の記憶手段は、前記第1の計数手段によって生成された回数情報を記憶する
    ことを特徴とする請求項4に記載の顔検出装置。
  7. 前記映像信号にストリームIDを付加して出力するストリーム制御手段と、
    情報記録媒体に、前記ストリームIDが付加された映像信号を記録する第1のデータ記録手段と、
    前記シーンチェンジ検出手段からのシーンチェンジ発生時間のデータ及びストリームID、前記顔位置検出手段からの前記顔検出データ、及び前記顔特徴抽出手段からの前記顔特徴データから、前記ストリームIDで特定される時点に関するメタデータを生成するメタデータ生成手段と、
    前記情報記録媒体に、前記メタデータを記録する第2のデータ記録手段と
    を有し、
    前記制御手段は、シーンチェンジが発生したフレームおいて、前記顔位置検出手段に顔画像の検出処理を実行させ、前記顔特徴抽出手段に前記顔特徴データの抽出を実行させ、前記メタデータ生成手段に前記メタデータの生成処理を実行させ、前記第2のデータ記録手段に前記情報記録媒体への記録処理を実行させる
    ことを特徴とする請求項2乃至6のいずれか1項に記載の顔検出装置。
  8. 予めメタデータを含む第2の参照データを記録する第2のデータベース手段と、
    前記第2のデータ記録手段からの前記メタデータを、前記第2のデータベース手段に記録されている前記第2の参照データと照合する第2の照合手段と
    をさらに有することを特徴とする請求項7に記載の顔検出装置。
  9. 前記第2の照合手段による前記照合の結果が一致である場合の回数を数える第2の計数手段と、
    前記情報記録媒体に、前記第2の計数手段によって生成された回数情報を記録する第3のデータ記録手段と
    をさらに有することを特徴とする請求項8に記載の顔検出装置。
  10. 前記顔位置検出手段が顔画像の位置情報を含む顔検出データを出力したときに、前記制御手段は、前記シーンチェンジ検出手段に、所定フレームの期間だけ前記顔画像が検出された領域を、シーンチェンジの検出処理の対象範囲から除外してシーンチェンジの検出を行わせることを特徴とする請求項1乃至9のいずれか1項に記載の顔検出装置。
  11. シーンチェンジ検出手段が、入力された映像信号のフレームにシーンチェンジが発生したか否かを検出するステップと、
    顔位置検出手段が、前記映像信号に対して人物の顔の画像の検出処理を行い、検出された顔画像の位置情報を含む顔検出データを出力するステップと、
    制御手段が、シーンチェンジの発生が検出されたフレームおいて、前記顔位置検出手段に顔画像の検出処理を実行させるステップと
    を有することを特徴とする顔検出方法。
  12. 顔特徴抽出手段が、前記映像信号及び前記顔検出データに基づいて、検出された前記顔画像の特徴を抽出して顔特徴データとして出力するステップをさらに有することを特徴とする請求項11に記載の顔検出方法。
  13. 第1のデータベース手段に、予め顔特徴データを含む第1の参照データを記録するステップと、
    第1の照合手段が、前記顔特徴抽出手段からの前記顔特徴データを、前記第1のデータベース手段に記録されている前記第1の参照データと照合するステップと
    をさらに有することを特徴とする請求項12に記載の顔検出方法。
  14. 前記シーンチェンジ検出手段が、シーンチェンジの発生を検出したときに、シーンチェンジ発生時間のデータを出力するステップと、
    前記シーンチェンジ検出手段がシーンチェンジの発生を検出したときに、前第1の記憶手段が、前記シーンチェンジ発生時間のデータ、前記顔位置検出手段からの前記顔検出データ、及び前記顔特徴抽出手段からの前記顔特徴データを記憶するステップと
    を有することを特徴とする請求項12に記載の顔検出方法。
  15. 前記制御手段が、前記シーンチェンジ検出手段がシーンチェンジの発生を検出したときに前記顔特徴抽出手段によって抽出される前記顔特徴データと、第2の記憶手段に記憶されている前記顔特徴データを比較するステップと、
    前記制御手段が、前記比較の結果が不一致のときには、前記第1の記憶手段に、前記シーンチェンジ発生時間のデータ、前記顔位置検出手段からの前記顔検出データ、及び前記顔特徴抽出手段からの前記顔特徴データを記憶させ、かつ、前記第2の記憶手段に前回のシーンチェンジ発生時に抽出された顔特徴データを記憶させるステップと、
    前記制御手段が、前記比較の結果が一致のときには、前記第1の記憶手段に、前記シーンチェンジ発生時間のデータ、前記顔位置検出手段からの前記顔検出データ、及び前記顔特徴抽出手段からの前記顔特徴データを記憶させずに、かつ、前記第2の記憶手段に前回のシーンチェンジ発生時に抽出された顔特徴データを記憶させるステップと
    を有することを特徴とする請求項12乃至14のいずれか1項に記載の顔検出方法。
  16. 第1の計数手段が、前記第1の照合手段による前記照合の結果が一致である場合の回数を数えるステップと、
    前記第1の記憶手段が、前記第1の計数手段によって生成された回数情報を記憶するステップと
    をさらに有することを特徴とする請求項14に記載の顔検出方法。
  17. ストリーム制御手段が、前記映像信号にストリームIDを付加して出力するステップと、
    第1のデータ記録手段が、情報記録媒体に、前記ストリームIDが付加された映像信号を記録するステップと、
    メタデータ生成手段が、前記シーンチェンジ検出手段からのシーンチェンジ発生時間のデータ及びストリームID、前記顔位置検出手段からの前記顔検出データ、及び前記顔特徴抽出手段からの前記顔特徴データから、前記ストリームIDで特定される時点に関するメタデータを生成するステップと、
    第2のデータ記録手段が、前記情報記録媒体に、前記メタデータを記録するステップと、
    前記制御手段が、シーンチェンジが発生したフレームおいて、前記顔位置検出手段に顔画像の検出処理を実行させ、前記顔特徴抽出手段に前記顔特徴データの抽出を実行させ、前記メタデータ生成手段に前記メタデータの生成処理を実行させ、前記第2のデータ記録手段に前記情報記録媒体への記録処理を実行させるステップと
    をさらに有することを特徴とする請求項12乃至16のいずれか1項に記載の顔検出方法。
  18. 第2のデータベース手段に、予めメタデータを含む第2の参照データを記録するステップと、
    第2の照合手段が、前記第2のデータ記録手段からの前記メタデータを、前記第2のデータベース手段に記録されている前記第2の参照データと照合するステップと
    をさらに有することを特徴とする請求項17に記載の顔検出方法。
  19. 第2の計数手段が、前記第2の照合手段による前記照合の結果が一致である場合の回数を数えるステップと、
    第3のデータ記録手段が、前記情報記録媒体に、前記第2の計数手段によって生成された回数情報を記録するステップと
    をさらに有することを特徴とする請求項18に記載の顔検出方法。
  20. 前記顔位置検出手段が顔画像の位置情報を含む顔検出データを出力したときに、前記制御手段は、前記シーンチェンジ検出手段に、所定フレームの期間だけ前記顔画像が検出された領域を、シーンチェンジの検出処理の対象範囲から除外してシーンチェンジの検出を行わせることを特徴とする請求項11乃至19のいずれか1項に記載の顔検出方法。
JP2007178037A 2007-07-06 2007-07-06 顔検出装置及び顔検出方法 Expired - Fee Related JP4964044B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007178037A JP4964044B2 (ja) 2007-07-06 2007-07-06 顔検出装置及び顔検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007178037A JP4964044B2 (ja) 2007-07-06 2007-07-06 顔検出装置及び顔検出方法

Publications (2)

Publication Number Publication Date
JP2009015672A true JP2009015672A (ja) 2009-01-22
JP4964044B2 JP4964044B2 (ja) 2012-06-27

Family

ID=40356489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007178037A Expired - Fee Related JP4964044B2 (ja) 2007-07-06 2007-07-06 顔検出装置及び顔検出方法

Country Status (1)

Country Link
JP (1) JP4964044B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2222105A1 (en) 2009-01-27 2010-08-25 NTT DoCoMo, Inc. Radio communications system and method
US10694106B2 (en) * 2013-06-14 2020-06-23 Qualcomm Incorporated Computer vision application processing
JP2021509201A (ja) * 2018-01-17 2021-03-18 オ−ディーディー コンセプツ インク. 映像前処理方法、装置及びコンピュータプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0993527A (ja) * 1995-09-21 1997-04-04 Nippon Telegr & Teleph Corp <Ntt> 映像インデックス作成装置
JPH10234004A (ja) * 1997-02-18 1998-09-02 Toshiba Corp 動画像表示装置および表示方法
JPH10294923A (ja) * 1997-04-18 1998-11-04 Matsushita Electric Ind Co Ltd シーンチェンジ検出方法およびシーンチェンジ検出装置
JP2000358247A (ja) * 1999-01-19 2000-12-26 Matsushita Electric Ind Co Ltd レート制御装置、レート制御方法及び符号化装置
JP2001167110A (ja) * 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd 画像検索方法及びその装置
WO2005069171A1 (ja) * 2004-01-14 2005-07-28 Nec Corporation 文書対応付け装置、および文書対応付け方法
JP2006178516A (ja) * 2004-12-20 2006-07-06 Mitsubishi Electric Corp 監視記録装置
JP2006344236A (ja) * 2006-08-04 2006-12-21 Nec Corp 顔メタデータ生成方法および装置、並びに顔認識方法およびシステム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0993527A (ja) * 1995-09-21 1997-04-04 Nippon Telegr & Teleph Corp <Ntt> 映像インデックス作成装置
JPH10234004A (ja) * 1997-02-18 1998-09-02 Toshiba Corp 動画像表示装置および表示方法
JPH10294923A (ja) * 1997-04-18 1998-11-04 Matsushita Electric Ind Co Ltd シーンチェンジ検出方法およびシーンチェンジ検出装置
JP2000358247A (ja) * 1999-01-19 2000-12-26 Matsushita Electric Ind Co Ltd レート制御装置、レート制御方法及び符号化装置
JP2001167110A (ja) * 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd 画像検索方法及びその装置
WO2005069171A1 (ja) * 2004-01-14 2005-07-28 Nec Corporation 文書対応付け装置、および文書対応付け方法
JP2006178516A (ja) * 2004-12-20 2006-07-06 Mitsubishi Electric Corp 監視記録装置
JP2006344236A (ja) * 2006-08-04 2006-12-21 Nec Corp 顔メタデータ生成方法および装置、並びに顔認識方法およびシステム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2222105A1 (en) 2009-01-27 2010-08-25 NTT DoCoMo, Inc. Radio communications system and method
US10694106B2 (en) * 2013-06-14 2020-06-23 Qualcomm Incorporated Computer vision application processing
JP2021509201A (ja) * 2018-01-17 2021-03-18 オ−ディーディー コンセプツ インク. 映像前処理方法、装置及びコンピュータプログラム
JP7105309B2 (ja) 2018-01-17 2022-07-22 オ-ディーディー コンセプツ インク. 映像前処理方法、装置及びコンピュータプログラム

Also Published As

Publication number Publication date
JP4964044B2 (ja) 2012-06-27

Similar Documents

Publication Publication Date Title
KR101611440B1 (ko) 이미지 처리 방법 및 장치
US8675065B2 (en) Video monitoring system
US8063947B2 (en) Image shooting device
US8169469B2 (en) Information processing device, information processing method and computer readable medium
EP1117262A2 (en) Image, processing apparatus and method, and storage medium
US8654131B2 (en) Video image processing apparatus and video image processing method
WO2010113666A1 (ja) ビデオデータ記録装置、ビデオデータ再生装置、およびビデオデータ記録方法、ビデオデータ再生方法
JP2009075999A (ja) 画像認識装置、画像認識方法、画像認識プログラム
US20130083965A1 (en) Apparatus and method for detecting object in image
US10863113B2 (en) Image processing apparatus, image processing method, and storage medium
JP7441926B2 (ja) 映像コーディングを行うコンピュータプログラム
WO2014065033A1 (ja) 類似画像検索装置
KR20180054794A (ko) 카메라 프리뷰
JP4964044B2 (ja) 顔検出装置及び顔検出方法
CN103986981B (zh) 多媒体文件的情节片段的识别方法及装置
US8891833B2 (en) Image processing apparatus and image processing method
JP2000357234A (ja) 画像処理装置およびその方法
JP5850188B2 (ja) 画像表示システム
JP5962383B2 (ja) 画像表示システムおよび画像処理装置
JP2018137639A (ja) 動画像処理システム、並びに、符号化装置及びプログラム、並びに、復号装置及びプログラム
JP5464965B2 (ja) 画像処理装置及びその制御方法、並びにプログラム及び記憶媒体
JP2011151732A (ja) 映像処理装置
JP2016021155A (ja) 撮像装置
KR102509981B1 (ko) 가상 세계를 이용한 비디오 핑거프린팅 학습 방법 및 이를 이용한 시스템
KR102594803B1 (ko) 압축영상에 대한 신택스 기반의 동일인 검색 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120327

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees