JP2011234314A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2011234314A JP2011234314A JP2010105672A JP2010105672A JP2011234314A JP 2011234314 A JP2011234314 A JP 2011234314A JP 2010105672 A JP2010105672 A JP 2010105672A JP 2010105672 A JP2010105672 A JP 2010105672A JP 2011234314 A JP2011234314 A JP 2011234314A
- Authority
- JP
- Japan
- Prior art keywords
- face
- input image
- subject
- image
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00681—Detecting the presence, position or size of a sheet or correcting its position before scanning
- H04N1/00684—Object of the detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
【解決手段】時系列で並ぶ複数の入力画像を取得する画像取得手段と、画像取得手段で取得された入力画像から複数の被写体領域を検出する検出手段と、検出手段で一の入力画像から第一の被写体領域を検出できない場合に、複数の入力画像のうち、第一の被写体領域を検出することができた第一の入力画像より過去の入力画像と一の入力画像とで検出された複数の被写体領域に基づき、第一の被写体領域の位置を推定する推定手段と、を有し、推定手段は、過去の入力画像と一の入力画像とで検出された複数の被写体領域の移動情報を、被写体領域の大きさ毎に算出し、算出した被写体領域の移動情報と第一の被写体領域の大きさとに基づき、一の入力画像における第一の被写体領域の位置を推定する。
【選択図】図1
Description
ところで、現在実用化されている顔検出技術では、正面向きや若干の顔向き変化には対応することができるが、真横を向いたり、上下に顔を大きく傾けた場合には検出が失敗してしまうことがある。また、現在実用化されている顔検出技術では、手ブレ等により画像内の顔領域部分がボケてしまった場合にも検出が失敗してしまうことがある。
このため、時間的に連続する画像に対する顔検出結果をそのままユーザに表示した場合、顔検出枠が表示・消滅を繰り返し、見栄えのよくない表示状態になってしまう問題がある。
この問題に対し、ある画像で顔検出を失敗した場合には、それより過去の検出結果を利用して顔が存在する位置を推定することで、継続的な検出枠の表示を実現する方法がある。特許文献1では、過去の画像における顔領域とその周辺領域の画像特徴を記憶しておき、顔検出ができない画像に対しては、記憶した画像特徴に類似する領域を探索し、該当領域を顔の位置として推定するという方法を説明している。しかしながら特許文献1では、カメラの位置や方向が変更できる可動カメラ映像を対象とした場合、画像上での顔の移動方向や移動量が分からないため、顔とその周辺領域の画像特徴を探索する際、探索範囲を広く設定しなくてはならない。このため、複数の顔を対象とした場合に正しく顔の位置を推定することができない。
そこでこの問題に対しては、特許文献2等で説明される手法によりカメラが動いた方向と量とを算出し、これらの情報に基づいて画像上で顔が移動する方向と量を推定し、正しい顔の位置を推定するという方法も提案されている。以下、カメラが動いた方向と量とをカメラ動き情報と呼ぶ。
また別の問題として、複数の顔を対象とする撮影において、カメラを動かして撮影した場合、画像の手前の顔と画像の奥の顔とでは、画像内における移動量に差が生じる。一般的に、手前の顔より奥の顔の方が移動量が大きくなる。このため、仮に前述の方法によりカメラ動き情報を算出できたとしても、手前の顔と奥の顔との双方に適切な顔の移動量を決定することができない。
以下、添付図面を参照して本発明の好適な実施形態を説明する。
図1は、本実施形態をデジタルカメラ等の画像撮像装置で実現する場合の概略構成ブロック図である。
画像撮像部101は、CCD(Charge Coupled Devices)やCMOS(Complemetary Metal Oxide Semiconductor)等のイメージセンサや光学系、絞り等を制御する制御部から成る。
主制御部102は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等から成る。主制御部102は、画像撮像部101で得た画像信号をデジタル信号に変換したり、各種画像処理を制御したり、表示部107の画像表示やUIを制御したりする機能を有する。主制御部102は、画像撮像部101から時系列で並ぶ複数の入力画像を取得する。
内部メモリ103は、SDRAM(Synchronous Dynamic Random Access Memory)等から成り、主制御部で生成される各種データを一時的に記憶する。
記憶媒体104は、SD(Secure Digital)メモリカード等、不揮発性メモリから成る。
顔検出部105は、画像撮像部101で得た画像の中から顔領域を検出する。
顔追尾処理部106は、過去の顔検出結果の情報に基づいて現在の顔の位置を推定する。
表示部107は、液晶ディスプレイ等から成り、画像撮像部101で得られた画像や顔検出部105による検出結果等を表示する。
なお、顔検出部105及び顔追尾処理部106は、ハードウェアであってもよいし、主制御部102がプログラムを実行することにより実現されるソフトウェアであってもよい。ソフトウェアの場合、前記プログラムは、例えば、内部メモリ103等に記憶される。
また、後述するように、画像撮像装置は、操作部を有していていもよい。なお、画像撮像装置は、画像処理装置(コンピュータ)の一例である。
第一の実施形態の処理の流れを図2のフローチャートで説明する。
ステップS201において、主制御部102は、画像撮像部101より入力画像Img_inを画像取得する。
ステップS202において、顔検出部105は、入力画像Img_inに対して顔検出処理を実行する。
顔検出処理は公知の手法として、顔のテンプレートマッチングを用いる方法や、予め機械学習した特徴抽出フィルターを検出器として用いる方法等がある。本実施形態においてはこれら公知の顔検出処理を用いればよく、特定の顔検出方式に限定されるものではない。
顔検出部105が、入力画像Img_inに対して顔検出を実行した結果の例を図3の画像Bに示す。図3の画像Bでは、顔検出が成功した顔領域を矩形の枠で囲って表示されている。即ち、この例では、顔fi1〜fi6に対しては顔検出を成功したが、顔fi7については顔検出を失敗した場合を示している。なお、以下の説明では、この検出結果を用いて説明を行うものとする。
ステップS203において、顔追尾処理部106は、ステップS202における顔検出結果と、1つ前のフレームImg_pにおける顔検出結果との対応付けを行う。ここでの対応付けは、ステップS204においてカメラの動き情報を算出するためのもので、簡易な対応付けであり、ステップS207における本対応付けに対して仮対応付けと呼ぶ。
なお、以下の説明では、1つ前のフレームImg_pを前フレームImg_p、これに対し現在のフレームである入力画像Img_inを現フレームImg_inと呼ぶことにする。
図3の画像Aに前フレームImg_pにおける顔検出結果を示す。前フレームImg_pにおける顔検出は、顔fp1〜顔fp8までの全ての顔を検出できているものとする。また、図3では、前フレームImg_pに対しカメラを右方向に動かした状態のものとして現フレームImg_inを示している。即ち、各顔は、画像上で左方向に移動していることになる。
例えば、顔追尾処理部106は、前フレームImg_pにおける顔fp1が現フレームImg_inのどの顔に対応するかを、以下の式(1)を用いて決定する。
以上の方法により顔追尾処理部106が、前フレームImg_pにおける全ての顔について対応付けを行った結果を図5に示す。
なお、本実施形態における顔のサイズについては、顔検出結果として得られる顔を囲う正方形の一辺の長さとする。
顔追尾処理部106は、フレーム前後の顔サイズの変化率が式(2)を満たす場合、顔のサイズの変化が大きくないため対応関係にあるとし、そうでない場合には対応関係にないと判断する。
本実施形態では、顔fp8が式(1)ではfi3と対応関係にあると判断されるが、式(2)により対応関係にないとされ、最終的に対応する顔のないものとして判定される。
以上のように顔追尾処理部106が、仮対応付けを行った結果を図6に示す。なお、以降の処理で用いるため、顔追尾処理部106は、顔検出結果から得られる顔の中心座標と顔のサイズとを図6の対応表に追加する。
ステップS204の処理の詳細な流れを、図7を用いて説明する。
ステップS301において、顔追尾処理部106は、ステップ203で仮対応付けが行われた顔の移動角度と顔の個数とに基づいて顔・角度ヒストグラムを生成する。
図8に、顔fpnと顔finとが対応付けられた場合の移動状況を示す。dx,dyがX方向、Y方向の移動量である。θが移動角度となる。この場合、顔追尾処理部106は、以下の式(3)により移動角度θを算出することができる。なお、顔追尾処理部106は、dx,dyを、ステップS203で生成した図6に示す対応表にある前フレームと現フレームとの顔中心座標から容易に算出することができる。
なお、各顔の移動量をLとすると、顔追尾処理部106は、移動量Lを以下の式(4)で算出することができる。
ステップS303において、顔追尾処理部106は、ステップS302で決定した主方向に対する移動量(以下、主方向移動量と呼ぶ)を算出する。
顔追尾処理部106は、主方向移動量を、ステップS302で算出した累積移動量の平均値とする。即ち、主方向の角度に分布する累積移動量の値を、主方向の角度に分布する顔の個数で割った値が主方向移動量move_mとなる。
ステップS304において、顔追尾処理部106は、ステップS302で決定した主方向とステップS303で算出した主方向移動量とに基づき、カメラの動き情報を算出する。
本実施形態では、顔追尾処理部106は、カメラの動きに関する状態として、「a.静止状態」,「b.パン又はチルト」,「c.それ以外」の3つの状態を判断する。なお、「c.それ以外」とは、パンとズームを同時に行うような複雑なカメラ操作でありカメラ動き情報を正確に算出することが困難な状況のことである。
顔・角度ヒストグラムの分布が特定の角度に山をもつような場合には、カメラがその角度に動いていると分かるため、顔追尾処理部106は、bの状態であると判断する。それ以外の場合、例えば図11の累積移動量・角度ヒストグラムAに示すようにどの角度にも度数が分布する場合や、累積移動量・角度ヒストグラBに示すように複数の角度に山が分布する場合には、複雑なカメラ操作が行われた場合とし、顔追尾処理部106は、cの状態と判断する。
なお、顔・角度ヒストグラムの分布がbであるか否かの判定方法としては、顔追尾処理部106は、平均度数以上の度数をもつ角度の分散を調べる。そして、顔追尾処理部106は、散値が所定の閾値より低い場合、即ち度数の高い角度が特定の角度に集中している場合には、bの状態であるとすればよい。
以上の方法によりカメラの状態を判断した結果、bであると判断された場合には、顔追尾処理部106は、X方向の移動量vec_xとY方向の移動量vec_yを算出する。顔追尾処理部106は、これらの移動量を、ステップS302で決定した主方向の角度θとS303で算出した主方向移動量move_mとに基づいて以下の式(5)で算出することができる。
ステップS205において、顔追尾処理部106は、ステップS204の結果よりカメラの状態がcであるか否かの判定を行う。カメラの状態がcである場合には、カメラ動き情報を用いた顔の位置推定を行うのは困難なため、顔追尾処理部106は、位置推定処理は行わずにステップS211に処理を進める。ステップS211では、主制御部102は、ステップS202の顔検出処理により検出された顔に対してだけ、結果枠を表示する。
カメラの状態がcでない場合には、顔追尾処理部106は、ステップS206に処理を進める。
ステップS206において、顔追尾処理部106は、ステップS204の結果よりカメラの状態がaであるか否かの判定を行う。カメラの状態がaである場合には、カメラが静止状態であり顔の位置に変動がないため、主制御部102は、ステップS212に処理を進め、前のフレームの検出結果枠をそのまま表示する。
まず、顔追尾処理部106は、ステップS203で行った仮対応付けに誤りがないか判定する。
判定方法としては、顔追尾処理部106は、ステップS203で仮対応付けされた顔の前フレームImg_pと現フレームImg_inとにおける顔中心座標から、顔の移動角度と移動量とを算出する。そして、顔追尾処理部106は、前記顔の移動角度と、ステップS204で算出したカメラ動き情報の主方向と、を比較すると共に、前記顔の移動量とを、ステップS204で算出したカメラ動き情報の主方向移動量と、を比較する。顔追尾処理部106は、移動角度と主方向との差、移動量と主方向移動量との差、どちらか一方でも所定の範囲を超えた場合には、対応付けに誤りがあったと判定する。
本実施形態では、顔fp7と顔fi6とが対応付けられていたが、移動量が所定の範囲を超えるため、顔追尾処理部106は、対応付けに誤りがあったと判定する。
ここで、図3に示した前フレームImg_pと現フレームImg_inとのようにカメラが動いて画像内の顔が移動した場合、画像の手前に写る人物と奥に写る人物では、画像内の移動量が異なる。一般的に、人物がある程度静止している状態であれば、画像の奥に写る人物ほど画像内の移動量は大きくなる。このため、このような状況で画像に対し顔の移動量を一意に決めたのでは、全ての顔に対して適切な移動量を決定することができない。そこで、本実施形態では、顔のサイズに応じて移動量を決定することにより上記問題を解決する。
ステップS401において、顔追尾処理部106は、顔のサイズに対する顔の移動量をプロットして顔サイズ・移動量対応グラフを生成する。顔fp1〜fp6までの顔サイズと移動量とを図13に示す値とした場合、顔サイズ・移動量対応グラフは、図14に示す通りとなる。
ステップS402において、顔追尾処理部106は、ステップS401で生成した対応グラフに対し、線形回帰分析により、顔サイズと移動量の近似直線を算出する。例えば、図13の対応表に示す値を用いて顔追尾処理部106が代表的な線形回帰分析の手法である最小2乗法を用いて算出した近似直線は以下の式(7)で表される。式(7)におけるxは顔サイズを表す変数であり、yは移動量を示す変数である。
ステップS403において、顔追尾処理部106は、未検出顔のサイズを取得する。未検出顔のサイズは、図6の対応表における前フレームの顔サイズを参照する。
ステップS404において、顔追尾処理部106は、ステップS402で算出した式(7)に、ステップS403で取得した未検出顔のサイズを代入し、未検出顔の移動量L_ffを算出する。
ステップS405において、顔追尾処理部106は、未検出顔の移動方向θ_ffを決定する。
未検出顔の移動方向θ_ffは、ステップS302で決定した主方向の角度とする。
以上より、未検出顔の顔移動ベクトル(vec_ff_x,vec_ff_y)は、以下の式(8)により算出される。
ステップS209において、顔追尾処理部106は、未検出顔の位置とサイズを算出する。
まず、顔追尾処理部106は、未検出顔の位置として、顔の中心座標を算出する。
顔追尾処理部106は、未検出顔の中心座標(Cx,Cy)を、未検出顔の前フレームにおける顔中心座標(pfnX,pfnY)と、未検出顔の顔移動ベクトル(vec_ff_x,vec_ff_y)と、を用いて、以下の式(9)により算出する。但し、未検出顔の顔IDがfpnの場合である。
顔追尾処理部106は、未検出顔のサイズS_ffを、前フレームと現フレームで対応関係にある顔サイズの変化率の平均値ave_frを算出し、この平均値ave_frを未検出顔の前フレームにおける顔サイズにかけることで算出する。
本実施形態における未検出顔fp7の前フレームにおける顔サイズは、図6よりS_fp7のため、現フレームにおける未検出顔fp7の顔サイズは、S_fp7×ave_frとなる。
なお、顔追尾処理部106は、変化率の平均値の算出において、ステップS207において本対応付けにより対応付けられた顔のみを用いて行うものとする。
ステップS210において、主制御部102は、最終的な検出結果を表示部107に表示する。
図16は、デジタルカメラの表示部に検出枠を表示した場合の一例を示す図である。図16における1601は、表示部(表示部107)であり、1602は撮影、画像再生、データ削除等の操作を行う操作部である。
第二の実施形態における前フレームImg_pと現フレームImg_inとの画像例を図17に示す。
女性や子供等顔のサイズが小さい場合、図17の顔fp8に示すように画像の手前に写っていても画像の奥の顔と同程度のサイズに見えることがある。このような場合、顔のサイズが同じであっても、画像における移動量が異なってしまう。即ち、この例では顔fi8よりも顔fi6の移動量の方が大きくなる。そこで、これらの顔を同一グループとして移動量を決定すると、精度が低下してしまう。
第二の実施形態では、このような状況に対しても、精度を落とすことなく未検出顔の移動量を決定する方法を説明する。第一の実施形態のおけるステップS303において、顔サイズ毎の移動ベクトルを算出する際に、算出に利用する顔に対して画像上の水平方向の位置による制限を加えることで、精度低下要因となる顔を除外する。つまり、顔追尾処理部106は、画像を水平方向に分割した際、同一の領域にある大きさの類似する被写体領域を用いて、被写体領域の大きさ毎の移動情報を算出する。このため、カメラに対して水平方向に複数の列を成した集団がカメラに顔を向けて近づいてくるような状況において、特に大きな効果を確認できる。なお、ここで、「大きさの類似する」とは、例えば、大きさの誤差が所定の範囲内のもの等のことである。
なお、第二の実施形態では、第一の実施形態のステップS208の処理の一部を変更する。このため、それ以外の処理であるステップS201〜S207,ステップS209,S210については第一の実施形態と同一の処理となるため、以下では説明を省略する。
第二の実施形態におけるステップS208の処理の流れを図19に示す。
ステップS1801において、顔追尾処理部106は、ステップS207で本対応付けされた顔についてその位置座標を取得する。位置座標は、図18に示す対応表より取得する。
ステップS1802において、顔追尾処理部106は、ステップS1801で取得した位置座標に基づき水平位置でのグルーピングを行う。
グルーピングの一例として、例えば、顔追尾処理部106は、前フレームImg_pにおける顔のY座標の最大値f_maxと最小値f_minとを取得し、以下の式(10)を満たすサイズの範囲を1つのグループとしてグルーピングすればよい。
この場合、式(10)を用いて顔追尾処理部106が、水平位置でグルーピングした結果を図21の表に示す。
またグルーピング結果を画像で示されたたものが図22となる。
ステップS1803において、顔追尾処理部106は、ステップS1802でグルーピングした各グループにおいて、他の顔と極端にサイズの異なる顔がある場合には、その顔をステップS401における処理対象の顔から除外する。処理対象外の顔を決定する方法としては、顔追尾処理部106は、グループ内の顔サイズの平均値を算出し、この平均値と大きく乖離するサイズをもつ顔がグループ内にあるか否かを判定する。もし大きく乖離する顔がある場合には、顔追尾処理部106は、その顔を処理対象外の顔として決定する。
本実施形態では、グループ3における顔fi8が処理対象外の顔と決定されるものとする。
ステップS401の処理では、顔追尾処理部106は、ステップ1803で対象外とした顔以外の顔を用いて、第一の実施形態と同様の処理を実施する。
図19におけるステップS401〜S405までの処理は、第一の実施形態と同一の処理となるため、同じ番号を付与して説明を省略する。
第一の実施形態と第二の実施形態とにおいて、現フレームImg_inで未検出となる顔について本提案手法を用いて前記顔の位置を推定する例を説明したが、特定の状況では本提案手法によっても正しく位置を推定することができない場合がある。
例えば、人物が急に走り出した場合には、前フレームImg_pと現フレームImg_inとの顔の移動量が極端に大きくなるため、推定した位置に顔が含まれなくなってしまう。
また、人物は静止していたとしても、カメラが急にパン・チルトを逆方向に移動した場合等には、推定した位置とは逆の方向に実際の顔が存在することになり、この場合も同様に推定した位置に顔が含まれなくなってしまう。
このような状況において、推定した位置を素直にユーザに表示した場合、顔が存在しない位置に検出結果枠が表示されてしまい、見栄えがよくない。特に後述した状況では、画像内の多くの顔について誤った検出結果が表示されてしまうことになる。
第三の実施形態では、主制御部102が、第一の実施形態或いは第二の実施形態で推定した未検出顔の位置付近の肌色情報を代表色の一例として取得する。主制御部102が、この肌色情報に基づき、推定した位置に実際に顔領域があるか否かを調べ、顔領域がある場合にのみ検出結果を表示することで上記問題を解決する。
ステップS2301において、主制御部102は、ステップS209で算出された未検出顔の位置付近における肌色画素をカウントする。なお、ステップS209で算出された未検出顔の中心座標とサイズとからなる矩形領域は、正面を向いた顔に対し顔領域に隣接する程度の大きさで設定される場合が多い。このため、斜め方向を向いた顔の場合、矩形領域の端には背景領域や髪の領域が含まれてしまい、肌色領域だけを抽出することができない。そこで、主制御部102は、肌色画素をカウントする際の肌色探索領域として、ステップS209で算出された未検出顔のサイズを小さくした領域を設定する。
ステップS209で算出された未検出顔の中心座標とサイズとから設定される矩形領域と、実際に設定する肌色探索領域との関係を図24に示す。ステップS209で算出された未検出顔の中心座標とサイズとから設定される矩形領域(推定顔領域)が2401であり、肌色探索領域(探索領域)が2402となる。つまり、探索領域は、推定顔領域の中心位置から所定範囲内の領域となる。
肌色画素の検出方法については特に限定さるものではなく、公知の技術を用いればよい。例えば特開平09−107551で示されるように、RGBやYcbCrといった一般的な色空間上において、予め測定した肌色画素の値をプロットし、当該色空間上で肌色画素の範囲を決定する方法等がある。なお、より高精度に肌色画素を検出する場合には、主制御部102は、前のフレームにおける肌色領域の範囲を保持しておき、その範囲から現在のフレームにおける範囲を決定するようにすればよい。
ステップS2302において、式(11)を満たさない場合には、主制御部102は、ステップS203〜ステップS209までの処理で推定された未検出顔の位置に、実際には顔領域が存在しなかったと判断する。この場合、主制御部102は、ステップS211に処理を進め、ステップS202の顔検出処理により検出された顔についてのみ最終的な検出結果として表示する。
また、本実施形態では、顔が人間の顔であるとし、主制御部102は、ステップS2301で肌色画素をカウント、判定するようにしている。しかしながら、犬や猫等他の動物を検出対象として実施する場合には、主制御部102は、これら動物の顔領域付近の代表色抽出と領域判定を行えばよい。
また、本実施形態では、特に顔領域に対して未検出した場合の位置を推定する方法を説明したが、歩行者等の人体領域を検出対象とすることもできる。
第三の実施形態では、主制御部102が、第一、第二の実施形態により推定した未検出顔の位置に対し、肌色領域の判定を行うことで実際に顔領域があるか否かを調べ、肌色判定で顔領域があるとされた場合のみ、推定した未検出顔の位置を正しいと判断する。このため、急に人物が動き出した場合やカメラの画角が変わった場合等においても、顔が存在しない領域を誤って顔領域として推定してしまうことを防ぐことができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (9)
- 時系列で並ぶ複数の入力画像を取得する画像取得手段と、
前記画像取得手段で取得された入力画像から複数の被写体領域を検出する検出手段と、
前記検出手段で前記入力画像から一の被写体領域を検出できない場合に、前記複数の入力画像のうち、前記一の被写体領域を検出することができた前記入力画像より過去の入力画像と前記入力画像とで検出された複数の被写体領域に基づき、前記一の被写体領域の位置を推定する推定手段と、
を有し、
前記推定手段は、前記過去の入力画像と前記入力画像とで検出された複数の被写体領域の移動情報を、被写体領域の大きさ毎に算出し、算出した被写体領域の移動情報と前記一の被写体領域の大きさとに基づき、前記入力画像における前記一の被写体領域の位置を推定する画像処理装置。 - 前記推定手段は、前記過去の入力画像と前記入力画像とで検出された複数の被写体領域のうち、前記過去の入力画像と前記入力画像とを水平方向に分割した際、同一の領域にある大きさの類似する被写体領域を用いて、被写体領域の大きさ毎の移動情報を算出する請求項1記載の画像処理装置。
- 前記推定手段により推定された領域における代表色を抽出する代表色抽出手段と、
前記代表色抽出手段により抽出された代表色に基づき、前記推定手段により推定された領域に被写体領域があるか否かを判定する領域判定手段と、
を更に有する請求項1又は2記載の画像処理装置。 - 前記代表色抽出手段は、推定手段により推定された領域の中心位置から所定範囲内の画素を用いて代表色を抽出する請求項3記載の画像処理装置。
- 前記移動情報とは、前記過去の入力画像における被写体領域が、前記入力画像においてどの位置に移動したかを表す情報であり、移動方向、移動量の少なくともどちらか一方である請求項1乃至4何れか1項記載の画像処理装置。
- 前記被写体領域とは、人物或いは動物の顔領域、又は人体領域である請求項1乃至5何れか1項記載の画像処理装置。
- 前記被写体領域が人物の顔領域である場合、前記代表色は肌色である請求項3又は4記載の画像処理装置。
- 画像処理装置が実行する画像処理方法であって、
時系列で並ぶ複数の入力画像を取得する画像取得ステップと、
前記画像取得ステップで取得された入力画像から複数の被写体領域を検出する検出ステップと、
前記検出ステップで前記入力画像から一の被写体領域を検出できない場合に、前記複数の入力画像のうち、前記一の被写体領域を検出することができた前記入力画像より過去の入力画像と前記入力画像とで検出された複数の被写体領域に基づき、前記一の被写体領域の位置を推定する推定ステップと、
を含み、
前記推定ステップでは、前記過去の入力画像と前記入力画像とで検出された複数の被写体領域の移動情報を、被写体領域の大きさ毎に算出し、算出した被写体領域の移動情報と前記一の被写体領域の大きさとに基づき、前記入力画像における前記一の被写体領域の位置を推定する画像処理方法。 - コンピュータに、
時系列で並ぶ複数の入力画像を取得する画像取得ステップと、
前記画像取得ステップで取得された入力画像から複数の被写体領域を検出する検出ステップと、
前記検出ステップで前記入力画像から一の被写体領域を検出できない場合に、前記複数の入力画像のうち、前記一の被写体領域を検出することができた前記入力画像より過去の入力画像と前記入力画像とで検出された複数の被写体領域に基づき、前記一の被写体領域の位置を推定する推定ステップと、
を実行させ、
前記推定ステップでは、前記過去の入力画像と前記入力画像とで検出された複数の被写体領域の移動情報を、被写体領域の大きさ毎に算出し、算出した被写体領域の移動情報と前記一の被写体領域の大きさとに基づき、前記入力画像における前記一の被写体領域の位置を推定するプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010105672A JP5484184B2 (ja) | 2010-04-30 | 2010-04-30 | 画像処理装置、画像処理方法及びプログラム |
US13/093,741 US9001219B2 (en) | 2010-04-30 | 2011-04-25 | Image processing apparatus configured to detect object included in image and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010105672A JP5484184B2 (ja) | 2010-04-30 | 2010-04-30 | 画像処理装置、画像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011234314A true JP2011234314A (ja) | 2011-11-17 |
JP5484184B2 JP5484184B2 (ja) | 2014-05-07 |
Family
ID=44857969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010105672A Expired - Fee Related JP5484184B2 (ja) | 2010-04-30 | 2010-04-30 | 画像処理装置、画像処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9001219B2 (ja) |
JP (1) | JP5484184B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015179438A (ja) * | 2014-03-19 | 2015-10-08 | オムロン株式会社 | 画像処理装置、移動速度判定方法、および移動速度判定プログラム |
WO2017094504A1 (ja) * | 2015-11-30 | 2017-06-08 | ソニー株式会社 | 画像処理装置、画像処理方法、撮像装置、及び、プログラム |
JP2018005881A (ja) * | 2016-07-08 | 2018-01-11 | 深セン市優必選科技有限公司 | 顔検出追跡方法、ロボットヘッドの回動制御方法、及びロボット |
JP2019124864A (ja) * | 2018-01-18 | 2019-07-25 | 株式会社インテック | 撮像支援システムと撮像支援方法及び撮像支援プログラム |
CN111144406A (zh) * | 2019-12-22 | 2020-05-12 | 复旦大学 | 一种太阳能面板清扫机器人自适应目标roi定位方法 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9104909B2 (en) * | 2010-12-15 | 2015-08-11 | Canon Kabushiki Kaisha | Image processing apparatus and method of processing image |
JP5959923B2 (ja) * | 2012-04-26 | 2016-08-02 | キヤノン株式会社 | 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置 |
US10496874B2 (en) * | 2015-10-14 | 2019-12-03 | Panasonic Intellectual Property Management Co., Ltd. | Facial detection device, facial detection system provided with same, and facial detection method |
JP6879296B2 (ja) * | 2016-03-31 | 2021-06-02 | 日本電気株式会社 | 画像検出装置、画像検出方法、及びプログラム |
KR102623989B1 (ko) * | 2016-08-01 | 2024-01-11 | 삼성전자주식회사 | 영상 처리 방법 및 이를 지원하는 전자 장치 |
JP6897082B2 (ja) * | 2016-12-13 | 2021-06-30 | 富士通株式会社 | 顔向き推定用コンピュータプログラム、顔向き推定装置及び顔向き推定方法 |
CN109063574B (zh) * | 2018-07-05 | 2021-04-23 | 顺丰科技有限公司 | 一种基于深度神经网络检测的包络框的预测方法、系统及设备 |
KR102389066B1 (ko) * | 2019-11-15 | 2022-04-22 | 주식회사 에버정보기술 | 얼굴 인식을 위한 얼굴영상 생성 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006508461A (ja) * | 2002-11-29 | 2006-03-09 | ソニー・ユナイテッド・キングダム・リミテッド | 顔検出及び顔追跡 |
JP2007219603A (ja) * | 2006-02-14 | 2007-08-30 | Matsushita Electric Ind Co Ltd | 人物追跡装置、人物追跡方法および人物追跡プログラム |
JP2008288868A (ja) * | 2007-05-17 | 2008-11-27 | Casio Comput Co Ltd | 撮像装置及びプログラム |
JP2010183291A (ja) * | 2009-02-04 | 2010-08-19 | Olympus Imaging Corp | 追尾装置および追尾方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09107551A (ja) | 1995-10-11 | 1997-04-22 | Canon Inc | 画像入力装置 |
JPH09212648A (ja) | 1996-01-31 | 1997-08-15 | Toshiba Corp | 動画像処理方法 |
EP3358501B1 (en) * | 2003-07-18 | 2020-01-01 | Canon Kabushiki Kaisha | Image processing device, imaging device, image processing method |
JP4274233B2 (ja) * | 2006-11-30 | 2009-06-03 | ソニー株式会社 | 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム |
TWI355615B (en) * | 2007-05-11 | 2012-01-01 | Ind Tech Res Inst | Moving object detection apparatus and method by us |
JP2009017194A (ja) * | 2007-07-04 | 2009-01-22 | Sanyo Electric Co Ltd | 物体検出装置及び方法並びに撮像装置 |
-
2010
- 2010-04-30 JP JP2010105672A patent/JP5484184B2/ja not_active Expired - Fee Related
-
2011
- 2011-04-25 US US13/093,741 patent/US9001219B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006508461A (ja) * | 2002-11-29 | 2006-03-09 | ソニー・ユナイテッド・キングダム・リミテッド | 顔検出及び顔追跡 |
JP2007219603A (ja) * | 2006-02-14 | 2007-08-30 | Matsushita Electric Ind Co Ltd | 人物追跡装置、人物追跡方法および人物追跡プログラム |
JP2008288868A (ja) * | 2007-05-17 | 2008-11-27 | Casio Comput Co Ltd | 撮像装置及びプログラム |
JP2010183291A (ja) * | 2009-02-04 | 2010-08-19 | Olympus Imaging Corp | 追尾装置および追尾方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015179438A (ja) * | 2014-03-19 | 2015-10-08 | オムロン株式会社 | 画像処理装置、移動速度判定方法、および移動速度判定プログラム |
WO2017094504A1 (ja) * | 2015-11-30 | 2017-06-08 | ソニー株式会社 | 画像処理装置、画像処理方法、撮像装置、及び、プログラム |
JP2018005881A (ja) * | 2016-07-08 | 2018-01-11 | 深セン市優必選科技有限公司 | 顔検出追跡方法、ロボットヘッドの回動制御方法、及びロボット |
JP2019124864A (ja) * | 2018-01-18 | 2019-07-25 | 株式会社インテック | 撮像支援システムと撮像支援方法及び撮像支援プログラム |
CN111144406A (zh) * | 2019-12-22 | 2020-05-12 | 复旦大学 | 一种太阳能面板清扫机器人自适应目标roi定位方法 |
CN111144406B (zh) * | 2019-12-22 | 2023-05-02 | 复旦大学 | 一种太阳能面板清扫机器人自适应目标roi定位方法 |
Also Published As
Publication number | Publication date |
---|---|
US20110267489A1 (en) | 2011-11-03 |
US9001219B2 (en) | 2015-04-07 |
JP5484184B2 (ja) | 2014-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5484184B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN107438173B (zh) | 视频处理装置、视频处理方法和存储介质 | |
US10417773B2 (en) | Method and apparatus for detecting object in moving image and storage medium storing program thereof | |
US10445887B2 (en) | Tracking processing device and tracking processing system provided with same, and tracking processing method | |
KR101071352B1 (ko) | 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법 | |
KR101687530B1 (ko) | 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체 | |
JP6356266B2 (ja) | 群集監視システム | |
US9001222B2 (en) | Image processing device, image processing method, and program for image processing for correcting displacement between pictures obtained by temporally-continuous capturing | |
US10115178B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP4373840B2 (ja) | 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置 | |
JP6077655B2 (ja) | 撮影システム | |
CN106603968B (zh) | 信息处理装置及信息处理方法 | |
JP7354767B2 (ja) | 物体追跡装置および物体追跡方法 | |
JP6638723B2 (ja) | 画像解析装置、画像解析方法、及び、画像解析プログラム | |
JP2006226965A (ja) | 画像処理装置、コンピュータプログラム、及び画像処理方法 | |
JP2008035301A (ja) | 移動体追跡装置 | |
US9706121B2 (en) | Image processing apparatus and image processing method | |
JP5173549B2 (ja) | 画像処理装置及び撮像装置 | |
KR101290517B1 (ko) | 촬영장치 및 이의 대상 추적방법 | |
JP6798609B2 (ja) | 映像解析装置、映像解析方法およびプログラム | |
JP5539565B2 (ja) | 撮像装置及び被写体追跡方法 | |
CN106454066B (zh) | 图像处理设备及其控制方法 | |
JP7338174B2 (ja) | 物体検出装置および物体検出方法 | |
JP2019192155A (ja) | 画像処理装置、撮影装置、画像処理方法およびプログラム | |
JP6344903B2 (ja) | 画像処理装置およびその制御方法、撮像装置、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130430 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140218 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5484184 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |