JP2009087253A - 物体検出装置、物体検出方法及びプログラム - Google Patents
物体検出装置、物体検出方法及びプログラム Download PDFInfo
- Publication number
- JP2009087253A JP2009087253A JP2007259061A JP2007259061A JP2009087253A JP 2009087253 A JP2009087253 A JP 2009087253A JP 2007259061 A JP2007259061 A JP 2007259061A JP 2007259061 A JP2007259061 A JP 2007259061A JP 2009087253 A JP2009087253 A JP 2009087253A
- Authority
- JP
- Japan
- Prior art keywords
- attention area
- face
- determination
- area
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】画像から検出対象の物体の検出処理を確実に、かつ、より高速に行えるようにする。
【解決手段】画像取得手段1001により取得された画像に対して注目領域決定手段1003で注目領域を決定し、注目領域決定手段1003で決定された注目領域に検出対象の物体が存在するか否かを物体判別手段1004で判別し、物体判別手段1004による検出対象の物体の判別結果に基づいて、当該注目領域から次の注目領域までの移動量及び移動方向を移動情報設定手段1002で設定する。そして、この際、注目領域決定手段1003は、移動情報設定手段1002で設定された内容に基づいて、次の注目領域を設定する。
【選択図】図3
【解決手段】画像取得手段1001により取得された画像に対して注目領域決定手段1003で注目領域を決定し、注目領域決定手段1003で決定された注目領域に検出対象の物体が存在するか否かを物体判別手段1004で判別し、物体判別手段1004による検出対象の物体の判別結果に基づいて、当該注目領域から次の注目領域までの移動量及び移動方向を移動情報設定手段1002で設定する。そして、この際、注目領域決定手段1003は、移動情報設定手段1002で設定された内容に基づいて、次の注目領域を設定する。
【選択図】図3
Description
本発明は、画像から検出対象の物体を検出する物体検出装置及び物体検出方法、並びに、物体検出方法をコンピュータに実行させるためのプログラムに関するものである。
画像の中から所定の物体を検出する従来の第1の技術として、例えば、非特許文献1に記載の技術がある。この技術は、例えば、図27に示すように、カスケード状に組み合わされた弱判別器(弱識別器ともいう)S、S+1、・・・、S+Nのうちのある弱判別器が画像中の注目領域を所定クラスと判定した場合に、次の弱判別器の処理を実行する。そして、全ての弱判別器を通過したものを所定クラス、例えば、人間の顔と判定する物体検出方法である。
図27に示す各弱判別器は、例えば、図28の101及び102のように、Harr−like特徴の組み合わせからなる複数の矩形フィルタ群で構成されている。ここで、図28の100は、画像中の注目領域である。そして、これらの矩形フィルタ群は、adaBoostの学習により自動的に選択される。また、入力画像に対してintegral_imageを作成し、このintegral_imageを用いて処理を行うことで、高速な物体の検出処理を実現している。
また、画像の中から所定の物体を検出する従来の第2の技術として、例えば、非特許文献2に記載の技術がある。この技術は、濃度平均を用いてテンプレートマッチングの演算処理をカットする手法と、テンプレートマッチングした時の類似度を移動量(=最大移動量×(1−類似度))にフィードバックするステップ制御の手法を組み合わせるものである。これにより、非特許文献2では、高速テンプレートマッチングを実現している。
また、画像の中から所定の物体を検出する従来の第3の技術として、例えば、非特許文献3に記載の技術がある。この技術は、サポートベクターマシーン(SVM)を用いて検出対象物体が現在の領域からどの方向に存在するかを推定することによって、対象物体の追跡を行う技術である。
P. Viola and M. Jones,"Rapid object detection using a boosted cascade of simple features,"In Proc. IEEE CS Conf. Computer Vision and Pattern Recognition, vol.1, pp.511-518, Dec. 2001
安部 啓之, "高速テンプレートマッチング", 画像センシングシンポジウム, June. 2004
O. Williams, A. Blake, R. Cipolla,"A Sparse Probabilistic Learning Algorithm for Real-Time Tracking", Proc. Int. Conf. on Computer Vision(ICCV), 353−360, Oct. 2003
しかしながら、非特許文献1の技術では、注目領域100である矩形窓を単純に1画像おきの固定量で移動させていたため、背景などの明らかに検出対象の物体(人間の顔)でない領域についても演算処理を行うため、処理の無駄があった。特に、画像中に検出対象の物体が少数しか存在しない場合には、ほとんどの演算処理が無駄になっていた。また、逆に、処理速度を向上させるために、注目領域100の移動量を大きくすると、検出対象の物体(人間の顔)が検出されない可能性があった。
さらに、非特許文献2及び非特許文献3の技術も、上述した問題点を解決するものではなかった。
本発明は上述した問題点に鑑みてなされたものであり、画像から検出対象の物体の検出処理を確実に、かつ、より高速に行えるようにすることを目的とする。
本発明の物体検出装置は、画像を取得する画像取得手段と、前記画像取得手段により取得された画像に対して注目領域を決定する注目領域決定手段と、前記注目領域決定手段で決定された注目領域に検出対象の物体が存在するか否かを判別する物体判別手段と、前記物体判別手段による検出対象の物体の判別結果に基づいて、当該注目領域から次の注目領域までの移動量及び移動方向のうちの少なくとも一方を設定する設定手段とを有し、前記注目領域決定手段は、前記設定手段で設定された内容に基づいて、前記次の注目領域を設定する。
本発明の物体検出方法は、画像を取得する画像取得ステップと、前記画像取得ステップにより取得された画像に対して注目領域を決定する注目領域決定ステップと、前記注目領域決定ステップで決定された注目領域に検出対象の物体が存在するか否かを判別する物体判別ステップと、前記物体判別ステップによる検出対象の物体の判別結果に基づいて、当該注目領域から次の注目領域までの移動量及び移動方向のうちの少なくとも一方を設定する設定ステップとを有し、前記注目領域決定ステップでは、前記設定ステップで設定された内容に基づいて、前記次の注目領域を設定する。
本発明のプログラムは、画像を取得する画像取得ステップと、前記画像取得ステップにより取得された画像に対して注目領域を決定する注目領域決定ステップと、前記注目領域決定ステップで決定された注目領域に検出対象の物体が存在するか否かを判別する物体判別ステップと、前記物体判別ステップによる検出対象の物体の判別結果に基づいて、当該注目領域から次の注目領域までの移動量及び移動方向のうちの少なくとも一方を設定する設定ステップとをコンピュータに実行させ、前記注目領域決定ステップでは、前記設定ステップで設定された内容に基づいて、前記次の注目領域を設定する。
本発明によれば、画像から検出対象の物体の検出処理を確実に、かつ、より高速に行うことができる。
検出対象の物体の検出処理における処理負荷を軽減するための1つの手法として、いかにして検出対象の物体以外の処理を減らすかということが挙げられる。例えば、検出対象の目的の物体付近の領域では細かく探索し、それ以外の領域では荒く探索を行う方法である。以下に示す実施形態では、現在の注目領域の判別結果に基づいて、検出対象の物体の付近であるか否かを判定することにより、次の注目領域までの移動量を動的に変化させる方法について説明する。
なお、第1の実施形態では、図1に示すように、検出対象の物体が存在しない背景領域での注目領域の移動量はMx2に設定し、検出対象の物体(人間の顔)が存在する顔周辺領域での注目領域の移動量はMx1に設定する物体の検出処理方法について説明する。この際、第1の実施形態では、図1に示すように、注目領域を走査移動する方向は、画像に対して水平方向とする。
また、第2の実施形態では、図2に示すように、検出対象の物体が存在しない背景領域での注目領域の移動方向は水平方向とし、その移動量はMx3に設定する。一方、検出対象の物体(人間の顔)が存在する顔周辺領域での注目領域の移動方向は各弱判別器の出力を用いて全方向のうちの1つの方向を選択して設定され、また、その移動量はMx4、My4等に設定する物体の検出処理方法について説明する。
また、第3の実施形態では、検出対象の物体(人間の顔)が存在しないと判定されるまでの弱判別器の数が所定数以上である場合の物体の検出処理方法について説明する。具体的に、第3の実施形態では、検出対象の物体(人間の顔)が存在しないと判定した弱判別器を構成する各矩形フィルタの出力結果を用いて、検出対象の物体の位置までの移動量を算出する方法について説明する。また、第4の実施形態は、第3の実施形態の変形例であり、検出対象の物体の位置までの移動量に加え、移動方向を決定する方法について説明する。
以下、添付図面を参照しながら、本発明の各実施形態を説明する。
(第1の実施形態)
本発明の第1の実施形態として、取得した画像データが、ある特定のカテゴリーであるかどうか、例えば、人間の顔であるかどうかを高速に演算する物体検出装置及びその方法について説明する。具体的に、本実施形態では、特定のカテゴリーとして、顔と非顔の2クラスを判定する方法について説明する。
本発明の第1の実施形態として、取得した画像データが、ある特定のカテゴリーであるかどうか、例えば、人間の顔であるかどうかを高速に演算する物体検出装置及びその方法について説明する。具体的に、本実施形態では、特定のカテゴリーとして、顔と非顔の2クラスを判定する方法について説明する。
図3は、本発明の第1の実施形態に係る物体検出装置の概略構成の一例を示すブロック図である。
図3に示すように、本実施形態の物体検出装置1000は、画像取得手段1001と、移動情報設定手段1002と、注目領域決定手段1003と、物体判別手段1004とを有して構成されている。
図3に示すように、本実施形態の物体検出装置1000は、画像取得手段1001と、移動情報設定手段1002と、注目領域決定手段1003と、物体判別手段1004とを有して構成されている。
画像取得手段1001は、まず、撮像レンズ群、絞り装置及びシャッタ装置を備えた光量調節装置から得られる光束を、CCDやCMOS等の撮像素子により電気信号に変換する。次に、画像取得手段1001は、撮像素子により得られるアナログの電気信号をデジタル信号に変換するアナログ/デジタル(以下、「A/D」とする)変換器を通すことにより、デジタル画像を取得する。そして、画像取得手段1001は、取得したデジタル画像を、メモリなどの内部の記憶媒体に一時的に保持する。更に、画像取得手段1001は、内部の記憶媒体に保持しているデジタル画像に対して、インテグラルイメージを生成し取得する。なお、インテグラルイメージの詳細に関しては、後述するが、非特許文献1でも記載されている。
移動情報設定手段1002は、本実施形態においては、移動情報として移動量を設定する。具体的に、本実施形態の移動情報設定手段1002は、前の注目領域における検出対象の物体の検出結果(判別結果)に基づいて、次の注目領域までのX方向(水平方向)の移動量Mxを設定する。
注目領域決定手段1003は、画像取得手段1001により取得された画像に対して、検出対象の物体の検出処理(判別処理)を行う注目領域を決定する。具体的に、注目領域決定手段1003は、移動情報設定手段1002で設定された移動情報(本実施形態では、X方向の移動量Mx)の内容に基づいて、注目領域の決定を行う。なお、注目領域とは、図28に示す領域100のことであり、本実施形態では固定サイズとする。
物体判別手段1004は、注目領域決定手段1003で決定された注目領域に検出対象の物体が存在するか否かを判別する。具体的に、本実施形態の物体判別手段1004は、検出対象の物体として人間の顔の判別を行う。そして、物体判別手段1004は、注目領域決定手段1003で決定された注目領域と、画像取得手段1001で取得したインテグラルイメージ(画像)を用いることにより顔判別を行う。
図4は、本発明の第1の実施形態に係る物体検出装置の処理手順の一例を示すフローチャートである。このフローチャートを用いて、第1の実施形態に係る物体検出装置1000による物体検出方法を、以下に詳細に説明する。
まず、図4のステップS1101において、画像取得手段1001は、デジタル画像を取得し保持する。
続いて、ステップS1102において、画像取得手段1001は、ステップS1101で取得したデジタル画像に基づいて、インテグラルイメージを生成し取得する。
図5は、インテグラルイメージを生成する際の処理を説明するための模式図である。
具体的に、画像取得手段1001は、インテグラルイメージを生成し取得する際、まず、カラーデジタル画像をグレースケール、つまり各画素値が輝度値として表現されるように変換した後、解像度変換によりピラミッド画像を生成する。次に、画像取得手段1001は、各ピラミッド画像に対して画像始点(図5の画像の左上画素A)から注目画素(図5の画像の左上画素B)までを対角線とする矩形領域1200内の画素値の総和を注目画素の画素値として表現するインテグラルイメージを生成する。このインテグラルイメージを利用すると、高速に、任意の矩形領域内の画素値の総和を求めることができる。
具体的に、画像取得手段1001は、インテグラルイメージを生成し取得する際、まず、カラーデジタル画像をグレースケール、つまり各画素値が輝度値として表現されるように変換した後、解像度変換によりピラミッド画像を生成する。次に、画像取得手段1001は、各ピラミッド画像に対して画像始点(図5の画像の左上画素A)から注目画素(図5の画像の左上画素B)までを対角線とする矩形領域1200内の画素値の総和を注目画素の画素値として表現するインテグラルイメージを生成する。このインテグラルイメージを利用すると、高速に、任意の矩形領域内の画素値の総和を求めることができる。
続いて、ステップS1103において、移動情報設定手段1002は、現在の注目領域から次の注目領域までの移動量Mを設定する。
具体的に、本実施形態の移動情報設定手段1002は、X方向(水平方向)の移動量Mxとして、図1に示すように、検出対象の物体(人間の顔)が存在する顔周辺領域での注目領域のX方向の移動量をMx1と設定する。また、移動情報設定手段1002は、X方向(水平方向)の移動量Mxとして、図1に示すように、検出対象の物体が存在しない背景領域での注目領域のX方向の移動量をMx2(Mx2>Mx1)として設定し、X方向については2つの移動量を設定する。つまり、本実施形態の移動情報設定手段1002は、背景領域ではX方向の移動量を大きくし、顔周辺領域ではX方向の移動量を小さくする設定を行う。
また、本実施形態では、図1に示すように、注目領域の設定の開始位置を画像内の左端とし、また、注目領域を移動量Mxで右方向に移動させるものとする。また、本実施形態の移動情報設定手段1002は、Y方向(垂直方向)の移動量Myとして、所定画素おきの固定値My1と設定する。ここで、X方向の移動量MxとY方向の移動量Myの設定方法は後述する。
続いて、ステップS1104において、注目領域決定手段1003は、ステップS1103で設定された移動量Mに基づいて、検出対象の物体の検出処理(判別処理)を行う注目領域を決定する。
図6は、現在の注目領域の一例を示す模式図である。
ステップS1104では、注目領域決定手段1003により、例えば、図6に示す注目領域1300の決定がなされる。なお、前の注目領域が存在しない場合、つまり、最初の注目領域の決定を行う場合、注目領域決定手段1003は、当該注目領域の左上座標を(0,0)とする注目領域の決定を行う。ここで、移動量の算出方法と注目領域の決定方法については後述する。
ステップS1104では、注目領域決定手段1003により、例えば、図6に示す注目領域1300の決定がなされる。なお、前の注目領域が存在しない場合、つまり、最初の注目領域の決定を行う場合、注目領域決定手段1003は、当該注目領域の左上座標を(0,0)とする注目領域の決定を行う。ここで、移動量の算出方法と注目領域の決定方法については後述する。
続いて、ステップS1105において、物体判別手段1004は、例えば、非特許文献1に記載されているadaBoostアルゴリズムの学習により選択された図28に示す矩形フィルタ群を構成する弱判別器S(S>0)を用いた判別処理を行う。なお、この弱判別器Sは、物体判別手段1004内に備えられているものとする。
本実施形態においては、矩形フィルタ群の種類や弱判別器Sの数などは、設計者が予め設定するものとする。弱判別器による判別処理の方法としては、まず、例えば、インテグラルイメージを用いることにより、図28の矩形フィルタ101の黒領域の輝度総和値Sb1及び白領域の輝度総和値Sw1を算出し、これらの値の差Sub1(=Sw1−Sb1)を計算する。ここで、図28に示す矩形フィルタ(101、102)は、注目領域決定手段1003で決定された注目領域内の少なくとも1つ以上の所定領域に対してフィルタ処理を行うものである。そして、差Sub1(=Sw1−Sb1)が所定の閾値Th1よりも大きいか否かの判定を、当該弱判別器を構成する矩形フィルタの数だけ実行することによって行われる。
ここで、本実施形態の物体判別手段1004は、矩形フィルタの白領域の輝度総和値Sw1と黒領域の輝度総和値Sb1との差Sub1と所定の閾値Th1とを比較し、差Sub1が所定の閾値Th1以下と判定された時点で処理を終了するようにしている。しかしながら、例えば、差Sub1(=Sw1−Sb1)を得点化して弱判別器毎に得点の総和値を算出して当該得点の総和値を用いることにより、判別処理を行うようにしても良い。
続いて、ステップS1106において、物体判別手段1004は、ステップS1105の弱判別器Sによる判別処理の結果に基づいて、顔候補と判定されるか否かを判断する。この判断の結果、顔候補でないと判定された場合(具体的には、差Sub1が所定の閾値Th1以下と判定された場合)には、ステップS1103に戻る。そして、ステップS1103において、次の注目領域までのX方向の移動量Mxが設定される。一方、ステップS1106の判断の結果、顔候補と判定された場合(具体的には、差Sub1が所定の閾値Th1よりも大きいと判定された場合)には、ステップS1107へ進む。
ステップS1107に進むと、物体判別手段1004は、全ての弱判別器による判別処理を実行したか否かを判断する。この判断の結果、全ての弱判別器による判別処理の実行は行われていない場合には、ステップS1108に進む。ステップS1108に進むと、物体判別手段1004は、次の弱判別器(S←S+1)の選択を行う。その後、ステップS1105に戻り、ステップS1108で選択した弱判別器を、弱判別器Sとして処理を行う。
ステップS1107の判断の結果、全ての弱判別器による判別処理を実行した場合には、ステップS1109に進む。ステップS1109に進むと、物体判別手段1004は、当該注目領域が全ての弱判別器で顔候補と判定されたことから、当該注目領域を顔領域と判定する。
続いて、ステップS1110において、物体判別手段1004は、全ての注目領域に対して判別処理を実行したか否かを判断する。この判断の結果、全ての注目領域に対しては判別処理を実行していない場合には、ステップS1103に戻る。一方、ステップS1110の判断の結果、全ての注目領域に対して判別処理を実行した場合には、当該フローチャートにおける処理を終了する。
次いで、次の注目領域までのX方向及びY方向の移動量Mx及びMyを算出する方法、並びに、X方向の移動量Mxを切り替えるタイミングについて、以下にその詳細を説明する。
最初に、X方向の移動量MxとY方向の移動量Myを算出する方法について説明する。
まず、背景領域と顔周辺領域での夫々のX方向の移動量Mxを決定するための統計データを採取する。ここで、統計データを採取する方法は、adaBoostアルゴリズムにより構築した図27に示すような弱判別器に対して、図7(a)〜(f)に示す顔が含まれる顔付近の注目領域を複数設定し、この注目領域に対して顔判別処理を行う。
まず、背景領域と顔周辺領域での夫々のX方向の移動量Mxを決定するための統計データを採取する。ここで、統計データを採取する方法は、adaBoostアルゴリズムにより構築した図27に示すような弱判別器に対して、図7(a)〜(f)に示す顔が含まれる顔付近の注目領域を複数設定し、この注目領域に対して顔判別処理を行う。
次に、これらの顔が含まれる注目領域の顔判別処理の結果から、顔と判定された注目領域と顔ではないと判定された注目領域との2つの領域に分ける。これにより、注目領域の中心が顔の正解中心位置からどの範囲内で顔と判定されるかという統計データと、どの範囲外で顔でないと判定されるかという統計データを得ることができる。具体的には、図8のフローチャートを繰り返し行う。
図8は、本発明の第1の実施形態に係る物体検出装置の処理手順を示し、統計データの採取するための処理手順の一例を示すフローチャートである。
まず、図8のステップS1401において、物体検出装置1000は、画像中のどこに顔の正解中心位置が存在するかの情報が示されている正解データ(顔位置正解データ)と当該画像を読み込む。ここで、正解データには、顔の正解中心位置の情報、正解左右眼の位置の情報が示されている。また、この際に用いる画像は、顔がほぼ正面を向いている画像だけを選択する。
続いて、ステップS1402において、物体検出装置1000は、まず、正解左右眼の位置の情報を用いて、左右眼の間の距離が所定の距離になるように当該画像の解像度変換及び正解データの座標変換を行う。その後、物体検出装置1000は、正解データに示されている顔の正解中心位置の情報を基準として、顔周辺領域の複数の注目領域を選択する。このステップS1402では、例えば、図7に示すように、顔の正解中心位置(X1,Y1)から(X2,Y2)まで1画素おきに複数の注目領域を選択する。
続いて、ステップS1403において、例えば、物体検出装置1000の物体判別手段1004は、ステップS1402で選択された注目領域に対して、弱判別器Sを用いて顔判別処理を行う。
続いて、ステップS1404において、例えば、物体判別手段1004は、ステップS1403の弱判別器Sによる判別処理の結果に基づいて、顔候補と判定されるか否かを判断する。この判断の結果、顔候補でないと判定された場合には、ステップS1405に進む。
ステップS1405に進むと、例えば、物体判別手段1004は、注目領域中に顔が含まれているにもかかわらず顔候補と判定されなかった注目領域について、その判定をした弱判別器Sの番号の情報と、顔の正解中心位置からの距離の情報を記録する。具体的に、顔の正解中心位置からの距離の情報としては、例えば、図9に示すように顔の正解中心位置から当該注目領域の中心位置までの相対座標を個人IDなどのラベルを付加して記録される。
一方、ステップS1404の判断の結果、顔候補と判定された場合には、ステップS1406に進む。ステップS1406に進むと、例えば、物体判別手段1004は、全ての弱判別器による判別処理を実行したか否かを判断する。この判断の結果、全ての弱判別器による判別処理の実行は行われていない場合には、ステップS1407に進む。ステップS1407に進むと、例えば、物体判別手段1004は、判別処理を行う弱判別器Sを、S←S+1として、次の弱判別器の選択を行う。その後、ステップS1403に戻り、ステップS1407で選択した弱判別器を、弱判別器Sとして処理を行う。
一方、ステップS1406の判断の結果、全ての弱判別器による判別処理を実行した場合には、ステップS1408に進む。ステップS1408に進むと、例えば、物体判別手段1004は、顔候補と判定をした弱判別器Sの番号の情報と、顔の正解中心位置からの距離の情報を記録する。具体的に、顔の正解中心位置からの距離の情報としては、ステップS1405と同様に、例えば、図9に示すように顔の正解中心位置から当該注目領域の中心領域までの相対座標を個人IDなどのラベルを付加して記録される。
ステップS1405又はS1408の処理が終了すると、ステップS1409に進む。ステップS1409に進むと、例えば、物体判別手段1004は、ステップS1402で選択された全ての注目領域に対して判別処理を実行したか否かを判断する。この判断の結果、全ての注目領域に対しては判別処理を実行していない場合には、次の注目領域が選択された後、ステップS1403に戻る。一方、ステップS1409の判断の結果、全ての注目領域に対して判別処理を実行した場合には、当該フローチャートにおける処理を終了する。
図8に示すような処理を大量の画像データに対して繰り返し行うことで、注目領域の中心位置が顔の正解中心位置からどの範囲内で顔と判定されるかという統計データと、どの範囲外で顔でないと判定されるかという統計データを得ることができる。この統計データを用いることにより、例えば、1つの顔当たりの検出回数を最小にするような移動量を決定することができる。
そして、以下に、顔周辺領域のX方向の移動量Mx1と顔周辺領域以外のX方向の移動量Mx2を算出する方法を説明する。
本実施形態の移動情報設定手段1002は、すでに説明をしているが、X方向の移動量Mxについて、顔周辺領域での注目領域のX方向の移動量Mx1と、背景領域での注目領域のX方向の移動量Mx2(Mx2>Mx1)の2通りの移動量を設定する。
したがって、検出対象の物体である顔が検出されるパターンとして、以下に示す2通りのパターンが存在することになる。
1通り目のパターンは、図10(a)に示すように、まず、前々の背景領域の注目領域1500から前の注目領域1501へX方向の移動量Mx2だけ移動し、当該注目領域1501が顔周辺領域であると判別される。その後、当該注目領域1501から現在の注目領域1502へX方向の移動量Mx1だけ移動し、当該注目領域1502が顔領域であると判別される場合である。
2通り目のパターンは、図10(b)に示すように、顔周辺領域であると判別されずに、前の背景領域の注目領域1503から現在の注目領域1504へX方向の移動量Mx2だけ移動し、当該注目領域1504が顔領域であると判別される場合である。
1通り目のパターンは、図10(a)に示すように、まず、前々の背景領域の注目領域1500から前の注目領域1501へX方向の移動量Mx2だけ移動し、当該注目領域1501が顔周辺領域であると判別される。その後、当該注目領域1501から現在の注目領域1502へX方向の移動量Mx1だけ移動し、当該注目領域1502が顔領域であると判別される場合である。
2通り目のパターンは、図10(b)に示すように、顔周辺領域であると判別されずに、前の背景領域の注目領域1503から現在の注目領域1504へX方向の移動量Mx2だけ移動し、当該注目領域1504が顔領域であると判別される場合である。
いずれのパターンにおいても、画像中の全ての顔を検出するためには、顔を飛び越えないようなX方向の移動量Mx1及びMx2を設定する必要がある。
そこで、まず、X方向の移動量Mx1の算出方法について説明する。
まず、移動情報設定手段1002は、図9に示す統計データから個人ID毎に、顔と判定された注目領域の中心位置から顔の正解中心位置までの相対距離Xの最大値を算出する。例えば、ID:No1の人物の顔と判定された注目領域の中心位置から顔の正解中心位置までの相対距離Xの最大値=3[pixel]と算出する等である。
まず、移動情報設定手段1002は、図9に示す統計データから個人ID毎に、顔と判定された注目領域の中心位置から顔の正解中心位置までの相対距離Xの最大値を算出する。例えば、ID:No1の人物の顔と判定された注目領域の中心位置から顔の正解中心位置までの相対距離Xの最大値=3[pixel]と算出する等である。
続いて、移動情報設定手段1002は、顔と判定された注目領域の中心位置から顔の正解中心位置までの相対距離Xの最大値に対するヒストグラムを生成する。図11は、顔と判定された注目領域の中心位置から顔の正解中心位置までの相対距離Xの最大値におけるヒストグラムの一例を示す図である。
そして、移動情報設定手段1002は、例えば、図11に示すヒストグラムを用いて、注目領域が顔周辺領域である場合のX方向の移動量Mx1を設定する。ここで、移動情報設定手段1002は、例えば、図11に示すヒストグラムの頻度が0の時の相対距離Xが最大となる最大値Mx1'に対して、その2倍の値をX方向の移動量Mx1とする。なお、この最大値Mx1'は、顔の正解中心位置を基準とした相対距離であり、必ず顔として判定される領域は、顔の正解中心位置から左右Mx1'分の距離、つまり2Mx1'となる。このように移動量Mx1を設定すると、当該移動量Mx1は、図12に示す、正解と判定される(即ち、必ず顔として判定される)注目領域1600を飛び越えない最大の値に設定される。
また、移動量Mx1の設定における他の態様として、例えば、移動情報設定手段1002は、物体判別手段1004が重複して所定の顔(検出対象の物体)と判定する注目領域の重複幅を算出し、当該重複幅を用いて移動量Mx1の設定を行うようにしても良い。
次に、X方向の移動量Mx2の算出方法について説明する。
X方向の移動量Mx1と同様に、まず、移動情報設定手段1002は、図9に示す統計データから個人ID毎に、顔ではないと判定された注目領域の中心位置から顔の正解中心位置までの相対距離Xの最大値を算出する。
X方向の移動量Mx1と同様に、まず、移動情報設定手段1002は、図9に示す統計データから個人ID毎に、顔ではないと判定された注目領域の中心位置から顔の正解中心位置までの相対距離Xの最大値を算出する。
続いて、移動情報設定手段1002は、顔ではないと判定された注目領域の中心位置から顔の正解中心位置までの相対距離Xに対するヒストグラムを生成する。図13は、顔ではないと判定された注目領域の中心位置から顔の正解中心位置までの相対距離Xの最大値におけるヒストグラムの一例を示す図である。
そして、移動情報設定手段1002は、例えば、図13に示すヒストグラムを用いて、注目領域が背景領域である場合のX方向の移動量Mx2を設定する。ここで、移動情報設定手段1002は、例えば、図13に示すヒストグラムの頻度が0の時の相対距離Xが最大となる最大値Mx2'に対してX方向の移動量Mx1'を加えた値を、顔周辺領域以外の背景領域におけるX方向の移動量Mx2とする。このように移動量Mx2を設定すると、当該移動量Mx2は、図12に示す、顔の周辺領域で不正解と判定される領域1601を飛び越えない最大の値に設定される。
以上のようにして、移動情報設定手段1002は、X方向の移動量Mx1とX方向の移動量Mx2を設定する。
図14は、第1の実施形態の移動情報設定手段において、X方向の移動量Mxを設定する際の処理手順の一例を示すフローチャートである。
まず、図14のステップS1701において、移動情報設定手段1002は、物体判別手段1004による顔判別処理の結果、現在の注目領域が顔領域と判定されたか否かを判断する。この判断の結果、現在の注目領域が顔領域と判定された場合には、ステップS1702に進む。
ステップS1702に進むと、移動情報設定手段1002は、現在の注目領域から次の注目領域までのX方向の移動量MxをMx1に設定する。
一方、ステップS1701の判断の結果、現在の注目領域が顔領域でないと判定された場合には、ステップS1703へ進む。ステップS1703に進むと、移動情報設定手段1002は、物体判別手段1004による顔判別処理の結果、現在の注目領域が顔周辺領域と判定されたか否かを判断する。この判断の結果、現在の注目領域が顔周辺領域と判定された場合には、ステップS1704に進む。
ステップS1704に進むと、移動情報設定手段1002は、現在の注目領域から次の注目領域までのX方向の移動量MxをMx1に設定する。
一方、ステップS1703の判断の結果、現在の注目領域が顔周辺領域でないと判定された場合には、ステップS1705へ進む。ステップS1705に進むと、現在の注目領域が背景領域であるため、移動情報設定手段1002は、現在の注目領域から次の注目領域までのX方向の移動量MxをMx2に設定する。
ステップS1702、S1704又はS1705の処理が終了すると、ステップS1706に進む。ステップS1706に進むと、移動情報設定手段1002は、次の注目領域が画像外となるか否かを判断する。この判断の結果、次の注目領域が画像外となる場合には、ステップS1707に進む。
ステップS1707に進むと、移動情報設定手段1002は、現在の注目領域から次の注目領域までのX方向の移動量MxをMx1に設定する。
ステップS1706で次の注目領域が画像外にならないと判断された場合、又は、ステップS1707の処理が終了した場合には、当該フローチャートにおける処理を終了する。
次に、Y方向の固定移動量My1の算出方法について説明する。
まず、移動情報設定手段1002は、上述したX方向の移動量Mx1及びMx2と同様に、図9の統計データから個人ID毎に、顔と判定された注目領域の中心位置から顔の正解中心位置までの相対距離Yの最大値を算出する。
まず、移動情報設定手段1002は、上述したX方向の移動量Mx1及びMx2と同様に、図9の統計データから個人ID毎に、顔と判定された注目領域の中心位置から顔の正解中心位置までの相対距離Yの最大値を算出する。
続いて、移動情報設定手段1002は、X方向の移動量Mxを設定した場合と同様に、顔と判定された注目領域の中心位置から顔の正解中心位置までの相対距離Yの最大値に対するヒストグラムを生成する。そして、移動情報設定手段1002は、例えば、ヒストグラムの頻度が0の時の相対距離Yが最大となる最大値を、Y方向の固定移動量My1として設定する。このようにして、Y方向の固定移動量My1に関しても、正解と判定される注目領域1600を飛び越えない最大の値に設定される。
なお、ヒストグラムの頻度が0の時の相対距離Yの最大値をY方向の固定移動量My1として設定した場合には、図15(a)に示すように、顔の検出位置が、顔の正解中心位置から多少ずれる可能性がある。よって、このような場合には、図15(b)に示すように、Y方向の固定移動量をY方向の固定移動量My1よりも小さい値My1'にし、また、注目領域の開始位置をX方向に数画素ずらすようにする。このように、顔が検出された複数の注目領域の重心を顔の検出位置にすることにより、そのズレ量を小さくすることができる。
次に、例えば、図12に示す、顔の周辺領域で不正解と判定される領域1601における顔判別処理及びそのX方向の移動量について説明する。
まず、例えば、物体判別手段1004は、図9の統計データを用いて、当該注目領域がどの弱判別器で顔ではないと判定されたかを示すヒストグラムを生成する。図16は、注目領域が顔ではないと判定された弱判別器の番号におけるヒストグラムの一例を示す図である。図16のヒストグラムより、当該注目領域は、弱判別器S1〜S6によって顔ではないと判定されるので、物体判別手段1004は、当該注目領域を顔周辺領域でない領域と判定する。そして、移動情報設定手段1002は、弱判別器S1〜S6で顔ではないと判定された場合(当該注目領域が顔周辺領域でないと判定された場合)には、X方向の移動量をMx1では無くMx2に設定する。
まず、例えば、物体判別手段1004は、図9の統計データを用いて、当該注目領域がどの弱判別器で顔ではないと判定されたかを示すヒストグラムを生成する。図16は、注目領域が顔ではないと判定された弱判別器の番号におけるヒストグラムの一例を示す図である。図16のヒストグラムより、当該注目領域は、弱判別器S1〜S6によって顔ではないと判定されるので、物体判別手段1004は、当該注目領域を顔周辺領域でない領域と判定する。そして、移動情報設定手段1002は、弱判別器S1〜S6で顔ではないと判定された場合(当該注目領域が顔周辺領域でないと判定された場合)には、X方向の移動量をMx1では無くMx2に設定する。
なお、上述した顔ではないと判定された弱判別器の種類ではなく、弱判別器を構成する矩形フィルタ毎の出力から得点を算出した後、それらを加算して弱判別器毎の得点を算出し、顔ではないと判定された弱判別器までの総得点を用いても良い。図17は、注目領域が顔ではないと弱判別器で判定された時の総得点のヒストグラムの一例を示す図である。この際にも、注目領域が顔ではないと判定された弱判別器までの得点総和の統計データを採取し、この統計データを用いてX方向の移動量Mx1及びMx2が設定される。
また、上述した各弱判別器を構成する矩形フィルタは、adaBoostの学習により選択されるため、カスケード状に組み合わされた弱判別器群の前半では明らかに検出目的ではない注目領域が排除される可能性が高い。よって、顔ではないと判定されるまでに使用した弱判別器の数が所定数未満である場合にはX方向の移動量Mx2とし、所定数以上である場合にはX方向の移動量Mx1を設定するようにしても良い。
第1の実施形態に係る物体検出装置では、背景領域と顔周辺領域とで次の注目領域における移動量を変更するようにしている。即ち、画像中の注目領域を設定する際に、所定間隔で注目領域を設定するのでは無く、前の注目領域における検出対象の物体の判別結果に基づいて移動量を変更するようにしている。これにより、明らかに検出対象の物体が存在しない背景領域では検出処理を簡略化し、検出対象の物体周辺領域では検出処理を詳細に行うことが可能となり、画像から検出対象の物体である顔の検出処理を確実に、かつ、より高速に行うことができる。
(第2の実施形態)
第1の実施形態では、現在の注目領域が顔周辺領域である場合の次の注目領域における移動方向は、図18に示す方向aだけとしていたが、第2の実施形態では、当該移動方向を図18に示す全方向(方向a、方向b、方向c、方向d)とする形態である。以下に、第2の実施形態における物体検出装置の詳細を説明する。
第1の実施形態では、現在の注目領域が顔周辺領域である場合の次の注目領域における移動方向は、図18に示す方向aだけとしていたが、第2の実施形態では、当該移動方向を図18に示す全方向(方向a、方向b、方向c、方向d)とする形態である。以下に、第2の実施形態における物体検出装置の詳細を説明する。
第2の実施形態に係る物体検出装置の概略構成は、図3に示す第1の実施形態に係る物体検出装置の概略構成と同様である。第2の実施形態における物体検出装置では、例えば、図18に示す方向a〜方向dのいずれかの方向に移動することにより、顔を検出する。
図19は、本発明の第2の実施形態に係る物体検出装置の処理手順の一例を示すフローチャートである。このフローチャートを用いて、第1の実施形態に係る物体検出装置1000による物体検出方法を、以下に詳細に説明する。
まず、図19に示すステップS2001及びS2002の各処理は、それぞれ、図4に示すステップS1101及びS1102と同様の処理であるため、その説明を省略する。
続いて、ステップS2003において、移動情報設定手段1002は、現在の注目領域から次の注目領域までの移動量Mと移動方向を設定する。
まず、移動量Mの設定について説明する。
具体的に、本実施形態の移動情報設定手段1002は、移動量Mとして、図2に示すように、背景領域におけるX方向の移動量をMx3、Y方向の移動量をMy3とし、顔周辺領域におけるX方向の移動量をMx4、Y方向の移動量をMy4と設定する。なお、注目領域の開始位置は、注目領域の左上座標(0,0)とする。
具体的に、本実施形態の移動情報設定手段1002は、移動量Mとして、図2に示すように、背景領域におけるX方向の移動量をMx3、Y方向の移動量をMy3とし、顔周辺領域におけるX方向の移動量をMx4、Y方向の移動量をMy4と設定する。なお、注目領域の開始位置は、注目領域の左上座標(0,0)とする。
背景領域でのX方向の移動量Mx3は、例えば、第1の実施形態で説明したように、顔でないと判定される領域と顔であると判定される顔領域の双方の領域を飛び越えない最大の移動量Mx2とする。また、Y方向の移動量My3は、同様に、顔でないと判定される領域と顔であると判定される顔領域を飛び越えない最大の移動量My2とする。
顔周辺領域でのX方向の移動量Mx4は、顔であると判定される顔領域を飛び越えない最大の移動量をMx1とすると、例えば、(Mx1)/4とする。顔周辺領域のY方向の移動量My4は、顔であると判定される顔領域を飛び越えない最大の移動量をMy1とすると、例えば、(My1)/6とする。
次に、移動方向の設定について説明する。
具体的に、本実施形態の移動情報設定手段1002は、移動方向として、現在の注目領域が背景領域である場合には、図18に示す方向aだけに移動方向を設定するが、現在の注目領域が顔周辺領域である場合には、図18に示す全方向に移動方向を設定する。なお、検出対象の物体である顔を効率良く検出するためには、現在の注目領域が顔周辺領域に存在する場合に、顔の正解中心位置より左右上下のどの位置にあるかという情報が必要となる。即ち、本実施形態では、注目領域が顔周辺領域である場合に、例えば、当該注目領域が顔の正解中心位置に対して左右上下のどの位置にあるかの情報に基づいて、当該正解中心位置に近づくように移動方向の設定が行われる。この現在の注目領域が顔の正解中心位置より左右上下のどの位置にあるかを判定する方法については後述する。
具体的に、本実施形態の移動情報設定手段1002は、移動方向として、現在の注目領域が背景領域である場合には、図18に示す方向aだけに移動方向を設定するが、現在の注目領域が顔周辺領域である場合には、図18に示す全方向に移動方向を設定する。なお、検出対象の物体である顔を効率良く検出するためには、現在の注目領域が顔周辺領域に存在する場合に、顔の正解中心位置より左右上下のどの位置にあるかという情報が必要となる。即ち、本実施形態では、注目領域が顔周辺領域である場合に、例えば、当該注目領域が顔の正解中心位置に対して左右上下のどの位置にあるかの情報に基づいて、当該正解中心位置に近づくように移動方向の設定が行われる。この現在の注目領域が顔の正解中心位置より左右上下のどの位置にあるかを判定する方法については後述する。
続いて、ステップS2004において、注目領域決定手段1003は、ステップS2003で設定された移動量Mと移動方向に基づいて、検出対象の物体の検出処理(判別処理)を行う注目領域を決定する。
続いて、ステップS2005において、物体判別手段1004は、弱判別器Sを構成する矩形フィルタの各出力結果から各閾値分を引いた値を得点として、矩形フィルタ分だけ得点を加算した得点Siの算出を行う。
続いて、ステップS2006において、物体判別手段1004は、ステップS2005で算出した弱判別器Sの得点Siが弱判別器Sの閾値(所定の閾値)Thiよりも大きいか否かを判断する。
ステップS2006の判断の結果、弱判別器Sの得点Siが弱判別器Sの閾値Thiよりも大きい場合には、ステップS2007に進み、物体判別手段1004は、顔候補と判定する。
続いて、ステップS2008において、物体判別手段1004は、全ての弱判別器による判別処理を実行したか否かを判断する。この判断の結果、全ての弱判別器による判別処理の実行は行われていない場合には、ステップS2009に進む。ステップS2009に進むと、物体判別手段1004は、次の弱判別器(S←S+1)の選択を行う。その後、ステップS2005に戻り、ステップS2009で選択した弱判別器を、弱判別器Sとして処理を行う。
一方、ステップS2008の判断の結果、全ての弱判別器による判別処理を実行した場合には、ステップS2010に進み、物体判別手段1004は、当該注目領域が全ての弱判別器で顔候補と判定されたことから、当該注目領域を顔領域と判定する。
続いて、ステップS2011において、物体判別手段1004は、全ての注目領域に対して判別処理を実行したか否かを判断する。この判断の結果、全ての注目領域に対しては判別処理を実行していない場合には、ステップS2003に戻る。一方、ステップS2011の判断の結果、全ての注目領域に対して判別処理を実行した場合には、当該フローチャートにおける処理を終了する。
また、ステップS2006の判断の結果、弱判別器Sの得点Siが弱判別器Sの閾値Thi以下である場合には、ステップS2012に進む。ステップS2012に進むと、物体判別手段1004は、当該注目領域が顔周辺領域であるか否かの判定をする。この際の判定方法としては、例えば、図20に示すパターン1〜パターン4のような注目領域の各パターンの平均ベクトルを算出し、算出された平均ベクトルと弱判別器Sの得点Siと比較することによって行われる。ここで、図20は、顔の周辺のどの位置に注目領域が存在するかの判定に供するベクトルを算出する際に用いられる画像パターンの一例を示す模式図である。このステップS2012の処理が終了すると、ステップS2003に戻る。
図21は、注目領域が顔周辺領域であるか否かを判定する際に用いられる平均ベクトルを算出する処理手順の一例を示すフローチャートである。
まず、ステップS2101において、物体判別手段1004は、図22に示すような弱判別器により顔でないと判定される図20に示すような複数の注目領域パターン(1〜4)の中から、図22に示す構築された弱判別器に投入するパターンを選択する。
続いて、ステップS2102において、物体判別手段1004は、ステップS2101で選択された注目領域パターンの中から、1つの注目領域を選択する。
続いて、ステップS2103において、物体判別手段1004は、ステップS2102で選択された注目領域に対して、図22に示すようなN個の弱判別器から構成される判別器による判定処理を行う。
続いて、ステップS2104において、物体判別手段1004は、ステップS2103の判定処理によりN個の弱判別器から出力される得点を各成分とするN次元ベクトルを生成する。例えば、図20のパターン1の1つの注目領域を図22に示す判別器に投入した際にS+5番目で顔でないと判定された場合、この注目領域のN次元ベクトルVは、V=(得点1、得点2、得点3、得点4、得点5、0、………0)となる。
続いて、ステップS2105において、物体判別手段1004は、ステップS2101で選択された注目領域パターン内の全ての注目領域に対してベクトルの生成を行ったか否かを判断する。この判断の結果、ステップS2101で選択された注目領域パターン内の全ての注目領域に対してはベクトルの生成を行っていない場合には、ステップS2102に戻り、ベクトルの生成を行っていない次の注目領域が選択される。
一方、ステップS2105の判断の結果、ステップS2101で選択された注目領域パターン内の全ての注目領域に対してベクトルの生成を行った場合には、ステップS2106に進む。ステップS2106に進むと、物体判別手段1004は、ステップS2101で選択された注目領域パターンの全ての注目領域に対して生成されたベクトルの平均ベクトルを算出する。なお、他の注目領域パターン(例えば、図20のパターン1の処理を行なった場合には、パターン2〜4)に関しても同様の処理を行い、N次元平均ベクトルを算出する。
第2の実施形態に係る物体検出装置では、背景領域では次の注目領域における移動方向を一方向でその移動量を大きくし、顔周辺領域では次の注目領域における移動方向を全方向(図18の方向a〜方向d)でその移動量を小さくするようにしている。即ち、画像中の注目領域を設定する際に、所定間隔で所定方向に注目領域を設定するのでは無く、前の注目領域における検出対象の物体の判別結果に基づいて移動量及び移動方向を変更するようにしている。これにより、明らかに検出対象の物体が存在しない背景領域では検出処理を簡略化し、検出対象の物体周辺領域では検出処理を詳細に行うことが可能となり、画像から検出対象の物体である顔の検出処理を確実に、かつ、より高速に行うことができる。
(第3の実施形態)
第3の実施形態に係る物体検出装置の概略構成は、図3に示す第1の実施形態に係る物体検出装置の概略構成と同様である。
第3の実施形態に係る物体検出装置の概略構成は、図3に示す第1の実施形態に係る物体検出装置の概略構成と同様である。
図23は、本発明の第3の実施形態に係る物体検出装置の処理手順の一例を示すフローチャートである。このフローチャートを用いて、第3の実施形態に係る物体検出装置1000による物体検出方法を、以下に詳細に説明する。
まず、図23に示すステップS2201及びS2202の各処理は、それぞれ、図4に示すステップS1101及びS1102と同様の処理であるため、その説明を省略する。
続いて、ステップS2203において、移動情報設定手段1002は、現在の注目領域から次の注目領域までの移動情報を設定する。具体的に、本実施形態では、移動情報設定手段1002は、第1の実施形態と同様に、移動情報として、現在の注目領域から次の注目領域までの移動量Mを設定する。
続いて、ステップS2204において、注目領域決定手段1003は、ステップS2203で設定された移動量Mに基づいて、検出対象の物体の検出処理(判別処理)を行う注目領域を決定する。
続いて、ステップS2205において、物体判別手段1004は、第1の実施形態と同様に、矩形フィルタ群を構成する弱判別器S(S>0)を用いた判別処理を行う。
続いて、ステップS2206において、物体判別手段1004は、当該弱判別器Sの全ての矩形フィルタを通過したか否かを判断する。ここで、矩形フィルタを通過したとは、例えば、第1の実施形態で説明した、矩形フィルタの白領域の輝度総和値Sw1と黒領域の輝度総和値Sb1との差Sub1(=Sw1−Sb1)が所定の閾値Th1よりも大きいと判定された場合のことである。
ステップS2206の判断の結果、全ての矩形フィルタを通過した場合には、ステップS2207に進み、物体判別手段1004は、顔候補と判定する。
続いて、ステップS2208において、物体判別手段1004は、全ての弱判別器による判別処理を実行したか否かを判断する。この判断の結果、全ての弱判別器による判別処理の実行は行われていない場合には、ステップS2209に進む。ステップS2209に進むと、物体判別手段1004は、次の弱判別器(S←S+1)の選択を行う。その後、ステップS2205に戻り、ステップS2209で選択した弱判別器を、弱判別器Sとして処理を行う。
ステップS2208の判断の結果、全ての弱判別器による判別処理を実行した場合には、ステップS2210に進む。ステップS2210に進むと、物体判別手段1004は、当該注目領域が全ての弱判別器で顔候補と判定されたことから、当該注目領域を顔領域と判定する。
続いて、ステップS2211において、物体判別手段1004は、全ての注目領域に対して判別処理を実行したか否かを判断する。この判断の結果、全ての注目領域に対しては判別処理を実行していない場合には、ステップS2203に戻る。一方、ステップS1110の判断の結果、全ての注目領域に対して判別処理を実行した場合には、当該フローチャートにおける処理を終了する。
また、ステップS2206の判断の結果、全ての矩形フィルタは通過していない場合には、ステップS2212に進む。ステップS2212に進むと、物体判別手段1004は、所定の弱判別器以上が実行されたか否かを判断する。この判断の結果、所定の弱判別器以上が実行されなかった場合には、物体判別手段1004は、現在の注目領域が背景領域であると判定し、その後、ステップS2203に戻る。
一方、ステップS2212の判断の結果、所定の弱判別器以上が実行された場合には、物体判別手段1004は、現在の注目領域の周辺に顔が存在する可能性があると判定し(即ち、現在の注目領域が顔周辺領域であると判定し)、ステップS2213に進む。ステップS2213に進むと、物体判別手段1004は、顔ではないと判定した弱判別器を構成する矩形フィルタの出力結果を用いて顔が存在する可能性がある領域までの移動量Mを計算する。そして、ステップS2213で移動量Mが算出されると、ステップS2203に戻り、この場合、算出された移動量Mに基づいて、移動量Mの設定が行なわれる。
以下に、このステップS2213における移動量Mの計算方法について説明する。
図24は、注目領域がΔWだけX方向に移動した場合を示す模式図である。
まず、図24に示すように、現在の注目領域がY方向の移動量は0として、X方向にΔWだけ移動した場合を考える。この場合、当然、図24に示す総和領域1もX方向にΔWだけ移動して総和領域2となる。
図24は、注目領域がΔWだけX方向に移動した場合を示す模式図である。
まず、図24に示すように、現在の注目領域がY方向の移動量は0として、X方向にΔWだけ移動した場合を考える。この場合、当然、図24に示す総和領域1もX方向にΔWだけ移動して総和領域2となる。
ここで、総和領域1がX方向にΔWだけ移動した場合の総和領域2のSumA'及びSumB'の変動域を考えると、それぞれ、以下の(1)式及び(2)式となる。
SumA−H*ΔW<SumA'<SumA+H*ΔW ・・・(1)
SumB−H*ΔW<SumB'<SumB+H*ΔW ・・・(2)
なお、この(1)式及び(2)式のHは、注目領域のY方向の高さである。
SumA−H*ΔW<SumA'<SumA+H*ΔW ・・・(1)
SumB−H*ΔW<SumB'<SumB+H*ΔW ・・・(2)
なお、この(1)式及び(2)式のHは、注目領域のY方向の高さである。
よって、上記の(1)式及び(2)式と閾値Thを用いると、現在の注目領域から最低何画素以上移動しなければ、閾値Thを超えないかという移動量ΔWを計算することができる。
つまり、SumA'=SumA+H*ΔW、SumB'=SumB−H*ΔWとして、SumA'−SumB'=Thとなる時のΔWを計算すれば良い。このようにして計算されるΔWをΔW1とすると、以下の(3)式となる。
ΔW1=[Th−(SumA−SumB)]/2H ・・・(3)
ΔW1=[Th−(SumA−SumB)]/2H ・・・(3)
図24に示す矩形フィルタでは、現在の注目領域から最低でもΔW1だけ移動しなければ、差SumA−SumBが閾値Thを超えないことが分かる。
そして、顔ではないと判定した弱判別器を構成する他の矩形フィルタに関しても同様の計算を行い、例えば、弱判別器を構成する矩形フィルタから算出された夫々の移動量ΔW1の中で最大の移動量ΔW2をX方向の移動量Mとして計算する。なお、Y方向に関しても同様の処理を行い、Y方向の移動量ΔW3を計算し、次の注目領域を(x+ΔW2,y)、(x,y+ΔW3)の2領域として検出対象の物体である顔の判別処理を行う。
なお、上記では、X方向とY方向の移動量ΔW2及びΔW3を算出したが、フィルタの種類によってはX方向だけの移動量を計算するなど移動方向を限定させるようにしても良い。
第3の実施形態に係る物体検出装置では、このようにして、現在の注目領域から次の注目領域までの移動量Mを矩形フィルタの種類と出力結果を用いて計算することにより、更に、検出対象の物体である顔の検出処理の負荷を軽減することができる。
(第4の実施形態)
第4の実施形態に係る物体検出装置の概略構成は、図3に示す第1の実施形態に係る物体検出装置の概略構成と同様である。
第4の実施形態に係る物体検出装置の概略構成は、図3に示す第1の実施形態に係る物体検出装置の概略構成と同様である。
図25は、本発明の第4の実施形態に係る物体検出装置の処理手順の一例を示すフローチャートである。このフローチャートを用いて、第4の実施形態に係る物体検出装置1000による物体検出方法を、以下に詳細に説明する。なお、図25において、図23の第3の実施形態に係るフローチャートと同様の処理ステップについては、同じ符号を付している。
図25のフローチャートにおいて、ステップS2201〜ステップS2212までの処理については、図23に示す第3の実施形態における処理と同様であるため、説明を省略する。なお、本実施形態のステップS2203の移動情報の設定に関しては、移動情報として、現在の注目領域から次の注目領域までの移動方向及び移動量Mが設定される。
ステップS2212の判断の結果、所定の弱判別器以上が実行された場合には、ステップS2313に進む。ステップS2313に進むと、物体判別手段1004は、各矩形フィルタの種類と出力結果を用いて、移動方向と移動量Mを決定する。そして、ステップS2313で移動方向及び移動量Mが決定されると、ステップS2203に戻り、この場合、決定された移動方向及び移動量Mに基づいて、移動方向及び移動量Mの設定が行なわれる。
以下に、このステップS2313における移動方向及び移動量Mの決定方法について説明する。
移動方向の決定については、まず、顔でないと判定した弱判別器から通過できなかった矩形フィルタを選択する。そして、選択された矩形フィルタに応じて移動方向を決定する。なお、各矩形フィルタ毎の移動方向は、大量のデータを分析することにより予め決定されているものとする。
移動方向の決定については、まず、顔でないと判定した弱判別器から通過できなかった矩形フィルタを選択する。そして、選択された矩形フィルタに応じて移動方向を決定する。なお、各矩形フィルタ毎の移動方向は、大量のデータを分析することにより予め決定されているものとする。
また、移動量Mの決定については、第3の実施形態で説明したような方法を用いて移動量Mを決定する。図26は、現在の注目領域2400から移動量Vだけ移動させた際の注目領域2401を示す模式図である。
例えば、顔でないと判定した弱判別器から通過できなかった矩形フィルタとして、図26に示すような矩形フィルタが選択された場合には、現在の注目領域2400からX方向に移動量Vだけ移動させた注目領域2401を次の注目領域とする。即ち、この場合、移動量Mとして、図26に示す移動量Vを決定する。
例えば、顔でないと判定した弱判別器から通過できなかった矩形フィルタとして、図26に示すような矩形フィルタが選択された場合には、現在の注目領域2400からX方向に移動量Vだけ移動させた注目領域2401を次の注目領域とする。即ち、この場合、移動量Mとして、図26に示す移動量Vを決定する。
第4の実施形態に係る物体検出装置では、このようにして、現在の注目領域から次の注目領域までの移動方向及び移動量Mを矩形フィルタの種類と出力結果を用いて決定することにより、更に、検出対象の物体である顔の検出処理の負荷を軽減することができる。
前述した各実施形態に係る物体検出装置を構成する図3の各手段は、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。また、前述した各実施形態に係る物体検出装置による物体検出方法を示す図4、図8、図14、図19、図21、図23及び図25の各ステップは、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。これらのプログラム及び当該プログラムを記録したコンピュータ読み取り可能な記憶媒体は本発明に含まれる。
具体的に、前記プログラムは、例えばCD−ROMのような記憶媒体に記録し、或いは各種伝送媒体を介し、コンピュータに提供される。前記プログラムを記録する記憶媒体としては、CD−ROM以外に、フレキシブルディスク、ハードディスク、磁気テープ、光磁気ディスク、不揮発性メモリカード等を用いることができる。他方、前記プログラムの伝送媒体としては、プログラム情報を搬送波として伝搬させて供給するためのコンピュータネットワーク(LAN、インターネットの等のWAN、無線通信ネットワーク等)システムにおける通信媒体を用いることができる。また、この際の通信媒体としては、光ファイバ等の有線回線や無線回線などが挙げられる。
また、本発明は、コンピュータが供給されたプログラムを実行することにより各実施形態に係る物体検出装置の機能が実現される態様に限られない。そのプログラムがコンピュータにおいて稼働しているOS(オペレーティングシステム)或いは他のアプリケーションソフト等と共同して各実施形態に係る物体検出装置の機能が実現される場合も、かかるプログラムは本発明に含まれる。また、供給されたプログラムの処理の全て、或いは一部がコンピュータの機能拡張ボードや機能拡張ユニットにより行われて各実施形態に係る物体検出装置の機能が実現される場合も、かかるプログラムは本発明に含まれる。
また、前述した本実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
1000 物体検出装置
1001 画像取得手段
1002 移動情報設定手段
1003 注目領域決定手段
1004 物体判別手段
1001 画像取得手段
1002 移動情報設定手段
1003 注目領域決定手段
1004 物体判別手段
Claims (8)
- 画像を取得する画像取得手段と、
前記画像取得手段により取得された画像に対して注目領域を決定する注目領域決定手段と、
前記注目領域決定手段で決定された注目領域に検出対象の物体が存在するか否かを判別する物体判別手段と、
前記物体判別手段による検出対象の物体の判別結果に基づいて、当該注目領域から次の注目領域までの移動量及び移動方向のうちの少なくとも一方を設定する設定手段と
を有し、
前記注目領域決定手段は、前記設定手段で設定された内容に基づいて、前記次の注目領域を設定することを特徴とする物体検出装置。 - 前記物体判別手段は、前記注目領域決定手段で決定された注目領域に検出対象の物体が存在するか否かを判別処理する複数の判別器を備えており、前記複数の判別器の判別結果に基づいて、当該注目領域に検出対象の物体が存在するか否かを判別することを特徴とする請求項1に記載の物体検出装置。
- 前記判別器は、前記注目領域決定手段で決定された注目領域内の少なくとも1つ以上の所定領域に対してフィルタを用いた総和値を算出し、当該総和値を用いることによって前記判別処理を行うことを特徴とする請求項2に記載の物体検出装置。
- 前記設定手段は、前記注目領域に前記検出対象の物体が存在すると判定した前記判別器の数、前記フィルタの種類及びその出力結果のうちの少なくとも1つに基づいて、前記移動量及び前記移動方向を設定することを特徴とする請求項3に記載の物体検出装置。
- 前記検出対象の物体は顔であり、
前記物体判別手段が前記注目領域に顔が存在すると判定する場合は当該注目領域が顔領域及び顔を含む顔周辺領域であり、前記物体判別手段が前記注目領域に顔が存在しないと判定する場合は当該注目領域が背景領域であることを特徴とする請求項1乃至4のいずれか1項に記載の物体検出装置。 - 前記設定手段は、前記物体判別手段が重複して前記検出対象の物体であると判定する注目領域の重複幅を算出し、当該重複幅を用いて前記移動量を設定することを特徴とする請求項1に記載の物体検出装置。
- 画像を取得する画像取得ステップと、
前記画像取得ステップにより取得された画像に対して注目領域を決定する注目領域決定ステップと、
前記注目領域決定ステップで決定された注目領域に検出対象の物体が存在するか否かを判別する物体判別ステップと、
前記物体判別ステップによる検出対象の物体の判別結果に基づいて、当該注目領域から次の注目領域までの移動量及び移動方向のうちの少なくとも一方を設定する設定ステップとを有し、
前記注目領域決定ステップでは、前記設定ステップで設定された内容に基づいて、前記次の注目領域を設定することを特徴とする物体検出方法。 - 画像を取得する画像取得ステップと、
前記画像取得ステップにより取得された画像に対して注目領域を決定する注目領域決定ステップと、
前記注目領域決定ステップで決定された注目領域に検出対象の物体が存在するか否かを判別する物体判別ステップと、
前記物体判別ステップによる検出対象の物体の判別結果に基づいて、当該注目領域から次の注目領域までの移動量及び移動方向のうちの少なくとも一方を設定する設定ステップとをコンピュータに実行させ、
前記注目領域決定ステップでは、前記設定ステップで設定された内容に基づいて、前記次の注目領域を設定することを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007259061A JP2009087253A (ja) | 2007-10-02 | 2007-10-02 | 物体検出装置、物体検出方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007259061A JP2009087253A (ja) | 2007-10-02 | 2007-10-02 | 物体検出装置、物体検出方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009087253A true JP2009087253A (ja) | 2009-04-23 |
Family
ID=40660562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007259061A Pending JP2009087253A (ja) | 2007-10-02 | 2007-10-02 | 物体検出装置、物体検出方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009087253A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013132836A1 (ja) * | 2012-03-05 | 2013-09-12 | パナソニック株式会社 | 物体検出装置、物体検出方法、及び物体検出プログラム |
JP2013250604A (ja) * | 2012-05-30 | 2013-12-12 | Hitachi Ltd | 物体検出装置および物体検出方法 |
US8836812B2 (en) | 2012-03-21 | 2014-09-16 | Honda Elesys Co., Ltd. | Image processing device, image processing method, and image processing program |
JP2015529354A (ja) * | 2012-08-15 | 2015-10-05 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 顔認識のための方法および装置 |
-
2007
- 2007-10-02 JP JP2007259061A patent/JP2009087253A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013132836A1 (ja) * | 2012-03-05 | 2013-09-12 | パナソニック株式会社 | 物体検出装置、物体検出方法、及び物体検出プログラム |
US9400929B2 (en) | 2012-03-05 | 2016-07-26 | Panasonic Intellectual Property Management Co., Ltd. | Object detection device and method for detecting an object by performing a raster scan on a scan window |
US8836812B2 (en) | 2012-03-21 | 2014-09-16 | Honda Elesys Co., Ltd. | Image processing device, image processing method, and image processing program |
JP2013250604A (ja) * | 2012-05-30 | 2013-12-12 | Hitachi Ltd | 物体検出装置および物体検出方法 |
US9465998B2 (en) | 2012-05-30 | 2016-10-11 | Hitachi, Ltd. | Object detecting device and object detecting method |
JP2015529354A (ja) * | 2012-08-15 | 2015-10-05 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 顔認識のための方法および装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401177B (zh) | 基于自适应时空注意力机制的端到端行为识别方法及系统 | |
JP5464244B2 (ja) | 画像処理装置、プログラム及び画像処理システム | |
JP4642128B2 (ja) | 画像処理方法、画像処理装置及びシステム | |
US9367758B2 (en) | Feature extraction device, feature extraction method, and feature extraction program | |
CN101339609B (zh) | 图像处理装置和图像处理方法 | |
JP5235691B2 (ja) | 情報処理装置及び情報処理方法 | |
US8526742B2 (en) | Image processing apparatus, method, and program that classifies data of images | |
US20150003740A1 (en) | Image processing device, method of controlling image processing device, and program for enabling computer to execute same method | |
CN104583902A (zh) | 改进的手势的识别 | |
JP2008165792A (ja) | 画像処理方法及び装置 | |
KR20130018763A (ko) | 얼굴 식별 방법 및 그 장치 | |
JP2005056387A (ja) | 画像処理装置、撮像装置、画像処理方法 | |
JP2012243197A (ja) | 画像識別装置、画像識別方法、画像識別プログラム及び記録媒体 | |
JP2012243196A (ja) | 画像識別装置、画像識別方法、画像識別プログラム及び記録媒体 | |
JP5290227B2 (ja) | 対象物検知装置及びその学習装置 | |
CN109389105B (zh) | 一种基于多任务的虹膜检测和视角分类方法 | |
CN104508680A (zh) | 改善之视讯追踪 | |
JP5290229B2 (ja) | 学習装置及び対象物検知装置 | |
CN104023160A (zh) | 上置型扫描仪装置和图像获取方法 | |
JP5429564B2 (ja) | 画像処理装置および方法、並びにプログラム | |
JP2009087253A (ja) | 物体検出装置、物体検出方法及びプログラム | |
Lal et al. | Face recognition using deep learning xception cnn method | |
KR20080079443A (ko) | 영상으로부터의 객체 검출 방법 및 장치 | |
JP6647134B2 (ja) | 被写体追跡装置及びそのプログラム | |
JP2016071800A (ja) | 情報処理装置、情報処理方法及びプログラム |