JP2008102814A - オブジェクト検出方法 - Google Patents

オブジェクト検出方法 Download PDF

Info

Publication number
JP2008102814A
JP2008102814A JP2006286018A JP2006286018A JP2008102814A JP 2008102814 A JP2008102814 A JP 2008102814A JP 2006286018 A JP2006286018 A JP 2006286018A JP 2006286018 A JP2006286018 A JP 2006286018A JP 2008102814 A JP2008102814 A JP 2008102814A
Authority
JP
Japan
Prior art keywords
detection method
discriminator
search
object detection
primary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006286018A
Other languages
English (en)
Other versions
JP4724638B2 (ja
Inventor
Tomoaki Yoshinaga
智明 吉永
Shigeki Nagaya
茂喜 長屋
Isao Karube
勲 軽部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006286018A priority Critical patent/JP4724638B2/ja
Priority to US11/739,759 priority patent/US7835543B2/en
Publication of JP2008102814A publication Critical patent/JP2008102814A/ja
Application granted granted Critical
Publication of JP4724638B2 publication Critical patent/JP4724638B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像中に存在する1〜複数個のオブジェクトを高速に検出するオブジェクト検出方法を提供する。
【解決手段】オブジェクト検出方法において、演算回数が少なく単純な1次判別器161を用いて、一定間隔毎にオブジェクトが存在するか判別する1次探索ステップ110と、1次探索の結果の空間的な関係性から、オブジェクトが実際に存在する範囲を推定する範囲推定ステップ120と、1次探索で用いたオブジェクト判別器より詳細な判別が可能な2次判別器162を用いて、オブジェクト判別処理を行う2次探索ステップ130と、オブジェクト判別の結果に基づいて、あるオブジェクト存在範囲内で類似度が最も大きくなる位置をオブジェクト存在位置と推定するオブジェクト位置推定ステップ140と、最終的なオブジェクトの位置を判別する最終探索ステップ150を有する。
【選択図】図1

Description

本発明は、画像中から顔などの特定オブジェクトを検出するオブジェクト検出方法に関し、特に、オブジェクトの高速検出処理に適用して有効な技術に関する。
入力画像中から顔などの特定オブジェクトを検出する方法として、例えば非特許文献1がある。非特許文献1では、顔の解析に効率的かつ効果的なハールと呼ばれる画像の特徴の組、アダブーストに基づく特徴選択プロセス、学習および検出用のカスケード式アーキテクチャの3つの新しい方式による高精度なオブジェクト検出手法を提案している。
しかし、入力画像中のどこにオブジェクトが存在するか不明な場合、様々な位置にオブジェクト判別処理を行わなければならいため多くの処理時間を要する。
入力画像に対してオブジェクトが、未知のサイズで、未知の位置に、未知の個数存在する場合、入力画像を様々なサイズに倍率変更し、画像上の全ての位置に対して、オブジェクト判別処理を行うことになる。
そこで、オブジェクトに対する情報が未知である入力画像から、高速にオブジェクトを検出する手法として、例えば、特許文献1がある。特許文献1では、テンプレートマッチングを画像全体に対して行う処理(以下、探索処理と呼ぶ)を複数のレベルに階層化している。レベル毎にテンプレートにおける計算対象画素の間隔と下位のレベルへと移行する閾値を設定しておき、テンプレート内の計算対象画素が少ない上位レベルから、粗い位置間隔で相関値を計算していく。相関値が閾値以上で周りより値の高い位置を見つけたら、その位置の周辺に対して低いレベルでの探索(テンプレートの計算対象画素数を多くした演算を細かい位置間隔で行う)を行っていき、最終レベルの相関値も閾値を超えれば、その位置にオブジェクトがあると判定する。これにより、画像上の全ての位置にテンプレートマッチングを行うよりも少ない演算量で、オブジェクト検出が行える。
P.Viola,M.Jones,"Rapid Object Detection using a Boosted Cascade of Simple Features,"Proceedings IEEE Conf.on Computer Vision and Pattern Recognition,2001 特開平2−159682号公報
しかしながら、特許文献1では、最終レベルにおける相関値の計算(オブジェクト判別処理)の回数が増えると演算量が増大するという問題があった。
これに対して、一定以上相関値が高い位置を途中で検出したら処理を打ち切るという解決方法もあるが、この場合、実際のオブジェクト位置から数画素ずれた位置を検出してしまうことがある。また、上位レベルの探索間隔を大きくしすぎるとオブジェクトの検出漏れが発生してしまうのに対して、探索間隔を細かくしすぎるとオブジェクトが実際には無い位置でも下位レベルの探索が必要になることが増え、処理速度が低下するという問題があった。
そこで、本発明の目的は、画像中に存在する1〜複数個のオブジェクトを高速に検出するオブジェクト検出方法を提供することにある。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。
本発明によるオブジェクト検出方法は、少ない演算数で指定画像枠内のオブジェクトの有無を判別する1次判別器を用いて入力画像上の特定間隔位置にオブジェクト判別処理を行う1次探索ステップと、1次探索ステップの結果に基づいて、オブジェクトが存在する範囲を推定する範囲推定ステップと、範囲推定ステップで得られた1または複数のオブジェクト存在範囲のそれぞれに対して、1次判別器より多い演算数でオブジェクトの有無を判別する2次判別器を用いてオブジェクト判別処理を行いオブジェクトとの類似度を求める2次探索ステップと、2次探索ステップで得られた類似度を用いてオブジェクトが存在する位置を推定する位置推定ステップと、位置推定ステップで推定された位置に対して、2次判別器と同等の演算数または2次判別器より多い演算数でオブジェクトの有無を判別する最終判別器を用いてオブジェクト判別処理を行い実際にオブジェクトが存在するかどうか判定する最終探索ステップとを有するものである。
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
本発明によれば、画像中に存在する1〜複数個のオブジェクトを高速に検出することが可能となる。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
まず、本発明のオブジェクト検出処理の一例について説明する。
本発明では、オブジェクト検出処理として、複数のステージで構成されたオブジェクト判別器を用いている。各ステージでは、ハール特徴に応じた特徴量を算出し、閾値と比較して、オブジェクトであるかどうかの判別を行う。
ある閾値以下であればステージクリアでないと判定し、閾値以上であればステージクリアと判定して、次のステージによる判別処理へと移行する。
そして、オブジェクトの検出位置を移動させて、オブジェクト判別器内の複数のステージのクリア数を検出することにより、オブジェクト位置を検出している。
また、以下の説明では、オブジェクト判別器を用いる例で説明するが、オブジェクト判別器は、複数のステージ毎にオブジェクトであるか判定することが可能な判別器であれば何を用いても良く、例えば、複数ステージのカスケード構造で構成されるオブジェクト判別器を用いれば良い。また、オブジェクト判別器として複数のテンプレートを用いても良い。
(実施の形態1)
図1により、本発明の実施の形態1に係るオブジェクト検出方法の動作について説明する。図1は本発明の実施の形態1に係るオブジェクト検出方法の動作を示すフローチャートである。
図1において、オブジェクト検出方法の動作は、1次探索ステップ110、範囲推定ステップ120、2次探索ステップ130、オブジェクト位置推定ステップ140、最終探索ステップ150という5つのステップで構成されている。
1次探索、2次探索、最終探索の各探索ステップでは、オブジェクト判別器160を1次判別器161、2次判別器162、最終判別器163とステージ毎に分割して使用する。なお、最終判別器163は2次判別器162と分割せずに同じものを用いても良い。
以下の説明において、オブジェクト判別器を用いて、入力画像中の各位置にオブジェクトが存在するか判別していくことをオブジェクト探索と呼ぶことにする。
次に、図2により、本発明の実施の形態1に係るオブジェクト検出方法によるオブジェクト判別器を用いたオブジェクト探索の一例について説明する。
図2は本発明の実施の形態1に係るオブジェクト検出方法によるオブジェクト判別器を用いたオブジェクト探索の一例を説明するための説明図である。
図2(a)において、入力画像210上のある位置に検出対象のオブジェクト220が存在する。
図2(a)に示すような入力画像210上を複数のステージからなるオブジェクト判別器160を用いてx方向に探索を行った場合、各位置のオブジェクト判別処理結果は、例えば、図2(b)のようになる。
図2(b)は、横軸がx軸、縦軸があるx位置においてオブジェクト判別処理を行った結果、クリアしたステージ数を表している。
オブジェクト判別においてクリアしたステージ数は、オブジェクトとの類似度を示すと言え、オブジェクトの周辺位置になるほど類似度が増大し、山状のグラフが描かれる。
本実施の形態では、この特性を活かして、オブジェクトが存在する位置である類似度グラフの山の頂点を高速に検出する方法を提供することで画像中のオブジェクトを高速かつ正確に検出している。
次に、図1、図3〜図7により、本発明の実施の形態1に係るオブジェクト検出方法の各ステップの動作について説明する。図3は本発明の実施の形態1に係るオブジェクト検出方法の1次探索ステップにおいて判別処理を行う位置を説明するための説明図、図4は本発明の実施の形態1に係るオブジェクト検出方法の1次探索ステップを行った結果の一例を示す図、図5は本発明の実施の形態1に係るオブジェクト検出方法の範囲推定ステップを説明するための説明図、図6は本発明の実施の形態1に係るオブジェクト検出方法の2次探索ステップを説明するための説明図、図7は本発明の実施の形態1に係るオブジェクト検出方法のオブジェクト位置推定ステップを説明するための説明図である。
まず、1次探索ステップ110では、1次判別器161を用いて大まかな探索処理を行う。
1次判別器161は、オブジェクト判別器160の中でも少ない演算処理しか行わない少数のステージ(例えば2,3個程度の)からなる判別器である。
1次探索ステップ110における探索処理の様子を図3に示す。
入力画像に対して、判別器のサイズに応じた大きい探索間隔でオブジェクト判別処理を行う。例えば、画像の水平方向の探索幅dxはカスケードの横サイズの3分の1、垂直方向の探索幅dyは判別器の縦サイズの4分の1などとする。
一般に判別器のサイズによって、図2に示す類似度の山の幅は異なり、図2の類似度の山を常に検出可能とする間隔にすることが望ましい。また、一般的な画像では水平方向に比べて垂直方向の相関が低いため、dx>dyとしたほうが良い。
図4に、1次探索ステップ110の処理結果のグラフの例を示す。黒丸が各探索位置でのオブジェクト判別処理で、クリアしたステージ数を示している。オブジェクトが存在する周辺で現れる類似度の山の幅は、多くはオブジェクトサイズの3分の2程度であるため、探索間隔を検出対象オブジェクトの大きさの3分の1程度にすることで、検出漏れなく、少ない判別処理で類似度の山の裾野部分を見つけることが可能となる。
範囲推定ステップ120では、1次探索ステップの結果からオブジェクトが存在する範囲を推定する。具体的には、1次探索ステップをクリアした座標(x,y)に対して座標(x+dx、y)、(x、y+dy)位置の判別処理結果を確認し、両座標においても1次カスケードの全ステージをクリアしていた場合、座標(x,y)の周辺領域である[x、x+dx][y、y+dy]をオブジェクト存在範囲510と推定する。
このような範囲推定処理を、1次探索ステップ120でオブジェクト判別処理をクリアした全ての位置に対して行うことで、複数のオブジェクト存在範囲を得る。
図5に範囲推定ステップ120の処理の様子を示す。
例えば、1次探索ステップ110の結果、図5(a)に示す黒点の位置でオブジェクトが存在すると判別された場合、オブジェクト存在範囲は図5(b)のように推定される。
1次探索ステップ110の探索幅(dx、dy)をオブジェクト周辺で表れる類似度の山の3分の1としたことで、オブジェクト位置周辺の複数の点で1次探索における判別処理をクリアする。
このため、上記のような方法でオブジェクト存在範囲を限定することができる。これによって、図4の最右点のように小さい山の頂点位置が1次探索における探索位置となった場合に、以降の判定を行う必要が無くなるため処理時間を削減できる。
2次探索ステップ130では、2次判別器162を用いて、より詳細なオブジェクト探索を行う。2次判別器162の各ステージでは1次判別器より演算数が必要だが詳細にオブジェクトかどうかを判定可能な複数のステージで構成される判別器である。
2次探索ステップ130では範囲推定ステップ120で得られた各オブジェクト存在範囲内の決められた数箇所の探索位置に対して、2次判別器によるオブジェクト判別処理を実行する。各探索位置でクリアしたステージ数を記録し、次のオブジェクト位置推定ステップ140に出力する。
図6に、オブジェクト存在範囲と2次探索ステップにおける探索位置の関係を示す。オブジェクト判別処理を行う探索位置は、次のオブジェクト位置推定ステップ140で行うオブジェクト位置推定方法に依存する。類似度の山の分布を計測するため、例えば、図6(a)に示すようにオブジェクト存在範囲全体を覆う5点を探索位置とする。
図6(a)の探索点4と探索点5は、あえて隣のオブジェクト存在範囲の端点を探索点とした。これによって、右隣りのオブジェクト存在範囲内を2次探索する際に、探索点2は左のオブジェクト存在範囲の探索点4であるため、新たなオブジェクト判別処理を行う必要が無くなる。
2次探索ステップ130における探索位置は、例えば、図6(b)のようにオブジェクト存在領域内の9点を用いても良い。このように探索した場合、2次探索を行う処理回数は増加するが、詳細な類似度の情報を得られるため、オブジェクト位置推定ステップ140における推定精度が増すという利点がある。
また、2次探索を行った結果、全探索地位の出力値の平均または最大値が2次判別器のステージ数に比べて十分低かった場合、この範囲内にオブジェクトは存在しないと判定し、以降のステップによる処理を行わないものとする。
オブジェクト位置推定ステップ140では、2次探索ステップ130で得られた各探索位置のクリアステージ数である出力値の情報を元に、オブジェクト存在範囲内でクリアステージ数が最も大きくなる位置を推定する。この位置がオブジェクト存在範囲内におけるオブジェクト位置と考えられる。
図7にオブジェクト位置推定のイメージを示す。
複数の位置における出力値を関数に近似することで、図2(b)の山の頂点位置を推定し、これをオブジェクト位置とする。
以降では、2次関数近似を用いて類似度の山の頂点位置推定を行った場合について説明する。
図6(a)の探索点2、3、4のように一定方向に並んだ3点をそれぞれ探索点p1 、p2 、p3 (p1 <p2 <p3 、p3 −p2 =p2 −p1 =Step)として、各探索点から得られた出力値をO1 、O2 、O3 としたとき、頂点位置t1 は、以下の数1の式で求められる。
図7(a)のように、5つの探索点による2次探索を行った場合には、水平方向に並ぶ探索点1、3、5の出力値からx方向の頂点位置を算出できる。
同様に、垂直方向に並ぶ探索点2、3、4の3点からy方向の頂点位置を求めることができる。なお、先に水平方向3点のみの2次探索を行い、オブジェクト位置推定ステップ140でx方向の頂点位置を推定した後、そのx位置における垂直方向3点の2次探索を行って、y方向の頂点推定を行っても良い。
例えば、図7(b)のように、オブジェクト位置推定を行った結果、オブジェクト位置が現在のオブジェクト存在範囲外になることがある。このような場合は、隣のオブジェクト存在範囲における処理でオブジェクト検出可能なため、以降の処理は行わない。
最終探索ステップ150では、オブジェクト位置推定ステップ140で推定されたオブジェクト位置に対して最終判別器163を用いてオブジェクト判別処理を行い、実際にオブジェクトが存在するかどうか確認する。
オブジェクト判別処理の結果、全てのステージをクリアしたら、この位置にオブジェクトが存在すると決定する。
以上の流れによってオブジェクトを高速に検出することが可能である。
なお、別サイズのオブジェクトを検出するには、オブジェクト判別器のサイズを変更して上記と同様の処理を繰り返す。
(実施の形態2)
図8により、本発明の実施の形態2に係るオブジェクト検出方法の動作について説明する。図8は本発明の実施の形態2に係るオブジェクト検出方法の動作を示すフローチャートである。
実施の形態2は、実施の形態1の各ステップとは別に、検出終了判定ステップ810、サイズ変更ステップ820、探索範囲限定ステップ830が追加された8つのステップで構成されている。これにより複数のサイズのオブジェクトを画像中から高速に検出することが可能となる。
次に、図8〜図12により、本発明の実施の形態2に係るオブジェクト検出方法の各ステップの動作について説明する。図9は本発明の実施の形態2に係るオブジェクト検出方法の別サイズのオブジェクト判別処理を行ったときの結果を示す図、図10は本発明の実施の形態2に係るオブジェクト検出方法のサイズ変更ステップを説明するための説明図、図11は本発明の実施の形態2に係るオブジェクト検出方法の探索範囲限定ステップで用いる結果格納メモリを説明するための説明図、図12は本発明の実施の形態2に係るオブジェクト検出方法の探索範囲限定ステップの処理結果を説明するための説明図である。
本実施の形態では、まず実施の形態の図1に示すオブジェクト検出方法(図2の100の処理)に基づいて、入力画像に対してあるサイズのオブジェクト検出処理を行う(これを検出処理Nとする)。
その後、検出終了判定ステップ810において、オブジェクトサイズを更新し、更新サイズは探索範囲内かを判断することにより、別サイズのオブジェクト検出(検出処理N+1)を行うかの判定を行い、行う場合はサイズ変更ステップ820へと行き、行わない場合は処理を終了する。
サイズ変更ステップ820では、検出対象オブジェクトのサイズを変更する。次に、探索範囲限定ステップ830で、検出処理Nの結果に基づいて検出処理N+1における探索範囲を限定する。検出処理N+1では、この限定された探索範囲にのみ実施の形態1と同様にオブジェクト検出を行う。
実施の形態1では、オブジェクトが存在する位置周辺での関係性を利用していたのに加えて、本実施の形態では、更にオブジェクトのサイズの関係性を利用する方法である。いわば、2次元的な関係性を3次元的に拡張したものと言える。
このような、本実施の形態のオブジェクト検出方法による検出手法の有効性は、図9に示すグラフから読み取ることができる。
図9(a)、図9(b)、図9(c)は、それぞれ、検出するオブジェクトの0.8倍、1.0倍、1.3倍のサイズのオブジェクト判別器を用いて画像中の全位置にオブジェクト判別処理を行ったときの結果である。
グラフのz軸は、ある座標位置にオブジェクト判別処理を行った結果、クリアしたステージ数を示している。白枠はオブジェクト存在位置を示している。
グラフからオブジェクト判別器のサイズを変更しても処理結果には相関が表れることが分かる。このため一定サイズ内の変更であれば、サイズ変更前の処理結果から探索範囲を限定させても支障はないと言える。
以下、サイズ変更ステップ820および探索範囲限定ステップ830について、詳細な解説を行う。
サイズ変更ステップ820では、検出対象とするオブジェクトのサイズ変更を行う。具体的には、図10(a)に示すようにオブジェクト判別器の窓サイズを検出対象である窓サイズへと等倍することで行う。また、図10(b)に示すように入力画像自体のサイズを変更しても良い。
次に、探索範囲限定ステップ830について、図11を用いて説明する。
図11は、結果格納メモリ1100を示している。結果格納メモリ1100とは、ある検出処理Nを行った結果得られた、各位置でクリアしたステージ数を格納したものである。探索範囲限定ステップでは、この結果格納メモリ110の各値に基づいて検出処理S+1におけるオブジェクト探索範囲を限定する。
図11で“S”が記されている位置は、非探索位置である。ここは、検出処理N−1での結果、検出処理Nでは探索の必要なしと判定された範囲である。検出処理Sで探索が行われなかった非探索範囲は、検出処理S+1では探索範囲とする。
次に、図11で、“D”が記されている位置はオブジェクト検出位置である。検出処理Nまでのどこかでオブジェクトが検出されたことを示している。オブジェクトが検出された領域内に再び別サイズのオブジェクトが検出されることは無いため、この位置周辺は常にオブジェクト探索を行わない。このため検出処理N+1においても非探索範囲とする。
図11で、“0”“1”など数字が格納されている位置が、検出処理Nにおいてオブジェクト判別処理が行われた位置である。この格納された数値によって検出処理S+1での探索範囲を限定する。
具体的には、1次探索ステップ110をクリアできなかった位置は非探索範囲とする。また、オブジェクトは検出されなかったが、2次探索においてある閾値T以上のステージ数をクリアした位置周辺は探索範囲とする。図9(a)(c)から分かるように、異なるサイズのオブジェクトに対しては山の幅が小さくなる。このため、探索範囲は広めに設定することが望ましい。
以上の処理を行い、検出処理S+1における探索範囲と非探索範囲を決定する。図11の結果格納メモリ1100からは、例えば図12のような探索範囲と非探索範囲が得られる。
探索範囲限定ステップ830以下の各ステップでは、探索範囲のみに対して実施の形態1で解説した方法でオブジェクト検出を行う。この際、各位置でオブジェクト判別処理を行った結果クリアしたステージ数を結果格納メモリ1100に記録しておく。
以上の流れによってオブジェクトを高速に検出することが可能である。
(実施の形態3)
図13により、本発明の実施の形態3に係るオブジェクト検出方法の動作について説明する。図13は本発明の実施の形態3に係るオブジェクト検出方法の動作を示すフローチャートである。
実施の形態3は、検出対象であるオブジェクトが別方向を向いていても高速に検出する方法である。これにより、例えば、従来は正面から±数10度向きの顔しか検出できなかったが、横向きの顔も検出することが可能となる。
図13において、オブジェクト検出に用いる複数方向オブジェクト判別器1300は、1次判別器1301までは同一で、2次判別器以降は、方向毎に異なる判別器を用意する。
例えば、正面向きオブジェクト判別器1310、右向きオブジェクト判別器1320などであり、更に多くの方向のオブジェクトを検出したければ、例えば左向きオブジェクト判別器などを追加すれば良い。
1次判別器1301はオブジェクトが様々な方向を向いていても検出可能であり、オブジェクトではないものを一定割合落とすことが可能な汎用性の大きい判別器である。このような判別器では、ステージ数を増加しても十分な性能を得られない。このため、1次判別器として単純なオブジェクト判別のみを行い、以降は各方向に応じた判別器を用いて判別する。
次に、図13により、本発明の実施の形態3に係るオブジェクト検出方法の複数方向オブジェクト判別器を用いた複数方向のオブジェクト探索処理について説明する。
まず、1次探索ステップ110、範囲推定ステップ120での処理は1次判別器1301を用いて、実施の形態1と同様に行われる。
2次探索以降は、検出対象であるオブジェクトの方向毎にそれぞれ行われる。
つまり、正面向きオブジェクト判別器1310の正面向き2次判別器1312を用いて2次探索ステップ130、オブジェクト位置推定ステップ140を実行し、正面向きオブジェクト判別器1310の正面向き最終判別器1313を用いて、最終探索ステップ150をそれぞれ実行した後、右向きオブジェクト判別器1320の右向き2次判別器1322、右向き最終判別器1323を用いて同様の探索処理を行う。
この際、ある方向のオブジェクト探索においてオブジェクトを検出した場合、検出した位置周辺に対しては別向きのオブジェクト探索の際に、探索しないものとする。
以上の処理によって複数方向を向いているオブジェクトを高速に検出できる。
(実施の形態4)
図14により、本発明の実施の形態4に係るオブジェクト検出方法を用いたオブジェクト検出装置の構成について説明する。図14は本発明の実施の形態4に係るオブジェクト検出方法を用いたオブジェクト検出装置の構成を示す構成図である。
図14において、オブジェクト検出装置1400は、画像入力部1410、画像処理部1420、CPU1430、メモリ1440、出力部1450から構成され、メモリ1440内にオブジェクト判別器160が保持され、CPU1430がメモリ1440を参照しながら処理を行う。
次に、本発明の実施の形態4に係るオブジェクト検出方法を用いたオブジェクト検出装置の動作について説明する。
まず、画像入力部1410で、カメラなどの撮像装置で得られた画像を入力画像として受け取る。次に、画像処理部1420で、オブジェクト検出を行うための前処理を画像に対して行う。
この前処理として、例えば画像の縮小や平滑化などのフィルタリング処理などを行う。
次に、CPU1430にてオブジェクト検出方法に基づいてオブジェクト検出処理を行う。
最後に、出力部1450ではCPU1430から得られたオブジェクト検出結果を受け取り、検出結果の通知を行う。
このような、オブジェクト検出装置1400が実装される機器により、通知結果に応じた処理を行うこととなる。例えば、検出結果を全てインデックス化して記録する、検出された位置の画像に対して更なる処理を行うなどである。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
本発明は、画像中から顔などの特定オブジェクトを検出するオブジェクト検出方法に関し、画像からオブジェクトの存在を検出する装置やシステムなどに広く適用可能である。
本発明の実施の形態1に係るオブジェクト検出方法の動作を示すフローチャートである。 (a)、(b)は本発明の実施の形態1に係るオブジェクト検出方法によるオブジェクト判別器を用いたオブジェクト探索の一例を説明するための説明図である。 本発明の実施の形態1に係るオブジェクト検出方法の1次探索ステップにおいて判別処理を行う位置を説明するための説明図である。 本発明の実施の形態1に係るオブジェクト検出方法の1次探索ステップを行った結果の一例を示す図である。 (a)、(b)は本発明の実施の形態1に係るオブジェクト検出方法の範囲推定ステップを説明するための説明図である。 (a)、(b)は本発明の実施の形態1に係るオブジェクト検出方法の2次探索ステップを説明するための説明図である。 (a)、(b)は本発明の実施の形態1に係るオブジェクト検出方法のオブジェクト位置推定ステップを説明するための説明図である。 本発明の実施の形態2に係るオブジェクト検出方法の動作を示すフローチャートである。 (a)、(b)、(c)は本発明の実施の形態2に係るオブジェクト検出方法の別サイズのオブジェクト判別処理を行ったときの結果を示す図である。 (a)、(b)は本発明の実施の形態2に係るオブジェクト検出方法のサイズ変更ステップを説明するための説明図である。 本発明の実施の形態2に係るオブジェクト検出方法の探索範囲限定ステップで用いる結果格納メモリを説明するための説明図である。 本発明の実施の形態2に係るオブジェクト検出方法の探索範囲限定ステップの処理結果を説明するための説明図である。 本発明の実施の形態3に係るオブジェクト検出方法の動作を示すフローチャートである。 本発明の実施の形態4に係るオブジェクト検出方法を用いたオブジェクト検出装置の構成を示す構成図である。
符号の説明
110…1次探索ステップ、120…範囲推定ステップ、130…2次探索ステップ、140…オブジェクト位置推定ステップ、150…最終探索ステップ、160…オブジェクト判別器、161…1次判別器、162…2次判別器、163…最終判別器、210…入力画像、220…入力画像中のオブジェクト、810…検出終了判定ステップ、820…サイズ変更ステップ、830…探索範囲限定ステップ、1100…結果格納メモリ、1300…複数方向オブジェクト判別器、1301…1次判別器、1310…正面向きオブジェクト判別器、1312…正面向き2次判別器、1313…正面向き最終判別器、1320…右向きオブジェクト判別器、1322…右向き2次判別器、1323…右向き最終判別器。

Claims (10)

  1. 第1の演算数で指定画像枠内のオブジェクトの有無を判別する1次判別器を用いて入力画像上の特定間隔位置にオブジェクト判別処理を行う1次探索ステップと、
    前記1次探索ステップの結果に基づいて、前記オブジェクトが存在する範囲を推定する範囲推定ステップと、
    前記範囲推定ステップで得られた1または複数のオブジェクト存在範囲のそれぞれに対して、前記1次判別器より多い第2の演算数でオブジェクトの有無を判別する2次判別器を用いてオブジェクト判別処理を行いオブジェクトとの類似度を求める2次探索ステップと、
    前記2次探索ステップで得られた前記類似度を用いてオブジェクトが存在する位置を推定する位置推定ステップと、
    前記位置推定ステップで推定された位置に対して、前記2次判別器と同数または前記2次判別器より多い第3の演算数でオブジェクトの有無を判別する最終判別器を用いてオブジェクト判別処理を行い実際にオブジェクトが存在するかどうか判定する最終探索ステップとを有することを特徴とするオブジェクト検出方法。
  2. 請求項1記載のオブジェクト検出方法において、
    前記1次探索ステップは、
    前記特定間隔位置を前記1次判別器で検出するオブジェクトの大きさの3分の1とすることを特徴とするオブジェクト検出方法。
  3. 請求項1記載のオブジェクト検出方法において、
    前記範囲推定ステップは、
    前記1次探索ステップをクリアした前記入力画像上のある位置の、隣り合う周辺位置でも前記1次探索ステップをクリアしているとき、この入力画像上の位置周辺をオブジェクトが存在する範囲であると推定することを特徴とするオブジェクト検出方法。
  4. 請求項1記載のオブジェクト検出方法において、
    前記2次探索ステップで出力するオブジェクトとの類似度は、
    複数のステージからなる前記2次判別器を用いて前記オブジェクト判別処理を行った際にクリアしたステージ数であることを特徴とするオブジェクト検出方法。
  5. 請求項1記載のオブジェクト検出方法において、
    前記位置推定ステップは、
    前記2次探索ステップの結果、得られた各位置でのオブジェクトとの類似度を2次関数近似し、前記オブジェクトとの類似度が最大となる前記入力画像中の位置を算出し、オブジェクトが存在する位置と推定することを特徴とするオブジェクト検出方法。
  6. 請求項1記載のオブジェクト検出方法において、
    別サイズのオブジェクト検出を行うかを判定する検出終了判定ステップと、
    前記検出終了判定ステップの判定結果に基づいて、前記1次判別器、前記2次判別器、前記最終判別器の検出サイズを変更するサイズ変更ステップと、
    前サイズのオブジェクト検出の結果に基づいて、現サイズのオブジェクト検出を行う入力画像上の範囲を限定する探索範囲限定ステップとを有することを特徴とするオブジェクト検出方法。
  7. 請求項1記載のオブジェクト検出方法において、
    別サイズのオブジェクト検出を行うかを判定する検出終了判定ステップと、
    前記検出終了判定ステップの判定結果に基づいて、前記入力画像のサイズを変更するサイズ変更ステップと、
    前サイズのオブジェクト検出の結果に基づいて、現サイズのオブジェクト検出を行う入力画像上の範囲を限定する探索範囲限定ステップとを有することを特徴とするオブジェクト検出方法。
  8. 請求項6または7記載のオブジェクト検出方法において、
    前記探索範囲限定ステップは、
    前サイズのオブジェクト検出の際に1次探索ステップをクリアしなかった位置の周辺領域に関しては、現サイズではオブジェクト検出を行わないことを特徴とするオブジェクト検出方法。
  9. 請求項1記載のオブジェクト検出方法において、
    前記1次探索ステップおよび前記範囲推定ステップは、
    複数方向を向いているオブジェクトを検出するオブジェクト判別器を前記1次判別器として用いてオブジェクト判別処理を行い、
    前記2次探索ステップ、前記位置推定ステップ、および前記最終探索ステップは、
    ある一定方向範囲を向いているオブジェクトのみを検出する複数の一定方向オブジェクト判別器を前記2次判別器および前記最終判別器として用いてオブジェクト判別処理を行うことを特徴とするオブジェクト検出方法。
  10. 請求項1〜9のいずれか1項に記載のオブジェクト検出方法において、
    検出する前記オブジェクトは顔であることを特徴とするオブジェクト検出方法。
JP2006286018A 2006-10-20 2006-10-20 オブジェクト検出方法 Active JP4724638B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006286018A JP4724638B2 (ja) 2006-10-20 2006-10-20 オブジェクト検出方法
US11/739,759 US7835543B2 (en) 2006-10-20 2007-04-25 Object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006286018A JP4724638B2 (ja) 2006-10-20 2006-10-20 オブジェクト検出方法

Publications (2)

Publication Number Publication Date
JP2008102814A true JP2008102814A (ja) 2008-05-01
JP4724638B2 JP4724638B2 (ja) 2011-07-13

Family

ID=39317968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006286018A Active JP4724638B2 (ja) 2006-10-20 2006-10-20 オブジェクト検出方法

Country Status (2)

Country Link
US (1) US7835543B2 (ja)
JP (1) JP4724638B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009289078A (ja) * 2008-05-29 2009-12-10 Dainippon Printing Co Ltd 目標物検出システム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8544040B2 (en) * 2006-12-29 2013-09-24 Google Inc. System and method for displaying multimedia events scheduling information
US8291454B2 (en) * 2006-12-29 2012-10-16 Google Inc. System and method for downloading multimedia events scheduling information for display
US8205230B2 (en) 2006-12-29 2012-06-19 Google Inc. System and method for displaying and searching multimedia events scheduling information
US8799952B2 (en) 2007-04-24 2014-08-05 Google Inc. Virtual channels
US8972875B2 (en) 2007-04-24 2015-03-03 Google Inc. Relevance bar for content listings
US9084025B1 (en) 2007-08-06 2015-07-14 Google Inc. System and method for displaying both multimedia events search results and internet search results
US8280901B2 (en) * 2008-01-03 2012-10-02 Masterfile Corporation Method and system for displaying search results
GB0808586D0 (en) * 2008-05-12 2008-06-18 Qinetiq Ltd Method and apparatus for vehicle classification
GB2529888B (en) * 2014-09-05 2020-09-23 Apical Ltd A method of image analysis

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05303643A (ja) * 1992-03-18 1993-11-16 Sanyo Electric Co Ltd パターンマッチング方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02159682A (ja) 1988-12-13 1990-06-19 Yaskawa Electric Mfg Co Ltd テンプレートマッチング方式
JP3885999B2 (ja) * 2001-12-28 2007-02-28 本田技研工業株式会社 物体検出装置
JP3979894B2 (ja) * 2002-07-22 2007-09-19 本田技研工業株式会社 物体検出装置及び方法
JP4206723B2 (ja) * 2002-10-11 2009-01-14 オムロン株式会社 画像処理方法および画像処理装置
JP2005078528A (ja) * 2003-09-02 2005-03-24 Honda Motor Co Ltd 物体検出装置及び方法
US20080226126A1 (en) * 2005-01-31 2008-09-18 Yoshinori Ohno Object-Tracking Apparatus, Microscope System, and Object-Tracking Program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05303643A (ja) * 1992-03-18 1993-11-16 Sanyo Electric Co Ltd パターンマッチング方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009289078A (ja) * 2008-05-29 2009-12-10 Dainippon Printing Co Ltd 目標物検出システム

Also Published As

Publication number Publication date
JP4724638B2 (ja) 2011-07-13
US20080095398A1 (en) 2008-04-24
US7835543B2 (en) 2010-11-16

Similar Documents

Publication Publication Date Title
JP4724638B2 (ja) オブジェクト検出方法
JP4356371B2 (ja) 情報処理装置
US8363983B2 (en) Real-time face detection apparatus
US20060029276A1 (en) Object image detecting apparatus, face image detecting program and face image detecting method
US8649608B2 (en) Feature value extracting device, object identification device, and feature value extracting method
JP5517504B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US9911204B2 (en) Image processing method, image processing apparatus, and recording medium
JP5936561B2 (ja) 画像における外観及びコンテキストに基づく物体分類
JP2007047975A (ja) デジタル画像の複数対象物検出方法および装置並びにプログラム
JP2010165052A (ja) 画像処理装置及び画像処理方法
JP6255944B2 (ja) 画像解析装置、画像解析方法及び画像解析プログラム
EP3376468B1 (en) Object detection device and object detection method
US7403636B2 (en) Method and apparatus for processing an image
US8891879B2 (en) Image processing apparatus, image processing method, and program
JP2007025902A (ja) 画像処理装置、画像処理方法
JP5335554B2 (ja) 画像処理装置及び画像処理方法
JP2014010633A (ja) 画像認識装置、画像認識方法、及び画像認識プログラム
CN112926463A (zh) 一种目标检测方法和装置
JP2013164643A (ja) 画像認識装置、画像認識方法および画像認識プログラム
Zaharin et al. Comparison of human detection using background subtraction and frame difference
Shao et al. Grouped outlier removal for robust ellipse fitting
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
JP2010113466A (ja) 対象追跡装置、対象追跡プログラム及び方法
CN113033593A (zh) 基于深度学习的文本检测训练方法及装置
Najgebauer et al. Representation of edge detection results based on graph theory

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110411

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4724638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250