JP2015187769A - 物体検出装置、物体検出方法及びプログラム - Google Patents

物体検出装置、物体検出方法及びプログラム Download PDF

Info

Publication number
JP2015187769A
JP2015187769A JP2014064556A JP2014064556A JP2015187769A JP 2015187769 A JP2015187769 A JP 2015187769A JP 2014064556 A JP2014064556 A JP 2014064556A JP 2014064556 A JP2014064556 A JP 2014064556A JP 2015187769 A JP2015187769 A JP 2015187769A
Authority
JP
Japan
Prior art keywords
partial image
feature amount
posture
unit
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014064556A
Other languages
English (en)
Inventor
睦凌 郭
Bokuryo Kaku
睦凌 郭
立豊 胥
Lifeng Xu
立豊 胥
矢野 光太郎
Kotaro Yano
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014064556A priority Critical patent/JP2015187769A/ja
Publication of JP2015187769A publication Critical patent/JP2015187769A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】姿勢が変化する物体を少ない演算量で精度よく検出することを目的とする。【解決手段】入力画像から物体を検出する物体検出装置であって、入力画像から処理対象の部分画像を抽出する抽出手段と、部分画像に基づいて、特徴量を特定する特徴量特定手段と、特徴量に基づいて、物体の姿勢を推定する姿勢推定手段と、特徴量と、姿勢推定手段による推定結果とに基づいて、入力画像に物体が含まれているか否かを判別する第1の判別手段とを有する。【選択図】図1

Description

本発明は、物体検出装置、物体検出方法及びプログラムに関する。
近年、映像機器のインテリジェント化が進んでいる。例えば、監視カメラに人体検出機能を搭載し、監視結果から人数カウント、お客様意図分析、異常動作検知、危険領域侵入検知などを行う技術が提案されている。
また、デジタルカメラなどの撮影装置により撮影された映像中の人物の位置を特定し追尾することにより、カメラのフォーカス、露出を自動制御する機能が注目されている。さらに、人物の他に、犬、猫、花などの一般の物体に注目して、カメラを自動制御する機能も普及している。
映像機器のインテリジェント化の基盤は、機械学習による物体検出技術にある。機械学習では、大量な物体と非物体の学習サンプルから、物体と非物体を区別する特徴量を抽出し、認識モデルを作成する。画像から物体を検出する際には、原画像をスケーリングしてピラミッド画像レイヤーを作成する。各ピラミッド画像レイヤーについて、ラスタースキャンを行い、認識モデルに記述した各特徴量の判別器応答を組み合わせることにより、異なるサイズの物体を検出する。
物体検出の技術としては、例えば非特許文献1には、人物の顔領域を判別するカスケード型識別器が開示されている。非特許文献1に記載の方法は、人物の顔領域のHaar特徴量に対するアダブースト学習により、顔の識別にエラーの最も少ない特徴量を選択し、弱判別器を学習し、これをカスケード化して、カスケード型識別器を構成するものである。
人体のように物体を構成するパーツごとの姿勢が可変の物体を検出する技術も知られている。例えば、非特許文献2には、パーツ識別器において、パーツ毎の尤度を求め、ルート識別器によりルートの尤度を求め、これらの尤度と物体姿勢変形のコストとを統合し、物体を検出する技術が開示されている。
また、非特許文献3には、回転した物体について、Pose−Indexed Featuresと呼ばれる回転不変の特徴量を利用して、回転した物体の角度をカスケード型回帰により、逐次的に回帰し推定する技術が開示されている。
"Rapid Object Detection using a Boosted Cascade of Simple Features," Paul Viola,Michael Jones,CVPR2001. "A Discriminatively Trained, Multiscale, Deformable Part Model," Pedro Felzenszwalb, David McAllester, Deva Ramanan, CVPR2008. "Cascaded Pose Regression," Piotr Doll'ar, Peter Welinder, Pietro Perona, CVPR2010.
しかしながら、従来技術においては、姿勢変化を伴う物体を検出する場合に、処理量が多くなるという問題があった。例えば、非特許文献2に記載された方法では、ルート識別器が検出した、物体のルート候補領域すべてに対し、対応するすべてのパーツ候補領域に各パーツ識別器を適用するため、処理量が多い。また、非特許文献3に記載された方法では、姿勢が大きく変化する物体を検出する場合、すべてのスキャンウィンドウについて、全弱回帰器を適用する必要がある。このため、処理量が多くなってしまう。
本発明はこのような問題点に鑑みなされたもので、姿勢が変化する物体を少ない演算量で精度よく検出することを目的とする。
そこで、本発明は、入力画像から物体を検出する物体検出装置であって、前記入力画像から処理対象の部分画像を抽出する抽出手段と、前記部分画像に基づいて、特徴量を特定する特徴量特定手段と、前記特徴量に基づいて、前記物体の姿勢を推定する姿勢推定手段と、前記特徴量と、前記姿勢推定手段による推定結果とに基づいて、前記入力画像に前記物体が含まれているか否かを判別する第1の判別手段とを有する。
本発明によれば、姿勢が変化する物体を少ない演算量で精度よく検出することができる。
物体検出装置を示す図である。 スキャンの説明図である。 姿勢推定部及び前段判別部を示す図である。 ウィンドウの一例を示す図である。 LUTr及びLUTcを示す図である。 ウィンドウの一例を示す図である。 物体検出処理を示すフローチャートである。 物体検出装置を示す図である。 第1の部分画像と第2の部分画像を説明するための図である。 回帰推定処理を説明するための図である。 物体モデルの一例を示す図である。 物体検出処理を示すフローチャートである。 パーツ判別処理を示すフローチャートである。 物体検出処理を説明するための図である。 物体検出処理を説明するための図である。 物体検出処理を説明するための図である。 物体検出処理を説明するための図である。 物体検出処理を説明するための図である。 物体検出装置を示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
(第1の実施形態)
図1は、第1の実施形態にかかる物体検出装置100を示す図である。物体検出装置100は、フレーム画像から物体を検出する。物体検出装置100は、例えば人体、飛行機、車、猫等の物体を検出する。物体検出装置100はまた、人体の頭部など、ある物体の一部のパーツを物体として検出する。本実施形態においては、人体の頭部を検出する場合を例に、物体検出装置100について説明する。
物体検出装置100は、物体を検出するための機能として、画像入力部101と、部分画像抽出部102と、回帰モデル記憶部103と、特徴量特定部104と、姿勢推定部105とを有している。物体検出装置100はまた、物体モデル記憶部106と、前段判別部107と、結果出力部108と、後段判別部109とを有している。
画像入力部101は、物体検出の対象となるフレーム画像を入力する。ここで、フレーム画像は、入力画像の一例である。部分画像抽出部102は、フレーム画像の一部の領域を、部分画像(ウィンドウ)として抽出する。部分画像は、物体検出の処理対象の画像である。部分画像は、所定サイズの矩形領域である。部分画像はまた、後述の回帰モデルの弱回帰器及び物体モデルの弱判別器と同じサイズの領域である。部分画像抽出部102は、具体的には、フレーム画像に対し縮小処理を施し、画像系列としてのピラミッド画像を作成する。部分画像抽出部102は、ピラミッド画像の各レイヤーにおいて、部分画像を抽出する。
部分画像抽出部102は、所定のステップ幅でフレーム画像上をスキャンし、各位置において部分画像を抽出する。図2は、部分画像抽出部102によるスキャンの説明図である。このように、部分画像抽出部102は、ステップ幅ずつ部分画像11の位置をずらしながら、フレーム画像10上をスキャンし、部分画像を抽出する。
回帰モデル記憶部103は、回帰モデルを格納する。ここで、回帰モデルは、物体の姿勢を回帰的に推定するためのモデルである。後述の姿勢推定部105は、カスケード化された複数の弱回帰器を有し、回帰モデルは、この複数の弱回帰器それぞれにおいて利用されるLUT(Look Up Table)である。LUTは、特徴量を出力値に変換するための参照テーブルである。
特徴量特定部104は、回帰モデルを参照し、部分画像抽出部102により処理対象として抽出された部分画像に基づいて、処理対象の部分画像における特徴量を特定する。ここで、特徴量は、検出対象とする物体の姿勢に関する特徴量である。特徴量については、後に詳述する。なお、特徴量特定部104は、カスケード化された複数の弱回帰器それぞれに入力するための複数の特徴量を特定する。
姿勢推定部105は、特徴量に基づいて、部分画像に含まれる物体の姿勢を推定する。姿勢推定部105は、具体的には、カスケード化された複数の弱回帰器を有し、各弱回帰器は、前段の弱回帰器の出力値に基づいて、姿勢推定値を算出する。
物体モデル記憶部106は、物体モデルを格納する。ここで、物体モデルは、物体か否かを回帰的に推定するためのモデルである。後述の前段判別部107は、カスケード化された複数の弱判別器を有し、物体モデルは、複数の弱判別器それぞれにおいて利用されるLUTである。LUTは、特徴量を弱判別器による出力値に変換するための参照テーブルである。
前段判別部107は、物体モデルを参照し、特徴量を出力値に変換し、出力値に基づいて、部分画像が物体を含むか否かを判定する。結果出力部108は、姿勢推定部105が有する複数の弱回帰器による逐次的な処理により得られた最終的な姿勢推定値を出力する。後段判別部109は、最終的な姿勢推定値に基づいて、姿勢別の識別器により、処理対象の部分画像が物体を含むか否かを総合的に判定する。
次に、図3及び図4を参照しつつ、特徴量特定部104、姿勢推定部105及び前段判別部107による回帰処理について説明する。図3は、姿勢推定部105が有する複数の弱回帰器1〜mと、前段判別部107が有する複数の弱判別器1〜mとを示す図である。複数の弱回帰器1〜m及び複数の弱判別器1〜mは、図3に示すように、それぞれカスケード化されている。
回帰処理では、部分画像抽出部102が図4(a)に示すように、部分画像I0を抽出すると、特徴量特定部104は、部分画像において予め設定されている2対の2点の位置を姿勢推定値Sに応じて座標変換する。ここで、姿勢推定値Sは、物体の回転角度(傾き量)θに相当する。
部分画像抽出部102により抽出された部分画像I0に対する姿勢推定値Sには、初期値S0が設定されているものとする。また、姿勢推定値S0における物体の回転角度、すなわち初期状態における物体の回転角度θは、θ0に設定されているものとする。回転角度θは、部分画像の傾きの値であり、本実施形態においては、フレーム画像の上下方向に対する部分画像の上下方向の傾きを回転角度θとする。
特徴量特定部104は、具体的には、(式1)により1対の2点p1=(x1,y1),p2=(x2,y2)を姿勢推定値Sに応じて座標変換する。(式1)において、tp1=(tx1,ty1),tp2=(tx2,ty2)は、それぞれ、p1,p2の座標変換後の座標である。なお、各座標値は、処理対象のウィンドウIの中心位置を原点とする座標値である。また、部分画像I0を処理対象とする場合、回転角度θ=θ0とする。
Figure 2015187769
…(式1)
次に、特徴量特定部104は、座標変換後の2点tp1,tp2の位置に基づいて、(式2)により、部分画像I内における2点の画素値の差分を算出し、算出結果と閾値とを比較し2値化する。ここでは、閾値を0とする。なお、閾値は、例えば物体検出装置100の記憶部(不図示)に予め設定されているものとする。
Figure 2015187769
…(式2)
ここで、Vtp1,Vtp2は、それぞれtp1,tp2の点の画素値である。
特徴量特定部104は、もう1対の2点に対しても、上記と同様の処理を行うことにより、2つの画素値差を得る。そして、特徴量特定部104は、2つの画素値差に基づいて、(式3)より、部分画像Iの特徴量fを得る。
f=(画素値差1,画素値差2)∈{(0,0),(0,1),(1,0),(1,1)}
…(式3)
ここで、画素値差1は、1対目の2点の画素値差であり、画素値差2は、2対目の2点の画素値差である。
このように、特徴量fは、画素値差1及び画素値差2により定まる値である。さらに、画素値差1,2は、部分画像と、部分画像に対して想定される基準姿勢の物体との間の傾き量により定まる値である。すなわち、特徴量fは、傾き量を示す値である。
特徴量特定部104は、θ=θ0として(式1)〜(式3)により得られた特徴量f、すなわち部分画像I0の特徴量fを弱回帰器1及び弱判別器1に入力する。
弱回帰器1は、自身が有するLUTrを参照し、特徴量fを回帰値R0に変換する。図5(a)に示すように、LUTrは、特徴量fから変化量dθへのマッピング関数である。また、回帰値R0は、(式4)に示すように、回転角度θの変化量dθである。
0=dθ=LUTr(f) …(式4)
弱回帰器1はさらに、姿勢推定値の初期値S0と、回帰値R0とに基づいて、(式5)により、姿勢推定値S1を算出する。
1=S0+R0=θ0+dθ (式5)
一方で、弱判別器1では、自身が有するLUTcを参照し、(式6)に示すように特徴量fを応答h(f)に変換する。図5(b)に示すように、LUTcは、特徴量fから応答h(f)へのマッピング関数である。なお、h(f)は、実数空間Rまたはそのサブ空間である。
h(f)=LUTc(f) …(式6)
弱判別器1はさらに、応答h(f)に基づいて、判別評価値Σh(f)を算出する。各弱判別器は、カスケード接続において、自身の前に接続されている1又は2以上の弱判別器により既に得られたすべての応答h(f)の総和を、判別評価値Σh(f)として算出する。ただし、弱判別器1においては、h(f)の値は1つのみであるため、加算処理は行わない。
そして、弱判別器1は、(式7)に示すように、判別評価値Σh(f)に基づいて、部分画像I0が検出対象の物体である人体の頭部(物体)を含むか否かを判定する。
Figure 2015187769
…(式7)
ここで、閾値は、予め設定された値であり、閾値以上の範囲は、部分画像に物体が含まれている場合に得られる評価値の基準範囲である。すなわち、弱判別器1は、上記処理により、判別評価値Σh(f)が基準範囲に含まれているか否かを判定する。
このように、弱判別器1は、弱回帰器1が用いたのと同じ特徴量により、物体か否かの物体判別処理を行うことができる。
弱判別器1が次の弱回帰器に移ると判定した場合、弱回帰器2は、処理を開始する。すなわち、この場合、回帰処理が継続する。なお、弱判別器1が物体を含まないと判定した場合、弱判別器1は、繰り返し処理を終了する。この場合、弱回帰器2〜m及び弱判別器2〜mの処理は行われない。
弱判別器1が次の弱回帰器に移ると判定した場合には、特徴量特定部104は、図4(b)に示すように、部分画像I0を部分画像I0の中心を回転中心として、R0(dθ)だけ回転させ、部分画像I1を得る。ここで、部分画像I1の回転角度θ1は、(式8)のように、θ0とR0により定まる。
θ1=θ0+R0 …(式8)
そして、特徴量特定部104は、姿勢推定値S1(回転角度θ1)に基づいて、部分画像I1の特徴量fを特定し、特定した特徴量fを弱回帰器2及び弱判別器2に入力する。特徴量特定部104は、同様に、弱回帰器3〜m及び弱判別器3〜mに入力するための特徴量fを特定する。
弱回帰器2には、弱回帰器1により算出された回帰値R0に基づいて特徴量特定部104により特定された特徴量fが入力される。そして、弱回帰器2は、特徴量fに基づいて、回帰値R1を算出し、回帰値R1に基づいて、姿勢推定値S2を算出する。
弱回帰器3〜mの処理は、弱回帰器2の処理と同様である。
また、弱判別器2には、対応する弱回帰器2に入力された特徴量fと同一の特徴量fが入力される。そして、弱判別器2は、特徴量fに基づいて、応答h(f)を得る。そして、弱判別器2は、カスケード接続における直前の弱判別器1により得られた応答h(f)と、自身が算出した応答h(f)との総和である判別評価値Σh(f)を算出する。弱判別器2は、判別評価値Σh(f)により、部分画像I1が物体を含むか否かを判定する。弱判別器3〜mの処理は、弱判別器2の処理と同様である。そして、回帰処理においては、以上の処理が、弱回帰器及び弱判別器の数だけ回帰的に繰り返される。
図4に示すように、フレーム画像のうち、人体の頭部を含む領域が部分画像として抽出され、処理対象となったとする。この場合には、この部分画像に対し、すべての弱回帰器1〜m及び弱判別器1〜mによる処理が行われ、部分画像が人体の頭部を含むと判別される。
これに対し、図6に示すように、フレーム画像のうち、人体の頭部を含まない領域が部分画像として抽出され、処理対象となったとする。この場合には、(式7)の判定処理により、すべての弱回帰器及び弱判別器による処理が行われる前に、部分画像が人体の頭部を含まないと判別され、回帰処理の途中で処理は終了することとなる。
図7は、物体検出装置100による物体検出処理を示すフローチャートである。ステップS101において、画像入力部101は、不図示の画像撮影装置または画像記憶装置から一つのフレーム画像を受け付ける。次に、ステップS102において、部分画像抽出部102は、フレーム画像の縮小処理を行い、ピラミッド画像を作成する。そして、部分画像抽出部102は、一のレイヤーのフレーム画像から処理対象の部分画像を抽出する(抽出処理)。
部分画像抽出部102はさらに、各部分領域に対するステップS102〜ステップS114の繰り返し処理を制御する。すなわち、部分画像抽出部102は、ステップS102〜ステップS114の処理を繰り返す度に、所定ステップ幅ずつずらしながら順次部分画像を抽出する。さらに、部分画像抽出部102は、すべてのレイヤーにおいて同様に順次部分画像を抽出する。そして、抽出された各部分画像に対し、ステップS103〜ステップS114の処理が実行される。
次に、ステップS103において、姿勢推定部105は、回帰モデル記憶部103から、回帰モデル(LUTr)を読み込む。次に、ステップS104において、姿勢推定部105は、弱回帰器を初期化する。具体的には、姿勢推定部105は、弱回帰器1に初期状態における姿勢推定値S0(回転角度θ0)を設定する。
次に、ステップS105において、前段判別部107は、物体モデル記憶部106から物体モデル(LUTc)と、判別のための閾値とを読み込む。次に、ステップS106〜ステップS111において、特徴量特定部104、弱回帰器及び弱判別器は、それぞれ特徴量抽出処理、姿勢推定処理及び物体判別処理を繰り返す。
次に、ステップS106において、姿勢推定部105は、ステップS102において抽出された部分画像に対し、1つの弱回帰器を選択する。このとき、前段判別部107は、姿勢推定部105により選択された弱回帰器に対応する弱判別器を選択する。そして、姿勢推定部105は、各弱回帰器によるステップS106〜ステップS111の処理が終了したか否かを判断する。
なお、姿勢推定部105は、繰り返し処理により、カスケード接続された複数の弱回帰器が順にステップS106〜ステップS111における処理を実行するように、カスケード接続された複数の弱回帰器を、先頭から順に選択する。
ステップS107において、特徴量特定部104は、(式1)〜(式3)により、ステップS106において選択された弱回帰器に入力するための特徴量fを算出する。ここで、ステップS107の処理は、部分画像に基づいて特徴量を特定する特徴量特定処理の一例である。なお、繰り返し処理における1回目のステップS107においては、特徴量特定部104は、姿勢推定値SをS0、回転角度θを初期値θ0として、特徴量fを算出する。
次に、ステップS108において、弱回帰器(ステップS106において選択された弱回帰器)は、自身が有するLUTrを参照し、特徴量fに基づいて、物体の姿勢を回帰推定する(姿勢推定処理)。弱回帰器は、具体的には、自身が有するLUTrを参照し、(式4)、(式5)により、特徴量fから姿勢推定値Sx(x=1,2,…m)を算出する。
次に、ステップS109において、ステップS106において選択された弱判別器は、特徴量fに基づいて、部分画像が物体を含むか否かを判別する。具体的には、弱判別器は、自身が有するLUTcを参照し、特徴量fからh(f)を算出し、判別評価値Σh(f)を算出する。すなわち、ステップS109は、カスケード接続において、選択されている弱判別器よりも前の弱判別器により得られたh(f)に基づいて、判別評価値Σh(f)を算出する評価値算出処理の一例である。
次に、ステップS110において、弱判別器は、(式7)に示すように、判別評価値Σh(f)と閾値との比較結果に基づいて、ステップS102において抽出された部分画像が物体を含むか否かを判定する。ここで、判別評価値Σh(f)と比較される閾値以以上の範囲は、部分画像に物体が含まれている場合に得られる評価値の基準範囲である。すなわち、ステップS110の処理は、判別評価値Σh(f)が評価値の基準範囲に含まれているか否かを判定する評価値判定処理の一例である。また、ステップS110の処理は、特徴量に基づいて、部分画像に物体が含まれているか否かを判別する第2の判別処理の一例である。
弱判別器は、部分画像が物体を含まないと判定した場合(ステップS110でNo)、すなわち判別評価値Σh(f)が基準範囲に含まれない場合には、ステップS106〜ステップS114の処理の繰り返しを終了する。なお、この場合、ステップS102において抽出されていない部分画像が存在する場合には、部分画像抽出部102は、処理対象の部分画像を変更し、ステップS103以降の処理を継続する。
ステップS110において、弱判別器は、次の弱回帰器に移ると判別した場合には(ステップS110でYes)、ステップS106〜ステップS114の繰り返し処理を継続する。そして、ステップS102において、姿勢推定部105は、未処理の弱回帰器がある場合には、次段の弱回帰器を選択し、前段判別部107は、選択された弱回帰器に対応する弱判別器を選択する。
ステップS106〜ステップS110の処理の繰り返しにおいて、1回目のステップS106〜ステップS110の処理では、特徴量特定部104は、部分画像I0における特徴量fを算出し、これを弱回帰器1及び弱判別器1に入力する。そして、弱回帰器1は、特徴量fに基づいて回帰値R0を算出し、回帰値R0に基づいて、姿勢推定値S1を算出する。また、弱判別器1は、特徴量fに基づいて、h(f)を算出し、(式7)に示すf(h)と閾値との比較により、部分画像I0に物体が含まれるか否かを判定する。
そして、2回目のステップS106〜ステップS111の処理では、特徴量特定部104は、弱回帰器1により算出された回帰値R0(回転角度θ1)に基づいて、部分画像I0をθ1だけ回転させた部分画像I1における特徴量fを特定する。そして、特徴量特定部104は、特徴量fを弱回帰器2及び弱回帰器2に入力する。
弱回帰器2は、特徴量fに基づいて、回帰値R1を算出し、回帰値R1に基づいて、姿勢推定値S2を算出する。また、弱判別器2は、特徴量fに基づいて、h(f)を求め、さらに判別評価値Σf(h)を算出する。そして、弱判別器2は、判別評価値Σf(h)と閾値との比較により、部分画像に物体が含まれるか否かを判定する。3回目以降における特徴量特定部104、弱回帰器3〜m及び弱判別器3〜mの処理は、2回目の処理と同様である。
弱回帰器に対する繰り返し処理における2回目以降のステップS107においては、特徴量特定部104は、前段の弱回帰器により算出された回帰値Rに基づいて、回転角度θを求め、部分画像Iを部分画像I0から回転角度θだけ傾ける。そして、特徴量特定部104は、部分画像Iにおける特徴量fを算出する。すなわち、ステップS107の処理は、姿勢の推定結果に基づいて、フレーム画像に対する部分画像の傾きを変更する変更処理の一例である。
すべての弱回帰器に対するステップS106〜ステップS111の処理が終了すると、姿勢推定部105は、処理をステップS112へ進める。ステップS106〜ステップS111の処理は、ステップS110において、物体がないと判定されない場合には、カスケード化された弱回帰器及び弱判別器の数(m)だけ繰り返し実行される。
ステップS112において、結果出力部108は、ステップS106からステップS111まで逐次的に回帰した物体の姿勢を後続の後段判別部109に出力する。次に、ステップS113において、後段判別部109は、回帰した物体の姿勢に基づいて、姿勢別の識別器により、処理対象の部分画像に物体が含まれているか否かを総合的に判別する(第1の判別処理)。
そして、ステップS102において、部分画像抽出部102は、すべての部分画像に対し、ステップS103〜ステップS114の処理が終了すると、処理をステップS115へ進める。ステップS115において、後段判別部109は、物体が含まれると判別された部分画像のうち、互いに重複する部分画像を1つに統合する。以上で、物体検出処理が終了する。
以上のように、第1の実施形態にかかる物体検出装置100においては、姿勢推定部105及び前段判別部107は、同じ特徴量fに基づいて、それぞれ姿勢推定処理及び物体判別処理を行う。これにより、処理の高速化を図ることができる。
さらに、物体検出装置100は、回帰処理において、いずれかの弱判別器が物体を含まないと判定した場合には、判定が行われた弱判別器よりも後段の弱回帰器及び弱判別器による処理を行うことなく、部分画像に物体が含まれないと判定する。これにより、さらなる処理の高速化を図ることができる。
第1の実施形態の第1の変更例について説明する。本実施形態に係る物体検出装置100は、複数の画素値の差分を特徴量として算出したが、これに限定されるものではない。物体検出装置100は、物体の姿勢変化によらず不変な値を特徴量として算出し、これに基づいて、物体の姿勢推定処理及び物体判別処理を行えばよい。
また、第2の変更例としては、特徴量特定部104は、傾き量にかえて、部分画像と、部分画像に対して想定される物体の基準姿勢(位置)との間の位置ずれ量を特徴量fとして算出してもよい。この場合には、姿勢推定値は、物体の位置ずれ量を姿勢推定値として回帰推定することとする。
第3の変更例としては、前段判別部107と姿勢推定部105により利用された特徴量と推定された物体の姿勢に基づいて、新たな特徴量を算出し、算出された特徴量に基づいて物体判別処理を行うこととしてもよい。
(第2の実施形態)
次に、第2の実施形態にかかる物体検出装置について説明する。図8は、物体検出装置200を示す図である。物体検出装置200は、物体の一部であるパーツの検出と、物体全体の検出とを行い、各検出結果に基づいて、総合的に物体を検出する。なお、ここでは、物体検出装置200が、物体としての人体と、人体のパーツである頭部とを検出し、総合的に人体を検出する場合を例に説明する。
物体検出装置200は、画像入力部201と、第1の部分画像抽出部202と、物体識別器203と、第2の部分画像抽出部204と、回帰モデル記憶部205と、回帰モデル選択部206とを有している。物体検出装置200はまた、特徴量特定部207と、姿勢推定部208と、パーツモデル記憶部209と、パーツモデル選択部210と、パーツ判別部211とを有している。物体検出装置200はまた、結果出力部212と、物体モデル記憶部213と、物体モデル選択部214と、物体判別部215と、統合部216とを有している。
画像入力部201は、物体検出の対象となるフレーム画像を入力する。第1の部分画像抽出部202は、フレーム画像の一部の領域を第1の部分画像(ウィンドウ)として抽出する。ここで、第1の部分画像は、物体検出の処理対象の領域の画像である。第1の部分画像は、後述の物体識別器203の判別器と同一サイズの矩形領域である。第1の部分画像抽出部202は、具体的には、フレーム画像に対し縮小処理を施し、画像系列としてのピラミッド画像を作成する。第1の部分画像抽出部202は、ピラミッド画像の各レイヤーにおいて、第1の部分画像を抽出する。第1の部分画像抽出部202は、所定のステップ幅でフレーム画像上をスキャンし、各位置において第1の部分画像を抽出する。
画像入力部201及び第1の部分画像抽出部202は、それぞれ第1の実施形態にかかる画像入力部101及び部分画像抽出部102に相当する。
物体識別器203は、第1の部分画像抽出部202により抽出された第1の部分画像において物体候補領域を抽出する。物体識別器203は、例えば検出対象の物体が人物である場合には、立位、前傾、しゃがんだ状態など様々な姿勢の人体を検出する識別器であるものとする。
第2の部分画像抽出部204は、第1の部分画像抽出部202により抽出された第1の部分画像から第2の部分画像を抽出する。ここで、第2の部分画像は、パーツ検出の処理対象の領域の画像である。第2の部分画像は、後述の回帰モデルの弱回帰器及びパーツモデルの弱判別器と同じサイズの矩形領域である。
図9は、第1の部分画像と第2の部分画像を説明するための図である。物体検出装置200においては、第1の部分画像900に対し、第2の部分画像抽出部204が抽出する第2の部分画像901の初期位置が予め設定されている。複数の初期位置は、例えば弱回帰器のサイズに応じたグリッド間隔で設定されている。図9には、P1〜P8の8つの初期位置に対応する第2の部分画像901〜908が設定されている例を示している。
回帰モデル記憶部205は、複数の回帰モデルを格納する。回帰モデル記憶部205は、例えば人体の頭部(パーツ)に対し、正面頭部と、側面頭部の2つの向きの回帰モデルを格納している。回帰モデル選択部206は、回帰モデル記憶部205から1つの回帰モデルを選択する。
なお、回帰モデル記憶部205に格納される各回帰モデルは、第1の実施形態にかかる回帰モデル記憶部103に格納される回帰モデルと同様のモデルである。また、姿勢推定部208は、第1の実施形態にかかる姿勢推定部105と同様であり、カスケード化された複数の弱回帰器を有している。
特徴量特定部207は、回帰モデル選択部206により選択された回帰モデルに基づいて、第2の部分画像の特徴量を計算する。なお、第2の実施形態にかかる特徴量特定部207は、第2の部分画像と、第2の部分画像に対して想定されるパーツの基準姿勢(位置)との間の位置ずれ量を特徴量fとして算出する。
姿勢推定部208は、回帰モデル選択部206により選択された回帰モデルと、特徴量特定部207により抽出された特徴量に基づいて、パーツの姿勢を推定する。姿勢推定部208は、位置ずれ量により定まる特徴量fに基づいて、パーツの姿勢、すなわち位置を推定する。
姿勢推定部208は、具体的には、パーツとしての人体の頭部の中心位置(x,y)の位置ずれ量dx,dyを姿勢推定値として回帰推定する。図10に示すように、姿勢推定部208は、初期位置(Xk 0,Yk 0)を初期状態として、パーツ(人体の頭部)の姿勢(位置)を回帰推定する。ここで、下付き文字kは、初期位置の番号である。また、上付き文字0は、回帰推定の回数である。弱回帰器1は、初期位置(Xk 0,Yk 0)から頭部位置を回帰推定し、推定姿勢値S1として位置(Xk 1,Yk 1)を算出する。さらに、弱回帰器2は、推定姿勢値S2として位置(Xk 2,Yk 2)を算出する。
パーツモデル記憶部209は、複数のパーツモデルを格納する。なお、パーツモデル記憶部209に格納されている複数のパーツモデルは、回帰モデル記憶部205に記憶されている複数の回帰モデルに対応するものである。パーツモデル選択部210は、回帰モデル選択部206により選択された回帰モデルに対応するパーツモデルを選択する。
パーツ判別部211は、パーツモデル選択部210により選択された回帰モデルを参照し、特徴量を出力値に変換し、出力値に基づいて、処理対象の第2の部分画像がパーツを含むか否かを判別する。
なお、パーツモデル記憶部209に格納されている複数のパーツモデルは、第1の実施形態にかかる物体モデル記憶部106に格納されている物体モデルと同様のモデルである。また、パーツ判別部211は、第1の実施形態にかかる前段判別部107と同様であり、カスケード化された複数の弱判別器を有している。
結果出力部212は、姿勢推定部208が有する複数の弱回帰器による逐次的な処理により得られた最終的な姿勢推定値を出力する。物体モデル記憶部213は、複数の物体モデルを格納する。物体モデル記憶部213は、例えば立位、前傾、しゃがんだ状態など姿勢の異なる物体モデルを格納する。
図11は、物体モデルの一例を示す図である。本実施形態にかかる物体モデル1100は、全身検出モデル1101と、頭部検出モデル1102と、胴体検出モデル1103とを有している。ここで、全身検出モデル1101は、物体としての人体の全身を検出するためのモデルである。頭部検出モデル1102は、パーツの1つである頭部を検出するためのモデルである。胴体検出モデル1103は、パーツの1つである胴体を検出するためのモデルである。
物体モデル選択部214は、物体識別器203により検出された物体の位置と、結果出力部212により出力された姿勢推定値に基づいて、物体の姿勢を推定する。そして、物体モデル選択部214は、推定した物体の姿勢に対応する物体モデルを選択する。
物体判別部215は、物体モデルに基づいて、物体ウィンドウに物体が含まれるか否かを判別する。統合部216は、物体が含まれると判別した物体モデルのうち、互いに重複するウィンドウを統合し、統合結果を出力する。
図12は、物体検出処理を示すフローチャートである。まず、ステップS201において、画像入力部201は、不図示の画像撮影装置または画像記憶装置から一つのフレーム画像を受け付ける。次に、ステップS202において、第1の部分画像抽出部202は、フレーム画像の縮小処理を行い、ピラミッド画像を作成する。そして、第1の部分画像抽出部202は、一のレイヤーのフレーム画像から物体検出の処理対象とする第1の部分画像を抽出する(第1の抽出処理)。
第1の部分画像抽出部202はさらに、各第1の部分領域に対するステップS202〜ステップS207の繰り返し処理を制御する。すなわち、第1の部分画像抽出部202は、ステップS202〜ステップS207を繰り返す度に、所定ステップ幅ずつずらしながら順次第1の部分画像を抽出する。さらに、第1の部分画像抽出部202は、すべてのレイヤーにおいて同様に順次部分画像を抽出する。そして、抽出された各第1の部分画像に対し、ステップS202〜ステップS207の処理が実行される。
次に、ステップS203において、物体識別器203は、第1の部分画像から検出対象の物体を含むと判別された物体候補領域を抽出する。次に、ステップS204において、パーツ判別部211等は、処理対象の第1の部分画像から抽出された第2の部分画像がパーツを含むか否かを判別する。本実施形態においては、パーツ判別処理(ステップS204)において、人体のパーツとしての頭部を含むか否かが判別される。
次に、ステップS205において、物体モデル選択部214は、物体識別器203により抽出された物体候補領域の位置と、パーツ判別の判別結果に基づいて、人体の姿勢を推定する。そして、物体モデル選択部214は、推定結果に基づいて、物体モデルを選択する。
次に、ステップS206において、物体判別部215は、選択された物体モデルをロードする。そして、物体判別部215は、ロードした物体モデルに基づいて、姿勢に応じた物体判別を行う。具体的には、物体判別部215は、(式9)により、処理対象の第1の部分画像における総合尤度を算出する。ここで、総合尤度とは、第1の部分画像が人物を含むことの確からしさを示す評価値である。
総合尤度=全身尤度+Σパーツ尤度−Σ期待位置(姿勢)からのずれのコスト
…(式9)
そして、物体判別部215は、総合尤度と閾値とを比較し、総合尤度が閾値以上である場合に、第1の部分画像に物体としての人体が含まれていると判別する。すなわち、物体判別部215は、パーツ判別結果に基づいて物体判別を行う。ここで、ステップS206の処理は、物体判別処理の一例である。
ステップS202〜ステップS206において、すべての第1の部分領域に対する、人体識別処理が終了すると、統合部216は、ステップS207の処理を行う。すなわち、ステップS207において、統合部216は、人体が含まれていると判別された第1の部分領域のうち、互いに重複する第1の部分領域を1つに統合する。そして、統合部216は、統合結果を出力する。以上で、物体検出処理が終了する。
図13は、パーツ判別処理(ステップS204)における詳細な処理を示すフローチャートである。ステップS301において、回帰モデル選択部206は、回帰モデル記憶部205から1つの回帰モデルを選択する。回帰モデル選択部206はさらに、回帰モデル記憶部205に格納される各回帰モデルに対するステップS301〜ステップS312の繰り返し処理を制御する。すなわち、回帰モデル選択部206は、ステップS301〜ステップS312を繰り返す度に回帰モデルを変更する。そして、変更後の回帰モデルに対し、ステップS301〜ステップS312の処理が実行される。
本実施形態においては、回帰モデル記憶部205は、人体の頭部パーツの正面及び側面の2つに対応する2つの回帰モデルを格納している。そして、回帰モデル選択部206は、初期設定において、正面の頭部パーツの回帰モデルを選択し、繰り返し処理の2回目において、側面の頭部パーツの回帰モデルを選択するものとする。
次に、ステップS302において、姿勢推定部208は、回帰モデル選択部206により選択された回帰モデルを読み込む。次に、ステップS303において、パーツモデル選択部210は、パーツモデル記憶部209から、回帰モデル選択部206により選択されたパーツモデルに対応するパーツモデルを選択する。そして、パーツ判別部211は、パーツモデル選択部210により選択されたパーツモデルを読み込む。
次に、ステップS304において、第2の部分画像抽出部204は、回帰モデルに対応する初期位置のうち1つの初期位置により定まる第2の部分領域を抽出する(第2の抽出処理)。第2の部分画像抽出部204はさらに、各初期位置により特定される第2の部分領域に対するステップS305〜ステップS311の処理の繰り返しを制御する。
次に、ステップS305において、姿勢推定部208は、1つの弱回帰器を選択する。このとき、パーツ判別部211は、姿勢推定部208により選択された弱回帰器に対応する弱判別器を選択する。そして、姿勢推定部208は、各弱回帰器によるステップS306〜ステップS310の繰り返し処理を制御する。
次に、ステップS306において、特徴量特定部207は、第2の部分画像に基づいて、ステップS305において選択された弱回帰器及び弱判別器に入力する特徴量fを特定する(特徴量特定処理)。次に、ステップS307において、弱回帰器(ステップS306において選択された弱回帰器)は、特徴量fに基づいて、パーツの姿勢(位置)を回帰推定する(姿勢推定処理)。具体的には、弱回帰器は、姿勢(位置)S(x,y)の変化量(dx,dy)を回帰推定し、姿勢推定値Sxを算出する。
次に、ステップS308において、弱判別器は、ステップS307において算出された特徴量fに基づいて、処理対象の第2の部分領域がパーツを含むか否かを判別する(パーツ判別処理)。具体的には、弱判別器は、判別評価値を算出する。そして、ステップS309において、弱判別器は、判別評価値と閾値との比較結果に基づいて、パーツウィンドウにパーツが含まれているか否かを判定する。
弱判別器は、パーツウィンドウがパーツを含まないと判定した場合には(ステップS309でNo)、処理対象の第2の部分領域に対する処理を終了する。そして、未処理の初期位置が存在する場合には、ステップS304において、第2の部分画像抽出部204は、初期位置を変更し、変更後の初期位置により定まる第2の部分画像を処理対象として、ステップS305以降の処理を継続する。ステップS304において、第2の部分画像抽出部204は、フレーム画像内(入力画像内)における第2の部分画像の位置を変更する。すなわち、ステップS304の処理は、変更処理の一例である。
ステップS309において、弱判別器は、パーツウィンドウがパーツを含むと判定した場合には(ステップS309でYes)、選択されている弱判別器による処理を終了する。そして、未処理の弱回帰器が存在する場合には、ステップS305において、弱回帰器を変更し、ステップS306以降の処理を継続する。
すべての弱回帰器に対する処理(ステップS305〜ステップS310)が終了すると、初期位置が変更される。そして、すべての初期位置に対する繰り返し処理(ステップS304〜ステップS311)が終了すると、回帰モデルが変更される。そして、すべての回帰モデルに対する繰り返し処理(ステップS301〜ステップS312)が終了すると、ステップS313において、結果出力部212は、逐次的に回帰した物体の姿勢を後続の物体判別部215に出力する。
図14〜図19を参照しつつ、物体検出処理についてより具体的に説明する。図14は、フレーム画像1400と、第1の部分画像1401,1402を示す図である。以下、第1の部分画像1401,1402をそれぞれbody1,body2と称する。
まず、body1に対する処理について説明する。ステップS301において、初期状態において、まず正面頭部の回帰モデルと、これに対応するパーツモデルが選択される。そして、ステップS304において、回帰モデルの初期位置に基づく第2の部分画像がパーツ検出の処理対象として抽出される。body1に対しては、図15(a)に示すように、順次8つの初期位置に基づく第2の部分画像が抽出される。
次に、処理対象の第2の部分画像においてパーツ姿勢の回帰推定が行われる。図15(b)は、初期位置(Xk 0,Yk 0)により定まる第2の部分画像を示す図である。初期位置(Xk 0,Yk 0)により定まる第2の部分画像を初期状態として、頭部の回帰推定が行われる。しかし、body1は、背景画像であり人体の頭部を含まない。したがって、初期位置(Xk 0,Yk 0)により定まる第2の部分領域に対しては、すべての回帰器による処理が終了する前に、繰り返し処理が終了する。
例えば、図15(c)に示すように、1回目の回帰推定により姿勢推定値S1(Xk 1,Yk 1)が得られる。このとき、物体でないとの判定は行われず、2回目の回帰推定が行われる。この場合、図15(d)に示すように、姿勢推定値S2(Xk 2,Yk 2)が得られる。そして、2回目の回帰推定において、第2の部分領域にパーツが含まれないと判定されて(ステップS309でNo)、弱回帰器による繰り返し処理が終了する。
ステップS304において、すべての初期位置により定まる第2の部分画像が抽出されると、ステップS301において、回帰モデルが側面頭部の回帰モデルに変更され、これに対応するパーツモデルが選択される。
そして、再びステップS304において、図16(a)に示すように、変更後の回帰モデルに対する8つの初期位置のうち一の初期位置に基づく第2の部分画像が抽出され、抽出された第2の部分画像に対するパーツ姿勢の回帰推定が行われる。
図16(b)は、初期位置(Xj 0,Yj 0)により定まる第2の部分領域を示す図であり、この第2の部分画像を初期状態として、頭部の回帰推定が行われる。body1は、背景画像であるため、この場合も、すべての弱回帰器による処理が終了する前に、繰り返し処理が終了する。
例えば、図16(c)に示すように、1回目の回帰推定により(Xj 1,Yj 1)が得られる。そして、第2の部分領域にパーツが含まれないと判定されて(ステップS309でNo)、弱回帰器による繰り返し処理が終了する。
このように、すべての初期位置において、すべての回帰モデルにより第2の部分領域にパーツが含まれないと判定され、ステップS313において、非人体の回帰結果が出力される。この場合、ステップS205,ステップS206の処理がスキップされ、次の第1の部分画像の処理に移る。
次に、body2に対する処理について説明する。body1と同様に、ステップS301において、初期状態において、まず正面頭部の回帰モデルと、これに対応するパーツモデルが選択される。そして、ステップS304において、回帰モデルの初期位置に基づく第2の部分領域がパーツ検出の処理対象として抽出される。body1に対しては、図17(a)に示すように、順次8つの初期位置に基づく第2の部分領域が抽出される。
次に、処理対象の第2の部分領域においてパーツ姿勢の回帰推定が行われる。図17(b)に示すように、初期位置(Xk 0,Yk 0)を初期状態として、頭部の回帰推定が行われる。図17(b)に示す初期位置(Xk 0,Yk 0)により定まる第2の部分領域は、人体の頭部を含まない。したがって、すべての回帰器による処理が終了する前に、繰り返し処理が終了する。
例えば、図17(c)に示すように、1回目の回帰推定により姿勢推定値S1(Xk 1,Yk 1)が得られる。このとき、物体でないとの判定は行われず、2回目の回帰推定が行われる。この場合、図17(d)に示すように、姿勢推定値S2(Xk 2,Yk 2)が得られる。そして、2回目の回帰推定において、第2の部分領域にパーツが含まれないと判定されて(ステップS309でNo)、弱回帰器による繰り返し処理が終了する。
ステップS304において、すべての初期位置により定まる第2の部分画像が抽出されると、ステップS301において、回帰モデルが側面頭部の回帰モデルに変更され、これに対応するパーツモデルが選択される。
そして、再びステップS304において、図18(a)に示すように、変更後の回帰モデルに対応する8つの初期位置のうち一の初期位置に基づく第2の部分画像が抽出される。
次に、処理対象の第2の部分画像においてパーツ姿勢の回帰推定が行われる。図18(b)に示すように、(Xj 0,Yj 0)を初期状態として、頭部の回帰推定が行われる。このときの処理対象の第2の部分画像には、頭部が含まれている。このため、図18(c),(d)に示すように、すべての弱回帰器による繰り返し処理が行われた後に、body2に頭部が含まれると判別される。
なお、第2の実施形態にかかる物体検出装置200のこれ以外の構成及び処理は、第1の実施形態にかかる物体検出装置100の構成及び処理と同様である。
以上のように、第2の実施形態にかかる物体検出装置200においては、姿勢推定部208及びパーツ判別部211は、同じ特徴量fに基づいて、それぞれ姿勢推定処理及びパーツ判別処理を行う。これにより、処理の高速化を図ることができる。
第2の実施形態の第1の変更例としては、特徴量特定部207は、パーツの位置ずれ量に替えて、傾き量を特徴量fとして算出してもよい。第2の変更例としては、パーツモデル選択部210は、1つの回帰モデルに対し1つのパーツモデルを選択したが、これに替えて複数のパーツモデルを選択してもよい。
図19は、物体検出装置100,200のハードウェア構成を示す図である。CPU301は、装置の各種制御を実行する。ROM302は、装置立ち上げ時に実行されるブートプログラムや各種データを格納する。RAM303は、CPU301が処理するための制御プログラムを格納するとともに、CPU301が各種制御を実行する際の作業領域を提供する。キーボード304、マウス305は、ユーザによる各種入力操作環境を提供する。
外部記憶装置306は、各種情報を格納する。表示器307は、各種情報を表示する。NIC308は、ネットワークに接続し、外部装置との通信を行う。ビデオI/F309は、外部機器と通信を行う。各部は、バス310により接続されている。
なお、上述の物体検出装置100,200の機能や処理は、CPU301がROM302又は外部記憶装置306に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
以上、上述した各実施形態によれば、姿勢が変化する物体を少ない演算量で精度よく検出することができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
100 物体検出装置、101 画像入力部、102 部分画像抽出部、103 回帰モデル記憶部、104 特徴量特定部、105 姿勢推定部、106 物体モデル記憶部、107 前段判別部、108 結果出力部、109 後段判別部

Claims (10)

  1. 入力画像から物体を検出する物体検出装置であって、
    前記入力画像から処理対象の部分画像を抽出する抽出手段と、
    前記部分画像に基づいて、特徴量を特定する特徴量特定手段と、
    前記特徴量に基づいて、前記物体の姿勢を推定する姿勢推定手段と、
    前記特徴量と、前記姿勢推定手段による推定結果とに基づいて、前記入力画像に前記物体が含まれているか否かを判別する第1の判別手段と
    を有する物体検出装置。
  2. 前記姿勢推定手段による推定結果に基づいて、前記部分画像に変更を施す変更手段と、
    前記変更手段による変更後の前記部分画像の前記特徴量に基づいて、前記部分画像に前記物体が含まれているか否かを判別する第2の判別手段と
    をさらに有し、
    前記特徴量特定手段、前記姿勢推定手段及び前記第2の判別手段は、前記変更手段により前記部分画像に変更がなされる度に、各処理を繰り返し、
    前記第1の判別手段は、前記第2の判別手段による複数の判別結果に基づいて、物体が含まれているか否かを総合的に判定する請求項1に記載の物体検出装置。
  3. 前記特徴量特定手段は、前記部分画像と基準姿勢の物体との間の傾き量を前記特徴量として特定し、
    前記変更手段は、前記姿勢推定手段による推定結果に基づいて、前記入力画像に対する前記部分画像の傾きを変更する請求項2に記載の物体検出装置。
  4. 前記特徴量特定手段は、前記部分画像と基準姿勢の物体との間の位置ずれ量を前記特徴量として特定し、
    前記変更手段は、前記姿勢推定手段による推定結果に基づいて、前記部分画像の前記入力画像内における位置を変更する請求項2に記載の物体検出装置。
  5. 前記第2の判別手段が判別を行う度に、前記第2の判別手段により既に得られている判別結果に基づいて、判別評価値を算出する評価値算出手段と、
    前記判別評価値が、前記部分画像に前記物体が含まれている場合に得られる評価値の基準範囲に含まれるか否かを判定する評価値判定手段と
    をさらに有し、
    前記特徴量特定手段、前記姿勢推定手段及び前記第2の判定手段は、前記判別評価値が前記基準範囲に含まれない場合に、処理の繰り返しを終了する請求項2乃至4何れか1項に記載の物体検出装置。
  6. 入力画像から物体を検出する物体検出装置であって、
    前記入力画像から処理対象の第1の部分画像を抽出する第1の抽出手段と、
    前記部分画像から前記物体の一部のパーツの検出対象の第2の部分画像を抽出する第2の抽出手段と、
    前記第2の部分画像に基づいて、前記パーツの姿勢にかかる特徴量を特定する特徴量特定手段と、
    前記特徴量に基づいて、前記パーツの姿勢を推定する姿勢推定手段と、
    前記特徴量と、前記推定手段による推定結果とに基づいて、前記入力画像に前記パーツが含まれているか否かを判別するパーツ判別手段と、
    前記パーツ判別手段による判別結果に基づいて、前記入力画像に前記物体が含まれているか否かを判別する物体判別手段と
    を有する物体検出装置。
  7. 入力画像から物体を検出する物体検出装置が実行する物体検出方法であって、
    前記入力画像から処理対象の部分画像を抽出する抽出ステップと、
    前記部分画像に基づいて、特徴量を特定する特徴量特定ステップと、
    前記特徴量に基づいて、前記物体の姿勢を推定する姿勢推定ステップと、
    前記特徴量と、前記姿勢推定手段による推定結果とに基づいて、前記入力画像に前記物体が含まれているか否かを判別する判別ステップと
    を含む物体検出方法。
  8. 入力画像から物体を検出する物体検出装置が実行する物体検出方法であって、
    前記入力画像から処理対象の第1の部分画像を抽出する第1の抽出ステップと、
    前記部分画像から前記物体の一部のパーツの検出対象の第2の部分画像を抽出する第2の抽出ステップと、
    前記第2の部分画像に基づいて、前記パーツの姿勢にかかる特徴量を特定する特徴量特定ステップと、
    前記特徴量に基づいて、前記パーツの姿勢を推定する姿勢推定ステップと、
    前記特徴量と、前記推定ステップにおける推定結果とに基づいて、前記入力画像に前記パーツが含まれているか否かを判別するパーツ判別ステップと、
    前記パーツ判別ステップにおける判別結果に基づいて、前記入力画像に前記物体が含まれているか否かを判別する物体判別ステップと
    を含む物体検出方法。
  9. コンピュータを、
    入力画像から処理対象の部分画像を抽出する抽出手段と、
    前記部分画像に基づいて、特徴量を特定する特徴量特定手段と、
    前記特徴量に基づいて、物体の姿勢を推定する姿勢推定手段と、
    前記特徴量と、前記姿勢推定手段による推定結果とに基づいて、前記入力画像に前記物体が含まれているか否かを判別する第1の判別手段と
    して機能させるためのプログラム。
  10. コンピュータを、
    入力画像から処理対象の第1の部分画像を抽出する第1の抽出手段と、
    前記部分画像から物体の一部のパーツの検出対象の第2の部分画像を抽出する第2の抽出手段と、
    前記第2の部分画像に基づいて、前記パーツの姿勢にかかる特徴量を特定する特徴量特定手段と、
    前記特徴量に基づいて、前記パーツの姿勢を推定する姿勢推定手段と、
    前記特徴量と、前記推定手段による推定結果とに基づいて、前記入力画像に前記パーツが含まれているか否かを判別するパーツ判別手段と、
    前記パーツ判別手段による判別結果に基づいて、前記入力画像に前記物体が含まれているか否かを判別する物体判別手段と
    して機能させるためのプログラム。
JP2014064556A 2014-03-26 2014-03-26 物体検出装置、物体検出方法及びプログラム Pending JP2015187769A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014064556A JP2015187769A (ja) 2014-03-26 2014-03-26 物体検出装置、物体検出方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014064556A JP2015187769A (ja) 2014-03-26 2014-03-26 物体検出装置、物体検出方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2015187769A true JP2015187769A (ja) 2015-10-29

Family

ID=54429984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014064556A Pending JP2015187769A (ja) 2014-03-26 2014-03-26 物体検出装置、物体検出方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2015187769A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110622236A (zh) * 2017-08-10 2019-12-27 欧姆龙株式会社 显示装置以及导光板
CN111626101A (zh) * 2020-04-13 2020-09-04 惠州市德赛西威汽车电子股份有限公司 一种基于adas的吸烟监测方法及系统
US11380010B2 (en) 2017-11-27 2022-07-05 Nec Corporation Image processing device, image processing method, and image processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110622236A (zh) * 2017-08-10 2019-12-27 欧姆龙株式会社 显示装置以及导光板
CN110622236B (zh) * 2017-08-10 2021-08-31 欧姆龙株式会社 显示装置以及导光板
US11380010B2 (en) 2017-11-27 2022-07-05 Nec Corporation Image processing device, image processing method, and image processing program
CN111626101A (zh) * 2020-04-13 2020-09-04 惠州市德赛西威汽车电子股份有限公司 一种基于adas的吸烟监测方法及系统

Similar Documents

Publication Publication Date Title
JP6032921B2 (ja) 物体検出装置及びその方法、プログラム
JP7094702B2 (ja) 画像処理装置及びその方法、プログラム
JP6664163B2 (ja) 画像識別方法、画像識別装置及びプログラム
JP5726125B2 (ja) 奥行き画像内の物体を検出する方法およびシステム
US8620024B2 (en) System and method for dynamic gesture recognition using geometric classification
EP2905724B1 (en) Object detection system and method
US20230394808A1 (en) Image processing system, image processing method, and program storage medium
JP6351240B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20240092344A1 (en) Method and apparatus for detecting parking space and direction and angle thereof, device and medium
JP6482195B2 (ja) 画像認識装置、画像認識方法及びプログラム
US9047673B2 (en) Apparatus and method for extracting target, and recording medium storing program for performing the method
US11380010B2 (en) Image processing device, image processing method, and image processing program
JP6756406B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP4858612B2 (ja) 物体認識システム、物体認識方法および物体認識用プログラム
JP5936561B2 (ja) 画像における外観及びコンテキストに基づく物体分類
WO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
JP2014021602A (ja) 画像処理装置及び画像処理方法
JP2007025902A (ja) 画像処理装置、画像処理方法
JP2015187769A (ja) 物体検出装置、物体検出方法及びプログラム
JP5755516B2 (ja) 物体形状推定装置
KR101904480B1 (ko) 카메라의 왜곡을 고려한 물체 인식 시스템 및 방법
Mattheij et al. Depth-based detection using Haarlike features
JP2018036870A (ja) 画像処理装置及びプログラム
JP4812743B2 (ja) 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体
WO2021124417A1 (ja) 前景抽出装置、前景抽出方法、及び、記録媒体