JP2014191471A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2014191471A
JP2014191471A JP2013064820A JP2013064820A JP2014191471A JP 2014191471 A JP2014191471 A JP 2014191471A JP 2013064820 A JP2013064820 A JP 2013064820A JP 2013064820 A JP2013064820 A JP 2013064820A JP 2014191471 A JP2014191471 A JP 2014191471A
Authority
JP
Japan
Prior art keywords
image
identification
window
past
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013064820A
Other languages
English (en)
Other versions
JP6161931B2 (ja
Inventor
Yuki Haraguchi
雄基 原口
Hiroshi Hasegawa
弘 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2013064820A priority Critical patent/JP6161931B2/ja
Priority to US14/204,676 priority patent/US9536137B2/en
Priority to EP14161267.1A priority patent/EP2784721A3/en
Publication of JP2014191471A publication Critical patent/JP2014191471A/ja
Priority to US15/357,512 priority patent/US10223583B2/en
Application granted granted Critical
Publication of JP6161931B2 publication Critical patent/JP6161931B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像から対象物を高い精度で検出することができる物体検出装置を提供することを課題とする。
【解決手段】物体検出装置1において、窓領域設定部11は、入力画像20の画素の位置に基づいて窓領域を設定する。識別値計算部13は、検出対象物の特徴データに基づいて、検出対象物が窓領域に含まれる窓画像に存在する度合いを示す識別値を計算する。識別画像生成部14は、窓画像から計算された識別値を画素の位置に応じて配置して識別画像を生成する。積分部15は、識別画像と、入力画像20よりも時間的に前に入力された過去入力画像から生成された過去識別画像42とを積分して積分画像45を生成する。判断部16は、積分画像45に基づいて、検出対象物が入力画像20中に存在するか否かを判断する。
【選択図】図1

Description

本発明は、検出対象物が画像中に存在するか否かを判断する物体検出装置に関する。
カメラが撮影した画像などに人物などの対象物が存在するか否かを判断する物体検出装置が存在する。物体検出装置は、たとえば、カメラとともに車両に搭載される。物体検出装置は、カメラが撮影した画像に人物が存在するか否かを判断することにより、運転手に歩行者の存在を知らせることができる。物体検出装置を利用することにより、車両の運転手は、車両の外部の状況を容易に把握することができる。
物体検出装置は、対象物が画像中に存在するか否かを判断するために、ニューラルネットワークや、サポートベクターマシン、パターンマッチングなどのアルゴリズムを使用する。物体検出装置は、入力された画像に対して、物体を検出する領域(検出窓)を設定する。物体検出装置は、上記のアルゴリズムが実装されたプログラムを用いて、対象物が検出窓の画像に含まれているか否かを判断する。
例えば、特許文献1の画像認識装置は、検出対象の領域が一部重複する複数の検出窓を設定し、認識対象(歩行者など)の基準パターンを用いて、各検出窓に対するパターンマッチングを実行する。画像認識装置は、パターンマッチングが複数回実行された領域については、各パターンマッチングの結果を積分する。積分結果に基づいて、歩行者の位置が特定される。
特開2009−70344号公報
特許文献1に係る画像認識装置が対象物を検出する際に基準パターンを用いるように、対象物の特徴が記録された特徴データを予め準備する必要がある。例えば、ニューラルネットワークを用いて歩行者を画像中から検出する場合、物体検出装置は、歩行者を含むサンプル画像を学習して特徴データを作成する。様々なサンプル画像を学習することにより、歩行者の検出精度を向上することができる。
しかし、様々なサンプル画像を用いて学習しても、誤検出を完全に防ぐことが難しい。例えば、ノイズなどの影響により、画像中の歩行者の特徴が変化することにより、画像中の歩行者の特徴が、これまでに学習した特徴に一致しない場合がある。この場合、物体検出装置は、歩行者を画像中から検出することができない。逆に、歩行者ではない他の物体の特徴が学習済みの特徴に偶然一致した場合、物体検出装置は、他の物体を誤って歩行者と判断する。
本発明の目的は、画像から対象物を高い精度で検出することができる物体検出装置を提供することである。
上記課題を解決するため、請求項1記載の発明は、物体検出装置であって、入力画像の画素の位置に基づいて窓領域を設定する窓領域設定部と、検出対象物の特徴データに基づいて、前記検出対象物が前記窓領域に含まれる窓画像に存在する度合いを示す識別値を前記窓画像から計算する識別値計算部と、前記窓画像から計算された識別値を前記画素の位置に応じて配置して識別画像を生成する識別画像生成部と、前記識別画像と、前記入力画像よりも時間的に前に入力された第1過去入力画像から生成された第1過去識別画像とを積分して積分画像を生成する積分部と、前記検出対象物が前記入力画像中に存在するか否かを前記積分画像に基づいて判断する判断部と、を備える。
請求項2記載の発明は、請求項1に記載の物体検出装置であって、さらに、前記積分部は、前記第1過去識別画像の画素値を所定のしきい値と比較し、前記第1過去識別画像の画素値が前記しきい値よりも小さい場合、前記第1過去識別画像の画素値を切り捨てる。
請求項3記載の発明は、請求項1又は請求項2に記載の物体検出装置であって、前記積分部は、前記第1過去識別画像の各画素値を重み付けし、前記積分画像と各画素値が重み付けされた第1過去識別画像とを積分する。
請求項4記載の発明は、請求項3に記載の物体検出装置であって、第2過去入力画像は、前記第1過去入力画像よりも時間的に前に入力され、前記積分部は、前記第2過去入力画像から生成された第2過去識別画像の画素値を重み付けし、重み付けされた第2過去識別画像を用いて積分画像を生成し、前記第2過去識別画像の重み付けに用いられる係数は、前記第1過去識別画像の重み付けに用いられる係数よりも小さい。
請求項5記載の発明は、請求項1ないし請求項4のいずれかに記載の物体検出装置であって、さらに、前記窓画像に対して所定の画像処理を施す画像処理部、を備え、前記識別値計算部は、前記所定の画像処理が施された変更窓画像の識別値を計算し、前記識別画像生成部は、前記窓画像の識別値と前記変更窓画像の識別値とを積算する。
請求項6記載の発明は、物体検出装置に搭載されるコンピュータに、入力画像の画素の位置に基づいて窓領域を設定するステップと、検出対象物の特徴データに基づいて、前記検出対象物が前記窓領域に含まれる窓画像に存在する度合いを示す識別値を前記窓画像から計算するステップと、前記窓画像から計算された識別値を前記画素の位置に応じて配置して識別画像を生成するステップと、前記識別画像と、前記入力画像よりも時間的に前に入力された第1過去入力画像から生成された第1過去識別画像とを積分して積分画像を生成するステップと、前記検出対象物が前記入力画像中に存在するか否かを前記積分画像に基づいて判断するステップとを実行させるための物体検出プログラムである。
本発明の物体検出装置は、入力画像の画素の位置に応じて窓領域を設定し、窓領域に含まれる画像から検出対象物の識別値を計算する。識別値を画素の位置に応じて配置することにより、識別画像が生成される。物体検出装置は、入力画像から生成された識別画像と過去入力画像から生成された過去識別画像とを積分した積分画像に基づいて、検出対象物の有無を判断する。入力画像だけでなく過去の入力画像の識別結果を用いることにより、検出対象物の検出精度を向上させることができる。
本発明の実施の形態に係る物体検出装置の構成を示す機能ブロック図である。 図1に示す物体検出装置の動作を示すフローチャートである。 図2に示す識別画像生成処理のフローチャートである。 図1に示す物体検出装置に入力される画像の一例を示す図である。 図1に示す物体検出装置により生成された通常窓画像を示す図である。 図1に示す物体検出装置により生成された拡大窓画像を示す図である。 図1に示す物体検出装置により生成された回転窓画像を示す図である。 図1に示す物体検出装置に入力される画像の他の例を示す図である。 図8に示す画像から生成された識別画像を示す図である。 図1に示す物体検出装置により生成される識別画像及び積分画像を時系列で配列した図である。
以下、図面を参照しつつ、本発明の実施の形態を詳しく説明する。
[1.物体検出装置1の構成]
図1は、本発明の実施の形態に係る物体検出装置1の構成を示す機能ブロック図である。物体検出装置1は、カメラ(図示省略)が撮影した画像中に、検出対象物が存在するか否かを判断する装置である。
本実施の形態では、物体検出装置1は、カメラとともに車両に搭載される。カメラは、車両の前方の景色を撮影して動画像データを生成する。動画像データを構成する複数のフレームが物体検出装置1に順次入力される。入力画像20は、複数のフレームのうち1つのフレームに相当する。物体検出装置1は、入力画像20から、検出対象物として歩行者を検出する。
図1に示すように、物体検出装置1は、窓領域設定部11と、画像処理部12と、識別値計算部13と、識別画像生成部14と、積分部15と、判断部16と、記憶部17とを備える。
窓領域設定部11は、入力画像20全体をスキャンするようにして、入力画像20に対して複数の窓領域を設定する。窓領域は、入力画像20中に歩行者が存在するか否かを判断するための単位領域である。窓領域設定部11は、設定された窓領域に含まれる画像を入力画像20から切り出して、通常窓画像21を生成する。
画像処理部12は、入力画像20に対して、拡大処理、回転処理をそれぞれ実行する。さらに、画像処理部12は、拡大された入力画像20及び回転された入力画像20を窓領域でそれぞれ切り出すことにより、拡大窓画像22及び回転窓画像23を生成する。以下、拡大窓画像22及び回転窓画像23を総称する場合、「変更窓画像」と呼ぶ。変更窓画像の詳細については、後述する。
識別値計算部13は、記憶部17に記憶された特徴データ26に基づいて、通常窓画像21から識別値31を計算する。識別値31の計算には、ニューラルネットワークが用いられる。識別値31は、歩行者が通常窓画像21中に存在する度合いを示す数値である。識別値31は、窓画像に歩行者が存在する可能性が高いほど大きくなり、歩行者が存在する可能性が低いほど0に近くなる。同様に、識別値32が、拡大窓画像22から計算され、識別値33が、回転窓画像23から計算される。
識別画像生成部14は、窓領域ごとに識別値31〜33を積算し、積算された識別値を用いて識別画像41を生成する。識別画像生成部14は、積算された識別値を窓領域のそれぞれの位置に応じてテンプレート画像27に配置することにより、識別画像41を生成する。テンプレート画像27は、画素値が全て0であり、入力画像20と同じサイズを有する。
積分部15は、識別画像41と、過去識別画像42,42とを積分して、積分画像45を生成する。過去識別画像42,42は、入力画像20よりも時間的に前に入力された2つの入力画像(過去入力画像)のそれぞれから生成された識別画像である。積分画像45は、識別画像41の画素値と過去識別画像42,42の画素値とが画素の位置に応じて加算されることにより生成される。
判断部16は、積分画像45に基づいて、入力画像20中に歩行者が存在するか否かを判断する。入力画像20中に歩行者が存在すると判断した場合、判断部16は、歩行者の存在を示す枠を入力画像20上に配置した検出結果画像46を生成する。
記憶部17は、ハードディスク装置やフラッシュメモリなどの記憶装置であり、特徴データ26と、テンプレート画像27と、過去識別画像42,42を格納する。特徴データ26には、検出対象物(歩行者)の特徴が記録される。また、記憶部17は、窓領域設定部11、画像処理部12、識別値計算部13、識別画像生成部14、積分部15、及び判断部16が各々の処理を実行する際の作業領域として使用される。
[2.物体検出装置1の動作]
[2.1.動作の概略]
図2は、物体検出装置1の動作を示すフローチャートである。図2を参照しながら、物体検出装置1の動作を説明する。
物体検出装置1は、入力画像20が入力されるたびに、図2に示す処理を実行して、入力画像20中に歩行者が存在するか否かを判断する。
物体検出装置1は、識別画像生成処理を実行する(ステップS1)。これにより、識別画像41が、入力画像20から生成される。識別画像生成処理(ステップS1)の詳細については、後述する。
物体検出装置1は、識別画像41を生成した後に、積分対象となる過去識別画像42,42を選択する(ステップS2)。具体的には、入力画像20の直前に入力された2つの過去入力画像から生成された識別画像が、積分対象として選択される。2つの過去入力画像のうち一方は、入力画像20の直前に入力された第1過去入力画像であり、他方は、第1過去入力画像の直前に入力された第2過去入力画像である。
物体検出装置1は、識別画像41と、ステップS2で選択された過去識別画像42,42とを積分して、積分画像45を生成する(ステップS3)。なお、物体検出装置1は、過去識別画像42,42を選択できない場合、ステップS3,S4を実行しない。過去識別画像42,42を選択できない具体例については、後述する。
物体検出装置1は、積分画像45に基づいて、歩行者が入力画像20中に存在するか否かを判断する(ステップS4)。物体検出装置1は、積分画像45から、予め設定された基準値以上の画素値を有する領域を特定し、特定された領域の面積が所定の面積よりも大きいか否かを判断する。特定された領域の面積が所定の面積よりも大きい場合、物体検出装置1は、歩行者が特定された領域に存在すると判断する。
以下、図2に示す各処理について詳しく説明する。
[2.2.識別画像生成処理(ステップS1)]
図3は、識別画像生成処理(ステップS1)のフローチャートである。図4は、入力画像20の一例を示す図である。図4に示す入力画像20において、左上頂点を原点Oとし、横方向をx軸、縦方向をy軸に設定する。図3及び図4を参照しながら、識別画像生成処理(ステップS1)について詳しく説明する。
窓領域設定部11は、予め設定された順序に基づいて、入力画像20に対して窓領域を1つ設定する(ステップS11)。窓領域設定部11は、入力画像20の画素のうち、窓領域の中心となる中心画素を選択し、選択した中心画素の位置に基づいて窓領域を設定する。
後述するように、ステップS11が繰り返し実行されることにより、中心画素は、入力画像20の左上頂点から右下頂点までをスキャンするように設定される。このとき、窓領域設定部11は、入力画像20の各画素を中心画素に順次指定してもよい。あるいは、窓領域設定部11は、一定の間隔ごとに中心画素を選択してもよい。例えば、スキャン方向(横方向及び縦方向)に関係なく、中心画素が5つの画素ごと選択されるようにすればよい。
以下、特に説明のない限り、ステップS11において図4に示す窓領域Aが設定された場合を例にして、識別画像生成処理(ステップS1)の詳細を説明する。窓領域Aの中には、人物40が存在する。
画像処理部12は、入力画像20に対して、拡大処理及び回転処理をそれぞれ実行する(ステップS12)。拡大処理及び回転処理は、窓領域Aの中心Pを基準にして実行される。拡大処理は、中心Pを基準にして、入力画像20を125%の倍率で拡大する。回転処理は、中心Pを基準にして、入力画像20を時計回りに7度回転させる。この結果、拡大された入力画像20及び回転された入力画像20がそれぞれ生成される。
物体検出装置1は、入力画像20及び各画像処理が施された入力画像20に対して切り出し処理を実行する(ステップS13)。図5に示すように、窓領域設定部11が、入力画像20から窓領域Aに含まれる画像を切り出して通常窓画像21を生成する。図6に示すように、画像処理部12が、拡大された入力画像20から窓領域Aに含まれる画像を切り出して拡大窓画像22を生成する。図7に示すように、画像処理部12が、回転された入力画像20から窓領域Aに含まれる画像を切り出して回転窓画像23を生成する。
ステップS12,13において、画像処理部12は、窓領域A及び周辺領域の画像に対して画像処理を行い、画像処理が行われた領域の画像から変更窓画像を切り出すことが望ましい。これにより、演算量を削減できるとともに、空白の領域が変更窓画像中に発生することを防止できる。
なお、ステップS12,S13の順序を入れ替えてもよい。具体的には、窓領域設定部11が、入力画像20から通常窓画像21を切り出す(ステップS13)。その後、画像処理部12が、通常窓画像21に対して、拡大処理及び回転処理を実行する(ステップS12)。通常窓画像21から回転窓画像23を生成した場合、回転窓画像23に空白の領域が発生する。この場合、画像処理部12は、発生した空白の領域の画素値を0に設定すればよい。あるいは、画像処理部12は、空白の領域以外の画素値を空白の領域の画素値としてコピーしてもよい。例えば、回転窓画像23の左上頂点が原点であり、回転窓画像23の座標(x,y)よりも左側の画素に画素値が設定されていないと仮定する。この場合、画像処理部12は、座標(x,y)の画素値を、座標(0,y)から座標(x−1,y)までの画素値としてコピーすればよい。
識別値計算部13が、特徴データ26に基づいて、通常窓画像21と変更窓画像とに対応する識別値31〜33を計算する(ステップS14)。識別値31〜33の計算には、ニューラルネットワークの他に、パターンマッチング、サポートベクターマシンなどの各種アルゴリズムを用いることができる。
例えば、通常窓画像21のサイズが、横64ピクセル、縦128ピクセルである場合、識別値計算部13は、通常窓画像21を横16ピクセル、縦32ピクセルのサイズに縮小する。識別値計算部13は、縮小された通常窓画像21を用いて識別値31を計算する。通常窓画像21を縮小することで、ニューラルネットワークの演算量を削減することができる。変更窓画像に対応する識別値32,33も、同様の手順で計算される。
識別画像生成部14は、識別値31〜33を積算する(ステップS15)。積算された積分値は、テンプレート画像27上にマッピングされる(ステップS16)。例えば、入力画像20の各画素が窓領域の中心画素として選択された場合には、積算された識別値は、テンプレート画像27において、各中心画素の位置の画素値に設定される。
また、窓領域の中心画素が横方向及び縦方向に5つの画素ごとに選択される場合、識別画像生成部14は、中心画素を基準にして横5ピクセル、縦5ピクセルの範囲の画素値を、積算された識別値に設定する。具体的には、窓領域Aの中心Pの座標が(x,y)である場合、座標(x−2,y−2)を左上頂点とし、座標(x+2,y+2)を右上頂点とする正方形の範囲の画素値が、積算された識別値に設定される。
物体検出装置1は、入力画像20において全ての窓領域を設定済みであるか否かを判断する(ステップS17)。全ての窓領域の設定が終了していない場合(ステップS17においてNo)、物体検出装置1は、ステップS11〜S16を繰り返し実行する。この結果、窓領域ごとに計算された識別値31〜33が積算された上でテンプレート画像27上にマッピングされ、識別画像41が生成される。全ての窓領域の設定が終了した場合(ステップS17においてYes)、物体検出装置1は、識別画像生成処理(ステップS1)を終了する。
このように、物体検出装置1は、歩行者の検出精度を高めるために、通常窓画像21の他に、識別値計算部13の計算対象となる変更窓画像を生成する。通常窓画像21内に歩行者が含まれているにもかかわらず、ノイズ等の影響により、識別値計算部13が、人物が存在する可能性を示す識別値31を通常窓画像21から生成できない場合がある。しかし、変更窓画像のいずれかに含まれる歩行者の特徴が、特徴データ26に記録された特徴に一致した場合、識別値計算部13は、歩行者の存在を示す識別値を出力できる。物体検出装置1は、識別値31〜33を加算することにより、人物の検出精度を向上させることを可能としている。
しかし、識別値31〜33を加算することにより生成された識別画像41のみに基づいて、歩行者の有無を判断した場合であっても、誤検出が発生する場合がある。
図8は、入力画像20の他の例(入力画像20a)を示す図である。図9は、図8に示す入力画像20aから生成された識別画像41aを示す。識別画像41aにおいて、画素の色が黒いほど、画素値が0に近づき、画素の色が白いほど、画素値が大きいことを示している。すなわち、画素の色が白くなるにつれて、その画素の位置に歩行者が存在する可能性が高い。また、入力画像20aにおいて、窓領域の中心画素は、所定の間隔ごとに設定されているため、識別画像41aは、入力画像20aよりも粗くなっている。
図8に示す入力画像20aにおいて、歩行者が白線で囲まれた領域51a〜53aに存在している。図9に示す識別画像41aにおいて、領域61a〜63aは、領域51a〜53aに対応し、これらの領域の画素が白く表示されていることが分かる。このように、識別画像41aを用いて、入力画像20a中における歩行者の有無を判断することが可能である。
しかし、入力画像20aの領域53aの右側に歩行者が存在しないにもかかわらず、識別画像41aにおいて領域63aの右側に位置する領域64aの画素が、白くなっている。これは、識別値計算部13が歩行者ではない別の物体を含む窓画像から、歩行者の存在を示す識別値を出力したことを示している。従って、識別画像41aのみを用いて、入力画像20a中の歩行者の有無を判断した場合、誤検出が発生する。物体検出装置1は、識別画像41と過去識別画像42とを積分することにより、誤検出の発生を防止する。以下、詳しく説明する。
[2.3.積分画像45の生成及び歩行者検出(ステップS3,S4)]
図10は、入力画像20、識別画像41、及び積分画像45を時系列に配列した図である。図10を参照しながら、積分画像45の生成について説明する。図10に示すように、物体検出装置1が、入力画像20a〜20dを順次に入力すると仮定する。
図10に示す識別画像41a〜41c及び積分画像45c,45dは、図9と同様に、大きい画素値を有する画素ほど白い色で表され、0に近い画素値を有する画素ほど黒い色で表される。また、図10に示す積分画像45c,45dを生成する際に、後述する切り捨て処理及び重み付け処理が実行されていない。
最初に、物体検出装置1は、入力画像20aを入力する。識別画像生成処理(ステップS1)により、入力画像20aに対応する識別画像41aが生成される。しかし、入力画像20aが物体検出装置1に最初に入力された画像であるため、積分の対象となる過去識別画像42が存在しない。この場合、物体検出装置1は、ステップS2〜S4を実行することなく図2に示す処理を終了し、入力画像20bが入力されるまで待機する。
入力画像20aの次に、入力画像20bが入力された場合、物体検出装置1は、入力画像20bに対応する識別画像41bを生成する(ステップS1)。しかし、入力画像20bの直前に入力された過去入力画像が、入力画像20aのみであるため、積分部15は、積分対象の画像として、2つの過去識別画像42,42を選択することができない。物体検出装置1は、ステップS2〜S4を実行することなく図2に示す処理を終了し、入力画像20cが入力されるまで待機する。
入力画像20bの次に、入力画像20cが入力された場合、物体検出装置1は、入力画像20cに対応する識別画像41cを生成する(ステップS1)。積分部15は、入力画像20cの直前に2つの過去入力画像(入力画像20a,20b)が入力されているため、積分対象の画像として、入力画像20a,20bに対応する識別画像41a,41bを選択する(ステップS2)。
積分部15は、識別画像41a〜41cを積分して、積分画像45cを生成する(ステップS3)。上述のように、識別画像41a〜41cの画素値は、上述のように、識別値が積算されたものである。従って、積分画像45において画素値が大きい領域(色の白い領域)は、歩行者の存在する可能性が高いことを示す。
判断部16は、積分画像45cが生成されたため、積分画像45cに基づいて入力画像20cにおける歩行者の有無を判断する(ステップS4)。具体的には、判断部16は、積分画像45に対してラベリング処理を実行して、積分画像45において基準値以上の画素値を有する領域を特定する。特定された領域のうち、一定の面積よりも大きい面積を有する領域(候補領域)が存在する場合、判断部16は、候補領域に歩行者が存在すると判断する。判断部16は、候補領域の位置に基づいて、歩行者の位置を示す枠を入力画像20c上に描画し、枠が描画された入力画像20cを検出結果画像46として出力する。
図10に示すように、積分画像45cにおいて、白い画素の領域が、識別画像41a〜41cにおける白い領域よりも強調されている。従って、判断部16は、積分画像45cを用いることにより、入力画像20cにおける歩行者の有無を精度よく判断することができる。
次に、入力画像20dが入力された場合、物体検出装置1は、入力画像20dに対応する識別画像41dを生成する(ステップS1)。積分部15は、積分対象の画像として、直前に入力された2つの過去入力画像(入力画像20b,20c)に対応する識別画像41b,41cを選択する(ステップS2)。積分部15は、識別画像41b〜41dを積分して、積分画像45dを生成する。判断部16は、上記と同様に、積分画像45dに基づいて、入力画像20dにおける歩行者の有無を判断する。
このように、物体検出装置1は、入力画像20が入力されるたびに識別画像41を新たに生成する。物体検出装置1は、新たに生成された識別画像41と、直前に入力された2つの過去識別画像に対応する2つの過去識別画像とを積分して、積分画像45を生成する。物体検出装置1は、積分画像45を用いて歩行者の有無を判断することにより、識別画像41のみを用いて入力画像20における歩行者の有無を判断する場合よりも歩行者の検出精度を向上させることができる。
歩行者を含む入力画像20cにノイズが瞬間的に混入することにより、入力画像20cから生成された識別画像41cが、歩行者の存在を示す画素値を有していないと仮定する。一方、直前の2つの過去入力画像(20a,20b)が歩行者を含み、過去識別画像(識別画像41a,41b)は、歩行者の存在を示す画素値を有していると仮定する。この仮定において、積分画像45は、過去識別画像の影響を受けるため、積分された画素値は、基準値を上回る可能性が高い。従って、物体検出装置1は、入力画像20c中に歩行者が存在すると判断することができ、入力画像20c中に歩行者が存在するにも関わらず歩行者が存在しないと判断する誤検出を防ぐことができる。
逆に、入力画像20c中に歩行者が存在しないにもかかわらず、識別画像41cが歩行者の存在を示す画素値を有すると仮定する。また、直前の2つの過去入力画像(20a,20b)が歩行者を含まず、過去識別画像(識別画像41a,41b)は、歩行者の存在を示す画素値を有さないと仮定する。この仮定において、積分画像45は、過去識別画像の影響を受けるため、積分された画素値は、基準値を下回る可能性が高い。従って、物体検出装置1は、識別画像41cが人物の存在を示す識別値を有する場合であっても、誤検出を防ぐことができる。
なお、積分部15は、積分画像45を生成する前に、識別画像41a〜45dを対象として、画素値の切り捨て処理と、重み付け処理とを実行することが望ましい。
切り捨て処理とは、識別画像41a〜41dの各画素値を予め設定されたしきい値と比較し、しきい値に満たない画素値を0に切り捨てる処理である。例えば、識別画像41a〜41dにおいて、歩行者の存在しない位置の画素値が、歩行者の存在を示すほどの値を有していないと仮定する。しかし、この位置の画素値をそのまま積分した場合、積分された画素値が、歩行者の存在を示す数値となり、誤検出の原因となる可能性がある。しかし、切り捨て処理により、歩行者の存在しない位置の画素値を予め0にしておくことで、画素値の積分に伴う誤検出の発生を防ぐことが可能となる。
また、重み付け処理とは、入力画像20が入力されたタイミングに応じた重み付け係数を、積分対象の識別画像に設定する処理である。例えば、識別画像41cが新たに生成され、積分対象として識別画像41a,41bが選択された場合を考える。この場合、積分部15は、識別画像41cに重み付け係数「1」を設定する。積分部15は、識別画像41bに1よりも小さい重み付け係数「a」を設定する。積分部15は、識別画像41aに重み付け係数「a」よりも小さい重み付け係数「b」を設定する。そして、積分部15は、設定された重み付け係数を用いて、識別画像41a〜41cの各画素値を重み付け加算することにより、積分画像45cを生成する。
つまり、積分部15は、現在よりも時間的に遠い位置にある過去識別画像42に対して、小さい重み付け係数を設定する。過去識別画像42は、現在の入力画像20における歩行者の存在を反映している度合いが小さい。従って、識別画像41と過去識別画像42との比重を同じにして積分する際に、過去識別画像42に対して重み付け係数を設定することにより、誤検出の発生を防ぐことができる。
以上説明したように、物体検出装置1は、入力画像20から生成された識別画像41と過去識別画像42とを積分して積分画像45を生成し、積分画像45に基づいて入力画像20における検出対象物の有無を判断する。このように、入力画像20における歩行者の有無を過去の識別結果を加味して判断することにより、入力画像20における歩行者の検出精度を向上することができる。
[変形例]
上記実施の形態において、積分部15は、直前に入力された2つの入力画像20から生成された過去識別画像42,42を積分対象に選択する例を説明したが、これに限られない。直前に入力された1つの過去入力画像から生成された過去識別画像42のみを積分の対象に選択してもよい。あるいは、直前に入力された3つ以上の過去入力画像から生成された過去識別画像42を積分対象に選択してもよい。
上記実施の形態の識別画像生成処理(ステップS1)において、拡大窓画像22及び回転窓画像23を生成し、これらの窓画像から識別値32,33を生成する例を説明したが、これに限られない。物体検出装置1は、通常窓画像21から生成された識別値31のみを用いて識別画像41を生成してもよい。あるいは、拡大窓画像22及び回転窓画像23のいずれか一方のみを生成して識別値を計算してもよい。
また、物体検出装置1は、拡大処理及び回転処理の他に、所定の画像処理を入力画像20に施して変更窓画像を生成してもよい。例えば、縮小処理、台形変換処理、X軸反転処理、Y軸反転処理、ヒストグラム変形処理などを入力画像30に施してもよい。ヒストグラム変形処理は、入力画像20の画素値の平均、分散などを意図的に変更することにより、入力画像20の画素値の分布を変更する処理である。X軸反転処理は、入力画像20の中心を通る横軸を基準にして画素を反転させる処理である。X軸反転処理は、入力画像20の中心を通る縦軸を基準にして画素を反転させる処理である。
また、上記実施の形態において、物体検出装置1が、2つの過去識別画像42,42を選択することができない場合、次の入力画像が入力されるまで待機する例を説明したが、これに限られない。例えば、物体検出装置1は、入力画像20aが入力がされた場合、識別画像41aのみを用いて、入力画像20aにおける歩行者の有無を判断してもよい。物体検出装置1は、入力画像20bが入力された場合、識別画像41bと、入力画像20aから生成された過去識別画像42とを積分してもよい。この場合、生成された積分画像45に基づいて、入力画像20bにおける歩行者の有無が判断される。
また、上記実施の形態で説明した物体検出装置1において、各機能ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
また、上記各実施の形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。) により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。なお、上記実施の形態に係る物体検出装置をハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
1 物体検出装置
11 窓領域設定部
12 画像処理部
13 識別値計算部
14 識別画像生成部
15 積分部
16 判断部
20,20a〜20d 入力画像
41,41a〜41d 識別画像
45,45c〜45d 積分画像

Claims (6)

  1. 入力画像の画素の位置に基づいて窓領域を設定する窓領域設定部と、
    検出対象物の特徴データに基づいて、前記検出対象物が前記窓領域に含まれる窓画像に存在する度合いを示す識別値を前記窓画像から計算する識別値計算部と、
    前記窓画像から計算された識別値を前記画素の位置に応じて配置して識別画像を生成する識別画像生成部と、
    前記識別画像と、前記入力画像よりも時間的に前に入力された第1過去入力画像から生成された第1過去識別画像とを積分して積分画像を生成する積分部と、
    前記検出対象物が前記入力画像中に存在するか否かを前記積分画像に基づいて判断する判断部と、
    を備える物体検出装置。
  2. 請求項1に記載の物体検出装置であって、さらに、
    前記積分部は、前記第1過去識別画像の画素値を所定のしきい値と比較し、前記第1過去識別画像の画素値が前記しきい値よりも小さい場合、前記第1過去識別画像の画素値を切り捨てる物体検出装置。
  3. 請求項1又は請求項2に記載の物体検出装置であって、
    前記積分部は、前記第1過去識別画像の各画素値を重み付けし、前記積分画像と各画素値が重み付けされた第1過去識別画像とを積分する物体検出装置。
  4. 請求項3に記載の物体検出装置であって、
    第2過去入力画像は、前記第1過去入力画像よりも時間的に前に入力され、
    前記積分部は、前記第2過去入力画像から生成された第2過去識別画像の画素値を重み付けし、重み付けされた第2過去識別画像を用いて積分画像を生成し、
    前記第2過去識別画像の重み付けに用いられる係数は、前記第1過去識別画像の重み付けに用いられる係数よりも小さい物体検出装置。
  5. 請求項1ないし請求項4のいずれかに記載の物体検出装置であって、さらに、
    前記窓画像に対して所定の画像処理を施す画像処理部、
    を備え、
    前記識別値計算部は、前記所定の画像処理が施された変更窓画像の識別値を計算し、
    前記識別画像生成部は、前記窓画像の識別値と前記変更窓画像の識別値とを積算する物体検出装置。
  6. 物体検出装置に搭載されるコンピュータに、
    入力画像の画素の位置に基づいて窓領域を設定するステップと、
    検出対象物の特徴データに基づいて、前記検出対象物が前記窓領域に含まれる窓画像に存在する度合いを示す識別値を前記窓画像から計算するステップと、
    前記窓画像から計算された識別値を前記画素の位置に応じて配置して識別画像を生成するステップと、
    前記識別画像と、前記入力画像よりも時間的に前に入力された第1過去入力画像から生成された第1過去識別画像とを積分して積分画像を生成するステップと、
    前記検出対象物が前記入力画像中に存在するか否かを前記積分画像に基づいて判断するステップとを実行させるための物体検出プログラム。
JP2013064820A 2013-03-26 2013-03-26 物体検出装置 Expired - Fee Related JP6161931B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013064820A JP6161931B2 (ja) 2013-03-26 2013-03-26 物体検出装置
US14/204,676 US9536137B2 (en) 2013-03-26 2014-03-11 Object detection apparatus
EP14161267.1A EP2784721A3 (en) 2013-03-26 2014-03-24 Object detection apparatus
US15/357,512 US10223583B2 (en) 2013-03-26 2016-11-21 Object detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013064820A JP6161931B2 (ja) 2013-03-26 2013-03-26 物体検出装置

Publications (2)

Publication Number Publication Date
JP2014191471A true JP2014191471A (ja) 2014-10-06
JP6161931B2 JP6161931B2 (ja) 2017-07-12

Family

ID=51837696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013064820A Expired - Fee Related JP6161931B2 (ja) 2013-03-26 2013-03-26 物体検出装置

Country Status (1)

Country Link
JP (1) JP6161931B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195127A (ja) * 1998-01-06 1999-07-21 Suzuki Motor Corp 白線認識方法および装置
JP2008530701A (ja) * 2005-02-21 2008-08-07 ミツビシ・エレクトリック・インフォメイション・テクノロジー・センター・ヨーロッパ・ビーヴィ 顔特徴の検出方法
JP2011053951A (ja) * 2009-09-02 2011-03-17 Canon Inc 画像処理装置
JP2011118944A (ja) * 2011-03-11 2011-06-16 Seiko Epson Corp 画像処理装置、印刷装置、画像処理方法、及びコンピュータープログラム
JP2011128916A (ja) * 2009-12-18 2011-06-30 Fujifilm Corp オブジェクト検出装置および方法並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195127A (ja) * 1998-01-06 1999-07-21 Suzuki Motor Corp 白線認識方法および装置
JP2008530701A (ja) * 2005-02-21 2008-08-07 ミツビシ・エレクトリック・インフォメイション・テクノロジー・センター・ヨーロッパ・ビーヴィ 顔特徴の検出方法
JP2011053951A (ja) * 2009-09-02 2011-03-17 Canon Inc 画像処理装置
JP2011128916A (ja) * 2009-12-18 2011-06-30 Fujifilm Corp オブジェクト検出装置および方法並びにプログラム
JP2011118944A (ja) * 2011-03-11 2011-06-16 Seiko Epson Corp 画像処理装置、印刷装置、画像処理方法、及びコンピュータープログラム

Also Published As

Publication number Publication date
JP6161931B2 (ja) 2017-07-12

Similar Documents

Publication Publication Date Title
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
KR102399017B1 (ko) 이미지 생성 방법 및 장치
US10943141B2 (en) Object detection device and object detection method
EP2919162A1 (en) Image processing apparatus and image processing method
US11741593B2 (en) Product defect detection method, device and system
JP6242563B2 (ja) 物体検出装置
WO2019026104A1 (ja) 情報処理装置、情報処理プログラム及び情報処理方法
WO2014074959A1 (en) Real-time face detection using pixel pairs
CN112115803B (zh) 口罩状态提醒方法、装置及移动终端
JP4903192B2 (ja) 顔検出装置
JP2011210054A (ja) 対象物検知装置及びその学習装置
CN113313070A (zh) 架空输电线路缺陷检测方法、装置及电子设备
US9477882B2 (en) Object detection apparatus
US10223583B2 (en) Object detection apparatus
JP2015191369A (ja) 物体検出装置
JP2014199506A (ja) 物体検出装置、物体検出方法及びプログラム
JP2013015891A (ja) 画像処理装置、画像処理方法及びプログラム
JP5020920B2 (ja) 歩行者検出装置及びプログラム
JP6161931B2 (ja) 物体検出装置
US20220122244A1 (en) Defect image generation method for deep learning and system therefor
CN112508925B (zh) 电子锁面板质量检测方法、系统、计算机装置和存储介质
JP6116959B2 (ja) 物体検出装置
JP2015106307A (ja) 物体検出装置
JP2006134339A (ja) 識別方法、識別装置、及び交通制御システム
JP6121768B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20161114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161209

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170614

R150 Certificate of patent or registration of utility model

Ref document number: 6161931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees