JP2014191470A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2014191470A
JP2014191470A JP2013064815A JP2013064815A JP2014191470A JP 2014191470 A JP2014191470 A JP 2014191470A JP 2013064815 A JP2013064815 A JP 2013064815A JP 2013064815 A JP2013064815 A JP 2013064815A JP 2014191470 A JP2014191470 A JP 2014191470A
Authority
JP
Japan
Prior art keywords
image
window
identification
normal
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013064815A
Other languages
English (en)
Other versions
JP6116959B2 (ja
Inventor
Yuki Haraguchi
雄基 原口
Hiroshi Hasegawa
弘 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2013064815A priority Critical patent/JP6116959B2/ja
Priority to US14/204,676 priority patent/US9536137B2/en
Priority to EP14161267.1A priority patent/EP2784721A3/en
Publication of JP2014191470A publication Critical patent/JP2014191470A/ja
Priority to US15/357,512 priority patent/US10223583B2/en
Application granted granted Critical
Publication of JP6116959B2 publication Critical patent/JP6116959B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画像から対象物を高い精度で検出することができる物体検出装置を提供することを課題とする。
【解決手段】物体検出装置1において、窓領域設定部11は、入力画像30に対して窓領域を設定する。画像処理部12は、窓領域に含まれる通常窓画像41に対して所定の画像処理を施して変更窓画像42,42,・・・を生成する。識別値計算部13は、通常窓画像41に検出対象物が存在する度合いを示す通常識別値と、各変更窓画像42に検出対象物が存在する度合いを示す変更識別値とを計算する。識別画像生成部14は、窓領域と同じサイズの通常識別画像を通常識別値から生成し、同じサイズの変更識別画像を変更識別値から生成する。画像逆処理部16は、変更識別画像に対して所定の画像処理と逆の画像処理を施して逆処理画像を生成する。積分部は、窓領域ごとに得られる通常識別画像と逆処理画像とを窓領域ごとの位置に応じて積分する。
【選択図】図1

Description

本発明は、検出対象物が画像中に存在するか否かを判断する物体検出装置に関する。
カメラが撮影した画像などに人物などの対象物が存在するか否かを判断する物体検出装置が存在する。物体検出装置は、たとえば、カメラとともに車両に搭載される。物体検出装置は、カメラが撮影した画像に人物が存在するか否かを判断することにより、運転手に歩行者の存在を知らせることができる。この結果、車両の運転手は、車両の外部の状況を容易に把握することができる。
物体検出装置は、対象物が画像中に存在するか否かを判断するために、学習機能を有するニューラルネットワークや、サポートベクターマシンなどのアルゴリズムを使用する。物体検出装置は、入力された画像に対して、物体を検出する領域(検出窓)を設定する。物体検出装置は、上記のアルゴリズムが実装されたプログラムを用いて、対象物が検出窓に含まれているか否かを判断する。
例えば、特許文献1には、ニューラルネットワークを用いて、画像から自動車のナンバープレートの位置を検出する位置検出装置が記載されている。位置検出装置は、カメラにより撮影された原画像から小領域を切り出し、小領域の画像に対してニューラルネットワークを適用する。ニューラルネットワークの出力値は、小領域のサイズまでスケール変換される。位置検出装置は、スケール変換された出力値にガウス窓を掛けることにより、出力値が反映された投影画像を小領域ごとに生成する。小領域ごとの投影画像を加算した画像に基づいて、ナンバープレートの位置が特定される。
特開平10−302074号公報
従来の物体検出装置は、ニューラルネットワークなどのアルゴリズムにより対象物の有無を判断する場合、対象物の特徴データを用いる。従来の物体検出装置は、対象物を含む複数のサンプル画像を用いて対象物の特徴を学習して、特徴データを生成する。対象物が歩行者である場合、歩行者の性別、身長、姿勢、歩行者が画像中に占める割合などがそれぞれ異なるサンプル画像が、学習に用いられる。
しかし、画像中の歩行者の特徴が学習済みの歩行者の特徴に一致しない場合、従来の物体検出装置は、画像中の歩行者を検出することができない。また、画像中の歩行者ではない物体の特徴が、学習済みの歩行者の特徴に偶然一致した場合、従来の物体検出装置は、歩行者ではない物体を誤って歩行者と検出する。このように、従来の物体検出装置が、様々なサンプル画像を用いて学習を繰り返したとしても、誤検出の発生を完全になくすことはできない。
本発明の目的は、画像から対象物を高い精度で検出することができる物体検出装置を提供することである。
上記課題を解決するため、請求項1記載の発明は、入力画像に対して窓領域を設定する窓領域設定部と、前記入力画像のうち前記窓領域に含まれる通常窓画像に対して所定の画像処理を施して変更窓画像を生成する画像処理部と、検出対象物の特徴データに基づいて、前記通常窓画像に前記検出対象物が存在する度合いを示す通常識別値と、前記変更窓画像に前記検出対象物が存在する度合いを示す変更識別値とを計算する識別値計算部と、前記窓領域と同じサイズの通常識別画像を前記通常識別値から生成し、前記同じサイズの変更識別画像を前記変更識別値から生成する識別画像生成部と、前記変更識別画像に対して前記所定の画像処理と逆の画像処理を施して逆処理画像を生成する画像逆処理部と、前記窓領域ごとに得られる通常識別画像と前記逆処理画像とを前記窓領域ごとの位置に応じて積分する積分部と、を備える。
請求項2記載の発明は、請求項1に記載の物体検出装置であって、さらに、前記通常識別画像と前記逆処理画像とに対して所定の窓関数を適用する窓関数適用部、を備え、前記積分部は、前記所定の窓関数が適用された通常識別画像と逆処理画像とを積分する。
請求項3記載の発明は、請求項1に記載の物体検出装置であって、前記画像逆処理部は、前記逆の画像処理に対応する窓関数を前記変更識別画像に適用することにより前記逆処理画像を生成する。
請求項4記載の発明は、請求項1ないし請求項3のいずれかに記載の物体検出装置であって、前記画像処理部は、前記通常窓画像に対して第1の画像処理を施して第1変更窓画像を生成し、前記通常窓画像に対して第2の画像処理を施して第2変更窓画像を生成し、前記識別画像生成部は、前記第1変更窓画像に対応する識別値に基づいて第1変更識別画像を生成し、前記第2変更窓画像に対応する識別値に基づいて第2変更識別画像を生成し、前記画像逆処理部は、前記第1変更識別画像に対して前記第1の画像処理と逆の画像処理を施し、前記第2変更識別画像に対して前記第2の画像処理と逆の画像処理を施す。
請求項5記載の発明は、請求項1ないし請求項4のいずれかに記載の物体検出装置であって、前記画像処理部は、前記入力画像に対して前記所定の画像処理を施し、前記窓領域設定部は、前記所定の画像処理が施された入力画像から前記窓領域に含まれる画像を切り出す。
請求項6記載の発明は、物体検出装置に搭載されるコンピュータに、入力画像に対して窓領域を設定するステップと、前記入力画像のうち前記窓領域に含まれる通常窓画像に対して所定の画像処理を施して変更窓画像を生成するステップと、検出対象物の特徴データに基づいて、前記通常窓画像に前記検出対象物が存在する度合いを示す通常識別値と、前記変更窓画像に前記検出対象物が存在する度合いを示す変更識別値とを計算するステップと、前記窓領域と同じサイズの通常識別画像を前記通常識別値から生成し、前記同じサイズの変更識別画像を前記変更識別値から生成するステップと、前記変更識別画像に対して前記所定の画像処理と逆の画像処理を施して逆処理画像を生成するステップと、前記窓領域ごとに得られる通常識別画像と前記逆処理画像とを前記窓領域ごとの位置に応じて積分するステップとを実行させるための物体検出プログラムである。
検出対象物が通常窓画像に含まれているのにも関わらず、通常識別値が検出対象物の存在を示す数値を有していない場合であっても、本発明の物体検出装置は、検出対象物の存在を示す変更識別値を変更窓画像から得ることができる。従って、通常識別画像と変更識別画像とが積分された画像に基づいて、窓領域における検出対象物の有無を判断することにより、検出対象物の検出精度を高めることができる。
また、本発明の物体検出装置は、変更識別画像に対して所定の画像処理と逆の画像処理が施して、変更識別画像の領域を窓領域に整合させる。例えば、変更識別画像の一部が窓領域からはみ出している場合であっても、はみ出した一部が、検出対象物の有無の判断に影響を与えることを防止できる。従って、物体検出装置は、変更識別値を積分された画像内に正確に反映させることができる。
本発明の実施の形態に係る物体検出装置の構成を示す機能ブロック図である。 図1に示す物体検出装置の動作を示すフローチャートである。 図1に示す物体検出装置に入力される入力画像の一例を示す図である。 図3に示す入力画像から切り出された通常窓画像と、通常窓画像に対応する窓関数画像の生成過程とを示す図である。 図2に示す画像処理(ステップS3)から画像逆処理(ステップS7)までにおける画像の変化の一例を示す図である。 図2に示す画像処理(ステップS3)から画像逆処理(ステップS7)までにおける画像の変化の他の例を示す図である。 図2に示す画像処理(ステップS3)から画像逆処理(ステップS7)までにおける画像の変化の他の例を示す図である。 図2に示す画像処理(ステップS3)から画像逆処理(ステップS7)までにおける画像の変化の他の例を示す図である。 図2に示す画像逆処理(ステップS6)で生成された画像をマッピングした結果の一例を示す図である。
以下、図面を参照しつつ、本発明の実施の形態について説明する。
[1.物体検出装置1の構成]
図1は、本発明の実施の形態に係る物体検出装置1の構成を示す機能ブロック図である。物体検出装置1は、カメラ(図示省略)が撮影した画像中に、検出対象物が存在するか否かを判断する装置である。本実施の形態では、物体検出装置1は、カメラとともに車両に搭載される。物体検出装置1は、カメラにより撮影された画像から、検出対象物として歩行者を検出する。
図1に示すように、物体検出装置1は、窓領域設定部11と、画像処理部12と、識別値計算部13と、識別画像生成部14と、窓関数適用部15と、画像逆処理部16と、積分部17と、記憶部18と、判断部19とを備える。
窓領域設定部11は、カメラから物体検出装置1に入力される入力画像30に対して、窓領域を設定する。カメラは、車両の前方の景色を撮影して動画像データを生成する。入力画像30は、動画像データを構成する複数のフレームのうち1つのフレームに相当する。窓領域は、入力画像30中に歩行者が存在するか否かを判断するための単位領域である。窓領域設定部11は、設定された窓領域に含まれる画像を入力画像30から切り出して、通常窓画像41を生成する。
画像処理部12は、入力画像30に対して、拡大処理、縮小処理、回転処理、画素シフト処理などの所定の画像処理を実行する。さらに、画像処理部12は、所定の画像処理が施された入力画像を窓領域で切り出すことにより、各画像処理に対応する拡大窓画像42A、縮小窓画像42B、回転窓画像42C、シフト窓画像42Dを生成する。以下、拡大窓画像42A、縮小窓画像42B、回転窓画像42C、シフト窓画像42Dを総称する場合、「変更窓画像42」と呼ぶ。各変更窓画像42の詳細については、後述する。
識別値計算部13は、記憶部18に記憶された特徴データ21に基づいて、通常窓画像41及び変更窓画像42のそれぞれから識別値44を計算する。識別値44の計算には、ニューラルネットワークが用いられる。識別値44は、歩行者が窓画像中に存在する度合いを示す数値である。識別値44は、窓画像に人物が存在する可能性が高いほど大きくなり、人物が存在する可能性が低いほど0に近くなる。
識別画像生成部14は、通常窓画像41の識別値44から窓領域のサイズを有する通常識別画像45を生成し、変更窓画像42のそれぞれの識別値44から、窓領域のサイズを有する変更識別画像45A〜45Dを生成する。各識別画像は、全ての画素値が各々の識別値44に設定された一様な画像である。
窓関数適用部15は、通常識別画像45に窓関数22を適用して窓関数画像46を生成し、変更識別画像45A〜45Dに窓関数22を適用して窓関数画像46A〜46Dを生成する。本実施の形態では、ガウス窓が、窓関数22として用いられる。各識別画像に窓関数22を適用することにより、画素値の分布に変化を与えることができる。
画像逆処理部16は、窓関数画像46A〜46Dに対して画像処理部12で施された画像処理と逆の画像処理を施すことにより、窓関数画像46A〜46Dのそれぞれに対応する逆処理画像47A〜47Dを生成する。例えば、窓関数画像46Aは、拡大窓画像42Aに基づいて作成されているため、画像逆処理部16により縮小される。
積分部17は、窓関数画像46と逆処理画像47A〜47Dとを、窓領域の位置に応じて積分する。具体的には、積分部17は、窓関数画像46と逆処理画像47A〜47Dとをテンプレート画像23上にマッピングする。テンプレート画像23は、画素値が全て0であり、入力画像30と同じサイズを有する。
判断部19は、マッピングが終了したテンプレート画像23に基づいて、入力画像30内に歩行者が存在するか否かを判断する。
記憶部18は、ハードディスク装置やフラッシュメモリなどの記憶装置であり、特徴データ21と、窓関数22と、テンプレート画像23とを格納する。特徴データ21には、検出対象物(歩行者)の特徴が記録される。窓関数22は、ガウス窓が記述されたデータである。また、記憶部18は、窓領域設定部11、画像処理部12、識別値計算部13、識別画像生成部14、窓関数適用部15、画像逆処理部16、積分部17、及び判断部19が各々の処理を実行する際の作業領域として使用される。
[2.物体検出装置1の動作]
図2は、物体検出装置1の動作を示すフローチャートである。図3は、入力画像30の一例を示す図である。図2及び図3を参照しながら、物体検出装置1の動作を説明する。
物体検出装置1は、カメラから新たなフレーム(入力画像30)が入力されるたびに、図2に示す処理を実行する。窓領域設定部11は、予め設定された順序に基づいて、入力画像30に対して窓領域を設定する(ステップS1)。後述するように、ステップS1は、複数回実行される。これにより、窓領域は、入力画像30の左上頂点から右下頂点までをスキャンするように設定される。複数の窓領域が重複するように設定されてもよい。
以下、特に説明のない限り、ステップS1において図3に示す窓領域Aが設定された場合を例にして、物体検出装置1の動作を説明する。窓領域Aの中には、人物40が存在する。
画像処理部12は、入力画像30に対して、拡大処理、縮小処理、回転処理、画素シフト処理を実行する(ステップS2)。これにより、各画像処理に対応する複数の変更窓画像42が生成される。拡大処理、縮小処理は、窓領域Aの中心(図4に示す通常窓画像41の中心41Pに対応)を基準にして実行される。このとき、画像処理部12は、窓領域A及び窓領域Aの周辺領域のみを対象として各画像処理を実行してもよい。これにより、ステップS2における演算量を削減できる。周辺領域は、変更窓画像42を生成する際に、空白の領域が発生しないように設定される。回転処理は、窓領域Aの中心を基準にして、入力画像30を時計回りに回転させる。画素シフト処理では、入力画像30の各画素が、予め決定された移動量に応じて左下方向に移動する。
物体検出装置1は、入力画像30及び各画像処理が施された入力画像30に対して切り出し処理を実行する(ステップS3)。具体的には、窓領域設定部11が、入力画像30から窓領域Aに含まれる画像を切り出して通常窓画像41を生成する。図4に、通常窓画像41を示す。通常窓画像41以外の画像については、後述する。
また、画像処理部12は、拡大された入力画像30から、窓領域Aに含まれる画像を拡大窓画像42A(図5参照)として切り出す。画像処理部12は、縮小された入力画像30から、窓領域Aに含まれる画像を縮小窓画像42B(図6参照)として切り出す。画像処理部12は、回転された入力画像30から、窓領域Aに含まれる画像を回転窓画像42C(図7参照)として切り出す。画像処理部12は、画素シフトされた入力画像30から、窓領域Aに含まれる画像をシフト窓画像42D(図8参照)として切り出す。
通常窓画像41内に人物が含まれているにもかかわらず、ノイズ等の影響により、識別値計算部13が、人物が存在する可能性を示す大きい識別値を出力できない場合がある。しかし、変更窓画像42のいずれかに含まれる人物の特徴が、特徴データ51に記録された特徴に一致した場合、識別値計算部13は、人物の存在を示す大きい識別値を出力できる。このため、物体検出装置1は、人物の検出精度を高めるために、通常窓画像41の他に、ニューラルネットワークの対象となる変更窓画像42を生成する。
なお、ステップS2,S3の順序を入れ替えてもよい。具体的には、窓領域設定部11が、入力画像30から通常窓画像41を切り出す(ステップS3)。その後、画像処理部12が、通常窓画像41に対して、拡大処理等の各種の画像処理を実行する(ステップS3)。この場合、縮小窓画像42B、回転窓画像42C、及びシフト窓画像42Dにおいて、空白の領域が発生する。
識別値計算部13が、特徴データ21に基づいて、通常窓画像41と変更窓画像42とのそれぞれに対応する複数の識別値を計算する(ステップS4)。識別値の計算には、ニューラルネットワークの他に、パターンマッチング、サポートベクターマシンなどの各種アルゴリズムを用いることができる。
図4は、窓関数画像46の生成過程を示す図である。通常窓画像41のサイズが、横64ピクセル、縦128ピクセルのサイズであると仮定する。この場合、識別値計算部13は、通常窓画像41を横16ピクセル、縦32ピクセルの画像に縮小し、縮小された通常窓画像41を用いて識別値44を計算する。通常窓画像41を縮小することで、ニューラルネットワークの演算量を削減することができる。識別値44は、縦1ピクセル、横1ピクセルの画像として扱われる。つまり、識別値44は、この画像の画素値として設定される。変更窓画像42の各々に対応する識別値44も、同様の手順で計算される。
次に、識別画像生成部14が、識別値44を窓領域Aのサイズにスケール変換することにより、通常識別画像45を生成する(ステップ5)。図4に示すように、1×1ピクセルの画像が横64ピクセル、縦128ピクセルの画像に拡大されることにより、通常識別画像45が生成される。識別値44が、通常識別画像45の全画素値として設定されるため、通常識別画像45は、変化のない一様な画像となる。図5〜図8に示すように、変更窓画像42の各々に対応する変更識別画像45A〜45Dも、同様に生成される。
窓関数適用部15は、通常識別画像45及び変更識別画像45A〜45Dのそれぞれに対して窓関数22を掛ける(ステップS6)。窓関数22として、ガウス窓の他に、ハミング窓などの各種の窓関数を用いることができる。この結果、通常識別画像45に対応する窓関数画像46が生成され(図4参照)、変更識別画像45A〜45Dのそれぞれに対応する窓関数画像46A〜46Dが生成される(図5〜図8参照)。
図4〜図8に示すように、通常識別画像45及び変更識別画像45A〜45Dは、窓関数22の適用によって、一様な画像から、外側ほど画素値が小さくなる画像に変換される。通常識別画像45及び変更識別画像45A〜45Dにおいて、画素値が大きい領域ほど色が黒くなり、画素値が小さい領域ほど色が白くなる。後述する逆処理画像47A〜47D(図5〜図8参照)についても同様である。
画像逆処理部16は、窓関数画像46A〜46Dに対して、変更窓画像42を生成する際に使用した画像処理と逆の画像処理を施す(ステップS7)。これにより、図5〜図8に示すように、変更窓画像42のそれぞれに対応する逆処理画像47A〜47Dが生成される。ステップS7の詳細及びステップS7を実行する理由については、後述する。窓関数画像46は、通常窓画像41に対応するため、ステップS7において処理の対象とならない。
積分部17は、テンプレート画像23上に、窓関数画像46と、逆処理画像47A〜47Dをマッピングする(ステップS8)。すなわち、積分部17は、窓関数画像46及び逆処理画像47A〜47Dの各画素値を画素ごとに積算する。積分部17は、積算された画素値をテンプレート画像23の窓領域A内の画素に加算する。
全ての窓領域の設定が終了していない場合(ステップS9においてNo)、物体検出装置1は、ステップS1に戻る。この結果、設定された窓領域ごとに生成された通常窓画像41及び逆処理画像47A〜47Dが、テンプレート画像23上にマッピングされる。
一方、全ての窓領域が設定された場合(ステップS9においてYes)、判断部19は、各窓領域の窓関数画像46及び逆処理画像47A〜47Dが積分されたテンプレート画像23(以下、「積分画像」と呼ぶ。)に基づいて、入力画像30中に人物が含まれるか否か判断する(ステップS10)。
具体的には、物体検出装置1は、積分画像の各画素値を予め設定されたしきい値と比較することにより、しきい値を上回る画素値が存在する候補領域の有無を判断する。物体検出装置1は、候補領域が存在する場合、入力画像30中に歩行者が存在すると判断する。このとき、物体検出装置1は、候補領域を歩行者の位置として特定してもよい。一方、物体検出装置1は、候補領域を特定できなかった場合、入力画像30中に歩行者が存在しないと判断する。
図9は、積分画像の一例を示す図である。図9に示す積分画像24おいて、濃淡は、人物の存在する度合いを示す。色が黒い領域ほど、人物が存在する可能性が高いことを示している。図9に示す窓領域A〜Cは、図3に示す窓領域A〜Cに一致する。図3に示す窓領域Cは、樹木が存在するが、人物は存在しない。しかし、積分画像24の領域Cは、灰色となっており、人物の存在を示唆している。このことは、領域Cの通常窓画像41及び変更窓画像42のそれぞれから計算された識別値44の少なくとも1つが人物の存在を示す大きい値を有することを示している。しかし、窓領域Cの色は、窓領域A,Bの色に比べて薄くなっており、窓領域Cの画素値は、しきい値よりも小さい。従って、物体検出装置1は、領域A,Bを候補領域として特定し、領域Cを候補領域として特定しない。
このように、物体検出装置1は、通常窓画像41からの人物の識別結果と、変更窓画像42からの人物の識別結果とを積分する。これにより、窓画像のいずれかで歩行者の誤検出が発生したとしても、歩行者の誤検出が、最終的な検出結果として出力されることを防ぐことができる。
[3.変更窓画像と逆処理画像との対応]
以下、変更窓画像と逆処理画像との対応関係について、ステップS2で用いられる画像処理の種類(拡大、縮小、回転、画素シフト)ごとに説明する。
[3.1.拡大窓画像42A及び逆処理画像47A]
図5は、逆処理画像47Aが生成されるまでの画像の変化を示す図である。拡大窓画像42Aは、入力画像30を拡大することにより生成される(ステップS2,S3)。逆処理画像47Aは、拡大窓画像42Aに対応する窓関数画像46Aを縮小することにより生成される(ステップS7)。
画像処理部12は、125(%)の倍率で入力画像30のサイズを変更し(ステップS2)、拡大された入力画像30を窓領域Aの範囲で切り出して拡大窓画像42Aを生成する(ステップS3)。このとき、画像処理部12は、窓領域Aの中心を基準にして、入力画像30を拡大する。
なお、ステップS2,S3の実行順序を逆にする場合、中心P(図4参照)を基準にして通常窓画像41を拡大すればよい。ステップS3を先に実行して縮小窓画像42B及び回転窓画像42Cを生成する場合も同様である。シフト窓画像42Dの場合については、後述する。
識別値計算部13は、拡大窓画像42Aから識別値44を計算し(ステップS4)、識別画像生成部14は、計算された識別値44から変更識別画像45Aを生成する(ステップS5)。変更識別画像45Aは、通常識別画像45と同様に、一様な画像である。窓関数画像46Aが、変更識別画像45Aから生成される(ステップS6)。
拡大窓画像42Aが入力画像30の拡大により生成されているため、画像逆処理部16は、窓関数画像46Aを縮小することにより逆処理画像47Aを生成する(ステップS7)。ステップS2において、125(%)の倍率が用いられたため、窓関数画像46Aの縮小率は、100/125(%)である。縮小時の基準点は、窓関数画像46Aの中心である。図5に示すように、縮小された窓関数画像46Aは、逆処理画像47Aの点線領域内の画像である。逆処理画像47Aにおいて、点線領域よりも外側の領域の画素は、無効データとしてパディングされる。あるいは、これらの画素値を0に設定してもよい。
窓関数画像46Aが、ステップS7において縮小される理由を説明する。拡大窓画像42Aは、上述のように、入力画像30を拡大することにより生成されるため、拡大窓画像42Aの領域は、窓領域Aよりも狭い。つまり、窓関数画像46Aは、窓領域Aよりも狭い領域におけるニューラルネットワークの計算結果を反映している。画像逆処理部16は、窓関数画像46Aの領域を入力画像30上の実際の領域に整合させるために、ステップS2で施された拡大処理とは逆の縮小処理を、窓関数画像46Aに対して施す。これにより、拡大窓画像42Aの識別結果を、拡大窓画像42Aの実際の領域に対応する位置で積分することが可能となるため、検出精度を向上させることができる。
[3.2.縮小窓画像42B及び逆処理画像47B]
図6は、逆処理画像47Bが生成されるまでの画像の変化を示す図である。縮小窓画像42Bは、入力画像30を縮小することにより生成される(ステップS2,S3)。逆処理画像47Bは、縮小窓画像42Bに対応する窓関数画像46Bを拡大することにより生成される(ステップS7)。
画像処理部12は、80(%)の倍率で入力画像30のサイズを変更し(ステップS2)、縮小された入力画像30を窓領域Aで切り出して縮小窓画像42Bを生成する(ステップS3)。サイズ変更の基準点は、窓領域Aの中心である。
識別値計算部13は、縮小窓画像42Bから識別値44を計算し(ステップS4)、識別画像生成部14は、計算された識別値44から一様な変更識別画像45Bを生成する(ステップS5)。窓関数画像46Bが、変更識別画像45Bから生成される(ステップS6)。
縮小窓画像42Bが入力画像30を縮小することにより生成されているため、画像逆処理部16は、窓関数画像46Bを拡大することにより逆処理画像47Bを生成する(ステップS7)。ステップS2において、80(%)の倍率が用いられたため、窓関数画像46Bの縮小率は、100/80(%)である。縮小の基準点は、窓関数画像46Bの中心である。
図6の右下に示すように、拡大された窓関数画像46Bのサイズは、窓領域Aよりも大きい。なお、拡大された窓関数画像46Bにおいて、画素値の濃淡表示を省略している。拡大された窓関数画像46Bを入力画像30上の窓領域Aに整合させるために、画像逆処理部16は、拡大された窓関数画像46Bの中心を基準にして、拡大された窓関数画像46Bを窓領域Aで切り出す。これにより、窓領域Aのサイズに一致するとともに、縮小窓画像42Bに対応する逆処理画像47Bが生成される。
[3.3.回転窓画像42C及び逆処理画像47C]
図7は、逆処理画像47Cが生成されるまでの画像の変化を示す図である。回転窓画像42Cは、入力画像30を時計回りに回転することにより生成される(ステップS2,S3)。逆処理画像47Cは、回転窓画像42Cに対応する窓関数画像46Cを反時計回りに回転することにより生成される(ステップS7)。
画像処理部12は、入力画像30を時計回りに7度回転し(ステップS2)、回転された入力画像30を窓領域Aで切り出して回転窓画像42Cを生成する(ステップS3)。入力画像30は、窓領域Aの中心を基準にして回転される。図7において、通常窓画像41と回転窓画像42Cとの差を明確に示すために、回転窓画像42Cの回転角を誇張して表示している。
識別値計算部13は、回転窓画像42Cから識別値44を計算し(ステップS4)、識別画像生成部14は、計算された識別値44から一様な変更識別画像45Cを生成する(ステップS5)。窓関数画像46Cが、変更識別画像45Cから生成される(ステップS6)。
回転窓画像42Cが入力画像30を時計回りに回転させることにより生成されているため、画像逆処理部16は、窓関数画像46Cを反時計回りに回転させることにより逆処理画像47Bを生成する(ステップS7)。この時の回転角は、ステップS2における回転角と同じ(7度)である。回転は、窓関数画像46Cの中心を基準にして実行される。
図7の右下に示すように、回転された窓関数画像46Cの一部は、窓領域Aからはみ出している。従って、回転された窓関数画像46Cを入力画像30上の窓領域Aに整合させるために、画像逆処理部16は、回転された窓関数画像46Cの中心を基準にして、回転された窓関数画像46Cを窓領域Aの範囲で切り出す。これにより、窓領域Aに一致するとともに、回転窓画像42Cに対応する逆処理画像47Cが生成される。逆処理画像47Cにおいて、回転された窓関数画像46Cの画素が存在しない領域は、無効データでパディングされる。あるいは、これらの画素値を0に設定してもよい。
[3.4.シフト窓画像42D及び逆処理画像47D]
図8は、逆処理画像47Dが生成されるまでの画像の変化を示す図である。シフト窓画像42Dは、通常窓画像41の各画素を移動させる(シフトする)ことにより生成される(ステップS2,S3)。逆処理画像47Dは、シフト窓画像42Dに対応する窓関数画像46Dの各画素を、ステップS2で移動した画素を元の位置に戻すように移動させることで生成される(ステップS7)。
画像処理部12は、入力画像30の各画素を左方向に12ピクセル、下方向に8ピクセル移動し(ステップS2)、各画素がシフトされた入力画像30を窓領域Aで切り出してシフト窓画像42Dを生成する(ステップS3)。図8において、通常窓画像41とシフト窓画像42Dとの差を明確に示すために、人物40の移動量を誇張して表示している。
識別値計算部13は、シフト窓画像42Dから識別値44を計算し(ステップS4)、識別画像生成部14は、計算された識別値44から一様な変更識別画像45Dを生成する(ステップS5)。窓関数画像46Dが、変更識別画像45Dから生成される(ステップS6)。
シフト窓画像42Dが入力画像30の画素シフトにより生成されているため、画像逆処理部16は、窓関数画像46Dの各画素を右に12ピクセル、上に8ピクセル移動させる(ステップS7)。図8の右下に示すように、ステップS7で画素を移動させることにより、画素シフトされた窓関数画像46Cの一部は、窓領域Aからはみ出す。画素シフトされた窓関数画像46Dを入力画像30上の窓領域Aに整合させるために、画像逆処理部16は、画素シフトされた窓関数画像46Dを窓領域Aの範囲で切り出す。これにより、窓領域Aに一致するとともに、シフト窓画像42Dに対応する逆処理画像47Dが生成される。逆処理画像47Dにおいて、画素シフトされた窓関数画像46Dの画素が存在しない領域は、無効データでパディングされる。あるいは、これらの画素値を0に設定してもよい。
このように、窓関数画像46A〜46Dに対して、ステップS2と逆の画像処理を施すことにより、窓関数画像46A〜46Dを、変更窓画像42の実際の領域に対応させることができる。これにより、窓関数画像46A〜46Dにおいて、窓領域Aと一致しない部分が積分されることがないため、一致しない部分が人物の有無の判断に影響を及ぼすことを防止できる。
[3.5.その他の処理]
画像処理部12は、上述の4種類(拡大、縮小、回転、画素シフト)以外の方法を用いて、通常窓画像41から変更窓画像を生成してもよい。例えば、画像処理として、台形変換、X座標変換、Y座標変換を用いることができる。ここで、X座標変換は、通常窓画像41の中心Pを通る縦方向の軸を基準にして、通常窓画像41の各画素を反転させる処理である。Y座標変換は、中心Pを通る横方向の軸を基準にして、通常窓画像41の各画素を反転させる処理である。画像逆処理部16は、ステップS2において台形変換、X座標変換、Y座標変換のいずれかにより変更窓画像が生成された場合、この変更窓画像に対応する窓関数画像に対して、変更窓画像の生成に用いられた画像処理と反対の画像処理を行えばよい。
また、画像処理部12は、画像処理として、入力画像30に対するノイズの付与や、ヒストグラム変形、濃度反転などを行ってもよい。ヒストグラム変形とは、入力画像30の画素値の平均値、分散値などを変更することにより、入力画像30の画素値の分布を意図的に変更する画像処理である。これらの画像処理により変更窓画像を生成した場合、画像逆処理(ステップS7)は、省略される。ノイズ付与、ヒストグラム変形、濃度反転のいずれかにより生成された変更窓画像の領域は、窓領域に一致するためである。
また、画像処理部12は、変更窓画像を生成する際に、複数の画像処理を組み合わせてもよい。例えば、通常窓画像41に対して拡大処理及び回転処理を施すことにより、変更窓画像を生成してもよい。この場合、ステップS7では、この変更窓画像に対応する窓関数画像に対して、縮小処理及び反対向きの回転処理が施される。
以上説明したように、物体検出装置1は、通常窓画像41に対して複数種類の画像処理を施して変更窓画像42を生成し、各窓画像の識別値44に基づいて窓関数画像46,46A〜46Dを生成する。複数種類の画像処理と逆の画像処理が、窓関数画像46A〜46Dに施されることにより、逆処理画像47A〜47Dが生成される。物体検出装置1は、窓関数画像46及び逆処理画像47A〜47Dがマッピングされた積分画像24に基づいて、入力画像30内に人物が存在するか否かを判断する。
これにより、通常窓画像41及び変更窓画像42のいずれかで誤検出が生じた場合であっても、入力画像30中における人物の有無を24に基づいて判断することにより、対象物(歩行者)の検出精度を高めることができる。
[変形例]
上記実施の形態では、ステップS2において、4種類の画像処理が実行される例を説明したが、これに限られない。物体検出装置1は、ステップS2において、少なくとも1つの画像処理を通常窓画像41に施して変更窓画像を生成すればよい。これにより、通常窓画像41のみから識別値44が計算される場合に比べて、入力画像30における人物の検出精度を高めることができる。
上記実施の形態において、拡大窓画像42A及び縮小窓画像42Bを生成する際の通常窓画像41の倍率が、縦方向及び横方向で共通である場合を例に説明したが、これに限られない。縦方向の倍率と、横方向との倍率とは、それぞれ異なる値であってもよい。
上記実施の形態において、窓関数画像46Bから逆処理画像47Bを生成する際に、拡大された窓関数画像46Bから領域Aを切り出す例を説明したが、これに限られない。画像逆処理部16は、拡大された窓関数画像46Bをそのまま逆処理画像47Bとして出力してもよい。拡大された窓関数画像46Bをテンプレート画像にマッピングする場合(ステップS8)、積分部17は、拡大された窓関数画像46Bの中心を、通常窓画像41の中心41Pの座標に一致させればよい。
上記実施の形態において、回転窓画像42Cに対応する変更識別画像45Cから逆処理画像47Cを生成する場合、変更識別画像45Cから窓関数画像46Cを生成し、窓関数画像46Cを反時計回りに回転させる例を説明したが、これに限られない。窓関数適用部は、逆の画像処理に対応する窓関数22を用いて、変更識別画像45Cから逆処理画像47Cを直接生成してもよい。具体的には、窓関数適用部15は、反時計回りの回転変換が施された窓関数22を変更識別画像45Cに適用することにより、逆処理画像47Cを生成する。
なお、上記実施の形態で説明した物体検出装置1において、各機能ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
また、上記各実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。) により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。なお、上記実施の形態に係る物体検出装置をハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
1 物体検出装置
11 窓領域設定部
12 画像処理部
13 識別値計算部
14 識別画像生成部
15 窓関数適用部
16 画像逆処理部
17 積分部
19 判断部
30 入力画像
41 通常窓画像
42 変更窓画像
45 通常識別画像
45A〜45D 変更識別画像

Claims (6)

  1. 入力画像に対して窓領域を設定する窓領域設定部と、
    前記入力画像のうち前記窓領域に含まれる通常窓画像に対して所定の画像処理を施して変更窓画像を生成する画像処理部と、
    検出対象物の特徴データに基づいて、前記通常窓画像に前記検出対象物が存在する度合いを示す通常識別値と、前記変更窓画像に前記検出対象物が存在する度合いを示す変更識別値とを計算する識別値計算部と、
    前記窓領域と同じサイズの通常識別画像を前記通常識別値から生成し、前記同じサイズの変更識別画像を前記変更識別値から生成する識別画像生成部と、
    前記変更識別画像に対して前記所定の画像処理と逆の画像処理を施して逆処理画像を生成する画像逆処理部と、
    前記窓領域ごとに得られる通常識別画像と前記逆処理画像とを前記窓領域ごとの位置に応じて積分する積分部と、
    を備える物体検出装置。
  2. 請求項1に記載の物体検出装置であって、さらに、
    前記通常識別画像と前記逆処理画像とに対して所定の窓関数を適用する窓関数適用部、
    を備え、
    前記積分部は、前記所定の窓関数が適用された通常識別画像と逆処理画像とを積分する物体検出装置。
  3. 請求項1に記載の物体検出装置であって、
    前記画像逆処理部は、前記逆の画像処理に対応する窓関数を前記変更識別画像に適用することにより前記逆処理画像を生成する物体検出装置。
  4. 請求項1ないし請求項3のいずれかに記載の物体検出装置であって、
    前記画像処理部は、前記通常窓画像に対して第1の画像処理を施して第1変更窓画像を生成し、前記通常窓画像に対して第2の画像処理を施して第2変更窓画像を生成し、
    前記識別画像生成部は、前記第1変更窓画像に対応する識別値に基づいて第1変更識別画像を生成し、前記第2変更窓画像に対応する識別値に基づいて第2変更識別画像を生成し、
    前記画像逆処理部は、前記第1変更識別画像に対して前記第1の画像処理と逆の画像処理を施し、前記第2変更識別画像に対して前記第2の画像処理と逆の画像処理を施す物体検出装置。
  5. 請求項1ないし請求項4のいずれかに記載の物体検出装置であって、
    前記画像処理部は、前記入力画像に対して前記所定の画像処理を施し、
    前記窓領域設定部は、前記所定の画像処理が施された入力画像から前記窓領域に含まれる画像を切り出す物体検出装置。
  6. 物体検出装置に搭載されるコンピュータに、
    入力画像に対して窓領域を設定するステップと、
    前記入力画像のうち前記窓領域に含まれる通常窓画像に対して所定の画像処理を施して変更窓画像を生成するステップと、
    検出対象物の特徴データに基づいて、前記通常窓画像に前記検出対象物が存在する度合いを示す通常識別値と、前記変更窓画像に前記検出対象物が存在する度合いを示す変更識別値とを計算するステップと、
    前記窓領域と同じサイズの通常識別画像を前記通常識別値から生成し、前記同じサイズの変更識別画像を前記変更識別値から生成するステップと、
    前記変更識別画像に対して前記所定の画像処理と逆の画像処理を施して逆処理画像を生成するステップと、
    前記窓領域ごとに得られる通常識別画像と前記逆処理画像とを前記窓領域ごとの位置に応じて積分するステップとを実行させるための物体検出プログラム。
JP2013064815A 2013-03-26 2013-03-26 物体検出装置 Active JP6116959B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013064815A JP6116959B2 (ja) 2013-03-26 2013-03-26 物体検出装置
US14/204,676 US9536137B2 (en) 2013-03-26 2014-03-11 Object detection apparatus
EP14161267.1A EP2784721A3 (en) 2013-03-26 2014-03-24 Object detection apparatus
US15/357,512 US10223583B2 (en) 2013-03-26 2016-11-21 Object detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013064815A JP6116959B2 (ja) 2013-03-26 2013-03-26 物体検出装置

Publications (2)

Publication Number Publication Date
JP2014191470A true JP2014191470A (ja) 2014-10-06
JP6116959B2 JP6116959B2 (ja) 2017-04-19

Family

ID=51837695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013064815A Active JP6116959B2 (ja) 2013-03-26 2013-03-26 物体検出装置

Country Status (1)

Country Link
JP (1) JP6116959B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015153313A (ja) * 2014-02-18 2015-08-24 株式会社メガチップス 物体検出装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10302074A (ja) * 1997-04-25 1998-11-13 Chuo Spring Co Ltd ナンバープレートの位置検出装置
JP2009070344A (ja) * 2007-09-18 2009-04-02 Fujitsu Ten Ltd 画像認識装置、画像認識方法および電子制御装置
WO2013035445A1 (ja) * 2011-09-09 2013-03-14 株式会社メガチップス 物体検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10302074A (ja) * 1997-04-25 1998-11-13 Chuo Spring Co Ltd ナンバープレートの位置検出装置
JP2009070344A (ja) * 2007-09-18 2009-04-02 Fujitsu Ten Ltd 画像認識装置、画像認識方法および電子制御装置
WO2013035445A1 (ja) * 2011-09-09 2013-03-14 株式会社メガチップス 物体検出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015153313A (ja) * 2014-02-18 2015-08-24 株式会社メガチップス 物体検出装置

Also Published As

Publication number Publication date
JP6116959B2 (ja) 2017-04-19

Similar Documents

Publication Publication Date Title
CN107886074B (zh) 一种人脸检测方法以及人脸检测系统
US10885660B2 (en) Object detection method, device, system and storage medium
KR102399017B1 (ko) 이미지 생성 방법 및 장치
CN110084299B (zh) 基于多头融合注意力的目标检测方法和装置
JP6242563B2 (ja) 物体検出装置
WO2012039139A1 (ja) 瞳孔検出装置及び瞳孔検出方法
JP5975598B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6639523B2 (ja) 学習画像自動選別装置、学習画像自動選別方法および学習画像自動選別プログラム
JP5919538B2 (ja) 物体検出装置及び物体検出方法
US20140294293A1 (en) Image processing circuit and image detection device
US20220319145A1 (en) Image processing device, image processing method, moving device, and storage medium
US10460461B2 (en) Image processing apparatus and method of controlling the same
JP2018180945A (ja) 物体検出装置及びプログラム
US10223583B2 (en) Object detection apparatus
JP5100688B2 (ja) 対象物検出装置及びプログラム
JP6401922B2 (ja) 物体検出装置
JP6116959B2 (ja) 物体検出装置
JP5020920B2 (ja) 歩行者検出装置及びプログラム
JP2014142832A (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JP7136721B2 (ja) 演算装置、視差算出方法
CN111428707B (zh) 图形识别码的识别方法、装置、存储介质及电子设备
JP6161931B2 (ja) 物体検出装置
JP5655491B2 (ja) 開眼状態検出装置
JP2021051530A (ja) 画像処理プログラム及び画像処理装置
JP6121768B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170322

R150 Certificate of patent or registration of utility model

Ref document number: 6116959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250