JP2015176250A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2015176250A
JP2015176250A JP2014050695A JP2014050695A JP2015176250A JP 2015176250 A JP2015176250 A JP 2015176250A JP 2014050695 A JP2014050695 A JP 2014050695A JP 2014050695 A JP2014050695 A JP 2014050695A JP 2015176250 A JP2015176250 A JP 2015176250A
Authority
JP
Japan
Prior art keywords
image
window
value
window image
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014050695A
Other languages
English (en)
Other versions
JP6401922B2 (ja
Inventor
雄基 原口
Yuki Haraguchi
雄基 原口
祐次郎 谷
Yujiro Tani
祐次郎 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2014050695A priority Critical patent/JP6401922B2/ja
Priority to US14/656,919 priority patent/US9477882B2/en
Publication of JP2015176250A publication Critical patent/JP2015176250A/ja
Application granted granted Critical
Publication of JP6401922B2 publication Critical patent/JP6401922B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Abstract

【課題】カメラの露出条件を変更することなく、検出対象の検出精度を向上することができる物体検出装置を提供することを課題とする。【解決手段】物体検出装置1において、窓領域設定部12は、窓領域52をエッジ画像22から切り出して通常窓画像23を生成する。使用画像決定部15は、通常窓画像23のエッジ強度が使用基準値以下である場合、通常窓画像23を、窓領域52において歩行者が存在する度合いを示す識別値30の算出に用いると決定する。通常窓画像23のエッジ強度が使用基準値よりも大きい場合、画素値補正部13は、通常窓画像23のエッジ強度よりも小さいエッジ強度を有する補正窓画像24を通常窓画像23から生成する。使用画像決定部15は、補正窓画像24のエッジ強度が使用基準値以下である場合、補正窓画像24を識別値30の算出対象に決定する。【選択図】図1

Description

本発明は、物体検出装置に関し、さらに詳しくは、検出対象をフレーム画像から検出する技術に関する。
カメラが撮影した画像などに検出対象が存在するか否かを判定する物体検出装置が存在する。物体検出装置は、たとえば、カメラとともに車両に搭載される。物体検出装置は、カメラが撮影した画像に人物が存在するか否かを判定することにより、運転手に歩行者の存在を知らせることができる。物体検出装置を利用することにより、運転手は、車両の外部の状況を容易に把握することができる。
物体検出装置は、検出対象が画像に存在するか否かを判定するために、パターンマッチングを用いる。パターンマッチングのアルゴリズムとして、ニューラルネットワークや、サポートベクターマシンなどが挙げられる。物体検出装置は、入力された画像に対して、物体を検出する領域(窓領域)を設定する。物体検出装置は、上記のアルゴリズムが実装されたプログラムを用いて、検出対象が窓領域に含まれているか否かを判定する。
パターンマッチングを用いる物体検出装置が、特許文献1及び2に開示されている。
特許文献1で開示されている装置は、車載カメラが撮影した画像から歩行者を検出する。具体的には、この装置は、ニューラルネットワークを用いて画像から歩行者の可能性がある候補物体を検出した場合、候補物体を歩行者の頭及び手足などと比較することにより、候補物体が歩行者であるか否かを判定する。
特許文献2で開示されている装置は、カメラにより撮影された画像に対して、検出対象の領域が一部重複する複数の検出窓を設定する。この装置は、認識対象(歩行者など)の基準パターンを用いて、各検出窓に対するパターンマッチングを実行する。この装置は、パターンマッチングが複数回実行された領域については、各パターンマッチングの結果を積分する。積分結果に基づいて、歩行者の位置が特定される。
特開2008−21034号公報 特開2009−70344号公報
パターンマッチングを用いる物体検出装置は、検出対象を画像中から検出するために、検出対象を含む画像(サンプル画像データ)を用いて、検出対象のパターンを予め学習しておく。例えば、検出対象が歩行者である場合、サンプル画像データは、歩行者を撮影した学習用画像から、歩行者を含む領域を切り出すことにより生成される。学習用画像は、所定の露出条件の下で撮影される。
物体検出装置は、歩行者のパターンを学習した後に、カメラから入力される撮影画像から歩行者を検出する。しかし、撮影画像が生成されるときの露出条件が、学習用画像が生成されるときの露出条件と一致しないことにより、歩行者の検出精度が低くなる場合がある。
例えば、学習用画像が陽のあたる場所での撮影により生成され、物体検出装置が、日陰で撮影された撮影画像から歩行者を検出する場合を考える。この場合、撮影画像の露出条件と、学習用画像の露出条件とが異なるため、物体検出装置は、日陰で撮影された撮影画像が歩行者を含んでいるにも関わらず、歩行者を検出できないおそれがある。
従って、撮影画像から検出対象を検出する精度を向上させるためには、学習用画像を生成するときの露出条件と同様の露出条件で撮影画像を生成することが望ましい。この場合、物体検出装置が、学習用画像の露出条件に合うように、カメラの露出を制御する方法が考えられる。この方法では、物体検出装置が、カメラから入力される撮影画像を解析して、露出条件をカメラにフィードバックする。しかし、カメラが、外部からの露出条件の制御を受け付けない場合、この方法を用いることはできない。
本発明は、上記課題に鑑み、カメラの露出条件を変更することなく、検出対象の検出精度を向上することができる物体検出装置を提供することを課題とする。
上記課題を解決するために、請求項1記載の発明は、フレーム画像から検出対象を検出する物体検出装置であって、前記検出対象を検出するための窓領域を前記フレーム画像内に設定し、前記窓領域の画像を有する第1窓画像を取得する窓領域設定部と、前記窓領域設定部により取得された第1窓画像内の画素の画素値が補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより、第2窓画像を生成する画素値補正部と、前記画素値補正部により生成された第2窓画像の特徴量を算出する特徴量算出部と、前記特徴量算出部により算出された特徴量に基づいて、前記窓領域に前記検出対象が存在するか否かを示す識別値の計算に前記第2窓画像を使用するか否かを決定する使用画像決定部と、前記第2窓画像を使用すると前記使用画像決定部により判定された場合、前記検出対象の特徴データを用いて、前記第2窓画像内に検出対象が存在する度合いを示す識別値を計算する識別値算出部と、を備える。
請求項2記載の発明は、請求項1に記載の物体検出装置であって、画素値補正部は、前記第2窓画像を使用しないと前記使用画像決定部により決定された場合、前記第1窓画像内の画素の画素値を前記補正基準値と異なる基準値と比較し、前記画素値が前記異なる基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより、第3窓画像を生成し、前記特徴量算出部は、前記画素値補正部により生成された第3窓画像の特徴量を算出し、前記使用画像決定部は、前記特徴量算出部により算出された前記第3窓画像の特徴量に基づいて、前記第3窓画像を使用するか否かを決定し、前記識別値算出部は、前記第3窓画像を使用すると前記使用画像決定部により決定された場合、前記第3窓画像内に前記検出対象が存在する度合いを示す識別値を算出する。
請求項3記載の発明は、請求項1又は請求項2に記載の物体検出装置であって、前記特徴量算出部は、前記第1窓画像の特徴量を算出し、前記使用画像決定部は、前記特徴量算出部により算出された前記第1窓画像の特徴量に基づいて、前記第1窓画像を使用するか否かを決定し、前記識別値算出部は、前記第1窓画像を使用すると前記使用画像決定部により決定された場合、前記第1窓画像内に前記検出対象が存在する度合いを示す識別値を算出し、前記第1窓画像を使用しないと前記使用画像決定部により決定された場合、前記画素値補正部が、前記第2窓画像を生成する。
請求項4記載の発明は、請求項1ないし3のいずれかに記載の物体検出装置であって、前記フレーム画像がエッジ画像であり、前記第2窓画像の特徴量は、エッジ強度であり、前記使用画像決定部は、前記第2窓画像の特徴量が予め設定された使用基準値よりも小さい場合、前記第2窓画像を使用することを決定する。
請求項5記載の発明は、請求項1に記載の物体検出装置であって、前記画素値補正部は、前記第1窓画像の画素の画素値を前記補正基準値よりも大きい第1基準値と比較し、前記画素値が前記第1基準値よりも小さい場合、前記画素値よりも小さい画素値を取得することにより、第3窓画像を生成し、前記特徴量算出部は、前記第3の窓画像の特徴量を算出し、前記使用画像決定部は、前記第2の窓画像の特徴量及び第3の窓画像の特徴量に基づいて、前記第2窓画像及び前記第3窓画像の中から、前記識別値の算出に使用する窓画像を選択する選択部、を含む。
請求項6記載の発明は、請求項5に記載の物体検出装置であって、前記特徴量算出部は、前記第1の窓画像の特徴量を算出し、前記選択部は、前記第1〜第3の窓画像の各々の特徴量に基づいて、前記第1〜第3の窓画像の中から、前記識別値の算出に使用する窓画像を選択する。
請求項7記載の発明は、請求項6に記載の物体検出装置であって、さらに、前記第1の窓画像の特徴量と前記第2の窓画像の特徴量との差である第1の差分値と、前記第2の窓画像の特徴量と前記第3の窓画像の特徴量との差である第2の差分値とを算出する差分計算値、を備え、前記選択部は、前記第1の差分値と前記第2の差分値とに基づいて、前記識別値の算出に使用する窓画像を前記第1〜第3の窓画像の中から選択する。
請求項8記載の発明は、請求項7に記載の物体検出装置であって、前記選択部は、前記第1の差分値が前記第2の差分値よりも大きい場合、前記第2の窓画像を選択する。
請求項9記載の発明は、請求項5に記載の物体検出装置であって、前記画素値補正部は、前記第1窓画像の画素の画素値を前記第1基準値よりも大きい第2基準値と比較し、前記画素値が前記第2基準値よりも小さい場合、前記画素値よりも小さい画素値を取得することにより、第4窓画像を生成し、前記特徴量算出部は、前記第4の窓画像の特徴量を算出し、前記選択部は、前記第2〜第4の窓画像の各々の特徴量に基づいて、前記識別値の算出に使用する窓画像を前記第2〜第4窓画像の中から選択する。
請求項10記載の発明は、請求項1ないし7のいずれかに記載の物体検出装置であって、フレーム画像がエッジ画像であり、前記特徴量算出部は、前記第2窓画像のエッジ強度を前記第2窓画像の特徴量として算出する。
請求項11記載の発明は、請求項1ないし10のいずれかに記載の物体検出装置であって、画素値補正部は、前記第1窓画像内の画素の画素値を前記補正基準値よりも小さいゼロ基準値と比較し、前記画素値が前記ゼロ基準値よりも小さい場合、前記画素値がゼロに置換された値を取得し、前記画素値が前記ゼロ基準値以上であり前記補正基準値よりも小さい場合、前記画素値がゼロよりも大きい値を取得する。
請求項12記載の発明は、フレーム画像から検出対象を検出する物体検出装置に搭載されるコンピュータに、前記検出対象を検出するための窓領域を前記フレーム画像内に設定し、前記窓領域の画像を有する第1窓画像を取得するステップと、前記第1窓画像内の画素の画素値が補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより、第2窓画像を生成するステップと、前記第2窓画像の特徴量を算出するステップと、前記第2窓画像の特徴量に基づいて、前記窓領域に前記検出対象が存在するか否かを示す識別値の計算に前記第2窓画像を使用するか否かを決定するステップと、前記第2窓画像を使用すると判定された場合、前記検出対象の特徴データを用いて、前記第2窓画像内に検出対象が存在する度合いを示す識別値を計算するステップと、を実行させる物体検出プログラムである。
本発明によれば、第2窓画像は、第1窓画像が有する画素値を補正することにより取得されるため、フレーム画像の生成時における露出条件と異なる露出条件に対応する。また、第2窓画像の特徴量に基づいて、第2窓画像が識別値の算出に用いるか否かを判定される。この結果、物体検出装置は、様々な露出条件に対応する窓画像を第1窓画像から取得することができるとともに、最適な露出条件に対応する窓画像を用いて、識別値を算出することができる。従って、物体検出装置は、検出対象の検出精度を向上することができる。
本発明の第1の実施の形態に係る物体検出装置の構成を示す機能ブロック図である。 図1に示す補正基準テーブルの一例を示す図である。 図1に示す物体検出装置の動作を示すフローチャートである。 図1に示す物体検出装置に入力される撮影画像の一例を示す図である。 図1に示す識別値算出部により学習されるサンプル画像データの一例を示す図である。 図1に示す対象窓画像決定処理のフローチャートである。 図4に示す窓領域52に対応する複数の窓画像と、各窓画像に対応するエッジ強度と、各窓画像から算出される識別値を示す図である。 図7に示す通常窓画像が有する画素の画素値を補正する基準を示す図である。 図4に示す窓領域53に対応する複数の窓画像と、各窓画像に対応するエッジ強度と、各窓画像から算出される識別値を示す図である。 図4に示す窓領域52に対応する複数の窓画像と、各窓画像に対応するエッジ強度と、各窓画像から算出される識別値を示す図である。 本発明の第2の実施の形態に係る物体検出装置の構成を示す機能ブロック図である。 図11に示す物体検出装置の動作を示すフローチャートである。 図11に示す物体検出装置が用いる補正基準テーブルを示す図である。 図4に示す窓領域52に対応する複数の窓画像と、各窓画像に対応するエッジ強度と、各窓画像から算出される識別値を示す図である。 図14Aに示すエッジ強度の変化を示すグラフである。 図14に示す識別値の変化を示すグラフである。 図4に示す窓領域53に対応する複数の窓画像と、各窓画像に対応するエッジ強度と、各窓画像から算出される識別値を示す図である。 図16Aに示すエッジ強度の変化を示すグラフである。 図4に示す窓領域54に対応する複数の窓画像と、各窓画像に対応するエッジ強度と、各窓画像から算出される識別値を示す図である。 図17Aに示すエッジ強度の変化を示すグラフである。
以下、図面を参照しつつ、本発明の実施の形態について説明する。
[第1の実施の形態]
{1.全体構成}
図1は、本発明の第1の実施の形態に係る物体検出装置1の機能ブロック図である。物体検出装置1は、カメラ100が撮影したカラーの撮影画像から、検出対象を検出する。物体検出装置1は、カメラ100とともに自動車などの車両に搭載される。本実施の形態では、検出対象は、歩行者である。ただし、検出対象は歩行者に限られるものではなく、他の物体(自動車、道路標識など)を検出対象としてもよい。
カメラ100は、自動車のダッシュボード上に設置され、前方の景色を撮影して画像データ20を生成する。画像データ20は、複数のフレームにより構成される動画像であり、フレーム単位で物体検出装置1に入力される。物体検出装置1は、1つのフレーム(以下、「撮影画像21」と呼ぶ。)内に歩行者が存在するか否かを判定する。
図1に示すように、物体検出装置1は、エッジ画像生成部11と、窓領域設定部12と、画素値補正部13と、特徴量算出部14と、使用画像決定部15と、識別値算出部16と、判定部17と、記憶部18とを備える。
エッジ画像生成部11は、撮影画像21をグレースケール画像に変換し、グレースケール画像からエッジ画像22を生成する。エッジ画像生成部11は、グレーススケール画像に対して水平方向及び垂直方向のエッジを強調する処理を行うことにより、エッジ画像22を生成する。エッジ画像22は、1つのフレーム画像である。
窓領域設定部12は、エッジ画像22に対して窓領域を設定し、設定した窓領域をエッジ画像22から切り出すことにより通常窓画像23を生成する。窓領域は、撮影画像21から歩行者を検出するための単位領域である。1つの窓領域に対して、1つの通常窓画像23が生成される。
画素値補正部13は、使用画像決定部15の指示に基づいて、通常窓画像23内の各画素の画素値を補正することにより、補正窓画像24,25を生成する。画素値補正部13は、使用画像決定部15の指示に基づいて、補正窓画像を1つずつ生成する。つまり、使用画像決定部15の1回の指示により、1つの補正窓画像が生成される。
図2は、記憶部18に格納される補正基準テーブル32の一例を示す図である。画素値補正部13は、補正窓画像24を生成する場合、通常窓画像23が有する画素の画素値を図2に示す補正基準値34aと比較する。画素値補正部13は、画素値が補正基準値34aよりも小さい場合、この画素値を元の値よりも小さい値に置き換えることにより、補正窓画像24を生成する。
同様に、画素値補正部13は、補正基準値35aを用いて、通常窓画像23から補正窓画像25を生成する。なお、ゼロ基準値、通常窓画像23に対して設定される補正基準値などについては、後述する。
以下、通常窓画像23、補正窓画像24,25を総称して、「窓画像23〜25」と記載する。特徴量算出部14及び使用画像決定部15は、窓画像23〜25の中から、識別値算出部16により識別値の算出対象を特定するために用いられる。
特徴量算出部14は、画素値補正部13から通常窓画像23を取得し、通常窓画像23のエッジ強度を算出する。また、特徴量算出部14は、画素値補正部13により補正窓画像が1つ生成されるたびに、生成された補正窓画像を取得する。特徴量算出部14は、取得した補正窓画像のエッジ強度を算出する。
使用画像決定部15は、特徴量算出部14により算出されたエッジ強度を取得し、取得したエッジ強度を予め設定されたしきい値(使用基準値)と比較する。使用画像決定部15は、その比較結果に基づいて、識別値30の算出対象となる窓画像(対象窓画像)を特定する。
識別値算出部16は、使用画像決定部15により特定された対象窓画像を画素値補正部13から取得する。識別値算出部16は、記憶部18に記憶された特徴データ31を用いて識別値30を算出する。識別値30は、対象窓画像内に歩行者が存在する度合いを示す。識別値30は、0以上1以下の実数である。識別値30が1に近いほど、特定窓画像内に歩行者が存在する可能性が高いことを示す。
判定部17は、識別値30に基づいて、窓領域設定部12により設定された窓領域に歩行者が存在するか否かを判定する。判定結果は、結果データ29として判定部17から出力される。
記憶部18は、例えば、ハードディスク装置やフラッシュメモリなどである。記憶部18は、特徴データ31と、補正基準テーブル32とを格納する。
{2.物体検出装置1の動作}
図3は、物体検出装置1の動作を示すフローチャートである。物体検出装置1は、カメラ100から撮影画像21(フレーム)が入力されるたびに、図3に示す処理を実行して、入力された撮影画像21から歩行者を検出する。
図4は、物体検出装置1に入力される撮影画像21の一例を示す図である。図4に示すように、撮影画像21は、左上頂点を原点とし、横方向をx軸、縦方向をy軸とした座標系を有する。撮影画像21上に配置された窓領域51〜54は、実際には、エッジ画像22に対して設定される。各窓領域の位置を分かりやすく示すために、窓領域51〜54を、図4に示す撮影画像21上に表示している。
以下、図4に示す撮影画像21が物体検出装置1に入力された場合を例にして、図3に示す処理を詳しく説明する。
{2.1.エッジ画像の生成}
エッジ画像生成部11は、カラーの撮影画像21からエッジ画像22を生成する(ステップS1)。具体的には、エッジ画像生成部11は、撮影画像21をグレースケール画像に変換し、グレースケール画像に対してエッジ強調処理を実行する。グレースケール画像及びエッジ画像22は、撮影画像21と同じ座標系を有する。グレースケール画像の各画素の画素値をf(x,y)とした場合、エッジ画像生成部11は、下記式(1)〜(3)の処理を実行することにより、エッジ画像22を生成する。
Figure 2015176250
Figure 2015176250
Figure 2015176250
上記式(1)は、縦方向のエッジを強調するSobelフィルタ処理を示す。上記式(2)は、横方向のエッジを強調するSobelフィルタ処理を示す。式(3)は、式(1)の計算結果と式(2)の計算結果とを加算することにより、エッジ画像22の各画素の画素値が計算されることを示す。
なお、エッジ画像生成部11は、Sobelフィルタ処理以外の処理を用いて、エッジを強調する処理を行ってもよい。
{2.2.窓領域の設定(ステップS2)}
窓領域設定部12は、エッジ画像生成部11により生成されたエッジ画像22を入力する。窓領域設定部12は、入力されたエッジ画像22に対して、歩行者を検出するための窓領域を1つ設定する(ステップS2)。
図3に示すように、ステップS2〜S7が繰り返されることにより、エッジ画像22に対して複数の窓領域が設定される。エッジ画像22の左上頂点に位置する窓領域51が、最初に設定される。窓領域設定部12は、撮影画像21を左上から右下にかけてスキャンするように窓領域を設定する。新たに窓領域が設定される場合、窓領域設定部12は、既に設定された窓領域の一部と重複するように新しい窓領域を設定することが望ましい。
以下、特に説明のない限り、窓領域設定部12が窓領域52を設定した場合を例にして、物体検出装置1の動作を説明する。
{2.3.対象窓画像の決定(ステップS4)}
窓領域設定部12は、エッジ画像22から窓領域52を切り出すことにより、通常窓画像23を生成する(ステップS3)。物体検出装置1は、窓画像23〜25の各々が識別値の算出対象となるか否かを判定する対象窓画像決定処理を実行する(ステップS4)。
識別値30の算出対象となるか否かは、通常窓画像23、補正窓画像24、補正窓画像25の順に判断される。ただし、窓画像23〜25の全てに対して、上記の判断が行われるとは限らない。例えば、補正窓画像24が識別値30の算出対象として決定された場合、補正窓画像25は、生成されず、上記の判断の対象とならない。ステップS4の詳細については、後述する。
{2.4.識別値の計算(ステップS5}
識別値算出部16は、記憶部18に格納された特徴データ31を用いて、算出対象に決定された窓画像の識別値30を計算する。識別値30は、算出対象の窓画像に歩行者が存在する度合いを示し、0以上1以下の数値である。識別値30は、歩行者が窓画像内に存在する可能性が高いほど、1に近い値となる。
識別値算出部16は、識別値30を算出するためのアルゴリズムとして、ニューラルネットワークを用いる。ニューラルネットワークは、パターンマッチングの1種である。従って、識別値算出部16は、カメラ100により生成された撮影画像21から歩行者を検出する処理を開始する前に、歩行者の特徴を学習して特徴データ31を生成する。以下、特徴データ31の生成について説明する。
図5は、識別値算出部16が歩行者の学習に用いるサンプル画像データ65の一例を示す図である。サンプル画像データ65は、学習用に撮影された撮影画像からエッジ画像を生成し、生成されたエッジ画像から歩行者を含む領域を切り出すことにより生成される。切り出される領域の縦方向のサイズ及び横方向のサイズは、窓領域51〜54のサイズと同じである。各サンプル画像データ65における歩行者のエッジ強度は、正規化されていることが望ましい。「エッジ強度が正規化される」とは、サンプル画像データ65の各々に含まれる歩行者のエッジ強度が、予め設定された範囲内となるように調整されていることを指す。ただし、本実施の形態は、識別値算出部16が正規化されていないサンプル画像データ65を学習することを妨げるものではない。
{2.5.判定処理(ステップS6)}
判定部17は、識別値算出部16により算出された識別値30に基づいて、窓領域52内に歩行者が存在するか否かを判定する(ステップS6)。判定部17は、識別値30を予め設定された境界値と比較する。識別値30が境界値より大きい場合、判定部17は、窓領域52に歩行者が存在すると判断し、図4に示す撮影画像21内の窓領域52に歩行者が存在することを示す結果データ29を出力する。
一方、識別値30が境界値以下である場合、判定部17は、窓領域52に歩行者が存在しないと判断する。判定部17は、図4に示す撮影画像21内の窓領域52に歩行者が存在しないことを示す結果データ29を出力する。
窓領域52に対応する結果データ29を出力した後に、窓領域設定部12は、エッジ画像22に対する窓領域の設定が終了したか否かを確認する(ステップS7)。窓領域の設定が終了していない場合(ステップS7においてNo)、窓領域設定部12は、新たな窓領域を設定するために、ステップS2に戻る。一方、窓領域の設定が終了した場合(ステップS7においてYes)、物体検出装置1は、図3に示す処理を終了する。物体検出装置1は、新たなフレーム(撮影画像21)が入力された場合、図3に示す処理を再び実行する。
{3.対象窓画像決定処理(ステップS4)の詳細}
以下、ステップS4(図3参照)で行われる対象窓画像特定処理を、図6及び図7を参照しながら詳しく説明する。図6は、対象窓画像決定処理(ステップS4)のフローチャートである。図7は、窓領域52に対応する窓画像23〜25と、各窓画像に対応するエッジ強度と、各窓画像から算出される識別値とを示す図である。図7において、通常窓画像23及び補正窓画像24に対応する識別値30は、実際には算出されない。しかし、各窓画像から算出される識別値30を比較しやすいように、通常窓画像23及び補正窓画像24に対応する識別値30を、参考のために示している。
{3.1.通常窓画像23に対する判断}
画素値補正部13は、判断の対象として、エッジ画像生成部11により生成された通常窓画像23を取得する(ステップS41)。
特徴量算出部14は、通常窓画像23の特徴量として、通常窓画像23のエッジ強度を算出する(ステップS42)。エッジ強度は、下記式(4)に示す計算により得られる。
Figure 2015176250
上記式(4)において、Edge(x,y)は、通常窓画像23の左上頂点を原点としたときにおける、通常窓画像23の各画素の画素値である。本実施の形態では、式(3)に示すSobel(x,y)が、Edge(x,y)として用いられる。エッジ画像22が、Sobelフィルタ処理(式(1)〜(3))とは別の処理により生成された場合、Edge(x,y)は、別の処理により生成された画像の画素値となる。
widthは、通常窓画像23のX軸方向のサイズ、heightは、通常窓画像23のY軸方向のサイズを示す。NumPixelは、通常窓画像23が有する画素の数である。式(4)に示すように、通常窓画像23のエッジ強度は、通常窓画像23内の各画素の画素値を積算した値を通常窓画像23の画素数で割ることにより得られる。つまり、エッジ強度は、通常窓画像23における1画素あたりの画素値の平均値である。図7に示すように、通常窓画像23のエッジ強度は、W1aである。
使用画像決定部15は、通常窓画像23のエッジ強度を使用基準値と比較する(ステップS43)。使用基準値は、Wthであり、サンプル画像データ65に含まれる歩行者のエッジ強度に応じて決定される。使用基準値は、使用画像決定部15に予め設定されている。つまり、ステップS43の処理は、通常窓画像23がサンプル画像データ65に含まれる歩行者のエッジ強度に近いエッジ強度を有しているか否かを判断するために実行される。使用画像決定部15は、通常窓画像23のエッジ強度(W1a)が使用基準値(Wth)よりも大きいと判定する(ステップS43においてNo)。
この場合、使用画像決定部15は、通常窓画像23が識別値30の算出対象として適切でないと判断する。画素値補正部13は、通常窓画像23を算出対象として使用しないとの指示を使用画像決定部15から受けた場合、補正窓画像の生成が可能であるか否かを判断する。
{3.2.補正窓画像24の生成}
画素値補正部13は、使用画像決定部15の指示に応じて、補正窓画像の生成に用いられていない補正基準値があるか否かを確認する(ステップS45)。
この時点で、補正窓画像24,25のいずれも生成されていないため(ステップS45においてYes)、画素値補正部13は、補正基準テーブル32に記録された基準値の中から、補正基準値34a及びゼロ基準値34bを選択する(ステップS46)。具体的には、画素値補正部13は、未使用の補正基準値34a,35aのうち、一番小さい補正基準値34aを選択し、未使用のゼロ基準値34b,35bのうち、一番小さいゼロ基準値34bを選択する。補正基準値33a及びゼロ基準値33bは、参考のために図2に示されており、ステップS46で選択の対象とならない。この理由については、後述する。
画素値補正部13は、選択した補正基準値34a及びゼロ基準値34bを用いて、通常窓画像23の画素の画素値を補正することにより、補正窓画像24を生成する(ステップS47)。通常窓画像23の各画素の画素値の補正には、コアリング処理が用いられる。
図8を参照しながら、補正窓画像24の生成について説明する。図8は、補正窓画像24を生成する際のコアリング処理を説明する図である。図8に示すように、通常窓画像23において、各画素の画素値の最大値は255であり、最小値は0である。
コアリング処理では、2つのパラメータが用いられる。一方のパラメータは、画素の画素値をそのまま維持するか、画素の画素値を現在の画素値よりも小さい値に変更するかを判断するためのパラメータである(補正基準値34a)。他方のパラメータは、画素値を補正する際に、元の画素値をゼロに設定するか否かを判断するためのパラメータである(ゼロ基準値34b)。
図8において、1点鎖線は、コアリング処理を実行しない場合の画素値を示す。つまり、1点鎖線は、補正基準値33a及びゼロ基準値33bを用いてコアリング処理を実行した場合における補正前の画素値と補正後の画素値との関係に相当する。補正基準値33a及びゼロ基準値33bは、共にゼロであるため、補正後の画素値は、補正前の画素値と等しい。従って、1点鎖線は、傾き1の直線となる。通常窓画像23は、ゼロに設定された補正基準値33a及びゼロ基準値33bを用いてコアリング処理を実行した画像に相当する。従って、図2に示す補正基準値33a及びゼロ基準値33bは、ステップS46において選択の対象とならない。
なお、通常窓画像23に対応する補正基準値33a及びゼロ基準値33bを、ゼロより大きい値に設定してもよい。この場合、画素値補正部13は、ゼロより大きい値に設定された補正基準値33a及びゼロ基準値33bを用いて、通常窓画像23の画素値を補正する。通常窓画像23の画素値は、後述する補正窓画像24,25を生成する処理と同様の処理で補正される。また、画素値補正部13は、補正基準値33a及びゼロ基準値33bが共にゼロに設定されている場合においても、コアリング処理を実行してもよい。
実線56は、補正窓画像24を生成するときにおける補正前の画素値と補正後の画素値との関係を示す。実線56の変曲点56Aに対応する補正前の画素値は、64であり、この値は、補正基準値34aに一致する。変曲点56Bに対応する補正前の画素値は、63であり、この値は、ゼロ基準値34bに一致する。
画素値補正部13は、実線56で表される対応関係を用いて、通常窓画像23内の各画素の画素値を補正する。補正基準値34aが64であるため、画素値補正部13は、通常窓画像23内の注目画素の画素値が64以上であるか否かを判定する。注目画素の画素値が64以上である場合、注目画素の画素値は、変更されない。
ゼロ基準値34bが63であるため、画素値補正部13は、注目画素が63以下であるか否かを判定する。注目画素の画素値が63以下である場合、注目画素の画素値は、ゼロに補正される。
補正基準値34aが64であり、ゼロ基準値34bが63であるため、補正基準値34aよりも小さく、ゼロ基準値34bよりも大きい画素値は、存在しない。この理由は、画素値が、0以上255以下の整数値をとるためである。しかし、補正基準値34aとして100を設定してもよい。この場合、補正基準値34aよりも小さくゼロ基準値34bよりも大きい画素値は、変曲点56Aから56Bまでの実線56で表される対応関係に基づいて補正される。補正前の画素値をPとした場合、63≦P<100の範囲における実線56の傾きは、1よりも大きい。従って、63≦P<100の範囲にある画素値は、ゼロよりも大きく、元の値よりも小さい値に補正される。なお、63≦P<100の範囲において、補正前の画素値と補正後の画素値とが1対1に対応していれば、実線56は、直線でなくてもよい。また、ゼロ基準値として63より小さい値を設定してもよい。
{3.3.補正窓画像24についての判断}
物体検出装置1は、画素値補正部13により生成された補正窓画像24に対して、ステップS41〜S43の処理を実行する。
特徴量算出部14は、生成された補正窓画像24を画素値補正部13から取得する(ステップS41)。特徴量算出部14は、補正窓画像24のエッジ強度を、式(4)を用いて算出する(ステップS42)。補正窓画像24のエッジ強度は、図7に示すように、W1bである。
補正窓画像24のエッジ強度(W1b)が使用基準値(Wth)よりも大きいため(ステップS43においてNo)、使用画像決定部15は、補正窓画像24が識別値30の算出対象として適切でないと判断する。画素値補正部13は、補正窓画像24に関する使用画像決定部15の判断を受けて、新たな補正窓画像の生成が可能であるか否かを判断する。
{3.4.補正窓画像25の生成}
画素値補正部13は、使用画像決定部15の判断に応じて、補正窓画像の生成に用いられていない補正基準値があるか否かを確認する(ステップS45)。この時点で、補正窓画像25が生成されていないため(ステップS45においてYes)、画素値補正部13は、補正基準テーブル32に記録された基準値の中から、補正基準値35a及びゼロ基準値35bを選択する(ステップS46)。
図2に示すように、補正基準値35aは、128であり、ゼロ基準値35bは、127である。画素値補正部13は、補正窓画像24の生成と同様に、補正基準値35a及びゼロ基準値35bを用いて通常窓画像23の画素の画素値を補正することにより、補正窓画像25を生成する(ステップS47)。特徴量算出部14は、画素値補正部13により生成された補正窓画像25を取得する(ステップS41)。
特徴量算出部14は、補正窓画像25のエッジ強度を、式(4)を用いて算出する(ステップS42)。補正窓画像25のエッジ強度は、図7に示すように、W1cである。補正窓画像25のエッジ強度(W1c)が使用基準値(Wth)以下であるため(ステップS43においてYes)、使用画像決定部15は、補正窓画像25を、識別値30の算出対象に決定する(ステップS44)。これにより、図6に示す対象窓画像決定処理(ステップS4)が終了する。
画素値補正部13は、使用画像決定部15の決定を受けて、補正窓画像25を識別値算出部16に出力する。識別値算出部16は、補正窓画像25に歩行者が存在する度合いを示す識別値30を算出する。
なお、補正窓画像25のエッジ強度(W1c)が使用基準値(Wth)よりも大きい場合(ステップS43においてNo)、新たな補正窓画像を生成するための補正基準値及びゼロ基準値が存在しない(ステップS45においてNo)。この場合、使用画像決定部15は、補正窓画像25を、識別値30の算出対象に決定する(ステップ44)。
このように、物体検出装置1は、使用基準値(Wth)以下のエッジ強度を有する窓画像のうち、使用基準値に一番近いエッジ強度を有する窓画像を対象窓画像に決定する。このようにして決定された窓画像から算出された識別値30を用いることにより、窓領域52における歩行者の検出精度を向上させることができる。以下、その理由を詳しく説明する。
画素値補正部13は、通常窓画像23の画素値Pが補正基準値34a以上である場合に画素値Pを維持し、画素値Pが補正基準値34aよりも小さい場合に画素値Pを小さくすることにより補正窓画像24を生成する。この結果、補正窓画像24のエッジ強度(W1b)は、通常窓画像23のエッジ強度(W1a)よりも小さくなる。
また、補正窓画像24の中間画素値の分布が、通常窓画像23の中間画素値の分布よりも狭くなる。中間画素値とは、最小画素値(0)及び最大画素値(255)を除く他の画素値のことである。通常窓画像23及び補正窓画像24において、最小画素値と最大画素値との差は同じであるが、補正窓画像24における中間画素値の分布が、通常窓画像23における中間画素値の分布と異なる。通常窓画像23において、中間画素値の分布は、1から254までの範囲である。一方、補正窓画像24において、中間画素値の分布が、ゼロ基準値34bよりも1大きい画素値から254までの範囲である。補正窓画像24における中間画素値の分布範囲が、通常窓画像23における中間画素値の分布範囲よりも狭いため、補正窓画像24の明暗差は、通常窓画像23の明暗差よりも急峻になる。
画素値補正部13は、通常窓画像23の画素値Pが補正基準値35a以上である場合に画素値Pを維持し、画素値Pが補正基準値35aよりも小さい場合に画素値Pを小さくすることにより補正窓画像24を生成する。この結果、補正基準値35aは、補正基準値34aよりも大きいため、補正窓画像25のエッジ強度(W1c)は、補正窓画像24のエッジ強度(W1b)よりも小さくなる。また、補正窓画像25の中間画素値の分布が、補正窓画像24の中間画素値の分布よりも狭くなるため、補正窓画像25の明暗差は、通常窓画像24の明暗差よりも急峻になる。
従って、窓画像23〜25は、互いに異なるエッジ強度を有しており、エッジ強度は、通常窓画像23、補正窓画像24、補正窓画像25の順に小さくなる。つまり、窓画像23〜25のエッジ強度を変化させることにより、窓画像23〜25の各々の明暗差を互いに異なるようにすることができる。
また、カメラ100により生成される撮影画像21の明暗差は、撮影時の露出条件に応じて変化する。上述のように、窓画像23〜25の各々の明暗差が互いに異なることから、窓画像23〜25は、同一のタイミングで、異なる露出条件で生成された3枚の撮影画像21の各々から切り出された窓領域に相当する。つまり、物体検出装置1は、カメラの露出条件を制御することなく、複数の露出条件に対応する複数の窓画像を擬似的に生成することができる。
物体検出装置1は、窓画像23〜25の各々のエッジ強度を使用基準値と比較し、この比較結果に基づいて、識別値30の算出対象となる窓画像を特定する。使用基準値は、上述のように、サンプル画像データ65に含まれる歩行者のエッジ強度に基づいて決定される。この結果、物体検出装置は、窓画像23〜25の中で、サンプル画像データ65のエッジ強度と同程度のエッジ強度を有する窓画像を特定することができる。
図7に示すように、窓画像23〜25の各々から算出された識別値30の中で、識別値30の算出対象に決定された補正窓画像25から算出された識別値30が最大である。従って、窓画像23〜25の中で、サンプル画像データ65のエッジ強度と同程度のエッジ強度を有する窓画像を決定し、決定した窓画像から識別値30を算出することにより、窓領域52に含まれる歩行者を高い精度で検出することが可能となる。
また、窓領域53,54における歩行者の有無も、上記と同様にして判定される。
図9は、窓領域53に対応する窓画像23〜25と、窓画像23〜25の各々のエッジ強度と、窓画像23〜25の各々から算出される識別値30との関係を示す図である。図9に示すように、窓領域53において、通常窓画像23のエッジ強度は、W2aであり、エッジ強度(W2a)は、使用基準値(Wth)よりも大きい。この場合、窓領域53の通常窓画像23から、補正窓画像24が生成される。
窓領域53の補正窓画像24のエッジ強度は、W2bであり、エッジ強度(W2b)は、使用基準値Wth以下である。この場合、使用画像決定部15は、窓領域53において、補正窓画像24が識別値30の算出対象として適切であると判断する。識別値算出部16は、識別値30を補正窓画像24から算出する。この場合、窓領域53の補正窓画像25は生成されない。
窓領域53における歩行者検出の際に、識別値算出部16が、通常窓画像23から識別値30を算出することはないが、参考のために、通常窓画像23から算出された識別値30を図9に示す。図9に示すように、補正窓画像24から算出された識別値30は、0.90であり、通常窓画像23から算出された識別値(0.65)よりも大きい。従って、窓領域53では、補正窓画像24が、サンプル画像データ65に含まれる歩行者のエッジ強度に一番近いエッジ強度を有していることが分かる。
図10は、窓領域54の窓画像23〜25と、窓画像23〜25の各々のエッジ強度と、窓画像23〜25の各々の識別値30との関係を示す図である。
図10に示すように、窓領域54において、通常窓画像23のエッジ強度は、W3aであり、エッジ強度(W3a)は、使用基準値(Wth)よりも大きい。この場合、窓領域54の通常窓画像23から、補正窓画像24が生成される。
窓領域54の補正窓画像24のエッジ強度は、W3bであり、エッジ強度(W3)は、使用基準値(Wth)よりも大きい。この場合、窓領域54の通常窓画像23から、補正窓画像25が生成される。
窓領域54の補正窓画像25のエッジ強度は、W3cであり、エッジ強度(W3c)は、使用基準値(Wth)以下である。この場合、使用画像決定部15は、窓領域54では、補正窓画像25が識別値30の算出対象として適切であると判断する。識別値算出部16は、識別値30を、補正窓画像25から算出する。
図10に示すように、窓領域54において、識別値30は、通常窓画像23、補正窓画像24、補正窓画像25の順に小さくなる。窓領域54は、歩行者を含んでおらず、1本の木を含むため、補正窓画像25から算出された識別値30を用いることにより、窓領域54に歩行者が存在しないことを高い精度で判定することが可能である。
物体検出装置1は、窓領域54における歩行者の有無を判定するために、窓画像23〜25の各々のエッジ強度を使用基準値と比較し、この比較結果に基づいて、識別値30の算出対象として補正窓画像25を特定する。これにより、窓画像23〜25のうち、補正窓画像25が選択されるため、物体検出装置1は、高い精度で、窓領域54に歩行者が存在しないと判定することができる。
以上説明したように、本実施の形態に係る物体検出装置1は、窓画像23〜25の各々のエッジ強度を使用基準値と比較することにより、識別値30の算出に使用する窓画像を決定する。これにより、歩行者を含む窓画像の識別値30と、歩行者を含まない窓画像の識別値30との差を際立たせることができるため、歩行者の検出精度を向上させることができる。
また、本実施の形態において、補正基準値とゼロ基準値の組み合わせのパターンが2つである例を説明したが、基準値の組み合わせのパターンは、1つでもよいし、3つ以上であってもよい。
また、本実施の形態において、使用基準値が固定値である場合を説明した。しかし、物体検出装置1は、複数の使用基準値を記憶部18に格納し、撮影画像21の特徴に応じて、複数の使用基準値のうちいずれか1つを選択してもよい。例えば、撮影画像21から生成されたグレースケール画像が有する全画素の画素値の積算値を算出し、算出した積算値に基づいて、使用画像決定部15が使用する使用基準値を決定してもよい。
また、本実施の形態において、物体検出装置1が、補正基準テーブル32に設定された補正基準値及びゼロ基準値を用いる例を説明したが、これに限られない。例えば、物体検出装置1は、撮影画像21から生成されたグレースケール画像が有する全画素の画素値の積算値を算出し、算出した積算値に基づいて、補正基準テーブル32に設定された補正基準値及びゼロ基準値を変更してもよい。
また、本実施の形態において、物体検出装置1が、使用基準値以下のエッジ強度を有する窓画像の中で、使用基準値に一番近いエッジ強度を有する窓画像を対象窓画像に決定する例を説明したが、これに限られない。例えば、物体検出装置1は、使用基準値よりも大きいエッジ強度を有する窓画像の中で、使用基準値に一番近いエッジ強度を有する窓画像を対象窓画像に決定してもよい。あるいは、物体検出装置は、各窓画像のエッジ強度が使用基準値よりも大きいか否かに関係なく、使用基準値に一番近いエッジ強度を有する窓画像を対象窓画像に決定してもよい。
[第2の実施の形態]
{1.物体検出装置2の構成}
図11は、本発明の第2の実施の形態に係る物体検出装置2のブロック図である。図11に示すように、物体検出装置2は、使用画像決定部15に代えて、差分算出部61と、選択部62を備える。物体検出装置2のその他の構成は、物体検出装置1の構成と同じである。以下、物体検出装置1と異なる点を中心に、物体検出装置2について説明する。
画素値補正部13は、通常窓画像23から、補正窓画像24〜26を生成する。
差分算出部61は、差分値74〜76を算出する。差分値74は、通常窓画像23のエッジ強度から補正窓画像24のエッジ強度を引くことにより得られる。差分値75は、補正窓画像24のエッジ強度から補正窓画像25のエッジ強度を引くことにより得られる。差分値76は、補正窓画像25のエッジ強度から補正窓画像26のエッジ強度を引くことにより得られる。
選択部62は、差分算出部61により算出された差分値74〜76に基づいて、識別値30の算出に使用する窓画像を、補正窓画像24〜26の中から選択する。
{2.物体検出装置2の動作}
図12は、物体検出装置2の動作を示すフローチャートである。以下、特に説明のない限り、窓領域52(図4参照)から歩行者を検出する場合を例にして、物体検出装置1の動作を説明する。
物体検出装置2において、エッジ画像生成部11は、撮影画像21からエッジ画像22を生成する(ステップS1)。窓領域設定部12は、エッジ画像22に対して窓領域52を設定し(ステップS2)、エッジ画像22から窓領域52を切り出すことにより、通常窓画像23を生成する(ステップS3)。本実施の形態におけるステップS1〜S3の処理は、上記第1の実施の形態と同様であるため、その詳細な説明を省略する。
物体検出装置2は、識別値30の算出の対象となる窓画像(対象窓画像)を、補正窓画像24〜26から選択する(ステップS80)。ステップS80の詳細については後述するが、以下、補正窓画像24が選択された場合を例に説明する。
画素値補正部13は、選択部62により選択された補正窓画像24を識別値算出部16に出力する。識別値算出部16は、特徴データ31を用いて、補正窓画像24に歩行者がいる度合いを示す識別値30を算出する(ステップS5)。判定部17は、識別値算出部16により算出された識別値30に基づいて、窓領域52内に歩行者が存在するか否かを判定する(ステップS6)。
窓領域設定部12は、エッジ画像22に対する窓領域の設定が終了したか否かを確認する(ステップS7)。窓領域の設定が終了していない場合(ステップS7においてNo)、窓領域設定部12は、新たな窓領域を設定するために、ステップS2に戻る。一方、窓領域の設定が終了した場合(ステップS7においてYes)、物体検出装置2は、図12に示す処理を終了する。
図12に示すステップS5〜S7の処理は、上記実施の形態と同様であるため、その詳細な説明を省略する。
{3.対象画像選択処理(ステップS80)}
以下、図12及び図13を参照しながら、対象画像選択処理(ステップS80)の詳細について説明する。
図13は、本実施の形態で用いられる補正基準テーブル32の一例を示す図である。画素値補正部13は、窓領域設定部12から通常窓画像23を取得する。画素値補正部13は、図13に示す補正基準テーブル32に設定された補正基準値及びゼロ基準値を用いて、補正窓画像24〜26を通常窓画像23から生成する(ステップS81)。補正窓画像24〜26は、上記実施の形態で説明した方法により生成される。
なお、上記実施の形態では、画素値補正部13が使用画像決定部15の決定に応じて、補正窓画像を生成するため、補正窓画像24,25が生成されない場合があった。しかし、本実施の形態では、画素値補正部13は、補正窓画像24〜26の全てを生成する。
図13に示すように、補正基準テーブル32には、補正基準値及びゼロ基準値を組み合わせた3つのパターン(パターン1〜パターン3)が設定されている。参考のために、通常窓画像23に対応する補正基準値及びゼロ基準値の組み合わせを、図13に示している。補正基準値は、パターン番号の増加とともに、64ずつ増加する。ゼロ基準値は、補正基準値よりも1小さい。
図14Aは、窓領域52における窓画像23〜26と、窓画像23〜26の各々のエッジ強度と、窓画像23〜26から算出される識別値30とを示す図である。実際には、後述するように、識別値30は、補正窓画像24から算出され、他の窓画像から算出されない。
特徴量算出部14は、窓画像23〜26の各々のエッジ強度を算出する(ステップS82)。ステップS82は、図6に示すステップS42と同様の処理である。
差分算出部61は、窓画像23〜26のエッジ強度を用いて、差分値74〜76を算出する(ステップS83)。差分値74は、通常窓画像23のエッジ強度と補正窓画像24との差である。差分値75は、補正窓画像24のエッジ強度と補正窓画像25との差である。差分値76は、補正窓画像25のエッジ強度と補正窓画像26との差である。差分算出部61は、窓画像23〜26をエッジ強度の大きい順に配列し、互いに隣接する2つの窓画像のエッジ強度の差分値を算出する。
選択部62は、差分値74〜76に基づいて、補正窓画像24〜26のうち識別値の算出の対象となる窓画像(対象窓画像)を選択する(ステップS84)。選択部62は、差分値74〜76の中で、差分値74が最大であると判断する。選択部62は、差分値74の算出に用いられた2つのエッジ強度のうち、小さい方のエッジ強度を有する補正窓画像24を対象窓画像として選択する。
図14Bは、窓領域52における各窓画像のエッジ強度の変化を示すグラフである。図14Bにおいて、横軸は、補正基準値であり、縦軸は、エッジ強度である。ゼロ基準値が増加するにつれて、画素値がゼロに補正される画素が増加するため、エッジ強度は、通常窓画像23、補正窓画像24、補正窓画像25、補正窓画像26の順に小さくなる。
また、差分値74は、差分値74〜76の中で最大である。図14Aに示すように、窓領域52において、通常窓画像23は、歩行者の輪郭を示すエッジ以外に、細かなエッジを多く含んでいる。一方、補正窓画像24は、通常窓画像23に現れている細かなエッジを含んでいない。つまり、最大の差分値74に対応する補正窓画像24を生成する際に、検出対象(歩行者)以外の成分が多く破棄されている。従って、補正窓画像24が、窓領域52における歩行者の検出に最適であると判定される。
図15は、窓領域52〜54の各々における識別値30の算出結果を示すグラフである。窓領域53,54における識別値30の算出結果については後述する。上述のように、窓領域52において、識別値30の算出対象は、補正窓画像24であり、通常窓画像23及び補正窓画像25,26の識別値30は、実際には算出されない。
図15に示すように、窓領域52では、識別値30の算出対象として選択された補正窓画像24から算出された識別値30がピークを形成している。窓画像23〜26の各々は、歩行者を含んでいるが、窓画像23〜26から算出される識別値30は、互いに異なっている。窓画像23〜26のうち、補正窓画像24の識別値30が最大であることは、窓画像24〜26のうち、補正窓画像24が、サンプル画像データ5のエッジ強度にいちばん近いエッジ強度を有することを示す。
上記実施の形態でも説明したように、窓画像23〜26は、互いに明暗差が異なるため、同一のタイミングで、異なる露出条件で生成された4枚の撮影画像21の各々から切り出された窓領域に相当する。つまり、物体検出装置2は、カメラの露出条件を制御することなく、複数の露出条件に擬似的に対応する複数の窓画像を生成する。物体検出装置2は、差分値74〜76に基づいて補正窓画像24〜26の中から選択することにより(ステップS84)、図4に示す撮影画像21の生成時における露出条件を、サンプル画像データ65の生成時の露出条件に擬似的に合わせることが可能となる。従って、物体検出装置2は、物体検出装置1と同様に、撮影画像21に対する歩行者の検出精度を向上させることができる。
次に、窓領域53における対象窓画像の選択について説明する。窓領域53における対象窓画像の選択も、上記と同様に実行される。
図16Aは、窓領域53における窓画像23〜26と、窓画像23〜26の各々のエッジ強度と、窓画像23〜26から算出される識別値30とを示す図である。図16Bは、窓領域52における各窓画像のエッジ強度の変化を示すグラフである。
図16A及び図16Bに示すように、補正基準値及びゼロ基準値が増加するにつれて、窓画像23〜26のエッジ強度が減少している。窓領域53において、差分値74が、差分値74〜76の中で最大である。この結果、窓領域53における識別値30の算出対象は、補正窓画像24に決定される。
図15に示すように、窓領域53において、窓画像24の識別値30が、他の窓画像の識別値30よりも大きく、ピークを形成している。従って、窓領域52における歩行者の有無を、補正窓画像24から算出された識別値30を用いて判定することにより、歩行者の検出精度を向上できることが分かる。
次に、窓領域54における対象窓画像の選択について説明する。窓領域54における対象窓画像の選択も、上記と同様に実行される。図4に示すように、窓領域54には、歩行者が存在せず、木が存在している。
図17Aは、窓領域54における窓画像23〜26と、窓画像23〜26の各々のエッジ強度と、窓画像23〜26から算出される識別値30を示す図である。図17Bは、窓領域54における各窓画像のエッジ強度の変化を示すグラフである。
図17A及び図17Bに示すように、補正基準値及びゼロ基準値が増加するにつれて、各窓画像のエッジ強度が減少している。窓領域54において、差分値75が、差分値74〜76の中で最大である。差分値75の算出には、補正窓画像24のエッジ強度と、補正窓画像25のエッジ強度が用いられる。補正窓画像24,25の各々のエッジ強度のうち、小さい方のエッジ強度を有する補正窓画像25が、識別値30の算出対象として選択される。
図15に示すように、窓領域54において、補正窓画像25の識別値30が、他の窓画像の識別値30に比べて小さくなっている。このことは、補正窓画像25を用いることにより、窓領域54における歩行者の有無の判断精度を向上することができることを示している。
以上説明したように、物体検出装置2は、窓領域を設定して通常窓画像23を切り出す。物体検出装置2は、通常窓画像23から、互いに異なる条件で補正窓画像24〜26を生成し、窓画像23〜26のエッジ強度を算出する。物体検出装置2は、窓画像23〜26をエッジ強度の大きい順に配列して、互いに隣接する2つの窓画像のエッジ強度の差分値を算出する。この結果、複数の差分値が生成される。物体検出装置2は、複数の差分値の中から最大の差分値を特定し、特定した差分値の算出に用いられた2つのエッジ強度のうち、小さい方のエッジ強度を特定する。そして、物体検出装置2は、特定されたエッジ強度を有する窓画像を、識別値30の算出対象に決定する。物体検出装置2は、算出対象に決定された窓画像から識別値30を算出し、識別値30に基づいて窓領域における歩行者の有無を判定する。これにより、歩行者の検出精度を向上させることができる。
なお、上記第2の実施の形態において、補正基準値及びゼロ基準値が固定されている場合を例に説明したが、これに限られない。補正窓画像の生成に用いる補正基準値及びゼロ基準値を、撮影画像21の特徴量に応じて変更してもよい。例えば、撮影画像21の輝度値の積算値に応じて、補正基準値及びゼロ基準値を図12に示す値から変更すればよい。この場合であっても、上記実施の形態と同様の手順で、識別値30の算出対象となる窓画像を選択すればよい。あるいは、物体検出装置2は、ゼロ基準値に対するエッジ強度の変化率を計算し、変化率に基づいて識別値30の積算対象を選択してもよい。
また、上記第2の実施の形態において、選択部62が、最大の差分値の計算に用いられた2つのエッジ強度のうち、小さい方のエッジ強度を有する窓画像を識別値30の算出対象として選択する例を説明したが、これに限られない。選択部62は、2つのエッジ強度のうち、大きい方のエッジ強度を有する窓画像を識別値30の算出対象として選択してもよい。この場合、窓領域52では、窓画像23〜26の中から、通常窓画像23が、算出対象として選択される。
なお、上記実施の形態において、各窓画像のエッジ強度として、1画素あたりの画素値の平均値を用いる例を説明したが、これに限られない。例えば、窓画像の画素の画素値を積算した値(エッジ強度総和値)を、各窓画像の特徴量として用いてもよい。
あるいは、通常窓画像23の特徴量として、横方向のエッジ強度と、縦方向のエッジ強度との比を用いてもよい。具体的には、通常窓画像23として、横方向のエッジを強調した窓画像と、縦方向のエッジを強調した窓画像とを生成する。そして、横方向のエッジを強調した窓画像の画素の画素値を積算することにより、横方向のエッジ強度を取得し、縦方向のエッジを強調した窓画像の画素の画素値を積算することにより、縦方向のエッジ強度を取得すればよい。
また、上記実施の形態において、エッジ画像生成部11が、グレースケール画像に対して、垂直方向及び水平方向のエッジを強調する処理を行う例を説明したが、これに限られない。エッジ画像生成部11は、垂直方向及び水平方向以外の方向(例えば、右斜め上方向及び左斜め上方向)のエッジを強調する処理を行ってもよい。
また、上記実施の形態において、窓領域設定部12が、エッジ画像22に対して窓領域を設定する例を説明したが、これに限られない。図1において、エッジ画像生成部11と窓領域設定部12とを入れ替えてもよい。この場合、窓領域設定部12は、撮影画像21から生成されたグレースケール画像に対して窓領域を設定する。エッジ画像生成部11は、グレースケール画像から切り出された窓領域に対してエッジを強調する処理を行って、通常窓画像23を生成する。
また、上記実施の形態において、識別値算出部16が、ニューラルネットワークを用いて識別値30を算出する例を説明したが、これに限られない。識別値算出部16は、ニューラルネットワーク以外のアルゴリズムを用いて、識別値30を算出してもよい。例えば、サポートベクターマシンなどの使用が考えられる。
また、上記実施の形態において、判定部17が、識別値算出部16により算出された識別値30に基づいて、窓領域52内に歩行者が存在するか否かを判定する例を説明したが、これに限られない。物体検出装置1,2は、判定部17を備えず、識別値30をそのまま出力してもよい。この場合、物体検出装置1,2の後段に配置される後処理部が、識別値30に基づいて、撮影画像21(図4参照)における歩行者の有無を判断すればよい。例えば、図4に示す撮影画像21に設定された各窓画像から算出された複数の識別値30の空間的な分布に基づいて、撮影画像21における歩行者の有無や、歩行者の位置等が特定される。
また、上記実施の形態において、画素値補正部13が、補正窓画像24を生成する際に、通常窓画像23の画素値がゼロ基準値34bよりも小さい場合、画素値をゼロにする例を説明したが、これに限られない。画素値補正部13は、ゼロ基準値34bに代えて、ゼロよりも大きく、補正基準値34aよりも小さい基準値(第2補正基準値)を用いてもよい。この場合、図8に示す実線56において、原点から変曲点56Bまでの直線(参照直線)の傾きは、0より大きく1より小さくなる。通常窓画像23の画素値が第2補正基準値よりも小さい場合、画素値は、参照直線に従って定められる補正前の画素値と補正後の画素値との対応関係に基づいて補正される。補正窓画像25を生成する場合にも、同様の処理を行ってもよい。
あるいは、画素値補正部13は、補正窓画像24を生成する際に、第2補正基準値よりも小さい画素値を第2補正基準値に補正してもよい。この場合、補正窓画像24の最小画素値は、ゼロから第2補正基準値に変更される。補正窓画像25を生成する場合にも、同様の処理を行ってもよい。
上記実施の形態で説明した物体検出装置1,2において、各機能部は、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されてもよい。集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサーで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
また、上記実施の形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記実施の形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。
前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリを挙げることができる。
上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
1,2 物体検出装置
11 エッジ画像生成部
12 窓領域設定部
13 画素値補正部
14 特徴量算出部
15 使用画像決定部
16 識別値算出部
17 判定部
18 記憶部
23 通常窓画像
24,25,26 補正窓画像
31 特徴データ
32 補正基準テーブル
51 差分値算出部
52 選択部
100 カメラ

Claims (12)

  1. フレーム画像から検出対象を検出する物体検出装置であって、
    前記検出対象を検出するための窓領域を前記フレーム画像内に設定し、前記窓領域の画像を有する第1窓画像を取得する窓領域設定部と、
    前記窓領域設定部により取得された第1窓画像内の画素の画素値が補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより、第2窓画像を生成する画素値補正部と、
    前記画素値補正部により生成された第2窓画像の特徴量を算出する特徴量算出部と、
    前記特徴量算出部により算出された特徴量に基づいて、前記窓領域に前記検出対象が存在するか否かを示す識別値の計算に前記第2窓画像を使用するか否かを決定する使用画像決定部と、
    前記第2窓画像を使用すると前記使用画像決定部により判定された場合、前記検出対象の特徴データを用いて、前記第2窓画像内に検出対象が存在する度合いを示す識別値を計算する識別値算出部と、
    を備える物体検出装置。
  2. 請求項1に記載の物体検出装置であって、
    画素値補正部は、前記第2窓画像を使用しないと前記使用画像決定部により決定された場合、前記第1窓画像内の画素の画素値を前記補正基準値と異なる基準値と比較し、前記画素値が前記異なる基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより、第3窓画像を生成し、
    前記特徴量算出部は、前記画素値補正部により生成された第3窓画像の特徴量を算出し、
    前記使用画像決定部は、前記特徴量算出部により算出された前記第3窓画像の特徴量に基づいて、前記第3窓画像を使用するか否かを決定し、
    前記識別値算出部は、前記第3窓画像を使用すると前記使用画像決定部により決定された場合、前記第3窓画像内に前記検出対象が存在する度合いを示す識別値を算出する物体検出装置。
  3. 請求項1又は請求項2に記載の物体検出装置であって、
    前記特徴量算出部は、前記第1窓画像の特徴量を算出し、
    前記使用画像決定部は、前記特徴量算出部により算出された前記第1窓画像の特徴量に基づいて、前記第1窓画像を使用するか否かを決定し、
    前記識別値算出部は、前記第1窓画像を使用すると前記使用画像決定部により決定された場合、前記第1窓画像内に前記検出対象が存在する度合いを示す識別値を算出し、
    前記第1窓画像を使用しないと前記使用画像決定部により決定された場合、前記画素値補正部が、前記第2窓画像を生成する物体検出装置。
  4. 請求項1ないし3のいずれかに記載の物体検出装置であって、
    前記フレーム画像がエッジ画像であり、
    前記第2窓画像の特徴量は、エッジ強度であり、
    前記使用画像決定部は、前記第2窓画像の特徴量が予め設定された使用基準値よりも小さい場合、前記第2窓画像を使用することを決定する物体検出装置。
  5. 請求項1に記載の物体検出装置であって、
    前記画素値補正部は、前記第1窓画像の画素の画素値を前記補正基準値よりも大きい第1基準値と比較し、前記画素値が前記第1基準値よりも小さい場合、前記画素値よりも小さい画素値を取得することにより、第3窓画像を生成し、
    前記特徴量算出部は、前記第3の窓画像の特徴量を算出し、
    前記使用画像決定部は、
    前記第2の窓画像の特徴量及び第3の窓画像の特徴量に基づいて、前記第2窓画像及び前記第3窓画像の中から、前記識別値の算出に使用する窓画像を選択する選択部、
    を含む物体検出装置。
  6. 請求項5に記載の物体検出装置であって、
    前記特徴量算出部は、前記第1の窓画像の特徴量を算出し、
    前記選択部は、前記第1〜第3の窓画像の各々の特徴量に基づいて、前記第1〜第3の窓画像の中から、前記識別値の算出に使用する窓画像を選択する物体検出装置。
  7. 請求項6に記載の物体検出装置であって、さらに、
    前記第1の窓画像の特徴量と前記第2の窓画像の特徴量との差である第1の差分値と、前記第2の窓画像の特徴量と前記第3の窓画像の特徴量との差である第2の差分値とを算出する差分計算値、
    を備え、
    前記選択部は、前記第1の差分値と前記第2の差分値とに基づいて、前記識別値の算出に使用する窓画像を前記第1〜第3の窓画像の中から選択する物体検出装置。
  8. 請求項7に記載の物体検出装置であって、
    前記選択部は、前記第1の差分値が前記第2の差分値よりも大きい場合、前記第2の窓画像を選択する物体検出装置。
  9. 請求項5に記載の物体検出装置であって、
    前記画素値補正部は、前記第1窓画像の画素の画素値を前記第1基準値よりも大きい第2基準値と比較し、前記画素値が前記第2基準値よりも小さい場合、前記画素値よりも小さい画素値を取得することにより、第4窓画像を生成し、
    前記特徴量算出部は、前記第4の窓画像の特徴量を算出し、
    前記選択部は、前記第2〜第4の窓画像の各々の特徴量に基づいて、前記識別値の算出に使用する窓画像を前記第2〜第4窓画像の中から選択する物体検出装置。
  10. 請求項1ないし7のいずれかに記載の物体検出装置であって、
    フレーム画像がエッジ画像であり、
    前記特徴量算出部は、前記第2窓画像のエッジ強度を前記第2窓画像の特徴量として算出する物体検出装置。
  11. 請求項1ないし10のいずれかに記載の物体検出装置であって、
    画素値補正部は、前記第1窓画像内の画素の画素値を前記補正基準値よりも小さいゼロ基準値と比較し、前記画素値が前記ゼロ基準値よりも小さい場合、前記画素値がゼロに置換された値を取得し、前記画素値が前記ゼロ基準値以上であり前記補正基準値よりも小さい場合、前記画素値がゼロよりも大きい値を取得する物体検出装置。
  12. フレーム画像から検出対象を検出する物体検出装置に搭載されるコンピュータに、
    前記検出対象を検出するための窓領域を前記フレーム画像内に設定し、前記窓領域の画像を有する第1窓画像を取得するステップと、
    前記第1窓画像内の画素の画素値が補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより、第2窓画像を生成するステップと、
    前記第2窓画像の特徴量を算出するステップと、
    前記第2窓画像の特徴量に基づいて、前記窓領域に前記検出対象が存在するか否かを示す識別値の計算に前記第2窓画像を使用するか否かを決定するステップと、
    前記第2窓画像を使用すると判定された場合、前記検出対象の特徴データを用いて、前記第2窓画像内に検出対象が存在する度合いを示す識別値を計算するステップと、
    を実行させる物体検出プログラム。
JP2014050695A 2014-03-13 2014-03-13 物体検出装置 Expired - Fee Related JP6401922B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014050695A JP6401922B2 (ja) 2014-03-13 2014-03-13 物体検出装置
US14/656,919 US9477882B2 (en) 2014-03-13 2015-03-13 Object detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014050695A JP6401922B2 (ja) 2014-03-13 2014-03-13 物体検出装置

Publications (2)

Publication Number Publication Date
JP2015176250A true JP2015176250A (ja) 2015-10-05
JP6401922B2 JP6401922B2 (ja) 2018-10-10

Family

ID=54069395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014050695A Expired - Fee Related JP6401922B2 (ja) 2014-03-13 2014-03-13 物体検出装置

Country Status (2)

Country Link
US (1) US9477882B2 (ja)
JP (1) JP6401922B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110163219A (zh) * 2019-04-17 2019-08-23 安阳师范学院 基于图像边缘识别的目标检测方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6786279B2 (ja) * 2016-07-05 2020-11-18 日立オートモティブシステムズ株式会社 画像処理装置
CN109784186B (zh) * 2018-12-18 2020-12-15 深圳云天励飞技术有限公司 一种行人重识别方法、装置、电子设备及计算机可读存储介质
CN109920016B (zh) * 2019-03-18 2021-06-25 北京市商汤科技开发有限公司 图像生成方法及装置、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166490A (ja) * 1997-08-13 1999-03-09 Nagoya Denki Kogyo Kk 車両検出方法
JP2010158317A (ja) * 2009-01-06 2010-07-22 Rohm Co Ltd 画像処理方法及びコンピュータプログラム
JP2011233148A (ja) * 2010-04-27 2011-11-17 Ricoh Co Ltd 画像強調方法と装置、物体検出方法と装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3549725B2 (ja) * 1998-04-13 2004-08-04 シャープ株式会社 画像処理装置
JP3587506B2 (ja) * 1999-08-30 2004-11-10 富士重工業株式会社 ステレオカメラの調整装置
JP2008021034A (ja) 2006-07-11 2008-01-31 Fujitsu Ten Ltd 画像認識装置、画像認識方法、歩行者認識装置および車両制御装置
US8326025B2 (en) * 2006-09-04 2012-12-04 Koninklijke Philips Electronics N.V. Method for determining a depth map from images, device for determining a depth map
JP2009070344A (ja) 2007-09-18 2009-04-02 Fujitsu Ten Ltd 画像認識装置、画像認識方法および電子制御装置
US8218817B2 (en) * 2007-12-21 2012-07-10 Honda Motor Co. Ltd. Online articulate object tracking with appearance and shape
CN101872477B (zh) * 2009-04-24 2014-07-16 索尼株式会社 检测图像中的对象的方法、装置,及包括该装置的系统
EP2519914A1 (en) * 2009-12-30 2012-11-07 Nokia Corp. Method, device and computer program product for detecting objects in digital images
JP6242563B2 (ja) 2011-09-09 2017-12-06 株式会社メガチップス 物体検出装置
US9536137B2 (en) 2013-03-26 2017-01-03 Megachips Corporation Object detection apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166490A (ja) * 1997-08-13 1999-03-09 Nagoya Denki Kogyo Kk 車両検出方法
JP2010158317A (ja) * 2009-01-06 2010-07-22 Rohm Co Ltd 画像処理方法及びコンピュータプログラム
JP2011233148A (ja) * 2010-04-27 2011-11-17 Ricoh Co Ltd 画像強調方法と装置、物体検出方法と装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110163219A (zh) * 2019-04-17 2019-08-23 安阳师范学院 基于图像边缘识别的目标检测方法
CN110163219B (zh) * 2019-04-17 2023-05-16 安阳师范学院 基于图像边缘识别的目标检测方法

Also Published As

Publication number Publication date
JP6401922B2 (ja) 2018-10-10
US9477882B2 (en) 2016-10-25
US20150262363A1 (en) 2015-09-17

Similar Documents

Publication Publication Date Title
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
US20150139533A1 (en) Method, electronic device and medium for adjusting depth values
JP6401922B2 (ja) 物体検出装置
JP6242563B2 (ja) 物体検出装置
JP2014057303A (ja) 深度推定手順において改善されたシーン検出を利用するためのシステム及び方法
JP2008286725A (ja) 人物検出装置および方法
KR102308437B1 (ko) 대상체의 외부의 검사를 최적화하기 위한 장치 및 그 방법
EP3200442B1 (en) Method and apparatus for image processing
JP6177541B2 (ja) 文字認識装置、文字認識方法及びプログラム
US8675954B2 (en) Image processing apparatus, image processing method, and computer program product for image processing
JP2009134587A (ja) 画像処理装置
JP2017524404A5 (ja)
JP6340228B2 (ja) 物体検出装置
JP2011165170A (ja) 対象物検出装置及びプログラム
JP6340227B2 (ja) 人物検出装置
US10223583B2 (en) Object detection apparatus
EP3955207A1 (en) Object detection device
JP2017165345A (ja) 物体認識装置、物体認識方法、及び物体認識プログラム
JP6140478B2 (ja) 物体検出装置、プログラムおよび集積回路
JP2005332382A (ja) 画像処理方法および装置並びにプログラム
JP6423594B2 (ja) 物体検出装置
JP2015187782A (ja) 物体検出装置
KR102031842B1 (ko) 웨이퍼 맵의 처리 방법 및 이를 위한 컴퓨터 프로그램
JP2009059047A (ja) 対象物検出装置、対象物検出方法、および対象物検出プログラム
JP6116959B2 (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180910

R150 Certificate of patent or registration of utility model

Ref document number: 6401922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees