JP5090321B2 - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP5090321B2 JP5090321B2 JP2008304587A JP2008304587A JP5090321B2 JP 5090321 B2 JP5090321 B2 JP 5090321B2 JP 2008304587 A JP2008304587 A JP 2008304587A JP 2008304587 A JP2008304587 A JP 2008304587A JP 5090321 B2 JP5090321 B2 JP 5090321B2
- Authority
- JP
- Japan
- Prior art keywords
- detection processing
- image
- matching rate
- unit
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像内から所定の物体をテンプレートマッチングにより検知する物体検知装置に関する。 The present invention relates to an object detection device that detects a predetermined object from an image by template matching.
交通事故による死傷者数を低減するため、事故を未然に防ぐ予防安全システムの開発が進められている。予防安全システムは、事故の発生する可能性が高い状況下で作動するシステムであり、例えば、自車前方の障害物と衝突する可能性が生じたときには警報によって運転者に注意を促し、衝突が避けられない状況になったときには自動ブレーキによって乗員の被害を軽減するプリクラッシュ・セーフティ・システム等が実用化されている。 In order to reduce the number of casualties due to traffic accidents, the development of preventive safety systems that prevent accidents in advance is underway. A preventive safety system is a system that operates in a situation where there is a high possibility of an accident.For example, when there is a possibility of collision with an obstacle in front of the host vehicle, a warning is given to the driver to alert the driver. Pre-crash safety systems have been put into practical use that reduce the damage to passengers by automatic braking when inevitable situations occur.
上記システムにおいて歩行者等の障害物を検知する方法として、例えば、カメラで自車前方を撮像し、撮像された画像中から、あらかじめ記憶している障害物のテンプレートと類似したパターンを検出する方法がある。 As a method for detecting obstacles such as pedestrians in the above system, for example, a method of imaging the front of the vehicle with a camera and detecting a pattern similar to a previously stored obstacle template from the captured images There is.
例えば特許文献1には、自車前方を撮像した画像から、車道端近傍の歩行者を検出する方法が記載されている。この方法によれば、車道検出手段により検出した車道端近傍で歩行者テンプレートとのテンプレートマッチングを行い、テンプレートとのマッチングの度合いを示す相関値(以下、マッチング率と表する)が閾値以上の場合は歩行者が存在すると判定することで、運転者にとって注意が必要な歩行者を効率よく検出することができる。
For example,
しかしながら、テンプレートマッチングは、テンプレート全体でのマッチングの度合いだけを見ており、局所的な分布では見ていないため、検知率の向上と誤検知の排除を両立する閾値の決定が難しいという課題がある。 However, since template matching only looks at the degree of matching in the entire template, not the local distribution, there is a problem that it is difficult to determine a threshold value that achieves both improvement in detection rate and elimination of false detection. .
例えば歩行者を検出する場合、歩行者の検知性能を高めるため閾値を下げると、テンプレートと一部だけ類似しているようなパターンを誤検知しやすくなってしまう。また、逆に誤検知を低減するため閾値を上げると、例えば子供など身長が低くマッチング率が低い歩行者が検出できなくなってしまう。 For example, when detecting a pedestrian, if the threshold value is lowered in order to improve the detection performance of the pedestrian, a pattern that is only partially similar to the template is likely to be erroneously detected. On the other hand, if the threshold value is increased in order to reduce false detection, a pedestrian with a low height and a low matching rate, such as a child, cannot be detected.
本発明は上記問題に着目してなされたもので、その目的とするところは、検知率向上と誤検知の排除を両立する物体検知装置を提供することである。 The present invention has been made paying attention to the above problems, and an object of the present invention is to provide an object detection device that achieves both improvement in detection rate and elimination of erroneous detection.
上記課題を解決するための手段である本発明の物体検知装置は、画像内に選定された検知処理領域を複数の部分領域に分割して、各部分領域とテンプレートとのマッチング率をそれぞれ算出し、各マッチング率に基づいて画像内に物体が存在するか否かを判定する。 The object detection device of the present invention, which is a means for solving the above problems, divides a detection processing area selected in an image into a plurality of partial areas, and calculates a matching rate between each partial area and a template. Based on each matching rate, it is determined whether or not an object exists in the image.
本発明によれば、画像内に選定された検知処理領域を複数の部分領域に分割して、各部分領域とテンプレートとのマッチング率をそれぞれ算出し、各マッチング率に基づいて物体の存在を判定するので、テンプレートと一部だけが類似しているようなパターンの誤検知を低減することができる。 According to the present invention, the detection processing area selected in the image is divided into a plurality of partial areas, the matching ratio between each partial area and the template is calculated, and the presence of an object is determined based on each matching ratio. Therefore, it is possible to reduce erroneous detection of patterns that are only partially similar to the template.
以下、本発明の実施形態について図面を用いて詳細に説明する。図1は、本実施の形態における物体検知装置1000のブロック図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram of an
物体検知装置1000は、画像内から予め設定された物体を検知するためのものであり、本実施の形態では、自動車に搭載されるカメラ装置内に組み込まれ、自車の周囲を撮像した画像内から歩行者11を検知するように構成されている。
The
物体検知装置1000は、図1に示すように、画像取得装置1100、記憶装置1200、処理回路1300から構成される。画像取得装置1100は、自車の前方を撮像可能な位置に取り付けられた単眼カメラを備えており、CCDやCMOSなどの撮像素子を用いて、自車前方を撮影した前方画像としてディジタル値の信号に変換する機能を有している。
As shown in FIG. 1, the
ディジタル値の信号は、ディジタル値のまま処理回路1300内のRAM上に画像情報IMGSRC[x][y]として直接書き込まれてもよいし、アナログ信号に変換し処理回路1300で再度ディジタル信号へ変換し画像IMGSRC[x][y]としてRAM上に書き込まれてもよい。なお、画像IMGSRC[x][y]は2次元配列であり、x、yはそれぞれ画像の座標を示す。
The digital value signal may be directly written as image information IMGSRC [x] [y] on the RAM in the
記憶装置1200は、例えばハードディスクやROMによって構成されており、所定のデータが格納されて、処理回路1300からアクセスが可能な装置である。記憶装置1200には、物体が有する部分を検知するテンプレートと判定閾値の情報が記憶されている。
The
本実施の形態では、歩行者11の上部(頭部と肩部を含む)を検知するための第一のテンプレート1210、歩行者11の中部(腰部を含む)を検知するための第二のテンプレート1220、歩行者11の下部(脚部を含む)を検知するための第三のテンプレート1230、第一のテンプレート1210に対応する第一の判定閾値1211、第二のテンプレート1220に対応する第二の判定閾値1221、第三のテンプレート1230に対応する第三の判定閾値1231が記憶されている。
In the present embodiment, a
処理回路1300は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。処理回路1300は、検知処理領域選定部1311と、領域分割部1321と、マッチング率算出部1331と、物体存在判定部1341と、物体位置検出部1310と、ロービーム判定部1340を有する。
The
物体位置検出部1310は、自車に搭載されたミリ波レーダやレーザレーダ等の自車周辺の物体を検出するレーダ(図示せず)からの検出信号を取得して、自車前方に存在する物体10の物体位置21を検出する。例えば図3に示すように、レーダから自車周辺の歩行者11や道路標識12等の物体10の物体位置(相対距離PY[b]、横位置PX[b]、横幅WD[b])を取得する。ここで、[b]は複数の物体10を検知している場合のID番号である。
The object
これらの物体10の位置情報は、レーダの信号を物体検知装置1000に直接入力することによって取得しても良いし、レーダとLAN(Local Area Network)を用いた通信を行うことによって取得しても良い。
The position information of these
検知処理領域選定部1311は、画像20内で物体10を検知するための検知処理領域W[i]を選定するものであり、画像取得装置1100からの画像情報(IMGSRC[x][y])と、物体位置検出部1310からの物体情報とに基づいて検知処理領域W[i]を選定する。
The detection processing
そして、その選定した検知処理領域W[i]の座標情報(横方向の始点座標SX[i]、横方向の終点座標EX[i]、縦方向の始点座標SY[i]、縦方向の終点座標EY[i])を領域分割部1321に出力する。ここで、[i]は複数の検知処理領域Wを選定している場合のID番号である。 Then, the coordinate information of the selected detection processing area W [i] (the horizontal start point coordinate SX [i], the horizontal end point coordinate EX [i], the vertical start point coordinate SY [i], the vertical end point) The coordinates EY [i]) are output to the area dividing unit 1321. Here, [i] is an ID number when a plurality of detection processing areas W are selected.
物体位置検出部1310を備えていない場合には、検知したい歩行者の位置を全て探索するように、座標情報(横方向の始点座標SX[i]、横方向の終点座標EX[i]、縦方向の始点座標SY[i]、縦方向の終点座標EY[i])を設定する。例えば自車先端から所定の距離から所定の距離まで、かつ車両中心から所定の幅の範囲内にて1メートル間隔で探索するように設定してもよいし、自車の速度から自車がT秒後に到達する距離で、自車中心から所定の幅の範囲内にて1メートル間隔で探索するように設定してもよい。
If the object
領域分割部1321は、検知処理領域Wを複数の部分領域に分割するものであり、テンプレートに応じて分割する処理を行う。例えば図6及び図7に示すように、検知処理領域Wの座標情報(SX[i]、EX[i]、SY[i]、EY[i])、および第一のテンプレート1210、第二のテンプレート1220、第三のテンプレート1230の情報に基づいて検知処理領域W[i]を縦方向(上下方向)に3つの部分領域に分割し、検知処理領域W[i]内で第一のテンプレート1210の位置に対応する第一の部分領域w1[i]、第二のテンプレート1220の位置に対応する第二の部分領域w2[i]、第三のテンプレート1230の位置に対応する第三の部分領域w3[i]の各座標情報を演算する。
The area dividing unit 1321 divides the detection processing area W into a plurality of partial areas, and performs a process of dividing according to the template. For example, as shown in FIGS. 6 and 7, the coordinate information (SX [i], EX [i], SY [i], EY [i]) of the detection processing area W, the
そして、第一の部分領域w1[i]の座標情報(SX1[i]、EX1[i]、SY1[i]、EY1[i])、第二の部分領域w2[i]の座標情報(SX2[i]、EX2[i]、SY2[i]、EY2[i])、第三の部分領域w3[i]の座標情報(SX3[i]、EX3[i]、SY3[i]、EY3[i])をマッチング率算出部1331に出力する。
Then, the coordinate information (SX1 [i], EX1 [i], SY1 [i], EY1 [i]) of the first partial region w1 [i], the coordinate information (SX2) of the second partial region w2 [i]. [I], EX2 [i], SY2 [i], EY2 [i]), the coordinate information (SX3 [i], EX3 [i], SY3 [i], EY3 [) of the third partial area w3 [i]. i]) is output to the matching
マッチング率算出部1331は、これらの各部分領域W1[i]〜W3[i]と、対応する各テンプレート1210〜1230とのマッチング率をそれぞれ算出する。ここでは、第一の部分領域w1[i]の座標情報(SX1[i]、EX1[i]、SY1[i]、EY1[i])、第二の部分領域w2[i]の座標情報(SX2[i]、EX2[i]、SY2[i]、EY2[i])、第三の部分領域w3[i]の座標情報(SX3[i]、EX3[i]、SY3[i]、EY3[i])、画像情報IMGSRC[x][y]、第一のテンプレート1210、第二のテンプレート1220、第三のテンプレート1230の情報を入力する。
The matching
そして、第一の部分領域w1[i]と第一のテンプレート1210とのマッチング率である第1のマッチング率(MATCH1[i])、第二の部分領域w2[i]と第二のテンプレート1220とのマッチング率である第2のマッチング率(MATCH2[i])、第三の部分領域w3[i]と第三のテンプレート1230とのマッチング率である第3のマッチング率(MATCH3[i])をそれぞれ演算し、物体存在判定部1341に出力する。
Then, a first matching rate (MATCH1 [i]) that is a matching rate between the first partial region w1 [i] and the
物体存在判定部1341は、マッチング率算出部1331の算出結果に基づいて物体が存在するか否かを判定する処理を行う。本実施の形態では、第一のマッチング率MATCH1[i]、第二のマッチング率MATCH2[i]、第三のマッチング率MATCH3[i]と、第一の閾値1211、第二の閾値1221、第三の閾値1231と、ロービーム判定部1340の判定結果LBSTに基づいて、物体10の存在の有無を判定する。
The object
ロービーム判定部1340は、自車がロービーム(前照灯が点灯中で且つ下向き)の状態で走行しているか否かを判定する。そして、ロービームの状態である場合は「1」、それ以外であれば「0」を判定結果LBSTに代入して物体存在判定部1341に出力する。ロービームの判定には、前照灯の点灯スイッチ、およびハイビームのON・OFFを切り替えるスイッチの信号を処理回路1300に直接入力することによって判定しても良いし、LAN(Local Area Network)を用いた通信を行うことによって判定しても良い。
The low
また、画像取得装置1100で取得した画像の濃淡を用いて判定しても良い。例えば、ロービームの状態では、画像30上でロービームの範囲内が明るく、範囲外が暗く写ることから、カメラ画像全体の下半分の平均輝度値とカメラ画像の上半分の平均輝度値との差が、一定の閾値以上であるかによって、ロービームの状態であるか否かを判定することができる。
Alternatively, the determination may be made using the density of the image acquired by the
つぎに、図2を用いて、記憶装置1200の第一のテンプレート1210、第二のテンプレート1220、第三のテンプレート1230について説明する。図2は、第一のテンプレート1210、第二のテンプレート1220、第三のテンプレート1230の一例を示す模式図である。
Next, the
この例では、歩行者11の全身を検知するためのテンプレート1201を上下方向に三つに分割して、歩行者11の上部(頭部及び肩部)11Aを検知するための第一のテンプレート1210、歩行者11の中部(腰部)11Bを検知するための第二のテンプレート1220、歩行者11の下部11C(脚部)を検知するための第三のテンプレート1230としている。
In this example, a
第一のテンプレート1210は、歩行者11の上部11A、中部11B、下部11Cの何処の位置に対応するものであるかという情報として、歩行者11の基準幅PW及び基準高さPH内における、テンプレート1210とのマッチング率を算出する相対位置の情報(PSX1、PSY1、PEX1、PEY1)を有している。
The
第二のテンプレート1220も同様に、歩行者11の基準幅PW及び基準高さPH内における、テンプレート1220とのマッチング率を算出する相対位置(PSX2、PSY2、PEX2、PEY2)を含む。そして、第三のテンプレート1230も同様に、歩行者11の基準幅PW及び基準高さPH内における、テンプレート1230とのマッチング率を算出する相対位置(PSX3、PSY3、PEX3、PEY3)を含む。
Similarly, the
つぎに、図3〜図5を用いて、検知処理領域選定部1311における処理の内容について説明する。図3は、物体位置を設定する例を示す模式図、図4は、検知処理領域を設定する例を示す模式図、図5は、検知処理領域を設定する他の例を示す模式図である。
Next, the contents of processing in the detection processing
検知処理領域選定部1311は、画像IMGSRC[x][y]内で歩行者11を検知する検知処理領域W[i]を選定し、そのx座標(横方向)の始点SX[i]および終点EX[i]、y座標上(縦方向)の始点SY[i]および終点EY[i]を求める。検知処理領域W[i]が複数ある場合はSX[i]、EX[i]、SY[i]、EY[i]を配列とし、すべての検知処理領域W[i]の座標を出力する。
The detection processing
検知処理領域選定部1311は、物体位置検出部1310を用いても良いし、用いなくても良い。まず、物体位置検出部1310を用いて検知処理領域W[i]を設定する場合について、図3及び図4を用いて詳細に説明する。
The detection processing
検知処理領域選定部1311は、物体位置検出部1310が検出した物体10の相対距離PY[b]、横位置PX[b]および横幅WD[b]から、図3に示すように、画像20上における物体10の物体位置21を算出する。物体10の物体位置21は、物体10の周囲を囲む矩形領域で示され、その四隅の座標位置(x座標(横方向)の始点BSX[b]、終点BEX[b]、y座標(縦方向)の始点BSY[b]、終点BEY[b])で規定される。
As shown in FIG. 3, the detection processing
なお、画像20上の座標と実世界の位置関係を対応付けるカメラ幾何パラメータを、カメラキャリブレーション等の方法によってあらかじめ算出しておき、物体11の高さを、例えば180[cm]などあらかじめ仮定しておくことにより、画像20上での位置を一意に決定することができる。
A camera geometric parameter that associates the coordinates on the
また、画像取得装置1100の取り付けの誤差やレーダとの通信遅れ等の理由により、物体位置検出部1310で検出した物体10の画像20上における位置と、画像20に写っている同じ物体10の画像20上での位置の違いが生じる場合がある。
Further, the position of the
従って、画像20上での物体位置21(BSX[b]、BEX[b]、BSY[b]、BEY[b])から、補正を加えた物体位置22(BSX2[b]、BEX2[b]、BSY2[b]、BEY2[b])を算出する。物体位置21の補正は、物体位置21の領域を所定の量だけ拡大したり、移動させたりすることによって行われる。
Accordingly, the corrected object position 22 (BSX2 [b], BEX2 [b]) from the object position 21 (BSX [b], BEX [b], BSY [b], BEY [b]) on the
つぎに、図4に示すように、補正後の物体位置22(BSX2[b]、BEX2[b]、BSY2[b]、BEY2[b])内をラスタ走査するように、検知処理領域W[i](SX[i]、EX[i]、SY[i]、EY[i])を設定する。本実施の形態では、物体位置22の左上端部を原点とし、上方から下方に1ドットずつ移動させる動作と、下端まで移動した後に右側に1ドットだけ移動させる動作を繰り返して、物体位置22(BSX2[b]、BEX2[b]、BSY2[b]、BEY2[b])内を漏れなく探索するように、複数の検知処理領域W[i]が設定される。
Next, as shown in FIG. 4, the detection processing area W [] is scanned so that the corrected object position 22 (BSX2 [b], BEX2 [b], BSY2 [b], BEY2 [b]) is raster scanned. i] (SX [i], EX [i], SY [i], EY [i]). In the present embodiment, the object position 22 (repeating the operation of moving the dot position from top to bottom one dot at a time and the movement of moving one dot to the right after moving to the lower end with the upper left end of the
検知処理領域W[i]の大きさ(歩行者想定幅SW、歩行者想定高さSH)は、物体位置検出部1310が検出した物体10との相対距離PY[b]により決まる。また、歩行者想定幅SW、歩行者想定高さSHは、前述の歩行者基準幅PW、歩行者基準高さPHと同じである必要はないが、PW:PH=SW:SHの関係が必要とされる。
The size of the detection processing area W [i] (the estimated pedestrian width SW and the estimated pedestrian height SH) is determined by the relative distance PY [b] from the
図3には、2つの物体10(歩行者11と道路標識12)の物体位置21、21と、各物体位置21、21をそれぞれ補正した物体位置22、22とを検出した例が示されている。図3では、物体10の画像20上における物体位置21(BSX[b]、BEX[b]、BSY[b]、BEY[b])を実線で示し、補正を加えた物体位置22(BSX2[b]、BEX2[b]、BSY2[b]、BEY2[b])を破線で示している。補正後の物体位置22は、本実施の形態では、物体位置21の上下左右に一定のマージンを有している。
FIG. 3 shows an example in which object
例えば図3に示す例では、道路標識12の物体位置21(BSX[0]、BEX[0]、BSY[0]、BEY[0])と、補正後の物体位置22(BSX2[0]、BEX2[0]、BSY2[0]、BEY2[0])が算出され、また、歩行者11の物体位置22(BSX[1]、BEX[1]、BSY[1]、BEY[1])と、補正後の物体位置22(BSX2[1]、BEX2[1]、BSY2[1]、BEY2[1])が算出される。
For example, in the example shown in FIG. 3, the object position 21 (BSX [0], BEX [0], BSY [0], BEY [0]) of the
図4には、物体位置22(BSX2[b]、BEX2[b]、BSY2[b]、BEY2[b])内に検知処理領域W[i](SX[i]、EX[i]、SY[i]、EY[i])が設定された状態が示されている。 FIG. 4 shows detection processing areas W [i] (SX [i], EX [i], SY within the object position 22 (BSX2 [b], BEX2 [b], BSY2 [b], BEY2 [b]). A state in which [i], EY [i]) is set is shown.
例えば、道路標識12の物体位置22内における最初の検知処理領域W[0](SX[0]、SY[0] 、EX[0]、EY[0])は物体位置22内の左上に設定され、最後の検知処理領域W[i](SX[i]、SY[i] 、EX[i]、EY[i])は物体位置22内の右下に設定される。また、歩行者11の物体位置22内における最初の検知処理領域W[i+1](SX[i+1]、SY[i+1] 、EX[i+1]、EY[i+1])は物体位置22内の左上に設定され、最後の検知処理領域W(図示せず)は物体位置22内の右下に設定される。
For example, the first detection processing area W [0] (SX [0], SY [0], EX [0], EY [0]) in the
次に、物体位置検出部1310を用いずに検知処理領域Wを設定する場合について、図5を用いて説明する。物体位置検出部1310を用いない場合の検知処理領域Wの選定方法は、例えば、検知処理領域Wの大きさを変化させながら画像20全体を探索するように設定する方法や、特定の位置、特定の大きさのみに限定して検知処理領域Wを設定する方法がある。検知処理領域Wを特定の位置に限定して設定する場合は、例えば自車速を用いて自車がT秒後に進んでいる距離に限定して設定する方法がある。
Next, a case where the detection processing area W is set without using the object
図5は、自車速を用いて,自車が1.0秒後に進んでいる位置を探索する場合の例である。検知処理領域Wの大きさ(歩行者想定幅SW、歩行者想定高さSH)、およびy座標を算出した位置とカメラ幾何パラメータから求め、画像20上で横方向に1画素毎ずらしながら検知処理領域Wを設定している。なお、歩行者想定幅SW、歩行者想定高さSHは、前述の歩行者基準幅PW、歩行者基準高さPHと同じである必要はないが、PW:PH=SW:SHの関係が必要とされる。
FIG. 5 is an example in the case of searching for a position where the host vehicle has advanced 1.0 seconds later using the host vehicle speed. The detection processing area W is obtained from the calculated position and camera geometric parameter of the size of the detection processing area W (the estimated pedestrian width SW and the estimated pedestrian SH) and the y coordinate, and is detected while being shifted by one pixel in the horizontal direction on the
検知処理領域Wの大きさおよびy座標位置の決定方法であるが、画像20上の座標と実世界の位置関係を対応付けるカメラ幾何パラメータをカメラキャリブレーション等の方法によってあらかじめ算出しておくことで、歩行者11を検出したい距離から逆算することができる。
This is a method for determining the size of the detection processing region W and the y-coordinate position. By calculating in advance a camera geometric parameter that associates the coordinates on the
図5で示す例の場合、画像20の横の大きさ(画像横サイズ)をIMGSIZEXとすると、画像始点SX、SY、画像終点EX、EYには、それぞれ(画像横サイズIMGSIZEX−歩行者想定幅SW)個のデータが入る。検知処理領域Wの位置は、画像20の左端(SX[0]、SY[0]、EX[0]、EY[0])から、右端(SX[IMGSIZEX−W]、SY[IMGSIZEX−W]、EX[IMGSIZEX−W]、EY[IMGSIZEX−W])に向かって移動される。
In the case of the example shown in FIG. 5, if the horizontal size (image horizontal size) of the
つぎに、図6を用いて、領域分割部1321による処理の内容について説明する。図6は、ある検知処理領域W[i]を複数の部分領域w[i]に分割する一例を示す図、図7は、分割する他の例を示す図である。 Next, the contents of processing by the area dividing unit 1321 will be described with reference to FIG. FIG. 6 is a diagram illustrating an example of dividing a certain detection processing area W [i] into a plurality of partial areas w [i], and FIG. 7 is a diagram illustrating another example of the division.
処理領域分割部1321は、検知処理領域W(横方向SX[i]、EX[i]、縦方向SY[i]、EY[i])の歩行者想定幅SW[i](=EX[i]−SX[i])、歩行者想定高さSH[i](=EY[i]−SY[i])と、第一のテンプレート1210の歩行者基準幅PW、歩行者基準高さPHおよび相対領域位置(PSX1、PSY1、PEX1、PEY1)から、以下の式(1)〜式(4)を用いて、第一の部分領域w1[i](SX1[i]、EX1[i]、SY1[i]、EY1[i])を算出する。
The processing area dividing unit 1321 has a pedestrian assumed width SW [i] (= EX [i] in the detection processing area W (horizontal direction SX [i], EX [i], vertical direction SY [i], EY [i]). ] -SX [i]), estimated pedestrian height SH [i] (= EY [i] -SY [i]), pedestrian reference width PW, pedestrian reference height PH of the
SX1[i]=SX[i]+(PSX1)(SW[i]/PW) …(1)
SY1[i]=SY[i]+(PSY1)(SW[i]/PW) …(2)
EX1[i]=SX[i]+(PEX1)(SW[i]/PW) …(3)
EY1[i]=SY[i]+(PEY1)(SW[i]/PW) …(4)
そして、第二の部分領域w2[i](SX2[i]、EX2[i]、SY2[i]、EY2[i])、および第三の部分領域w3[i](SX3[i]、EX3[i]、SY3[i]、EY3[i])も同様に算出する。
SX1 [i] = SX [i] + (PSX1) (SW [i] / PW) (1)
SY1 [i] = SY [i] + (PSY1) (SW [i] / PW) (2)
EX1 [i] = SX [i] + (PEX1) (SW [i] / PW) (3)
EY1 [i] = SY [i] + (PEY1) (SW [i] / PW) (4)
Then, the second partial region w2 [i] (SX2 [i], EX2 [i], SY2 [i], EY2 [i]) and the third partial region w3 [i] (SX3 [i], EX3 [I], SY3 [i], EY3 [i]) are similarly calculated.
テンプレートは、図6に示す例の場合、歩行者11の全身に対応するテンプレート1201を上中下に3分割して形成されており、第一のテンプレート1210が歩行者11の上部11Aに対応し、第二のテンプレート1220が歩行者11の中部11Bに対応し、第三のテンプレート1230が歩行者11の下部11Cに対応している。そして、これら3つのテンプレートを合成すると隙間のない歩行者用のテンプレート1201となる。この場合、検知処理領域W[i]はすべて第一の部分領域w1[i]、第二の部分領域w2[i]、第三の部分領域w3[i]のいずれかに分類される。
In the example shown in FIG. 6, the
図7は、歩行者11の頭部や脚部など、特定の部位だけを見るテンプレートを用いる例である。この場合、第一のテンプレート1210が頭部のみ、第二のテンプレート1220が腰部、第三のテンプレート1230が脚部のみのテンプレートであり、3つのテンプレート1210〜1230を合成しても隙間が空く。この場合、検知処理領域W[i]内には、第一の領域w1[i]、第二の領域w2[i]、第三の領域w3[i]のいずれにも分類されない領域が発生する。
FIG. 7 shows an example in which a template for viewing only a specific part such as the head or leg of the
つぎに、図8を用いて、処理回路1300のマッチング率算出部1331について説明する。図8は、マッチング率算出部1331の処理内容を説明するフローチャートである。まず、ステップS301において、画像IMGSRC[x][y]から、第一の領域w1(SX1[i]、EX1[i]、SY1[i]、EY1[i])内の画像を切り出し、第一の領域w1の画像IMGMC1[i][x][y]を生成する。
Next, the matching
同様に、ステップS302において、画像IMGSRC[x][y]から、第二の領域w2(SX2[i]、EX2[i]、SY2[i]、EY2[i])内の画像を切り出し、第二の領域w2の画像IMGMC2[i][x][y]を生成する。 Similarly, in step S302, an image in the second region w2 (SX2 [i], EX2 [i], SY2 [i], EY2 [i]) is cut out from the image IMGSRC [x] [y], The image IMGMC2 [i] [x] [y] of the second region w2 is generated.
そして、ステップS303において、画像IMGSRC[x][y]から、第三の領域w3(SX3[i]、EX3[i]、SY3[i]、EY3[i])内の画像を切り出し、第三の領域w3の画像IMGMC3[i][x][y]を生成する。 In step S303, an image in the third region w3 (SX3 [i], EX3 [i], SY3 [i], EY3 [i]) is cut out from the image IMGSRC [x] [y], The image IMMGC3 [i] [x] [y] of the area w3 is generated.
つぎに、ステップS304において、第一の領域w1の画像IMGMC1[i][x][y]と第一のテンプレート1210の大きさが同じになるようにサイズ調整を行う。サイズ調整は、第一の領域w1の計算に用いた歩行者想定幅SW[i]、歩行者想定高さSH[i]と、第一のテンプレート1220の歩行者基準幅PW、歩行者基準高さPHを用いて行う。
Next, in step S304, size adjustment is performed so that the image IMGMC1 [i] [x] [y] in the first region w1 and the
第一の領域の画像IMGMC1[i][x][y]が、第一のテンプレート1220と同じ大きさになるように、画像サイズを横方向にPW/SW[i]倍、縦方向にPH/SH[i]倍に拡大・縮小してもよいし、逆に第一のテンプレート1220が第一の領域の画像IMGMC1[i][x][y]と同じ大きさになるように、テンプレートの大きさを横方向にSW[i]/PW倍、縦方向にSH[i]/PH倍に拡大・縮小してもよい。
The image size is PW / SW [i] times in the horizontal direction and PH in the vertical direction so that the image IMGMC1 [i] [x] [y] in the first region has the same size as the
同様に、ステップS305において、第二の領域w2の画像IMGMC2[i][x][y]と第二のテンプレート1220の大きさが同じになるようにサイズ調整を行う。
そして、ステップS306において、第三の領域w3の画像IMGMC3[i][x][y]と第三のテンプレート1230の大きさが同じになるようにサイズ調整を行う。
Similarly, in step S305, size adjustment is performed so that the image IMMGMC2 [i] [x] [y] in the second region w2 and the
In step S306, size adjustment is performed so that the image IMMGMC3 [i] [x] [y] in the third region w3 and the
そして、ステップS307において、大きさが調整された第一の領域w1のサイズ正規化画像IMGMC1[i][x][y]と第一のテンプレート1210との間のマッチング率である第一のマッチング率MATCH1[i]を算出する。マッチング率の算出方法については後述する。
In step S307, the first matching that is the matching rate between the size normalized image IMMGC1 [i] [x] [y] of the first region w1 whose size has been adjusted and the
同様に、ステップS308において、大きさが調整された第二の領域w2のサイズ正規化画像IMGMC2[i][x][y]と第二のテンプレート1220との間の第二のマッチング率MATCH2[i]を算出し、ステップS309において、大きさが調整された第三の領域w3のサイズ正規化画像IMGMC3[i][x][y]と第三のテンプレート1230との間の第三のマッチング率MATCH3[i]を算出する。
Similarly, in step S308, the second matching rate MATCH2 [between the size normalized image IMMGC2 [i] [x] [y] of the second region w2 whose size has been adjusted and the
つぎに、図9、10、11を用いて、ステップS307〜ステップS309におけるマッチング率の算出方法について以下に詳細に説明する。まず、画像のパターンを用いて歩行者11を検知する方法について説明する。歩行者11を検知する方法としては、歩行者パターンの代表となるテンプレートを複数用意しておき、差分累積演算あるいは正規化相関係演算を行って一致度を求める方法や、ニューラルネットワークなどの識別器を用いてパターン認識を行う方法が挙げられる。
Next, the method for calculating the matching rate in steps S307 to S309 will be described in detail below with reference to FIGS. First, a method for detecting the
いずれの方法をとるとしても、あらかじめ歩行者11か否かを決定する指標となるソースのデータベースが必要となる。様々な歩行者11のパターンをデータベースとして蓄えておき、そこから代表となるテンプレートを作成し、あるいは識別器を生成する。実環境では様々な服装、姿勢、体型の歩行者が存在し、さらにそれぞれ照明や天候などの条件が異なったりすることから、大量のデータベースを用意して、誤判定を少なくすることが必要となる。
Whichever method is used, a source database is required as an index for determining whether or not the person is a
このとき、前者のテンプレートを用意する方法の場合、判定漏れを防ぐようにするとテンプレートの数が膨大となり、現実的ではない。そこで、本実施の形態では後者の識別器を用いて判定する方法を採用する。識別器の大きさはソースのデータベースの大きさに依存しない。なお、識別器を生成するためのデータベースを教師データと呼ぶ。 At this time, in the former method of preparing a template, if the omission of determination is prevented, the number of templates becomes enormous, which is not realistic. Therefore, in the present embodiment, a determination method using the latter discriminator is adopted. The size of the discriminator does not depend on the size of the source database. A database for generating a classifier is called teacher data.
本実施形態における識別器を用いて歩行者11か否かを判定する方法を、図9、8を用いて説明する。
A method for determining whether or not the person is a
まず、第一のマッチング率算出方法について説明する。図9は、本実施形態における、第一のマッチング率算出の方法を示すブロック図である。ここでは、図8のステップS304において、第一の領域の画像IMGMT1[i][x][y]は横方向にPW/SW[i]倍、縦方向にPH/SH[i]倍に拡大・縮小され、第一のサイズ正規化画像IMGMT1N[i][x][y]に変換されている場合について説明する。 First, the first matching rate calculation method will be described. FIG. 9 is a block diagram showing a first matching rate calculation method in the present embodiment. Here, in step S304 of FIG. 8, the image IMGMT1 [i] [x] [y] of the first region is enlarged PW / SW [i] times in the horizontal direction and PH / SH [i] times in the vertical direction. A case where the image data is reduced and converted into the first size normalized image IMGMT1N [i] [x] [y] will be described.
本実施の形態では、第一の識別器41を用いて第一のマッチング率MATCH1[i]を算出する。第一の識別器41は、画像内の所定の箇所に設置された複数の小領域TP1R[n]内における濃淡勾配の方向と強さに基づいてマッチング率を算出する。
In the present embodiment, the first matching rate MATCH1 [i] is calculated using the
まず、入力画像IMGMT1N[i][x][y]が入力されると、例えばソーベルフィルタなどのフィルタリング処理部411によりフィルタリング処理が行われ、濃淡勾配の強さを表すエッジ強度画像IMGMAG1[x][y]および濃淡勾配の方向を表すエッジ方向画像IMGDIR1[x][y]がそれぞれ出力される。そして、局所エッジ強度算出部412により、各画像の所定箇所に設置された小領域TP1R[n]内で、算出された濃淡勾配の強さと方向を用いて局所エッジ強度TP1M[n]を算出する。
First, when the input image IMGMT1N [i] [x] [y] is input, filtering processing is performed by a
具体的には、小領域TP1R[n]に含まれるエッジ方向画像IMGDIR1[x][y]の値を参照し、その方向が小領域TP1R[n]ごとに定められた所定の方向と同一であったときに、対応する位置のエッジ強度画像IMGMAG1[x][y]の値を合計する。本実施の形態の場合、小領域TP1R[n]を20個設置しているため、局所エッジ強度TP1M[0]〜TP1M[19]の20個の値を得る。 Specifically, referring to the value of the edge direction image IMGDIR1 [x] [y] included in the small region TP1R [n], the direction is the same as a predetermined direction defined for each small region TP1R [n]. If there are, the values of the edge intensity images IMGMAG1 [x] [y] at the corresponding positions are summed. In the present embodiment, since 20 small regions TP1R [n] are installed, 20 values of local edge strengths TP1M [0] to TP1M [19] are obtained.
つぎに、局所エッジ判断部413において、各局所エッジ強度を、対応する閾値TP1TH[0]〜TP1TH[19]で閾値処理し、「1」か「0」の2値に変換する。そして、重み付け部414で重みTP1W[0]〜TP1W[19]を乗じ、合計部415へ出力する。合計部415は、重み付け部414から入力された20個の値を合計し、第一のマッチング率MATCH[i]として出力する。
Next, the local
なお、本実施の形態における第一のテンプレート1210は、識別器41内の各局所エッジ強度TP1M[0]〜TP1M[19]を算出する小領域TP1R[n]の個数、位置、大きさ、濃淡勾配の方向、局所エッジ判断部413における局所エッジ強度の閾値TP1TH[0]〜TP1TH[19]、重み付け部414の重みTP1W[0]〜TP1W[19]であり、これらのパラメータは、識別器41への入力画像IMGMC1N[i][x][y]が歩行者であった場合には「1」を、歩行者ではなかった場合には「0」を出力するように、教師データを用いて調整される。この供試データを用いた調整には、AdaBoostなどの機械学習の手段を用いてもよいし、手動で行ってもよい。
Note that the
例えば、NPD個の歩行者11の教師データ、およびNBG個非歩行者の教師データから、AdaBoostを用いて第一のテンプレート1210を決定する手順は以下の通りとなる。なお、以下、局所エッジの算出に必要な、位置、大きさ、濃淡勾配の方向の情報を持つ小領域をcTP1R[m]と表す。ここで、mは局所エッジのID番号である。
For example, the procedure for determining the
まず位置、大きさ、判定する濃淡勾配の方向が異なる小領域cTP1R[m]を複数(例えば、100万通り)用意し、それぞれ局所エッジ強度の値を全ての教師データから算出し、閾値cTP1TH[m]を決定する。閾値cTP1TH[m]は、歩行者11の教師データと非歩行者の教師データを最も分類することができる値を選択する。
First, a plurality of (for example, 1 million) small regions cTP1R [m] having different positions, sizes, and gradient directions to be determined are prepared, and local edge strength values are calculated from all teacher data, and threshold values cTP1TH [ m]. The threshold cTP1TH [m] selects a value that can best classify the
つぎに、歩行者11の教師データひとつひとつにwPD[nPD]=1/2NPDの重みを与え、非歩行者の教師データひとつひとつにwBG[nBG]=1/2NBGの重みを与える。ここで、nPDは歩行者の教師データのID番号、nBGは非歩行者の教師データのID番号である。
Next, a weight of wPD [nPD] = 1 / 2NPD is given to each teacher data of the
そして、k=1として、以下、繰り返し処理を行う。まず、歩行者・非歩行者全ての教師データの重みの合計が1となるように、重みを正規化する。つぎに、各局所エッジの誤検知率cER[m]を計算する。誤検知率cER[m]は、小領域TP1R[m]において、歩行者11の教師データの局所エッジ強度cTP1M[m][nPD]を閾値cTP1TH[m]で閾値処理した結果が非歩行者となったもの、もしくは非歩行者の教師データの局所エッジ強度cTP1M[m][nBG]を閾値cTP1TH[m]で閾値処理した結果が歩行者11となったもの、すなわち閾値処理した結果が実際と異なる教師データの重みの合計である。
Then, it is assumed that k = 1, and the following process is repeated. First, the weights are normalized so that the sum of the weights of all the pedestrian / non-pedestrian teacher data is 1. Next, the false detection rate cER [m] of each local edge is calculated. The false detection rate cER [m] is a result of threshold processing of the local edge strength cTP1M [m] [nPD] of the teacher data of the
全ての局所エッジの誤検知率cER[m]を算出後、誤検知率が最小となる局所エッジのID mMin を選択し、小領域TP1R[k]=cTP1R[mMin]、閾値TP1TH[k]=cTP1TH[mMin]とする。 After calculating the false detection rate cER [m] of all the local edges, the local edge ID Mmin that minimizes the false detection rate is selected, and the small region TP1R [k] = cTP1R [mMin] and the threshold value TP1TH [k] = cTP1TH [mMin].
つぎに、各教師データの重みを更新する。更新は、小領域TP1R[k]において、歩行者11の教師データの局所エッジ強度TP1M[k][nPD]を閾値TP1TH[k]で閾値処理した結果が歩行者11となったもの、もしくは非歩行者の教師データの局所エッジ強度TP1M[k][nBG]を閾値TP1TH[k]で閾値処理した結果が非歩行者となったもの、すなわち閾値処理した結果が正解の教師データの重みに、係数BT[k]=cER[mMin]/(1−cER[mMin])を乗じて行う。
Next, the weight of each teacher data is updated. In the update, in the small region TP1R [k], the local edge strength TP1M [k] [nPD] of the teacher data of the
k=k+1とし、kが予め設定した値(例えば、20)になるまで繰り返す。繰り返し処理の終了後に得られる小領域TP1R[k]、閾値TP1TH[k]がAdaBoostにより自動調整された識別器41である。なお、重みTP1W[k]=1/BT[k]である。
Repeat until k = k + 1 and k reaches a preset value (for example, 20). This is a
つぎに、第二のマッチング率算出方法について説明する。図10は、本実施形態における、第二のマッチング率算出の方法を示すブロック図である。ここでは、図8に示すステップS305において、第二の領域w2の画像IMGMT2[i][x][y]が横方向にPW/SW[i]倍、縦方向にPH/SH[i]倍に拡大・縮小され、第二のサイズ正規化画像IMGMT2N[i][x][y]に変換されているものとする。本実施の形態では第二の識別器42を用いて第二のマッチング率MATCH2[i]を算出する。
Next, a second matching rate calculation method will be described. FIG. 10 is a block diagram showing a second matching rate calculation method in the present embodiment. Here, in step S305 shown in FIG. 8, the image IMGMT2 [i] [x] [y] in the second region w2 is multiplied by PW / SW [i] in the horizontal direction and PH / SH [i] in the vertical direction. , And is converted into a second size normalized image IMGMT2N [i] [x] [y]. In the present embodiment, the second matching rate MATCH2 [i] is calculated using the
第二の識別器42は、第一の識別器41と同様に、フィルタリング処理部421、局所エッジ強度算出部422、局所エッジ判断部423、重み付け部424、合計部425を有する。なお、第二の識別器42は歩行者11の中部11Bの識別器であり、処理内容は第一の識別器41と同様であるため、説明は省略する。
Similar to the
さらに、第三のマッチング率算出方法について説明する。図11は、本実施形態における、第三のマッチング率算出の方法を示すブロック図である。ここでは、図8に示すステップS306において、第三の領域w3の画像IMGMT3[i][x][y]が横方向にPW/SW[i]倍、縦方向にPH/SH[i]倍に拡大・縮小され、第三のサイズ正規化画像IMGMT3N[i][x][y]に変換されているものとする。本実施の形態では第三の識別器43を用いて第三のマッチング率MATCH3[i]を算出する。
Furthermore, a third matching rate calculation method will be described. FIG. 11 is a block diagram showing a third matching rate calculation method in the present embodiment. Here, in step S306 shown in FIG. 8, the image IMGMT3 [i] [x] [y] in the third region w3 is multiplied by PW / SW [i] in the horizontal direction and PH / SH [i] in the vertical direction. , And is converted into a third size normalized image IMGMT3N [i] [x] [y]. In the present embodiment, the third matching rate MATCH3 [i] is calculated using the
第三の識別器43は、第一の識別器41及び第二の識別器42と同様に、フィルタリング処理部431、局所エッジ強度算出部432、局所エッジ判断部433、重み付け部434、合計部435を有する。なお、第三の識別器43は歩行者11の下部11Cの識別器であり、処理内容は第一の識別器41と同様であるため、説明は省略する。
Similar to the
物体存在判定部1341は、マッチング率算出部1331により算出した第一のマッチング率MATCH1[i]と、記憶装置1200内の第一の閾値1211との比較、第二のマッチング率MATCH2[i]と第二の閾値1221との比較、第三のマッチング率MATCH3[i]と第三の閾値1231との比較を行う。
The object
そして、第一のマッチング率MATCH1[i]が第一の閾値1211以上であり、かつ第二のマッチング率MATCH2[i]が第二の閾値1221以上であり、さらに第三のマッチング率MATCH3[i]が第三の閾値1231以上である場合に、歩行者11が存在すると判定し、少なくとも一つのマッチング率が閾値を下回る場合には、歩行者11が存在しないと判定する。
The first matching rate MATCH1 [i] is equal to or greater than the
上記の方法によれば、マッチングの度合いを局所的な分布で見ることができるので、歩行者の上半身のみに類似しているパターン、または歩行者の下半身のみに類似しているパターンを、歩行者として誤検知するのを排除することができる。 According to the above method, since the degree of matching can be seen in a local distribution, a pattern similar to only the upper body of the pedestrian or a pattern similar to only the lower body of the pedestrian It is possible to eliminate erroneous detection as.
つぎに、本装置によって、例えば子供等の身長が低い歩行者13を検出する方法について、図12を用いて説明する。図12は、低身長歩行者からマッチング率を算出する方法を説明する図である。
Next, a method for detecting a
物体存在判定部1341は、検知処理領域選定部1311によって、検知処理領域Wの大きさ(歩行者想定幅SW、歩行者想定高さSH)を変えずに、検知処理領域Wを縦方向に探索する設定とすることによって、画像内に歩行者11とは上下方向の長さが異なる他の物体である低身長歩行者13を検知することができる。
The object
具体的には、第一のマッチング率MATCH1[i]、第二のマッチング率MATCH2[i]、第三のマッチング率MATCH3[i]を配列として記憶し、前述の判定と同時に、互いに上下方向に位置が異なる部分領域の第一のマッチング率MATCH1[i]、第二のマッチング率MATCH2[j]、第三のマッチング率MATCH3[k]を用いて、身長が低い歩行者13を検知する。
Specifically, the first matching rate MATCH1 [i], the second matching rate MATCH2 [i], and the third matching rate MATCH3 [i] are stored as an array, and at the same time as the above determination, The
図12(b)〜(d)には、検知処理領域W[i―2c](SX[i―2c]、SY[i―2c]、EX[i―2c]、EY[i―c])、検知処理領域W[i―c](SX[i―c]、SY[i―c]、EX[i―c]、EY[i―c])、検知処理領域W[i](SX[i]、SY[i]、EX[i]、EY[i])における各部分領域のマッチング率が示されている。 FIGS. 12B to 12D show the detection processing area W [i-2c] (SX [i-2c], SY [i-2c], EX [i-2c], EY [ic]). , Detection processing area W [i-c] (SX [ic], SY [ic], EX [ic], EY [ic]]), detection processing area W [i] (SX [ i], SY [i], EX [i], EY [i]), the matching rates of the partial areas are shown.
図12に示すように、第一のテンプレート1210、第二のテンプレート1220、第三のテンプレート1230が対象とする歩行者11(図3を参照)よりも身長が低い低身長歩行者13の近傍でマッチング率を算出する。
As shown in FIG. 12, in the vicinity of a
その結果、低身長歩行者13を検知処理領域W検知処理領域W[i―2c]の下で捉える時は、図12(b)に示すように、第三のテンプレート1230とのマッチング率MATCH3[i−2c]が高い値となる。そして、低身長歩行者13を検知処理領域W[i―c]の中央で捉える時は、図12(c)に示すように、第二のテンプレート1220とのマッチング率MATCH2[i−c]が高い値となる。そして、低身長歩行者13を検知処理領域W[i]の上で捉える時は、図12(d)に示すように、第一のテンプレート1210とのマッチング率MATCH1[i]が高い値となる。
As a result, when capturing the
従って、検知処理領域Wの大きさ(歩行者想定幅SW、歩行者想定高さSH)を変えずに画像上で上から下へ縦方向に探索するように検知処理領域Wが設定されている場合、第一のテンプレート1210、第二のテンプレート1220、第三のテンプレート1230での検知を想定している歩行者(大人)11の身長をPHE[m]とし、検知したい低身長歩行者(子供)13の身長をCHE[m]とする。そして、c=(PHE−CHE)×SH/(2×PHE)を算出し、検知処理領域W[i](SX[i]、SY[i]、EX[i]、EY[i])における第一のマッチング率MATCH1[i]、検知処理領域W[i―c](SX[i―c]、SY[i―c]、EX[i―c]、EY[i―c])における第二のマッチング率MATCH2[i−c]、および検知処理領域W[i―2c](SX[i―2c]、SY[i―2c]、EX[i―2c]、EY[i―2c])における第三のマッチング率MATCH3[i−2c]を用いて物体存在判定を行うことにより、低身長歩行者13の存在を検知することができる。
Accordingly, the detection processing area W is set so as to search in the vertical direction from the top to the bottom on the image without changing the size of the detection processing area W (the estimated pedestrian width SW and the assumed pedestrian height SH). In this case, the height of the pedestrian (adult) 11 assumed to be detected by the
従って、用意しているテンプレートが想定している歩行者(大人)11よりも身長が低い低身長歩行者(子供)13を、低身長歩行者専用のテンプレートを用意することなく検知することができる。同様に、テンプレートが想定している歩行者(大人)よりも身長が高い長身の歩行者についても、同様に特別なテンプレートを用意することなく、検知することができる。 Therefore, it is possible to detect the short stature pedestrian (child) 13 whose height is lower than the pedestrian (adult) 11 assumed by the prepared template without preparing a template dedicated to the short stature pedestrian. . Similarly, a tall pedestrian having a height higher than that of the pedestrian (adult) assumed by the template can be detected without preparing a special template.
物体存在判定部1341は、ロービーム判定結果LBSTを用いて、周囲が暗くロービームの状態で歩行者を検知する場合と、そうでない場合でマッチング率の判定閾値を変化させることができる。
Using the low beam determination result LBST, the object
自車の前照灯が下向きであるロービームのときに、マッチング率の判定閾値を変化させる方法について、図13を用いて説明する。図13(a)は、昼間に撮影した画像20内の歩行者11のマッチング率を算出した例であり、図13(b)は、夜間にロービームの状態で撮影した画像20内の歩行者11のマッチング率を算出した例である。
A method for changing the threshold for determining the matching rate when the headlight of the host vehicle is a low beam will be described with reference to FIG. FIG. 13A shows an example in which the matching rate of the
図13(b)に示すように、夜間にロービームの状態で走行すると、自車前方の歩行者11は、照射範囲H内に存在する足元(脚部)のみが明るく映し出される。従って、この画像20のままでマッチング率を算出すると、上部部分領域である部分領域w1、w2は、部分領域w1と第一のテンプレート1210とのマッチング率MATCH1[i]、及び部分領域w2と第二のテンプレート1220とのマッチング率MATCH2[i]が低くなってしまう。
As shown in FIG. 13 (b), when traveling in the low beam state at night, the
従って、このような場合に、物体存在判定部1341は、ロービーム判定部1340からのロービーム判定結果LBSTを用いて、例えば第一の閾値(上部判定閾値)1211に係数「0.5」を、第二の閾値(上部判定閾値)1221に係数「0.7」を乗じて、第一の閾値1211と第二の閾値1221を非ロービーム状態のときよりも低い値に変更する。そして、第三の閾値(下部判定閾値)1231に係数「1.2」を乗じて、第三の閾値1231を非ロービーム状態のときよりも高い値に変更して物体存在判定を行う。
Therefore, in such a case, the object
また、物体存在判定部1341は、物体位置検出部1310を用いて測定した物体10の位置情報に応じてマッチング率の閾値を変化させてもよい。例として、物体10が横方向へ移動しているかどうかに応じてマッチング率の閾値を変化させる方法について、図14を用いて説明する。
Further, the object
図14は、横方向に移動している歩行者11の例を示す。検知処理領域選定部1311で説明したように、歩行者11が横移動している場合、物体検知装置1000内における通信遅れや取り付け誤差等によって、物体位置検出部1310で取得した画像20上での物体位置(BSX[b]、BSY[b]、BEX[b]、BEY[b])は、画像20上の歩行者11の位置とずれてしまう。
FIG. 14 shows an example of the
特に、物体10が横方向に移動している場合、検知処理領域Wを設定する範囲である(BSX2[b]、BSY2[b]、BEX2[b]、BEY2[b])にも含まれないことが発生しうる。
In particular, when the
この場合、第一のテンプレート1210を歩行者11の右半身のテンプレートとし、第二のテンプレート1220を歩行者11の左半身のテンプレートとすると、歩行者11が右側に移動している場合は右半身11Rが検知処理領域Wに入らないため右半身のテンプレート1210に関する第一のマッチング率MATCH1[i]が小さくなり、左側に移動している場合は左半身が検知処理領域Wに入らないため左半身のテンプレート1220に関する第二のマッチング率MATCH2[i]が小さくなる。
In this case, if the
従って、物体位置検出部1310から得られる物体10の横位置PX[b]から横移動速度VX[b]を算出し、その絶対値が所定の速度閾値を超えた場合は横移動していると判定し、VX[b]の符号から右側に歩いていると判定された場合は右側のテンプレートである第一のテンプレート1210に関する第一の閾値1211が小さくなるような係数を乗じ、また、左側に歩いていると判定された場合は左側のテンプレートである第二のテンプレート1220に関する第二の閾値1221が小さくなるような係数を乗じ、第一の閾値1211および第二の閾値1221を調整して物体存在判定を行う。係数は、例えば0.8など一定の値でもよいし、例えば横方向の速度が0から横方向の速度の閾値まで1.0で、速度が高くなるほど値が0に近づくような関数を用いてもよい。
Therefore, when the lateral movement speed VX [b] is calculated from the lateral position PX [b] of the
上記した物体検知装置1000によれば、歩行者11を検知する検知処理領域Wを上下方向に区画して部分領域w1、w2、w3の3つに分割する。そして、歩行者11の上部11Aを検知する第一のテンプレート1210、歩行者11の中部11Bを検知する第二のテンプレート1220、および歩行者11の脚部11Cを検知する第三のテンプレート1230を用いて、各部分領域w1、w2、w3とのマッチング率MATCH1、MATCH2、MATCH3を算出する。そして、各マッチング率MATCH1、MATCH2、MATCH3がそれぞれの判定閾値1211、1221、1231よりも大きいか否かを判断し、各マッチング率MATCH1、MATCH2、MATCH3が各判定閾値1211、1221、1231よりも大きいときは歩行者11であると判定する。従って、歩行者11の上半身にのみ類似しているパターン、または歩行者11の下半身にのみ類似しているパターンに対する誤検知を排除することができる。
According to the
また、物体検知装置1000によれば、歩行者11を検知する場合、別々の位置で算出した第一のテンプレート1210とのマッチング率MATCH1と、第二のテンプレート1220とのマッチング率MATCH2と、第三のテンプレート1230とのマッチング率MATCH3を様々に組み合わせることができる。
Moreover, according to the
例えば、検知処理領域Wを縦方向へ探索するように設定し、第一のマッチング率MATCH1[i]、第二のマッチング率MATCH2[i]、第三のマッチング率MATCH3[i]を配列として記憶し、異なる縦位置で算出した第一のマッチング率MATCH1[i]、第二のマッチング率MATCH2[j]、第三のマッチング率MATCH3[k]を組み合わせることができる。従って、大人よりも身長が低い子供を、子供専用のテンプレートを用意することなく、大人用のテンプレートのみで簡単且つ適切に検知することができる。 For example, the detection processing area W is set to be searched in the vertical direction, and the first matching rate MATCH1 [i], the second matching rate MATCH2 [i], and the third matching rate MATCH3 [i] are stored as an array. In addition, the first matching rate MATCH1 [i], the second matching rate MATCH2 [j], and the third matching rate MATCH3 [k] calculated at different vertical positions can be combined. Therefore, a child whose height is lower than that of an adult can be detected easily and appropriately only by using an adult template without preparing a template dedicated to the child.
さらに、ロービーム判定部1340の結果によって第一の閾値1211、第二の閾値1221、第三の閾値1231に係数を乗じ、ロービーム状態とロービーム状態以外のときで判定閾値を変化させることによって、ロービームにより歩行者11の脚部のみが明るく見えている場合でも歩行者11を適切に検知することができる。
Further, the
また、第一のテンプレート1210を歩行者11の右半身を検知するテンプレートとし、第二のテンプレート1220を歩行者11の左半身を検知するテンプレートとして、物体位置検出部1310の情報を用いて物体10が横移動していると判定した場合に、第一の閾値1211および第二の閾値1221に係数を乗じ、横移動時と横移動時でないときとで判定閾値を変化させることによって、通信遅れ等により物体位置検出部1310で検出した位置が画像20上の位置より遅れていても歩行者11を適切に検知することができる。
Further, the
なお、歩行者11の検知に用いる識別器41、42、43は、本実施例で取り上げた方法に限定されない。正規化相関を用いたテンプレートマッチング、ニューラルネットワーク識別器、サポートベクターマシン識別器、ベイズ識別器などを用いてもよい。また、テンプレートの数は本実施例の3つに限定されず、2つのテンプレートでも、4つ以上のテンプレートでもよい。さらに、物体存在判定部1341で説明したように、処理回路1300は、物体位置検出部1310またはロービーム判定部1340を用いない形態でも使用可能である。
The
本発明は、上述の実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。例えば、上述の実施の形態では、検知対象の物体10として歩行者11の場合を例に説明したが、例えば先行車両などの他の物体でもよい。また、上述の実施の形態では、検知処理領域Wを3つの部分領域w1、w2、w3に分解して歩行者11を検出する場合を例に説明したが、部分領域は複数であればよく、例えば2つ、あるいは4つ以上であってもよい。
The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention. For example, in the above-described embodiment, the case where the
1000 物体検知装置
1100 画像取得装置
1200 記憶装置
1210 第一のテンプレート
1211 第一の閾値
1220 第二のテンプレート
1221 第二の閾値
1230 第三のテンプレート
1221 第三の閾値
1300 処理回路
1310 物体位置検出部
1311 処理領域選定部
1321 領域分割部
1331 マッチング率算出部
1340 ロービーム判定部
1341 物体存在判定部
1000
Claims (5)
前記画像内で前記物体を検知するための検知処理領域を選定する検知処理領域選定部と、
該検知処理領域選定部により選定された前記検知処理領域を複数の部分領域に分割する領域分割部と、
前記複数の部分領域に対して各々設定され前記物体の部分を検知するためのテンプレートを用いて、前記各部分領域とのマッチング率をそれぞれ算出するマッチング率算出部と、
該マッチング率算出部により算出した各マッチング率に基づいて前記画像内に前記物体が存在するか否かを判定する物体存在判定部と、を有し、
前記検知処理領域選定部は、前記画像内において上下方向に複数の検知処理領域を選定し、
前記領域分割部は、前記検知処理領域を上下方向に分割して前記複数の部分領域とし、
前記物体存在判定部は、前記複数の検知処理領域にて互いに上下方向に位置が異なる部分領域のマッチング率を用いて、前記画像内に前記物体とは上下方向の長さが異なる他の物体が存在するか否かを判定することを特徴とする物体検知装置。 An object detection device for detecting a preset object from within an image,
A detection processing region selection unit for selecting a detection processing region for detecting the object in the image;
A region dividing unit that divides the detection processing region selected by the detection processing region selection unit into a plurality of partial regions;
A matching rate calculation unit that calculates a matching rate with each of the partial regions using a template that is set for each of the plurality of partial regions and detects a part of the object;
An object presence determination unit that determines whether or not the object is present in the image based on each matching rate calculated by the matching rate calculation unit;
The detection processing area selection unit selects a plurality of detection processing areas in the vertical direction in the image,
The region dividing unit divides the detection processing region in the vertical direction into the plurality of partial regions,
The object presence determination unit uses a matching ratio of partial areas whose positions are different from each other in the vertical direction in the plurality of detection processing areas, so that another object having a vertical length different from the object is included in the image. An object detection device that determines whether or not it exists.
前記画像内で前記物体を検知するための検知処理領域を選定する検知処理領域選定部と、
該検知処理領域選定部により選定された前記検知処理領域を複数の部分領域に分割する領域分割部と、
前記複数の部分領域に対して各々設定され前記物体の部分を検知するためのテンプレートを用いて、前記各部分領域とのマッチング率をそれぞれ算出するマッチング率算出部と、
該マッチング率算出部により算出した各マッチング率に基づいて前記画像内に前記物体が存在するか否かを判定する物体存在判定部と、
自車がロービームの状態で走行しているか否かを判定するロービーム判定部と、を有し、
前記領域分割部は、前記検知処理領域を上部部分領域と下部部分領域に分割し、
前記物体存在判定部は、前記ロービーム判定部によってロービーム状態と判定されているときは前記上部部分領域に対して予め設定されている上部判定閾値と、前記下部部分領域に対して予め設定されている下部判定閾値を調整して物体判定を行うことを特徴とする物体検知装置。 An object detection device for detecting a preset object from within an image,
A detection processing region selection unit for selecting a detection processing region for detecting the object in the image;
A region dividing unit that divides the detection processing region selected by the detection processing region selection unit into a plurality of partial regions;
A matching rate calculation unit that calculates a matching rate with each of the partial regions using a template that is set for each of the plurality of partial regions and detects a part of the object;
An object presence determination unit that determines whether or not the object exists in the image based on each matching rate calculated by the matching rate calculation unit;
A low beam determination unit that determines whether or not the vehicle is running in a low beam state ,
The region dividing unit divides the detection processing region into an upper partial region and a lower partial region,
The object presence determination unit is set in advance for an upper determination threshold set in advance for the upper partial region and in the lower partial region when the low beam determination unit determines that the low beam state is present. An object detection apparatus that performs object determination by adjusting a lower determination threshold.
前記画像内で前記物体を検知するための検知処理領域を選定する検知処理領域選定部と、
該検知処理領域選定部により選定された前記検知処理領域を複数の部分領域に分割する領域分割部と、
前記複数の部分領域に対して各々設定され前記物体の部分を検知するためのテンプレートを用いて、前記各部分領域とのマッチング率をそれぞれ算出するマッチング率算出部と、
該マッチング率算出部により算出した各マッチング率に基づいて前記画像内に前記物体が存在するか否かを判定する物体存在判定部と、
前記物体の位置を検出する物体位置検出部と、を有し、
前記領域分割部は、前記物体位置検出部からの検出信号に基づいて前記物体の横移動速度を算出し、該横移動速度が予め設定された速度閾値を超えている場合には、前記検知処理領域を左右方向に分割して左部分領域と右部分領域とし、
前記物体存在判定部は、前記左部分領域と右部分領域のうち、前記物体の移動方向前側に位置する部分領域に対して予め設定されている第一の閾値を、前記横移動速度が前記速度閾値以下のときよりも低い値に変更して物体判定を行うことを特徴とする物体検知装置。 An object detection device for detecting a preset object from within an image,
A detection processing region selection unit for selecting a detection processing region for detecting the object in the image;
A region dividing unit that divides the detection processing region selected by the detection processing region selection unit into a plurality of partial regions;
A matching rate calculation unit that calculates a matching rate with each of the partial regions using a template that is set for each of the plurality of partial regions and detects a part of the object;
An object presence determination unit that determines whether or not the object exists in the image based on each matching rate calculated by the matching rate calculation unit;
An object position detection unit for detecting the position of the object,
The area dividing unit calculates a lateral movement speed of the object based on a detection signal from the object position detection unit, and the detection process is performed when the lateral movement speed exceeds a preset speed threshold value. Divide the area in the left and right direction into left partial area and right partial area,
The object presence determination unit sets a first threshold value that is set in advance for a partial region located on the front side in the movement direction of the object among the left partial region and the right partial region, and the lateral movement speed is the speed. An object detection apparatus that performs object determination by changing to a lower value than when it is equal to or less than a threshold value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008304587A JP5090321B2 (en) | 2008-11-28 | 2008-11-28 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008304587A JP5090321B2 (en) | 2008-11-28 | 2008-11-28 | Object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010128919A JP2010128919A (en) | 2010-06-10 |
JP5090321B2 true JP5090321B2 (en) | 2012-12-05 |
Family
ID=42329254
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008304587A Active JP5090321B2 (en) | 2008-11-28 | 2008-11-28 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5090321B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5822255B2 (en) * | 2011-04-14 | 2015-11-24 | 株式会社豊田中央研究所 | Object identification device and program |
JP5603835B2 (en) | 2011-06-27 | 2014-10-08 | クラリオン株式会社 | Vehicle perimeter monitoring device |
JP5906730B2 (en) * | 2011-12-27 | 2016-04-20 | セイコーエプソン株式会社 | Detection apparatus and detection method |
JP6100635B2 (en) * | 2012-12-13 | 2017-03-22 | 株式会社デンソー | Moving body detection device |
JP2014044730A (en) * | 2013-09-24 | 2014-03-13 | Clarion Co Ltd | Image processing apparatus |
KR102164637B1 (en) * | 2014-09-23 | 2020-10-12 | 현대자동차주식회사 | System for tracking a object in road and method thereof |
JP2017165345A (en) * | 2016-03-18 | 2017-09-21 | 株式会社Jvcケンウッド | Object recognition device, object recognition method and object recognition program |
JP6759995B2 (en) * | 2016-11-11 | 2020-09-23 | 株式会社デンソー | Image processing device |
CN109426771A (en) * | 2017-08-24 | 2019-03-05 | 日立汽车系统株式会社 | The device and method that the wisp region of vehicle periphery is identified |
JP7009864B2 (en) * | 2017-09-20 | 2022-01-26 | カシオ計算機株式会社 | Contour detection device and contour detection method |
JP7423491B2 (en) | 2018-07-31 | 2024-01-29 | ソニーセミコンダクタソリューションズ株式会社 | Solid-state imaging device and vehicle control system |
CN112639877A (en) * | 2018-09-12 | 2021-04-09 | 日立汽车系统株式会社 | Image recognition device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000185610A (en) * | 1998-12-24 | 2000-07-04 | Mazda Motor Corp | Obstacle alarm device for vehicle |
JP2005316607A (en) * | 2004-04-27 | 2005-11-10 | Toyota Motor Corp | Image processor and image processing method |
JP2008015771A (en) * | 2006-07-05 | 2008-01-24 | Fujitsu Ten Ltd | Image recognition device, image recognition method, and vehicle control device |
JP2008021034A (en) * | 2006-07-11 | 2008-01-31 | Fujitsu Ten Ltd | Image recognition device, image recognition method, pedestrian recognition device and vehicle controller |
JP4263737B2 (en) * | 2006-11-09 | 2009-05-13 | トヨタ自動車株式会社 | Pedestrian detection device |
JP2008181423A (en) * | 2007-01-25 | 2008-08-07 | Fujitsu Ten Ltd | Pedestrian recognition device and pedestrian recognition method |
-
2008
- 2008-11-28 JP JP2008304587A patent/JP5090321B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010128919A (en) | 2010-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5090321B2 (en) | Object detection device | |
JP5372680B2 (en) | Obstacle detection device | |
JP5401344B2 (en) | Vehicle external recognition device | |
US8903603B2 (en) | Environment recognizing device for a vehicle and vehicle control system using the same | |
EP3179445B1 (en) | Outside environment recognition device for vehicles and vehicle behavior control device using same | |
JP4241834B2 (en) | In-vehicle fog determination device | |
US8199198B2 (en) | Bright spot detection and classification method for a vehicular night-time video imaging system | |
US8175331B2 (en) | Vehicle surroundings monitoring apparatus, method, and program | |
US8810653B2 (en) | Vehicle surroundings monitoring apparatus | |
JP5145585B2 (en) | Target detection device | |
JP5283967B2 (en) | In-vehicle object detection device | |
JP2014115978A (en) | Mobile object recognition device, notification apparatus using the device, mobile object recognition program for use in the mobile object recognition device, and mobile object with the mobile object recognition device | |
JP2013061919A (en) | External environment recognition method and device, and vehicle system | |
JP2011257984A (en) | Object detection device and program | |
JP5874831B2 (en) | Three-dimensional object detection device | |
JP5065172B2 (en) | Vehicle lighting determination device and program | |
JP5593217B2 (en) | Vehicle external recognition device and vehicle system using the same | |
JP6533244B2 (en) | Object detection device, object detection method, and object detection program | |
WO2020054260A1 (en) | Image recognition device | |
JP7460282B2 (en) | Obstacle detection device, obstacle detection method, and obstacle detection program | |
JP5313080B2 (en) | Linear component reduction device and pedestrian detection display system | |
JP2021136597A (en) | External environment recognition device for vehicle | |
JP4871941B2 (en) | Vehicle periphery monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120619 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120813 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120904 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120912 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150921 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5090321 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |