JP5090321B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP5090321B2
JP5090321B2 JP2008304587A JP2008304587A JP5090321B2 JP 5090321 B2 JP5090321 B2 JP 5090321B2 JP 2008304587 A JP2008304587 A JP 2008304587A JP 2008304587 A JP2008304587 A JP 2008304587A JP 5090321 B2 JP5090321 B2 JP 5090321B2
Authority
JP
Japan
Prior art keywords
detection processing
image
matching rate
unit
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008304587A
Other languages
Japanese (ja)
Other versions
JP2010128919A (en
Inventor
健人 緒方
和利 土屋
博史 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2008304587A priority Critical patent/JP5090321B2/en
Publication of JP2010128919A publication Critical patent/JP2010128919A/en
Application granted granted Critical
Publication of JP5090321B2 publication Critical patent/JP5090321B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像内から所定の物体をテンプレートマッチングにより検知する物体検知装置に関する。   The present invention relates to an object detection device that detects a predetermined object from an image by template matching.

交通事故による死傷者数を低減するため、事故を未然に防ぐ予防安全システムの開発が進められている。予防安全システムは、事故の発生する可能性が高い状況下で作動するシステムであり、例えば、自車前方の障害物と衝突する可能性が生じたときには警報によって運転者に注意を促し、衝突が避けられない状況になったときには自動ブレーキによって乗員の被害を軽減するプリクラッシュ・セーフティ・システム等が実用化されている。   In order to reduce the number of casualties due to traffic accidents, the development of preventive safety systems that prevent accidents in advance is underway. A preventive safety system is a system that operates in a situation where there is a high possibility of an accident.For example, when there is a possibility of collision with an obstacle in front of the host vehicle, a warning is given to the driver to alert the driver. Pre-crash safety systems have been put into practical use that reduce the damage to passengers by automatic braking when inevitable situations occur.

上記システムにおいて歩行者等の障害物を検知する方法として、例えば、カメラで自車前方を撮像し、撮像された画像中から、あらかじめ記憶している障害物のテンプレートと類似したパターンを検出する方法がある。   As a method for detecting obstacles such as pedestrians in the above system, for example, a method of imaging the front of the vehicle with a camera and detecting a pattern similar to a previously stored obstacle template from the captured images There is.

例えば特許文献1には、自車前方を撮像した画像から、車道端近傍の歩行者を検出する方法が記載されている。この方法によれば、車道検出手段により検出した車道端近傍で歩行者テンプレートとのテンプレートマッチングを行い、テンプレートとのマッチングの度合いを示す相関値(以下、マッチング率と表する)が閾値以上の場合は歩行者が存在すると判定することで、運転者にとって注意が必要な歩行者を効率よく検出することができる。   For example, Patent Document 1 describes a method of detecting a pedestrian near the end of a road from an image obtained by imaging the front of the host vehicle. According to this method, when template matching with a pedestrian template is performed in the vicinity of the road edge detected by the road detection means, and a correlation value (hereinafter referred to as a matching rate) indicating the degree of matching with the template is equal to or greater than a threshold value By determining that there is a pedestrian, it is possible to efficiently detect a pedestrian that requires attention from the driver.

特開2005−316607号公報JP-A-2005-316607

しかしながら、テンプレートマッチングは、テンプレート全体でのマッチングの度合いだけを見ており、局所的な分布では見ていないため、検知率の向上と誤検知の排除を両立する閾値の決定が難しいという課題がある。   However, since template matching only looks at the degree of matching in the entire template, not the local distribution, there is a problem that it is difficult to determine a threshold value that achieves both improvement in detection rate and elimination of false detection. .

例えば歩行者を検出する場合、歩行者の検知性能を高めるため閾値を下げると、テンプレートと一部だけ類似しているようなパターンを誤検知しやすくなってしまう。また、逆に誤検知を低減するため閾値を上げると、例えば子供など身長が低くマッチング率が低い歩行者が検出できなくなってしまう。   For example, when detecting a pedestrian, if the threshold value is lowered in order to improve the detection performance of the pedestrian, a pattern that is only partially similar to the template is likely to be erroneously detected. On the other hand, if the threshold value is increased in order to reduce false detection, a pedestrian with a low height and a low matching rate, such as a child, cannot be detected.

本発明は上記問題に着目してなされたもので、その目的とするところは、検知率向上と誤検知の排除を両立する物体検知装置を提供することである。   The present invention has been made paying attention to the above problems, and an object of the present invention is to provide an object detection device that achieves both improvement in detection rate and elimination of erroneous detection.

上記課題を解決するための手段である本発明の物体検知装置は、画像内に選定された検知処理領域を複数の部分領域に分割して、各部分領域とテンプレートとのマッチング率をそれぞれ算出し、各マッチング率に基づいて画像内に物体が存在するか否かを判定する。   The object detection device of the present invention, which is a means for solving the above problems, divides a detection processing area selected in an image into a plurality of partial areas, and calculates a matching rate between each partial area and a template. Based on each matching rate, it is determined whether or not an object exists in the image.

本発明によれば、画像内に選定された検知処理領域を複数の部分領域に分割して、各部分領域とテンプレートとのマッチング率をそれぞれ算出し、各マッチング率に基づいて物体の存在を判定するので、テンプレートと一部だけが類似しているようなパターンの誤検知を低減することができる。   According to the present invention, the detection processing area selected in the image is divided into a plurality of partial areas, the matching ratio between each partial area and the template is calculated, and the presence of an object is determined based on each matching ratio. Therefore, it is possible to reduce erroneous detection of patterns that are only partially similar to the template.

以下、本発明の実施形態について図面を用いて詳細に説明する。図1は、本実施の形態における物体検知装置1000のブロック図である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram of an object detection apparatus 1000 in the present embodiment.

物体検知装置1000は、画像内から予め設定された物体を検知するためのものであり、本実施の形態では、自動車に搭載されるカメラ装置内に組み込まれ、自車の周囲を撮像した画像内から歩行者11を検知するように構成されている。   The object detection device 1000 is for detecting a preset object from within an image. In the present embodiment, the object detection device 1000 is incorporated in a camera device mounted on an automobile and includes an image obtained by imaging the surroundings of the own vehicle. It is comprised so that the pedestrian 11 may be detected.

物体検知装置1000は、図1に示すように、画像取得装置1100、記憶装置1200、処理回路1300から構成される。画像取得装置1100は、自車の前方を撮像可能な位置に取り付けられた単眼カメラを備えており、CCDやCMOSなどの撮像素子を用いて、自車前方を撮影した前方画像としてディジタル値の信号に変換する機能を有している。   As shown in FIG. 1, the object detection device 1000 includes an image acquisition device 1100, a storage device 1200, and a processing circuit 1300. The image acquisition apparatus 1100 includes a monocular camera mounted at a position where the front of the host vehicle can be imaged, and a digital value signal as a front image obtained by capturing the front of the host vehicle using an image sensor such as a CCD or CMOS. It has the function to convert to.

ディジタル値の信号は、ディジタル値のまま処理回路1300内のRAM上に画像情報IMGSRC[x][y]として直接書き込まれてもよいし、アナログ信号に変換し処理回路1300で再度ディジタル信号へ変換し画像IMGSRC[x][y]としてRAM上に書き込まれてもよい。なお、画像IMGSRC[x][y]は2次元配列であり、x、yはそれぞれ画像の座標を示す。   The digital value signal may be directly written as image information IMGSRC [x] [y] on the RAM in the processing circuit 1300 as a digital value, or converted into an analog signal and converted again into a digital signal by the processing circuit 1300. The image IMGSRC [x] [y] may be written on the RAM. Note that the image IMGSRC [x] [y] is a two-dimensional array, and x and y indicate the coordinates of the image, respectively.

記憶装置1200は、例えばハードディスクやROMによって構成されており、所定のデータが格納されて、処理回路1300からアクセスが可能な装置である。記憶装置1200には、物体が有する部分を検知するテンプレートと判定閾値の情報が記憶されている。   The storage device 1200 is configured by a hard disk or a ROM, for example, and stores predetermined data and can be accessed from the processing circuit 1300. The storage device 1200 stores information about a template for detecting a part of an object and a determination threshold value.

本実施の形態では、歩行者11の上部(頭部と肩部を含む)を検知するための第一のテンプレート1210、歩行者11の中部(腰部を含む)を検知するための第二のテンプレート1220、歩行者11の下部(脚部を含む)を検知するための第三のテンプレート1230、第一のテンプレート1210に対応する第一の判定閾値1211、第二のテンプレート1220に対応する第二の判定閾値1221、第三のテンプレート1230に対応する第三の判定閾値1231が記憶されている。   In the present embodiment, a first template 1210 for detecting the upper part (including the head and shoulders) of the pedestrian 11 and a second template for detecting the middle part (including the waist) of the pedestrian 11. 1220, a third template 1230 for detecting the lower part (including the leg) of the pedestrian 11, a first determination threshold value 1211 corresponding to the first template 1210, and a second template corresponding to the second template 1220. A determination threshold 1221 and a third determination threshold 1231 corresponding to the third template 1230 are stored.

処理回路1300は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。処理回路1300は、検知処理領域選定部1311と、領域分割部1321と、マッチング率算出部1331と、物体存在判定部1341と、物体位置検出部1310と、ロービーム判定部1340を有する。   The processing circuit 1300 is configured by a computer having a CPU, a memory, an I / O, and the like, and a predetermined process is programmed to execute the process repeatedly at a predetermined cycle. The processing circuit 1300 includes a detection processing region selection unit 1311, a region division unit 1321, a matching rate calculation unit 1331, an object presence determination unit 1341, an object position detection unit 1310, and a low beam determination unit 1340.

物体位置検出部1310は、自車に搭載されたミリ波レーダやレーザレーダ等の自車周辺の物体を検出するレーダ(図示せず)からの検出信号を取得して、自車前方に存在する物体10の物体位置21を検出する。例えば図3に示すように、レーダから自車周辺の歩行者11や道路標識12等の物体10の物体位置(相対距離PY[b]、横位置PX[b]、横幅WD[b])を取得する。ここで、[b]は複数の物体10を検知している場合のID番号である。   The object position detection unit 1310 acquires a detection signal from a radar (not shown) that detects an object around the host vehicle such as a millimeter wave radar or a laser radar mounted on the host vehicle, and exists in front of the host vehicle. An object position 21 of the object 10 is detected. For example, as shown in FIG. 3, the object position (relative distance PY [b], lateral position PX [b], lateral width WD [b]) of an object 10 such as a pedestrian 11 or a road sign 12 around the own vehicle is obtained from the radar. get. Here, [b] is an ID number when a plurality of objects 10 are detected.

これらの物体10の位置情報は、レーダの信号を物体検知装置1000に直接入力することによって取得しても良いし、レーダとLAN(Local Area Network)を用いた通信を行うことによって取得しても良い。   The position information of these objects 10 may be acquired by directly inputting a radar signal to the object detection apparatus 1000, or may be acquired by performing communication with a radar using a LAN (Local Area Network). good.

検知処理領域選定部1311は、画像20内で物体10を検知するための検知処理領域W[i]を選定するものであり、画像取得装置1100からの画像情報(IMGSRC[x][y])と、物体位置検出部1310からの物体情報とに基づいて検知処理領域W[i]を選定する。   The detection processing area selection unit 1311 selects a detection processing area W [i] for detecting the object 10 in the image 20, and image information (IMGSRC [x] [y]) from the image acquisition apparatus 1100. And the detection processing area W [i] based on the object information from the object position detection unit 1310.

そして、その選定した検知処理領域W[i]の座標情報(横方向の始点座標SX[i]、横方向の終点座標EX[i]、縦方向の始点座標SY[i]、縦方向の終点座標EY[i])を領域分割部1321に出力する。ここで、[i]は複数の検知処理領域Wを選定している場合のID番号である。   Then, the coordinate information of the selected detection processing area W [i] (the horizontal start point coordinate SX [i], the horizontal end point coordinate EX [i], the vertical start point coordinate SY [i], the vertical end point) The coordinates EY [i]) are output to the area dividing unit 1321. Here, [i] is an ID number when a plurality of detection processing areas W are selected.

物体位置検出部1310を備えていない場合には、検知したい歩行者の位置を全て探索するように、座標情報(横方向の始点座標SX[i]、横方向の終点座標EX[i]、縦方向の始点座標SY[i]、縦方向の終点座標EY[i])を設定する。例えば自車先端から所定の距離から所定の距離まで、かつ車両中心から所定の幅の範囲内にて1メートル間隔で探索するように設定してもよいし、自車の速度から自車がT秒後に到達する距離で、自車中心から所定の幅の範囲内にて1メートル間隔で探索するように設定してもよい。   If the object position detection unit 1310 is not provided, coordinate information (a horizontal start point coordinate SX [i], a horizontal end point coordinate EX [i], a vertical direction) is searched so as to search all positions of pedestrians to be detected. Direction start point coordinates SY [i], vertical end point coordinates EY [i]). For example, the vehicle may be set to search at intervals of 1 meter from a predetermined distance to a predetermined distance from the front end of the own vehicle and within a predetermined width from the center of the vehicle. You may set so that it may search at intervals of 1 meter within the range of a predetermined width from the center of the vehicle at the distance reached in seconds.

領域分割部1321は、検知処理領域Wを複数の部分領域に分割するものであり、テンプレートに応じて分割する処理を行う。例えば図6及び図7に示すように、検知処理領域Wの座標情報(SX[i]、EX[i]、SY[i]、EY[i])、および第一のテンプレート1210、第二のテンプレート1220、第三のテンプレート1230の情報に基づいて検知処理領域W[i]を縦方向(上下方向)に3つの部分領域に分割し、検知処理領域W[i]内で第一のテンプレート1210の位置に対応する第一の部分領域w1[i]、第二のテンプレート1220の位置に対応する第二の部分領域w2[i]、第三のテンプレート1230の位置に対応する第三の部分領域w3[i]の各座標情報を演算する。   The area dividing unit 1321 divides the detection processing area W into a plurality of partial areas, and performs a process of dividing according to the template. For example, as shown in FIGS. 6 and 7, the coordinate information (SX [i], EX [i], SY [i], EY [i]) of the detection processing area W, the first template 1210, the second Based on the information of the template 1220 and the third template 1230, the detection processing area W [i] is divided into three partial areas in the vertical direction (vertical direction), and the first template 1210 is detected in the detection processing area W [i]. The first partial area w1 [i] corresponding to the position of the second partial area w2 [i] corresponding to the position of the second template 1220, and the third partial area corresponding to the position of the third template 1230 Each coordinate information of w3 [i] is calculated.

そして、第一の部分領域w1[i]の座標情報(SX1[i]、EX1[i]、SY1[i]、EY1[i])、第二の部分領域w2[i]の座標情報(SX2[i]、EX2[i]、SY2[i]、EY2[i])、第三の部分領域w3[i]の座標情報(SX3[i]、EX3[i]、SY3[i]、EY3[i])をマッチング率算出部1331に出力する。   Then, the coordinate information (SX1 [i], EX1 [i], SY1 [i], EY1 [i]) of the first partial region w1 [i], the coordinate information (SX2) of the second partial region w2 [i]. [I], EX2 [i], SY2 [i], EY2 [i]), the coordinate information (SX3 [i], EX3 [i], SY3 [i], EY3 [) of the third partial area w3 [i]. i]) is output to the matching rate calculator 1331.

マッチング率算出部1331は、これらの各部分領域W1[i]〜W3[i]と、対応する各テンプレート1210〜1230とのマッチング率をそれぞれ算出する。ここでは、第一の部分領域w1[i]の座標情報(SX1[i]、EX1[i]、SY1[i]、EY1[i])、第二の部分領域w2[i]の座標情報(SX2[i]、EX2[i]、SY2[i]、EY2[i])、第三の部分領域w3[i]の座標情報(SX3[i]、EX3[i]、SY3[i]、EY3[i])、画像情報IMGSRC[x][y]、第一のテンプレート1210、第二のテンプレート1220、第三のテンプレート1230の情報を入力する。   The matching rate calculation unit 1331 calculates the matching rates between these partial regions W1 [i] to W3 [i] and the corresponding templates 1210 to 1230, respectively. Here, the coordinate information (SX1 [i], EX1 [i], SY1 [i], EY1 [i]) of the first partial area w1 [i] and the coordinate information ( SX2 [i], EX2 [i], SY2 [i], EY2 [i]), coordinate information of the third partial area w3 [i] (SX3 [i], EX3 [i], SY3 [i], EY3 [I]), image information IMGSRC [x] [y], information on the first template 1210, the second template 1220, and the third template 1230 are input.

そして、第一の部分領域w1[i]と第一のテンプレート1210とのマッチング率である第1のマッチング率(MATCH1[i])、第二の部分領域w2[i]と第二のテンプレート1220とのマッチング率である第2のマッチング率(MATCH2[i])、第三の部分領域w3[i]と第三のテンプレート1230とのマッチング率である第3のマッチング率(MATCH3[i])をそれぞれ演算し、物体存在判定部1341に出力する。   Then, a first matching rate (MATCH1 [i]) that is a matching rate between the first partial region w1 [i] and the first template 1210, a second partial region w2 [i], and the second template 1220. The second matching rate (MATCH2 [i]) that is the matching rate between the third partial area w3 [i] and the third matching rate (MATCH3 [i]) that is the matching rate between the third template 1230 Are calculated and output to the object presence determination unit 1341.

物体存在判定部1341は、マッチング率算出部1331の算出結果に基づいて物体が存在するか否かを判定する処理を行う。本実施の形態では、第一のマッチング率MATCH1[i]、第二のマッチング率MATCH2[i]、第三のマッチング率MATCH3[i]と、第一の閾値1211、第二の閾値1221、第三の閾値1231と、ロービーム判定部1340の判定結果LBSTに基づいて、物体10の存在の有無を判定する。   The object presence determination unit 1341 performs processing to determine whether an object exists based on the calculation result of the matching rate calculation unit 1331. In the present embodiment, the first matching rate MATCH1 [i], the second matching rate MATCH2 [i], the third matching rate MATCH3 [i], the first threshold value 1211, the second threshold value 1221, The presence / absence of the object 10 is determined based on the third threshold value 1231 and the determination result LBST of the low beam determination unit 1340.

ロービーム判定部1340は、自車がロービーム(前照灯が点灯中で且つ下向き)の状態で走行しているか否かを判定する。そして、ロービームの状態である場合は「1」、それ以外であれば「0」を判定結果LBSTに代入して物体存在判定部1341に出力する。ロービームの判定には、前照灯の点灯スイッチ、およびハイビームのON・OFFを切り替えるスイッチの信号を処理回路1300に直接入力することによって判定しても良いし、LAN(Local Area Network)を用いた通信を行うことによって判定しても良い。   The low beam determination unit 1340 determines whether or not the vehicle is traveling in a low beam state (the headlamp is lit and facing downward). Then, “1” is substituted for the low beam state, and “0” is substituted for the determination result LBST otherwise, and is output to the object presence determination unit 1341. The determination of the low beam may be performed by directly inputting a headlight lighting switch and a high beam ON / OFF switch signal to the processing circuit 1300, or using a LAN (Local Area Network). You may determine by performing communication.

また、画像取得装置1100で取得した画像の濃淡を用いて判定しても良い。例えば、ロービームの状態では、画像30上でロービームの範囲内が明るく、範囲外が暗く写ることから、カメラ画像全体の下半分の平均輝度値とカメラ画像の上半分の平均輝度値との差が、一定の閾値以上であるかによって、ロービームの状態であるか否かを判定することができる。   Alternatively, the determination may be made using the density of the image acquired by the image acquisition device 1100. For example, in the low beam state, the inside of the low beam is bright and the outside of the range appears dark on the image 30, so the difference between the average luminance value of the lower half of the entire camera image and the average luminance value of the upper half of the camera image is Whether the beam is in the low beam state can be determined depending on whether the value is equal to or greater than a certain threshold value.

つぎに、図2を用いて、記憶装置1200の第一のテンプレート1210、第二のテンプレート1220、第三のテンプレート1230について説明する。図2は、第一のテンプレート1210、第二のテンプレート1220、第三のテンプレート1230の一例を示す模式図である。   Next, the first template 1210, the second template 1220, and the third template 1230 of the storage device 1200 will be described with reference to FIG. FIG. 2 is a schematic diagram illustrating an example of the first template 1210, the second template 1220, and the third template 1230.

この例では、歩行者11の全身を検知するためのテンプレート1201を上下方向に三つに分割して、歩行者11の上部(頭部及び肩部)11Aを検知するための第一のテンプレート1210、歩行者11の中部(腰部)11Bを検知するための第二のテンプレート1220、歩行者11の下部11C(脚部)を検知するための第三のテンプレート1230としている。   In this example, a template 1201 for detecting the whole body of the pedestrian 11 is divided into three in the vertical direction, and a first template 1210 for detecting the upper part (head and shoulders) 11A of the pedestrian 11. The second template 1220 for detecting the middle part (waist part) 11B of the pedestrian 11 and the third template 1230 for detecting the lower part 11C (leg part) of the pedestrian 11 are used.

第一のテンプレート1210は、歩行者11の上部11A、中部11B、下部11Cの何処の位置に対応するものであるかという情報として、歩行者11の基準幅PW及び基準高さPH内における、テンプレート1210とのマッチング率を算出する相対位置の情報(PSX1、PSY1、PEX1、PEY1)を有している。   The first template 1210 is a template in the reference width PW and the reference height PH of the pedestrian 11 as information indicating where the upper part 11A, the middle part 11B, and the lower part 11C of the pedestrian 11 correspond. Information of relative positions (PSX1, PSY1, PEX1, and PEY1) for calculating the matching rate with 1210.

第二のテンプレート1220も同様に、歩行者11の基準幅PW及び基準高さPH内における、テンプレート1220とのマッチング率を算出する相対位置(PSX2、PSY2、PEX2、PEY2)を含む。そして、第三のテンプレート1230も同様に、歩行者11の基準幅PW及び基準高さPH内における、テンプレート1230とのマッチング率を算出する相対位置(PSX3、PSY3、PEX3、PEY3)を含む。   Similarly, the second template 1220 includes relative positions (PSX2, PSY2, PEX2, PEY2) for calculating the matching rate with the template 1220 within the reference width PW and the reference height PH of the pedestrian 11. Similarly, the third template 1230 includes relative positions (PSX3, PSY3, PEX3, PEY3) for calculating the matching rate with the template 1230 within the reference width PW and the reference height PH of the pedestrian 11.

つぎに、図3〜図5を用いて、検知処理領域選定部1311における処理の内容について説明する。図3は、物体位置を設定する例を示す模式図、図4は、検知処理領域を設定する例を示す模式図、図5は、検知処理領域を設定する他の例を示す模式図である。   Next, the contents of processing in the detection processing region selection unit 1311 will be described with reference to FIGS. 3 is a schematic diagram illustrating an example of setting an object position, FIG. 4 is a schematic diagram illustrating an example of setting a detection processing area, and FIG. 5 is a schematic diagram illustrating another example of setting a detection processing area. .

検知処理領域選定部1311は、画像IMGSRC[x][y]内で歩行者11を検知する検知処理領域W[i]を選定し、そのx座標(横方向)の始点SX[i]および終点EX[i]、y座標上(縦方向)の始点SY[i]および終点EY[i]を求める。検知処理領域W[i]が複数ある場合はSX[i]、EX[i]、SY[i]、EY[i]を配列とし、すべての検知処理領域W[i]の座標を出力する。   The detection processing area selection unit 1311 selects a detection processing area W [i] for detecting the pedestrian 11 in the image IMGSRC [x] [y], and starts and ends the SX [i] and end points of the x coordinate (lateral direction). EX [i], start point SY [i] and end point EY [i] on the y coordinate (vertical direction) are obtained. When there are a plurality of detection processing areas W [i], SX [i], EX [i], SY [i], and EY [i] are arranged and the coordinates of all detection processing areas W [i] are output.

検知処理領域選定部1311は、物体位置検出部1310を用いても良いし、用いなくても良い。まず、物体位置検出部1310を用いて検知処理領域W[i]を設定する場合について、図3及び図4を用いて詳細に説明する。   The detection processing region selection unit 1311 may or may not use the object position detection unit 1310. First, the case where the detection processing area W [i] is set using the object position detection unit 1310 will be described in detail with reference to FIGS. 3 and 4.

検知処理領域選定部1311は、物体位置検出部1310が検出した物体10の相対距離PY[b]、横位置PX[b]および横幅WD[b]から、図3に示すように、画像20上における物体10の物体位置21を算出する。物体10の物体位置21は、物体10の周囲を囲む矩形領域で示され、その四隅の座標位置(x座標(横方向)の始点BSX[b]、終点BEX[b]、y座標(縦方向)の始点BSY[b]、終点BEY[b])で規定される。   As shown in FIG. 3, the detection processing region selection unit 1311 calculates the image on the image 20 from the relative distance PY [b], the horizontal position PX [b], and the horizontal width WD [b] of the object 10 detected by the object position detection unit 1310. The object position 21 of the object 10 at is calculated. The object position 21 of the object 10 is indicated by a rectangular area surrounding the periphery of the object 10, and the coordinate positions (start point BSX [b], end point BEX [b], end coordinate BEX [b], y coordinate (vertical direction) of the four corners of the object 10 are shown. ) Start point BSY [b], end point BEY [b]).

なお、画像20上の座標と実世界の位置関係を対応付けるカメラ幾何パラメータを、カメラキャリブレーション等の方法によってあらかじめ算出しておき、物体11の高さを、例えば180[cm]などあらかじめ仮定しておくことにより、画像20上での位置を一意に決定することができる。   A camera geometric parameter that associates the coordinates on the image 20 with the positional relationship in the real world is calculated in advance by a method such as camera calibration, and the height of the object 11 is assumed in advance, for example, 180 [cm]. Thus, the position on the image 20 can be uniquely determined.

また、画像取得装置1100の取り付けの誤差やレーダとの通信遅れ等の理由により、物体位置検出部1310で検出した物体10の画像20上における位置と、画像20に写っている同じ物体10の画像20上での位置の違いが生じる場合がある。   Further, the position of the object 10 detected by the object position detection unit 1310 on the image 20 and the image of the same object 10 shown in the image 20 due to an error in mounting the image acquisition apparatus 1100, a communication delay with the radar, or the like. There may be a difference in position on 20.

従って、画像20上での物体位置21(BSX[b]、BEX[b]、BSY[b]、BEY[b])から、補正を加えた物体位置22(BSX2[b]、BEX2[b]、BSY2[b]、BEY2[b])を算出する。物体位置21の補正は、物体位置21の領域を所定の量だけ拡大したり、移動させたりすることによって行われる。   Accordingly, the corrected object position 22 (BSX2 [b], BEX2 [b]) from the object position 21 (BSX [b], BEX [b], BSY [b], BEY [b]) on the image 20 is corrected. , BSY2 [b], BEY2 [b]). The correction of the object position 21 is performed by enlarging or moving the area of the object position 21 by a predetermined amount.

つぎに、図4に示すように、補正後の物体位置22(BSX2[b]、BEX2[b]、BSY2[b]、BEY2[b])内をラスタ走査するように、検知処理領域W[i](SX[i]、EX[i]、SY[i]、EY[i])を設定する。本実施の形態では、物体位置22の左上端部を原点とし、上方から下方に1ドットずつ移動させる動作と、下端まで移動した後に右側に1ドットだけ移動させる動作を繰り返して、物体位置22(BSX2[b]、BEX2[b]、BSY2[b]、BEY2[b])内を漏れなく探索するように、複数の検知処理領域W[i]が設定される。   Next, as shown in FIG. 4, the detection processing area W [] is scanned so that the corrected object position 22 (BSX2 [b], BEX2 [b], BSY2 [b], BEY2 [b]) is raster scanned. i] (SX [i], EX [i], SY [i], EY [i]). In the present embodiment, the object position 22 (repeating the operation of moving the dot position from top to bottom one dot at a time and the movement of moving one dot to the right after moving to the lower end with the upper left end of the object position 22 as the origin is repeated. A plurality of detection processing areas W [i] are set so as to search the BSX2 [b], BEX2 [b], BSY2 [b], BEY2 [b]) without omission.

検知処理領域W[i]の大きさ(歩行者想定幅SW、歩行者想定高さSH)は、物体位置検出部1310が検出した物体10との相対距離PY[b]により決まる。また、歩行者想定幅SW、歩行者想定高さSHは、前述の歩行者基準幅PW、歩行者基準高さPHと同じである必要はないが、PW:PH=SW:SHの関係が必要とされる。   The size of the detection processing area W [i] (the estimated pedestrian width SW and the estimated pedestrian height SH) is determined by the relative distance PY [b] from the object 10 detected by the object position detection unit 1310. Further, the assumed pedestrian width SW and the assumed pedestrian height SH are not necessarily the same as the above-described pedestrian reference width PW and pedestrian reference height PH, but a relationship of PW: PH = SW: SH is necessary. It is said.

図3には、2つの物体10(歩行者11と道路標識12)の物体位置21、21と、各物体位置21、21をそれぞれ補正した物体位置22、22とを検出した例が示されている。図3では、物体10の画像20上における物体位置21(BSX[b]、BEX[b]、BSY[b]、BEY[b])を実線で示し、補正を加えた物体位置22(BSX2[b]、BEX2[b]、BSY2[b]、BEY2[b])を破線で示している。補正後の物体位置22は、本実施の形態では、物体位置21の上下左右に一定のマージンを有している。   FIG. 3 shows an example in which object positions 21 and 21 of two objects 10 (pedestrian 11 and road sign 12) and object positions 22 and 22 obtained by correcting the object positions 21 and 21 are detected. Yes. In FIG. 3, the object position 21 (BSX [b], BEX [b], BSY [b], BEY [b]) on the image 20 of the object 10 is indicated by a solid line, and the corrected object position 22 (BSX2 [BSX [ b], BEX2 [b], BSY2 [b], BEY2 [b]) are indicated by broken lines. In the present embodiment, the corrected object position 22 has a certain margin on the top, bottom, left, and right of the object position 21.

例えば図3に示す例では、道路標識12の物体位置21(BSX[0]、BEX[0]、BSY[0]、BEY[0])と、補正後の物体位置22(BSX2[0]、BEX2[0]、BSY2[0]、BEY2[0])が算出され、また、歩行者11の物体位置22(BSX[1]、BEX[1]、BSY[1]、BEY[1])と、補正後の物体位置22(BSX2[1]、BEX2[1]、BSY2[1]、BEY2[1])が算出される。   For example, in the example shown in FIG. 3, the object position 21 (BSX [0], BEX [0], BSY [0], BEY [0]) of the road sign 12 and the corrected object position 22 (BSX2 [0], BEX2 [0], BSY2 [0], BEY2 [0]) are calculated, and the object position 22 of the pedestrian 11 (BSX [1], BEX [1], BSY [1], BEY [1]) Then, the corrected object position 22 (BSX2 [1], BEX2 [1], BSY2 [1], BEY2 [1]) is calculated.

図4には、物体位置22(BSX2[b]、BEX2[b]、BSY2[b]、BEY2[b])内に検知処理領域W[i](SX[i]、EX[i]、SY[i]、EY[i])が設定された状態が示されている。   FIG. 4 shows detection processing areas W [i] (SX [i], EX [i], SY within the object position 22 (BSX2 [b], BEX2 [b], BSY2 [b], BEY2 [b]). A state in which [i], EY [i]) is set is shown.

例えば、道路標識12の物体位置22内における最初の検知処理領域W[0](SX[0]、SY[0] 、EX[0]、EY[0])は物体位置22内の左上に設定され、最後の検知処理領域W[i](SX[i]、SY[i] 、EX[i]、EY[i])は物体位置22内の右下に設定される。また、歩行者11の物体位置22内における最初の検知処理領域W[i+1](SX[i+1]、SY[i+1] 、EX[i+1]、EY[i+1])は物体位置22内の左上に設定され、最後の検知処理領域W(図示せず)は物体位置22内の右下に設定される。   For example, the first detection processing area W [0] (SX [0], SY [0], EX [0], EY [0]) in the object position 22 of the road sign 12 is set at the upper left in the object position 22. The last detection processing area W [i] (SX [i], SY [i], EX [i], EY [i]) is set at the lower right in the object position 22. The first detection processing area W [i + 1] (SX [i + 1], SY [i + 1], EX [i + 1], EY [i + 1]) in the object position 22 of the pedestrian 11 is set at the upper left in the object position 22. The last detection processing area W (not shown) is set at the lower right in the object position 22.

次に、物体位置検出部1310を用いずに検知処理領域Wを設定する場合について、図5を用いて説明する。物体位置検出部1310を用いない場合の検知処理領域Wの選定方法は、例えば、検知処理領域Wの大きさを変化させながら画像20全体を探索するように設定する方法や、特定の位置、特定の大きさのみに限定して検知処理領域Wを設定する方法がある。検知処理領域Wを特定の位置に限定して設定する場合は、例えば自車速を用いて自車がT秒後に進んでいる距離に限定して設定する方法がある。   Next, a case where the detection processing area W is set without using the object position detection unit 1310 will be described with reference to FIG. The selection method of the detection processing area W when the object position detection unit 1310 is not used is, for example, a method of setting the search for the entire image 20 while changing the size of the detection processing area W, a specific position, a specific There is a method of setting the detection processing area W limited to only the size of. In the case where the detection processing area W is set to be limited to a specific position, there is a method in which the detection process area W is set to be limited to the distance that the host vehicle travels T seconds later using the host vehicle speed, for example.

図5は、自車速を用いて,自車が1.0秒後に進んでいる位置を探索する場合の例である。検知処理領域Wの大きさ(歩行者想定幅SW、歩行者想定高さSH)、およびy座標を算出した位置とカメラ幾何パラメータから求め、画像20上で横方向に1画素毎ずらしながら検知処理領域Wを設定している。なお、歩行者想定幅SW、歩行者想定高さSHは、前述の歩行者基準幅PW、歩行者基準高さPHと同じである必要はないが、PW:PH=SW:SHの関係が必要とされる。   FIG. 5 is an example in the case of searching for a position where the host vehicle has advanced 1.0 seconds later using the host vehicle speed. The detection processing area W is obtained from the calculated position and camera geometric parameter of the size of the detection processing area W (the estimated pedestrian width SW and the estimated pedestrian SH) and the y coordinate, and is detected while being shifted by one pixel in the horizontal direction on the image 20. Area W is set. The estimated pedestrian width SW and the estimated pedestrian height SH need not be the same as the above-described pedestrian reference width PW and pedestrian reference height PH, but a relationship of PW: PH = SW: SH is necessary. It is said.

検知処理領域Wの大きさおよびy座標位置の決定方法であるが、画像20上の座標と実世界の位置関係を対応付けるカメラ幾何パラメータをカメラキャリブレーション等の方法によってあらかじめ算出しておくことで、歩行者11を検出したい距離から逆算することができる。   This is a method for determining the size of the detection processing region W and the y-coordinate position. By calculating in advance a camera geometric parameter that associates the coordinates on the image 20 with the positional relationship in the real world by a method such as camera calibration, It is possible to calculate backward from the distance at which the pedestrian 11 is desired to be detected.

図5で示す例の場合、画像20の横の大きさ(画像横サイズ)をIMGSIZEXとすると、画像始点SX、SY、画像終点EX、EYには、それぞれ(画像横サイズIMGSIZEX−歩行者想定幅SW)個のデータが入る。検知処理領域Wの位置は、画像20の左端(SX[0]、SY[0]、EX[0]、EY[0])から、右端(SX[IMGSIZEX−W]、SY[IMGSIZEX−W]、EX[IMGSIZEX−W]、EY[IMGSIZEX−W])に向かって移動される。   In the case of the example shown in FIG. 5, if the horizontal size (image horizontal size) of the image 20 is IMGSIZE, the image start points SX and SY and the image end points EX and EY are respectively (image horizontal size IMGSIZEEX-pedestrian width). SW) pieces of data are entered. The position of the detection processing area W is from the left end (SX [0], SY [0], EX [0], EY [0]) of the image 20 to the right end (SX [IMGSIZEX-W], SY [IMGSIZEX-W]). , EX [IMGSIZEX-W], EY [IMGSIZEX-W]).

つぎに、図6を用いて、領域分割部1321による処理の内容について説明する。図6は、ある検知処理領域W[i]を複数の部分領域w[i]に分割する一例を示す図、図7は、分割する他の例を示す図である。   Next, the contents of processing by the area dividing unit 1321 will be described with reference to FIG. FIG. 6 is a diagram illustrating an example of dividing a certain detection processing area W [i] into a plurality of partial areas w [i], and FIG. 7 is a diagram illustrating another example of the division.

処理領域分割部1321は、検知処理領域W(横方向SX[i]、EX[i]、縦方向SY[i]、EY[i])の歩行者想定幅SW[i](=EX[i]−SX[i])、歩行者想定高さSH[i](=EY[i]−SY[i])と、第一のテンプレート1210の歩行者基準幅PW、歩行者基準高さPHおよび相対領域位置(PSX1、PSY1、PEX1、PEY1)から、以下の式(1)〜式(4)を用いて、第一の部分領域w1[i](SX1[i]、EX1[i]、SY1[i]、EY1[i])を算出する。   The processing area dividing unit 1321 has a pedestrian assumed width SW [i] (= EX [i] in the detection processing area W (horizontal direction SX [i], EX [i], vertical direction SY [i], EY [i]). ] -SX [i]), estimated pedestrian height SH [i] (= EY [i] -SY [i]), pedestrian reference width PW, pedestrian reference height PH of the first template 1210, and From the relative area positions (PSX1, PSY1, PEX1, PEY1), the following partial expressions (1) to (4) are used to determine the first partial areas w1 [i] (SX1 [i], EX1 [i], SY1 [I], EY1 [i]) are calculated.

SX1[i]=SX[i]+(PSX1)(SW[i]/PW) …(1)
SY1[i]=SY[i]+(PSY1)(SW[i]/PW) …(2)
EX1[i]=SX[i]+(PEX1)(SW[i]/PW) …(3)
EY1[i]=SY[i]+(PEY1)(SW[i]/PW) …(4)
そして、第二の部分領域w2[i](SX2[i]、EX2[i]、SY2[i]、EY2[i])、および第三の部分領域w3[i](SX3[i]、EX3[i]、SY3[i]、EY3[i])も同様に算出する。
SX1 [i] = SX [i] + (PSX1) (SW [i] / PW) (1)
SY1 [i] = SY [i] + (PSY1) (SW [i] / PW) (2)
EX1 [i] = SX [i] + (PEX1) (SW [i] / PW) (3)
EY1 [i] = SY [i] + (PEY1) (SW [i] / PW) (4)
Then, the second partial region w2 [i] (SX2 [i], EX2 [i], SY2 [i], EY2 [i]) and the third partial region w3 [i] (SX3 [i], EX3 [I], SY3 [i], EY3 [i]) are similarly calculated.

テンプレートは、図6に示す例の場合、歩行者11の全身に対応するテンプレート1201を上中下に3分割して形成されており、第一のテンプレート1210が歩行者11の上部11Aに対応し、第二のテンプレート1220が歩行者11の中部11Bに対応し、第三のテンプレート1230が歩行者11の下部11Cに対応している。そして、これら3つのテンプレートを合成すると隙間のない歩行者用のテンプレート1201となる。この場合、検知処理領域W[i]はすべて第一の部分領域w1[i]、第二の部分領域w2[i]、第三の部分領域w3[i]のいずれかに分類される。   In the example shown in FIG. 6, the template 1201 corresponding to the whole body of the pedestrian 11 is formed by dividing the template 1201 into upper, middle, and lower parts, and the first template 1210 corresponds to the upper part 11 </ b> A of the pedestrian 11. The second template 1220 corresponds to the middle part 11B of the pedestrian 11 and the third template 1230 corresponds to the lower part 11C of the pedestrian 11. When these three templates are combined, a pedestrian template 1201 with no gap is formed. In this case, all the detection processing areas W [i] are classified into one of the first partial area w1 [i], the second partial area w2 [i], and the third partial area w3 [i].

図7は、歩行者11の頭部や脚部など、特定の部位だけを見るテンプレートを用いる例である。この場合、第一のテンプレート1210が頭部のみ、第二のテンプレート1220が腰部、第三のテンプレート1230が脚部のみのテンプレートであり、3つのテンプレート1210〜1230を合成しても隙間が空く。この場合、検知処理領域W[i]内には、第一の領域w1[i]、第二の領域w2[i]、第三の領域w3[i]のいずれにも分類されない領域が発生する。   FIG. 7 shows an example in which a template for viewing only a specific part such as the head or leg of the pedestrian 11 is used. In this case, the first template 1210 is a template having only the head, the second template 1220 is a waist, and the third template 1230 is only a leg. Even if the three templates 1210 to 1230 are combined, a gap is left. In this case, an area that is not classified as any of the first area w1 [i], the second area w2 [i], and the third area w3 [i] occurs in the detection processing area W [i]. .

つぎに、図8を用いて、処理回路1300のマッチング率算出部1331について説明する。図8は、マッチング率算出部1331の処理内容を説明するフローチャートである。まず、ステップS301において、画像IMGSRC[x][y]から、第一の領域w1(SX1[i]、EX1[i]、SY1[i]、EY1[i])内の画像を切り出し、第一の領域w1の画像IMGMC1[i][x][y]を生成する。   Next, the matching rate calculation unit 1331 of the processing circuit 1300 will be described with reference to FIG. FIG. 8 is a flowchart for explaining the processing contents of the matching rate calculation unit 1331. First, in step S301, an image in the first region w1 (SX1 [i], EX1 [i], SY1 [i], EY1 [i]) is cut out from the image IMGSRC [x] [y]. The image IMMGC1 [i] [x] [y] of the area w1 is generated.

同様に、ステップS302において、画像IMGSRC[x][y]から、第二の領域w2(SX2[i]、EX2[i]、SY2[i]、EY2[i])内の画像を切り出し、第二の領域w2の画像IMGMC2[i][x][y]を生成する。   Similarly, in step S302, an image in the second region w2 (SX2 [i], EX2 [i], SY2 [i], EY2 [i]) is cut out from the image IMGSRC [x] [y], The image IMGMC2 [i] [x] [y] of the second region w2 is generated.

そして、ステップS303において、画像IMGSRC[x][y]から、第三の領域w3(SX3[i]、EX3[i]、SY3[i]、EY3[i])内の画像を切り出し、第三の領域w3の画像IMGMC3[i][x][y]を生成する。   In step S303, an image in the third region w3 (SX3 [i], EX3 [i], SY3 [i], EY3 [i]) is cut out from the image IMGSRC [x] [y], The image IMMGC3 [i] [x] [y] of the area w3 is generated.

つぎに、ステップS304において、第一の領域w1の画像IMGMC1[i][x][y]と第一のテンプレート1210の大きさが同じになるようにサイズ調整を行う。サイズ調整は、第一の領域w1の計算に用いた歩行者想定幅SW[i]、歩行者想定高さSH[i]と、第一のテンプレート1220の歩行者基準幅PW、歩行者基準高さPHを用いて行う。   Next, in step S304, size adjustment is performed so that the image IMGMC1 [i] [x] [y] in the first region w1 and the first template 1210 have the same size. The size adjustment includes the pedestrian assumed width SW [i] and the pedestrian assumed height SH [i] used for the calculation of the first region w1, the pedestrian reference width PW of the first template 1220, and the pedestrian reference height. This is done using the PH.

第一の領域の画像IMGMC1[i][x][y]が、第一のテンプレート1220と同じ大きさになるように、画像サイズを横方向にPW/SW[i]倍、縦方向にPH/SH[i]倍に拡大・縮小してもよいし、逆に第一のテンプレート1220が第一の領域の画像IMGMC1[i][x][y]と同じ大きさになるように、テンプレートの大きさを横方向にSW[i]/PW倍、縦方向にSH[i]/PH倍に拡大・縮小してもよい。   The image size is PW / SW [i] times in the horizontal direction and PH in the vertical direction so that the image IMGMC1 [i] [x] [y] in the first region has the same size as the first template 1220. / SH [i] times may be enlarged / reduced, or conversely, the template so that the first template 1220 has the same size as the image IMMGC1 [i] [x] [y] in the first region. May be enlarged / reduced by SW [i] / PW times in the horizontal direction and SH [i] / PH times in the vertical direction.

同様に、ステップS305において、第二の領域w2の画像IMGMC2[i][x][y]と第二のテンプレート1220の大きさが同じになるようにサイズ調整を行う。
そして、ステップS306において、第三の領域w3の画像IMGMC3[i][x][y]と第三のテンプレート1230の大きさが同じになるようにサイズ調整を行う。
Similarly, in step S305, size adjustment is performed so that the image IMMGMC2 [i] [x] [y] in the second region w2 and the second template 1220 have the same size.
In step S306, size adjustment is performed so that the image IMMGMC3 [i] [x] [y] in the third region w3 and the third template 1230 have the same size.

そして、ステップS307において、大きさが調整された第一の領域w1のサイズ正規化画像IMGMC1[i][x][y]と第一のテンプレート1210との間のマッチング率である第一のマッチング率MATCH1[i]を算出する。マッチング率の算出方法については後述する。   In step S307, the first matching that is the matching rate between the size normalized image IMMGC1 [i] [x] [y] of the first region w1 whose size has been adjusted and the first template 1210. The rate MATCH1 [i] is calculated. A method for calculating the matching rate will be described later.

同様に、ステップS308において、大きさが調整された第二の領域w2のサイズ正規化画像IMGMC2[i][x][y]と第二のテンプレート1220との間の第二のマッチング率MATCH2[i]を算出し、ステップS309において、大きさが調整された第三の領域w3のサイズ正規化画像IMGMC3[i][x][y]と第三のテンプレート1230との間の第三のマッチング率MATCH3[i]を算出する。   Similarly, in step S308, the second matching rate MATCH2 [between the size normalized image IMMGC2 [i] [x] [y] of the second region w2 whose size has been adjusted and the second template 1220. i], and in step S309, the third matching between the size normalized image IMMGC3 [i] [x] [y] of the third region w3 whose size has been adjusted and the third template 1230 is performed. The rate MATCH3 [i] is calculated.

つぎに、図9、10、11を用いて、ステップS307〜ステップS309におけるマッチング率の算出方法について以下に詳細に説明する。まず、画像のパターンを用いて歩行者11を検知する方法について説明する。歩行者11を検知する方法としては、歩行者パターンの代表となるテンプレートを複数用意しておき、差分累積演算あるいは正規化相関係演算を行って一致度を求める方法や、ニューラルネットワークなどの識別器を用いてパターン認識を行う方法が挙げられる。   Next, the method for calculating the matching rate in steps S307 to S309 will be described in detail below with reference to FIGS. First, a method for detecting the pedestrian 11 using an image pattern will be described. As a method for detecting the pedestrian 11, a plurality of templates representing a pedestrian pattern are prepared, and a degree of coincidence is obtained by performing a difference accumulation calculation or a normalized correlation calculation, or a classifier such as a neural network There is a method of performing pattern recognition using.

いずれの方法をとるとしても、あらかじめ歩行者11か否かを決定する指標となるソースのデータベースが必要となる。様々な歩行者11のパターンをデータベースとして蓄えておき、そこから代表となるテンプレートを作成し、あるいは識別器を生成する。実環境では様々な服装、姿勢、体型の歩行者が存在し、さらにそれぞれ照明や天候などの条件が異なったりすることから、大量のデータベースを用意して、誤判定を少なくすることが必要となる。   Whichever method is used, a source database is required as an index for determining whether or not the person is a pedestrian 11 in advance. Various pedestrian 11 patterns are stored as a database, a representative template is created therefrom, or a discriminator is generated. There are various clothes, postures, and pedestrians in the actual environment, and the conditions such as lighting and weather are different, so it is necessary to prepare a large amount of database and reduce misjudgment. .

このとき、前者のテンプレートを用意する方法の場合、判定漏れを防ぐようにするとテンプレートの数が膨大となり、現実的ではない。そこで、本実施の形態では後者の識別器を用いて判定する方法を採用する。識別器の大きさはソースのデータベースの大きさに依存しない。なお、識別器を生成するためのデータベースを教師データと呼ぶ。   At this time, in the former method of preparing a template, if the omission of determination is prevented, the number of templates becomes enormous, which is not realistic. Therefore, in the present embodiment, a determination method using the latter discriminator is adopted. The size of the discriminator does not depend on the size of the source database. A database for generating a classifier is called teacher data.

本実施形態における識別器を用いて歩行者11か否かを判定する方法を、図9、8を用いて説明する。   A method for determining whether or not the person is a pedestrian 11 using the classifier in the present embodiment will be described with reference to FIGS.

まず、第一のマッチング率算出方法について説明する。図9は、本実施形態における、第一のマッチング率算出の方法を示すブロック図である。ここでは、図8のステップS304において、第一の領域の画像IMGMT1[i][x][y]は横方向にPW/SW[i]倍、縦方向にPH/SH[i]倍に拡大・縮小され、第一のサイズ正規化画像IMGMT1N[i][x][y]に変換されている場合について説明する。   First, the first matching rate calculation method will be described. FIG. 9 is a block diagram showing a first matching rate calculation method in the present embodiment. Here, in step S304 of FIG. 8, the image IMGMT1 [i] [x] [y] of the first region is enlarged PW / SW [i] times in the horizontal direction and PH / SH [i] times in the vertical direction. A case where the image data is reduced and converted into the first size normalized image IMGMT1N [i] [x] [y] will be described.

本実施の形態では、第一の識別器41を用いて第一のマッチング率MATCH1[i]を算出する。第一の識別器41は、画像内の所定の箇所に設置された複数の小領域TP1R[n]内における濃淡勾配の方向と強さに基づいてマッチング率を算出する。   In the present embodiment, the first matching rate MATCH1 [i] is calculated using the first discriminator 41. The first discriminator 41 calculates a matching rate based on the direction and intensity of the light / dark gradient in a plurality of small regions TP1R [n] installed at predetermined positions in the image.

まず、入力画像IMGMT1N[i][x][y]が入力されると、例えばソーベルフィルタなどのフィルタリング処理部411によりフィルタリング処理が行われ、濃淡勾配の強さを表すエッジ強度画像IMGMAG1[x][y]および濃淡勾配の方向を表すエッジ方向画像IMGDIR1[x][y]がそれぞれ出力される。そして、局所エッジ強度算出部412により、各画像の所定箇所に設置された小領域TP1R[n]内で、算出された濃淡勾配の強さと方向を用いて局所エッジ強度TP1M[n]を算出する。   First, when the input image IMGMT1N [i] [x] [y] is input, filtering processing is performed by a filtering processing unit 411 such as a Sobel filter, for example, and an edge intensity image IMMGMAG1 [x indicating the strength of the grayscale gradient. ] [Y] and an edge direction image IMGDIR1 [x] [y] representing the direction of the light and shade gradient are output. Then, the local edge strength calculation unit 412 calculates the local edge strength TP1M [n] using the calculated strength and direction of the gray gradient in the small region TP1R [n] installed at a predetermined location of each image. .

具体的には、小領域TP1R[n]に含まれるエッジ方向画像IMGDIR1[x][y]の値を参照し、その方向が小領域TP1R[n]ごとに定められた所定の方向と同一であったときに、対応する位置のエッジ強度画像IMGMAG1[x][y]の値を合計する。本実施の形態の場合、小領域TP1R[n]を20個設置しているため、局所エッジ強度TP1M[0]〜TP1M[19]の20個の値を得る。   Specifically, referring to the value of the edge direction image IMGDIR1 [x] [y] included in the small region TP1R [n], the direction is the same as a predetermined direction defined for each small region TP1R [n]. If there are, the values of the edge intensity images IMGMAG1 [x] [y] at the corresponding positions are summed. In the present embodiment, since 20 small regions TP1R [n] are installed, 20 values of local edge strengths TP1M [0] to TP1M [19] are obtained.

つぎに、局所エッジ判断部413において、各局所エッジ強度を、対応する閾値TP1TH[0]〜TP1TH[19]で閾値処理し、「1」か「0」の2値に変換する。そして、重み付け部414で重みTP1W[0]〜TP1W[19]を乗じ、合計部415へ出力する。合計部415は、重み付け部414から入力された20個の値を合計し、第一のマッチング率MATCH[i]として出力する。   Next, the local edge determination unit 413 performs threshold processing on each local edge strength with the corresponding thresholds TP1TH [0] to TP1TH [19], and converts them into binary values of “1” or “0”. Then, the weighting unit 414 multiplies the weights TP1W [0] to TP1W [19] and outputs the result to the totaling unit 415. The summation unit 415 sums the 20 values input from the weighting unit 414 and outputs the sum as the first matching rate MATCH [i].

なお、本実施の形態における第一のテンプレート1210は、識別器41内の各局所エッジ強度TP1M[0]〜TP1M[19]を算出する小領域TP1R[n]の個数、位置、大きさ、濃淡勾配の方向、局所エッジ判断部413における局所エッジ強度の閾値TP1TH[0]〜TP1TH[19]、重み付け部414の重みTP1W[0]〜TP1W[19]であり、これらのパラメータは、識別器41への入力画像IMGMC1N[i][x][y]が歩行者であった場合には「1」を、歩行者ではなかった場合には「0」を出力するように、教師データを用いて調整される。この供試データを用いた調整には、AdaBoostなどの機械学習の手段を用いてもよいし、手動で行ってもよい。   Note that the first template 1210 in the present embodiment is the number, position, size, and shading of the small regions TP1R [n] for calculating the local edge strengths TP1M [0] to TP1M [19] in the classifier 41. The gradient direction, local edge strength thresholds TP1TH [0] to TP1TH [19] in the local edge determination unit 413, weights TP1W [0] to TP1W [19] in the weighting unit 414, and these parameters are determined by the discriminator 41. The teacher data is used to output “1” when the input image IMMGMC1N [i] [x] [y] is a pedestrian and “0” when it is not a pedestrian. Adjusted. The adjustment using the test data may use a machine learning means such as AdaBoost or may be performed manually.

例えば、NPD個の歩行者11の教師データ、およびNBG個非歩行者の教師データから、AdaBoostを用いて第一のテンプレート1210を決定する手順は以下の通りとなる。なお、以下、局所エッジの算出に必要な、位置、大きさ、濃淡勾配の方向の情報を持つ小領域をcTP1R[m]と表す。ここで、mは局所エッジのID番号である。   For example, the procedure for determining the first template 1210 using AdaBoost from teacher data of NPD pedestrians 11 and teacher data of NBG non-pedestrians is as follows. Hereinafter, a small region having information on the position, the size, and the direction of the gray gradient necessary for calculating the local edge is represented as cTP1R [m]. Here, m is the ID number of the local edge.

まず位置、大きさ、判定する濃淡勾配の方向が異なる小領域cTP1R[m]を複数(例えば、100万通り)用意し、それぞれ局所エッジ強度の値を全ての教師データから算出し、閾値cTP1TH[m]を決定する。閾値cTP1TH[m]は、歩行者11の教師データと非歩行者の教師データを最も分類することができる値を選択する。   First, a plurality of (for example, 1 million) small regions cTP1R [m] having different positions, sizes, and gradient directions to be determined are prepared, and local edge strength values are calculated from all teacher data, and threshold values cTP1TH [ m]. The threshold cTP1TH [m] selects a value that can best classify the pedestrian 11 teacher data and the non-pedestrian teacher data.

つぎに、歩行者11の教師データひとつひとつにwPD[nPD]=1/2NPDの重みを与え、非歩行者の教師データひとつひとつにwBG[nBG]=1/2NBGの重みを与える。ここで、nPDは歩行者の教師データのID番号、nBGは非歩行者の教師データのID番号である。   Next, a weight of wPD [nPD] = 1 / 2NPD is given to each teacher data of the pedestrian 11, and a weight of wBG [nBG] = 1 / 2NBG is given to each teacher data of the non-pedestrian. Here, nPD is an ID number of pedestrian teacher data, and nBG is an ID number of non-pedestrian teacher data.

そして、k=1として、以下、繰り返し処理を行う。まず、歩行者・非歩行者全ての教師データの重みの合計が1となるように、重みを正規化する。つぎに、各局所エッジの誤検知率cER[m]を計算する。誤検知率cER[m]は、小領域TP1R[m]において、歩行者11の教師データの局所エッジ強度cTP1M[m][nPD]を閾値cTP1TH[m]で閾値処理した結果が非歩行者となったもの、もしくは非歩行者の教師データの局所エッジ強度cTP1M[m][nBG]を閾値cTP1TH[m]で閾値処理した結果が歩行者11となったもの、すなわち閾値処理した結果が実際と異なる教師データの重みの合計である。   Then, it is assumed that k = 1, and the following process is repeated. First, the weights are normalized so that the sum of the weights of all the pedestrian / non-pedestrian teacher data is 1. Next, the false detection rate cER [m] of each local edge is calculated. The false detection rate cER [m] is a result of threshold processing of the local edge strength cTP1M [m] [nPD] of the teacher data of the pedestrian 11 with the threshold cTP1TH [m] in the small region TP1R [m]. Or the result of threshold processing of the local edge strength cTP1M [m] [nBG] of the non-pedestrian teacher data with the threshold cTP1TH [m] becomes the pedestrian 11, that is, the result of the threshold processing is actually This is the total weight of different teacher data.

全ての局所エッジの誤検知率cER[m]を算出後、誤検知率が最小となる局所エッジのID mMin を選択し、小領域TP1R[k]=cTP1R[mMin]、閾値TP1TH[k]=cTP1TH[mMin]とする。   After calculating the false detection rate cER [m] of all the local edges, the local edge ID Mmin that minimizes the false detection rate is selected, and the small region TP1R [k] = cTP1R [mMin] and the threshold value TP1TH [k] = cTP1TH [mMin].

つぎに、各教師データの重みを更新する。更新は、小領域TP1R[k]において、歩行者11の教師データの局所エッジ強度TP1M[k][nPD]を閾値TP1TH[k]で閾値処理した結果が歩行者11となったもの、もしくは非歩行者の教師データの局所エッジ強度TP1M[k][nBG]を閾値TP1TH[k]で閾値処理した結果が非歩行者となったもの、すなわち閾値処理した結果が正解の教師データの重みに、係数BT[k]=cER[mMin]/(1−cER[mMin])を乗じて行う。   Next, the weight of each teacher data is updated. In the update, in the small region TP1R [k], the local edge strength TP1M [k] [nPD] of the teacher data of the pedestrian 11 is thresholded with the threshold TP1TH [k], and the result is the pedestrian 11 or non- The result of thresholding the local edge strength TP1M [k] [nBG] of the pedestrian teacher data with the threshold TP1TH [k] is a non-pedestrian, that is, the threshold processing result is the weight of the correct teacher data. Multiply by the coefficient BT [k] = cER [mMin] / (1−cER [mMin]).

k=k+1とし、kが予め設定した値(例えば、20)になるまで繰り返す。繰り返し処理の終了後に得られる小領域TP1R[k]、閾値TP1TH[k]がAdaBoostにより自動調整された識別器41である。なお、重みTP1W[k]=1/BT[k]である。   Repeat until k = k + 1 and k reaches a preset value (for example, 20). This is a discriminator 41 in which the small area TP1R [k] and the threshold value TP1TH [k] obtained after the end of the iterative process are automatically adjusted by AdaBoost. The weight TP1W [k] = 1 / BT [k].

つぎに、第二のマッチング率算出方法について説明する。図10は、本実施形態における、第二のマッチング率算出の方法を示すブロック図である。ここでは、図8に示すステップS305において、第二の領域w2の画像IMGMT2[i][x][y]が横方向にPW/SW[i]倍、縦方向にPH/SH[i]倍に拡大・縮小され、第二のサイズ正規化画像IMGMT2N[i][x][y]に変換されているものとする。本実施の形態では第二の識別器42を用いて第二のマッチング率MATCH2[i]を算出する。   Next, a second matching rate calculation method will be described. FIG. 10 is a block diagram showing a second matching rate calculation method in the present embodiment. Here, in step S305 shown in FIG. 8, the image IMGMT2 [i] [x] [y] in the second region w2 is multiplied by PW / SW [i] in the horizontal direction and PH / SH [i] in the vertical direction. , And is converted into a second size normalized image IMGMT2N [i] [x] [y]. In the present embodiment, the second matching rate MATCH2 [i] is calculated using the second discriminator 42.

第二の識別器42は、第一の識別器41と同様に、フィルタリング処理部421、局所エッジ強度算出部422、局所エッジ判断部423、重み付け部424、合計部425を有する。なお、第二の識別器42は歩行者11の中部11Bの識別器であり、処理内容は第一の識別器41と同様であるため、説明は省略する。   Similar to the first discriminator 41, the second discriminator 42 includes a filtering processing unit 421, a local edge strength calculation unit 422, a local edge determination unit 423, a weighting unit 424, and a summation unit 425. The second classifier 42 is a classifier of the middle part 11B of the pedestrian 11, and the processing content is the same as that of the first classifier 41, and thus the description thereof is omitted.

さらに、第三のマッチング率算出方法について説明する。図11は、本実施形態における、第三のマッチング率算出の方法を示すブロック図である。ここでは、図8に示すステップS306において、第三の領域w3の画像IMGMT3[i][x][y]が横方向にPW/SW[i]倍、縦方向にPH/SH[i]倍に拡大・縮小され、第三のサイズ正規化画像IMGMT3N[i][x][y]に変換されているものとする。本実施の形態では第三の識別器43を用いて第三のマッチング率MATCH3[i]を算出する。   Furthermore, a third matching rate calculation method will be described. FIG. 11 is a block diagram showing a third matching rate calculation method in the present embodiment. Here, in step S306 shown in FIG. 8, the image IMGMT3 [i] [x] [y] in the third region w3 is multiplied by PW / SW [i] in the horizontal direction and PH / SH [i] in the vertical direction. , And is converted into a third size normalized image IMGMT3N [i] [x] [y]. In the present embodiment, the third matching rate MATCH3 [i] is calculated using the third discriminator 43.

第三の識別器43は、第一の識別器41及び第二の識別器42と同様に、フィルタリング処理部431、局所エッジ強度算出部432、局所エッジ判断部433、重み付け部434、合計部435を有する。なお、第三の識別器43は歩行者11の下部11Cの識別器であり、処理内容は第一の識別器41と同様であるため、説明は省略する。   Similar to the first discriminator 41 and the second discriminator 42, the third discriminator 43 includes a filtering processing unit 431, a local edge strength calculation unit 432, a local edge determination unit 433, a weighting unit 434, and a summation unit 435. Have The third discriminator 43 is a discriminator of the lower part 11C of the pedestrian 11, and the processing content is the same as that of the first discriminator 41, and thus the description is omitted.

物体存在判定部1341は、マッチング率算出部1331により算出した第一のマッチング率MATCH1[i]と、記憶装置1200内の第一の閾値1211との比較、第二のマッチング率MATCH2[i]と第二の閾値1221との比較、第三のマッチング率MATCH3[i]と第三の閾値1231との比較を行う。   The object presence determination unit 1341 compares the first matching rate MATCH1 [i] calculated by the matching rate calculation unit 1331 with the first threshold value 1211 in the storage device 1200, and the second matching rate MATCH2 [i]. Comparison with the second threshold 1221 and comparison with the third matching rate MATCH3 [i] and the third threshold 1231 are performed.

そして、第一のマッチング率MATCH1[i]が第一の閾値1211以上であり、かつ第二のマッチング率MATCH2[i]が第二の閾値1221以上であり、さらに第三のマッチング率MATCH3[i]が第三の閾値1231以上である場合に、歩行者11が存在すると判定し、少なくとも一つのマッチング率が閾値を下回る場合には、歩行者11が存在しないと判定する。   The first matching rate MATCH1 [i] is equal to or greater than the first threshold value 1211, the second matching rate MATCH2 [i] is equal to or greater than the second threshold value 1221, and the third matching rate MATCH3 [i]. ] Is the third threshold value 1231 or more, it is determined that the pedestrian 11 exists, and when at least one matching rate falls below the threshold value, it is determined that the pedestrian 11 does not exist.

上記の方法によれば、マッチングの度合いを局所的な分布で見ることができるので、歩行者の上半身のみに類似しているパターン、または歩行者の下半身のみに類似しているパターンを、歩行者として誤検知するのを排除することができる。   According to the above method, since the degree of matching can be seen in a local distribution, a pattern similar to only the upper body of the pedestrian or a pattern similar to only the lower body of the pedestrian It is possible to eliminate erroneous detection as.

つぎに、本装置によって、例えば子供等の身長が低い歩行者13を検出する方法について、図12を用いて説明する。図12は、低身長歩行者からマッチング率を算出する方法を説明する図である。   Next, a method for detecting a pedestrian 13 having a low height, such as a child, for example, using this apparatus will be described with reference to FIG. FIG. 12 is a diagram illustrating a method for calculating a matching rate from a short stature pedestrian.

物体存在判定部1341は、検知処理領域選定部1311によって、検知処理領域Wの大きさ(歩行者想定幅SW、歩行者想定高さSH)を変えずに、検知処理領域Wを縦方向に探索する設定とすることによって、画像内に歩行者11とは上下方向の長さが異なる他の物体である低身長歩行者13を検知することができる。   The object presence determination unit 1341 uses the detection processing region selection unit 1311 to search the detection processing region W in the vertical direction without changing the size of the detection processing region W (the assumed pedestrian width SW and the assumed pedestrian height SH). With this setting, it is possible to detect the short stature pedestrian 13 which is another object having a different vertical length from the pedestrian 11 in the image.

具体的には、第一のマッチング率MATCH1[i]、第二のマッチング率MATCH2[i]、第三のマッチング率MATCH3[i]を配列として記憶し、前述の判定と同時に、互いに上下方向に位置が異なる部分領域の第一のマッチング率MATCH1[i]、第二のマッチング率MATCH2[j]、第三のマッチング率MATCH3[k]を用いて、身長が低い歩行者13を検知する。   Specifically, the first matching rate MATCH1 [i], the second matching rate MATCH2 [i], and the third matching rate MATCH3 [i] are stored as an array, and at the same time as the above determination, The pedestrian 13 having a short height is detected using the first matching rate MATCH1 [i], the second matching rate MATCH2 [j], and the third matching rate MATCH3 [k] of the partial regions having different positions.

図12(b)〜(d)には、検知処理領域W[i―2c](SX[i―2c]、SY[i―2c]、EX[i―2c]、EY[i―c])、検知処理領域W[i―c](SX[i―c]、SY[i―c]、EX[i―c]、EY[i―c])、検知処理領域W[i](SX[i]、SY[i]、EX[i]、EY[i])における各部分領域のマッチング率が示されている。   FIGS. 12B to 12D show the detection processing area W [i-2c] (SX [i-2c], SY [i-2c], EX [i-2c], EY [ic]). , Detection processing area W [i-c] (SX [ic], SY [ic], EX [ic], EY [ic]]), detection processing area W [i] (SX [ i], SY [i], EX [i], EY [i]), the matching rates of the partial areas are shown.

図12に示すように、第一のテンプレート1210、第二のテンプレート1220、第三のテンプレート1230が対象とする歩行者11(図3を参照)よりも身長が低い低身長歩行者13の近傍でマッチング率を算出する。   As shown in FIG. 12, in the vicinity of a short stature pedestrian 13 whose height is lower than the pedestrian 11 (see FIG. 3) targeted by the first template 1210, the second template 1220, and the third template 1230. Calculate the matching rate.

その結果、低身長歩行者13を検知処理領域W検知処理領域W[i―2c]の下で捉える時は、図12(b)に示すように、第三のテンプレート1230とのマッチング率MATCH3[i−2c]が高い値となる。そして、低身長歩行者13を検知処理領域W[i―c]の中央で捉える時は、図12(c)に示すように、第二のテンプレート1220とのマッチング率MATCH2[i−c]が高い値となる。そして、低身長歩行者13を検知処理領域W[i]の上で捉える時は、図12(d)に示すように、第一のテンプレート1210とのマッチング率MATCH1[i]が高い値となる。   As a result, when capturing the short stature pedestrian 13 under the detection processing area W detection processing area W [i-2c], as shown in FIG. 12B, the matching rate MATCH3 [ i-2c] is a high value. When the short pedestrian 13 is captured in the center of the detection processing area W [ic], the matching rate MATCH2 [ic] with the second template 1220 is as shown in FIG. High value. When the short pedestrian 13 is captured on the detection processing area W [i], the matching rate MATCH1 [i] with the first template 1210 becomes a high value as shown in FIG. 12 (d). .

従って、検知処理領域Wの大きさ(歩行者想定幅SW、歩行者想定高さSH)を変えずに画像上で上から下へ縦方向に探索するように検知処理領域Wが設定されている場合、第一のテンプレート1210、第二のテンプレート1220、第三のテンプレート1230での検知を想定している歩行者(大人)11の身長をPHE[m]とし、検知したい低身長歩行者(子供)13の身長をCHE[m]とする。そして、c=(PHE−CHE)×SH/(2×PHE)を算出し、検知処理領域W[i](SX[i]、SY[i]、EX[i]、EY[i])における第一のマッチング率MATCH1[i]、検知処理領域W[i―c](SX[i―c]、SY[i―c]、EX[i―c]、EY[i―c])における第二のマッチング率MATCH2[i−c]、および検知処理領域W[i―2c](SX[i―2c]、SY[i―2c]、EX[i―2c]、EY[i―2c])における第三のマッチング率MATCH3[i−2c]を用いて物体存在判定を行うことにより、低身長歩行者13の存在を検知することができる。   Accordingly, the detection processing area W is set so as to search in the vertical direction from the top to the bottom on the image without changing the size of the detection processing area W (the estimated pedestrian width SW and the assumed pedestrian height SH). In this case, the height of the pedestrian (adult) 11 assumed to be detected by the first template 1210, the second template 1220, and the third template 1230 is PHE [m], and the short stature pedestrian (children to be detected) ) Let 13's height be CHE [m]. Then, c = (PHE−CHE) × SH / (2 × PHE) is calculated, and in the detection processing area W [i] (SX [i], SY [i], EX [i], EY [i]) First matching rate MATCH1 [i], detection processing area W [ic] (SX [ic], SY [ic], EX [ic], EY [ic]) Second matching rate MATCH2 [ic] and detection processing area W [i-2c] (SX [i-2c], SY [i-2c], EX [i-2c], EY [i-2c]) By using the third matching rate MATCH3 [i-2c] in FIG. 3 to determine the presence of an object, it is possible to detect the presence of the short stature pedestrian 13.

従って、用意しているテンプレートが想定している歩行者(大人)11よりも身長が低い低身長歩行者(子供)13を、低身長歩行者専用のテンプレートを用意することなく検知することができる。同様に、テンプレートが想定している歩行者(大人)よりも身長が高い長身の歩行者についても、同様に特別なテンプレートを用意することなく、検知することができる。   Therefore, it is possible to detect the short stature pedestrian (child) 13 whose height is lower than the pedestrian (adult) 11 assumed by the prepared template without preparing a template dedicated to the short stature pedestrian. . Similarly, a tall pedestrian having a height higher than that of the pedestrian (adult) assumed by the template can be detected without preparing a special template.

物体存在判定部1341は、ロービーム判定結果LBSTを用いて、周囲が暗くロービームの状態で歩行者を検知する場合と、そうでない場合でマッチング率の判定閾値を変化させることができる。   Using the low beam determination result LBST, the object presence determination unit 1341 can change the determination threshold for the matching rate between when the pedestrian is detected in a low beam state where the surrounding is dark and when it is not.

自車の前照灯が下向きであるロービームのときに、マッチング率の判定閾値を変化させる方法について、図13を用いて説明する。図13(a)は、昼間に撮影した画像20内の歩行者11のマッチング率を算出した例であり、図13(b)は、夜間にロービームの状態で撮影した画像20内の歩行者11のマッチング率を算出した例である。   A method for changing the threshold for determining the matching rate when the headlight of the host vehicle is a low beam will be described with reference to FIG. FIG. 13A shows an example in which the matching rate of the pedestrian 11 in the image 20 taken in the daytime is calculated, and FIG. 13B shows the pedestrian 11 in the image 20 taken in the low beam state at night. This is an example of calculating the matching rate.

図13(b)に示すように、夜間にロービームの状態で走行すると、自車前方の歩行者11は、照射範囲H内に存在する足元(脚部)のみが明るく映し出される。従って、この画像20のままでマッチング率を算出すると、上部部分領域である部分領域w1、w2は、部分領域w1と第一のテンプレート1210とのマッチング率MATCH1[i]、及び部分領域w2と第二のテンプレート1220とのマッチング率MATCH2[i]が低くなってしまう。   As shown in FIG. 13 (b), when traveling in the low beam state at night, the pedestrian 11 in front of the host vehicle is projected brightly only at the feet (legs) existing in the irradiation range H. Accordingly, when the matching rate is calculated with the image 20 as it is, the partial regions w1 and w2 that are the upper partial regions are matched with the matching rate MATCH1 [i] between the partial region w1 and the first template 1210 and the partial regions w2 and the second region w2. The matching rate MATCH2 [i] with the second template 1220 becomes low.

従って、このような場合に、物体存在判定部1341は、ロービーム判定部1340からのロービーム判定結果LBSTを用いて、例えば第一の閾値(上部判定閾値)1211に係数「0.5」を、第二の閾値(上部判定閾値)1221に係数「0.7」を乗じて、第一の閾値1211と第二の閾値1221を非ロービーム状態のときよりも低い値に変更する。そして、第三の閾値(下部判定閾値)1231に係数「1.2」を乗じて、第三の閾値1231を非ロービーム状態のときよりも高い値に変更して物体存在判定を行う。   Therefore, in such a case, the object presence determination unit 1341 uses the low beam determination result LBST from the low beam determination unit 1340, for example, sets the coefficient “0.5” to the first threshold (upper determination threshold) 1211, the first The second threshold value (upper determination threshold value) 1221 is multiplied by a coefficient “0.7” to change the first threshold value 1211 and the second threshold value 1221 to values lower than those in the non-low beam state. Then, the third threshold value (lower determination threshold value) 1231 is multiplied by a coefficient “1.2”, and the third threshold value 1231 is changed to a higher value than that in the non-low beam state to perform the object presence determination.

また、物体存在判定部1341は、物体位置検出部1310を用いて測定した物体10の位置情報に応じてマッチング率の閾値を変化させてもよい。例として、物体10が横方向へ移動しているかどうかに応じてマッチング率の閾値を変化させる方法について、図14を用いて説明する。   Further, the object presence determination unit 1341 may change the threshold of the matching rate according to the position information of the object 10 measured using the object position detection unit 1310. As an example, a method for changing the threshold of the matching rate according to whether or not the object 10 is moving in the horizontal direction will be described with reference to FIG.

図14は、横方向に移動している歩行者11の例を示す。検知処理領域選定部1311で説明したように、歩行者11が横移動している場合、物体検知装置1000内における通信遅れや取り付け誤差等によって、物体位置検出部1310で取得した画像20上での物体位置(BSX[b]、BSY[b]、BEX[b]、BEY[b])は、画像20上の歩行者11の位置とずれてしまう。   FIG. 14 shows an example of the pedestrian 11 moving in the lateral direction. As described in the detection processing region selection unit 1311, when the pedestrian 11 is moving laterally, the image position 20 on the image 20 acquired by the object position detection unit 1310 due to communication delay or attachment error in the object detection device 1000. The object positions (BSX [b], BSY [b], BEX [b], BEY [b]) are shifted from the position of the pedestrian 11 on the image 20.

特に、物体10が横方向に移動している場合、検知処理領域Wを設定する範囲である(BSX2[b]、BSY2[b]、BEX2[b]、BEY2[b])にも含まれないことが発生しうる。   In particular, when the object 10 is moving in the horizontal direction, it is not included in the range for setting the detection processing area W (BSX2 [b], BSY2 [b], BEX2 [b], BEY2 [b]). Can happen.

この場合、第一のテンプレート1210を歩行者11の右半身のテンプレートとし、第二のテンプレート1220を歩行者11の左半身のテンプレートとすると、歩行者11が右側に移動している場合は右半身11Rが検知処理領域Wに入らないため右半身のテンプレート1210に関する第一のマッチング率MATCH1[i]が小さくなり、左側に移動している場合は左半身が検知処理領域Wに入らないため左半身のテンプレート1220に関する第二のマッチング率MATCH2[i]が小さくなる。   In this case, if the first template 1210 is a template for the right half of the pedestrian 11 and the second template 1220 is a template for the left half of the pedestrian 11, the right half of the pedestrian 11 moves to the right. Since 11R does not enter the detection processing area W, the first matching rate MATCH1 [i] relating to the template 1210 of the right half is small, and when moving to the left, the left half does not enter the detection processing area W, so the left half The second matching rate MATCH2 [i] related to the template 1220 is reduced.

従って、物体位置検出部1310から得られる物体10の横位置PX[b]から横移動速度VX[b]を算出し、その絶対値が所定の速度閾値を超えた場合は横移動していると判定し、VX[b]の符号から右側に歩いていると判定された場合は右側のテンプレートである第一のテンプレート1210に関する第一の閾値1211が小さくなるような係数を乗じ、また、左側に歩いていると判定された場合は左側のテンプレートである第二のテンプレート1220に関する第二の閾値1221が小さくなるような係数を乗じ、第一の閾値1211および第二の閾値1221を調整して物体存在判定を行う。係数は、例えば0.8など一定の値でもよいし、例えば横方向の速度が0から横方向の速度の閾値まで1.0で、速度が高くなるほど値が0に近づくような関数を用いてもよい。   Therefore, when the lateral movement speed VX [b] is calculated from the lateral position PX [b] of the object 10 obtained from the object position detection unit 1310, and the absolute value exceeds a predetermined speed threshold value, the lateral movement is performed. If it is determined that it is walking to the right side from the sign of VX [b], it is multiplied by a coefficient that decreases the first threshold value 1211 related to the first template 1210 that is the right side template, and If it is determined that the object is walking, the object is obtained by multiplying the first threshold value 1211 and the second threshold value 1221 by multiplying by a coefficient that reduces the second threshold value 1221 related to the second template 1220 that is the left template. Perform existence determination. The coefficient may be a constant value such as 0.8, for example, using a function such that the lateral speed is 1.0 from 0 to the threshold of the lateral speed, and the value approaches 0 as the speed increases. Also good.

上記した物体検知装置1000によれば、歩行者11を検知する検知処理領域Wを上下方向に区画して部分領域w1、w2、w3の3つに分割する。そして、歩行者11の上部11Aを検知する第一のテンプレート1210、歩行者11の中部11Bを検知する第二のテンプレート1220、および歩行者11の脚部11Cを検知する第三のテンプレート1230を用いて、各部分領域w1、w2、w3とのマッチング率MATCH1、MATCH2、MATCH3を算出する。そして、各マッチング率MATCH1、MATCH2、MATCH3がそれぞれの判定閾値1211、1221、1231よりも大きいか否かを判断し、各マッチング率MATCH1、MATCH2、MATCH3が各判定閾値1211、1221、1231よりも大きいときは歩行者11であると判定する。従って、歩行者11の上半身にのみ類似しているパターン、または歩行者11の下半身にのみ類似しているパターンに対する誤検知を排除することができる。   According to the object detection apparatus 1000 described above, the detection processing area W for detecting the pedestrian 11 is divided in the vertical direction and is divided into three partial areas w1, w2, and w3. Then, the first template 1210 for detecting the upper part 11A of the pedestrian 11, the second template 1220 for detecting the middle part 11B of the pedestrian 11, and the third template 1230 for detecting the leg part 11C of the pedestrian 11 are used. Thus, the matching rates MATCH1, MATCH2, and MATCH3 with the partial regions w1, w2, and w3 are calculated. And it is judged whether each matching rate MATCH1, MATCH2, MATCH3 is larger than each determination threshold value 1211, 1221, 1231, and each matching rate MATCH1, MATCH2, MATCH3 is larger than each determination threshold value 1211, 1221, 1231. When it is determined that it is a pedestrian 11. Accordingly, it is possible to eliminate erroneous detection for a pattern that is similar only to the upper body of the pedestrian 11 or a pattern that is similar to only the lower body of the pedestrian 11.

また、物体検知装置1000によれば、歩行者11を検知する場合、別々の位置で算出した第一のテンプレート1210とのマッチング率MATCH1と、第二のテンプレート1220とのマッチング率MATCH2と、第三のテンプレート1230とのマッチング率MATCH3を様々に組み合わせることができる。   Moreover, according to the object detection apparatus 1000, when detecting the pedestrian 11, the matching rate MATCH1 with the first template 1210 calculated at different positions, the matching rate MATCH2 with the second template 1220, and the third The matching rate MATCH3 with the template 1230 can be variously combined.

例えば、検知処理領域Wを縦方向へ探索するように設定し、第一のマッチング率MATCH1[i]、第二のマッチング率MATCH2[i]、第三のマッチング率MATCH3[i]を配列として記憶し、異なる縦位置で算出した第一のマッチング率MATCH1[i]、第二のマッチング率MATCH2[j]、第三のマッチング率MATCH3[k]を組み合わせることができる。従って、大人よりも身長が低い子供を、子供専用のテンプレートを用意することなく、大人用のテンプレートのみで簡単且つ適切に検知することができる。   For example, the detection processing area W is set to be searched in the vertical direction, and the first matching rate MATCH1 [i], the second matching rate MATCH2 [i], and the third matching rate MATCH3 [i] are stored as an array. In addition, the first matching rate MATCH1 [i], the second matching rate MATCH2 [j], and the third matching rate MATCH3 [k] calculated at different vertical positions can be combined. Therefore, a child whose height is lower than that of an adult can be detected easily and appropriately only by using an adult template without preparing a template dedicated to the child.

さらに、ロービーム判定部1340の結果によって第一の閾値1211、第二の閾値1221、第三の閾値1231に係数を乗じ、ロービーム状態とロービーム状態以外のときで判定閾値を変化させることによって、ロービームにより歩行者11の脚部のみが明るく見えている場合でも歩行者11を適切に検知することができる。   Further, the first threshold value 1211, the second threshold value 1221, and the third threshold value 1231 are multiplied by a coefficient according to the result of the low beam determination unit 1340, and the determination threshold value is changed in the low beam state and other than the low beam state. Even when only the legs of the pedestrian 11 are visible brightly, the pedestrian 11 can be detected appropriately.

また、第一のテンプレート1210を歩行者11の右半身を検知するテンプレートとし、第二のテンプレート1220を歩行者11の左半身を検知するテンプレートとして、物体位置検出部1310の情報を用いて物体10が横移動していると判定した場合に、第一の閾値1211および第二の閾値1221に係数を乗じ、横移動時と横移動時でないときとで判定閾値を変化させることによって、通信遅れ等により物体位置検出部1310で検出した位置が画像20上の位置より遅れていても歩行者11を適切に検知することができる。   Further, the first template 1210 is used as a template for detecting the right half of the pedestrian 11 and the second template 1220 is used as a template for detecting the left half of the pedestrian 11, and the object 10 is detected using information from the object position detection unit 1310. Is determined to be laterally moving, the first threshold value 1211 and the second threshold value 1221 are multiplied by a coefficient, and the determination threshold value is changed between when the lateral movement is not performed and when the lateral movement is not performed. Thus, even if the position detected by the object position detection unit 1310 is delayed from the position on the image 20, the pedestrian 11 can be detected appropriately.

なお、歩行者11の検知に用いる識別器41、42、43は、本実施例で取り上げた方法に限定されない。正規化相関を用いたテンプレートマッチング、ニューラルネットワーク識別器、サポートベクターマシン識別器、ベイズ識別器などを用いてもよい。また、テンプレートの数は本実施例の3つに限定されず、2つのテンプレートでも、4つ以上のテンプレートでもよい。さらに、物体存在判定部1341で説明したように、処理回路1300は、物体位置検出部1310またはロービーム判定部1340を用いない形態でも使用可能である。   The classifiers 41, 42, and 43 used for detecting the pedestrian 11 are not limited to the methods taken up in this embodiment. Template matching using normalized correlation, a neural network classifier, a support vector machine classifier, a Bayes classifier, or the like may be used. Further, the number of templates is not limited to three in the present embodiment, and may be two templates or four or more templates. Further, as described in the object presence determination unit 1341, the processing circuit 1300 can be used in a form that does not use the object position detection unit 1310 or the low beam determination unit 1340.

本発明は、上述の実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。例えば、上述の実施の形態では、検知対象の物体10として歩行者11の場合を例に説明したが、例えば先行車両などの他の物体でもよい。また、上述の実施の形態では、検知処理領域Wを3つの部分領域w1、w2、w3に分解して歩行者11を検出する場合を例に説明したが、部分領域は複数であればよく、例えば2つ、あるいは4つ以上であってもよい。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention. For example, in the above-described embodiment, the case where the pedestrian 11 is used as the detection target object 10 has been described as an example, but other objects such as a preceding vehicle may be used. In the above-described embodiment, the case where the detection processing area W is decomposed into the three partial areas w1, w2, and w3 to detect the pedestrian 11 is described as an example. For example, it may be two, or four or more.

本実施の形態における物体検知装置のブロック図。The block diagram of the object detection apparatus in this Embodiment. 第一のテンプレート〜第三のテンプレートを示す模式図。The schematic diagram which shows a 1st template-a 3rd template. 物体位置を設定する例を示す模式図。The schematic diagram which shows the example which sets an object position. 処理領域を設定する例を示す模式図。The schematic diagram which shows the example which sets a process area | region. 処理領域を設定する他の例を示す模式図。The schematic diagram which shows the other example which sets a process area | region. 処理領域を複数の部分領域に分割する例を示す模式図。The schematic diagram which shows the example which divides | segments a process area | region into several partial area | regions. 処理領域を複数の部分領域に分割する他の例を示す模式図。The schematic diagram which shows the other example which divides | segments a process area | region into several partial area | regions. マッチング率算出部の処理内容を示すフローチャート。The flowchart which shows the processing content of a matching rate calculation part. 第一のテンプレートを用いた歩行者の判定方法を示すブロック図。The block diagram which shows the determination method of the pedestrian using a 1st template. 第二のテンプレートを用いた歩行者の判定方法を示すブロック図。The block diagram which shows the pedestrian determination method using a 2nd template. 第三のテンプレートを用いた歩行者の判定方法を示すブロック図。The block diagram which shows the determination method of the pedestrian using a 3rd template. 低身長歩行者を判定する方法を説明する図。The figure explaining the method of determining a short stature pedestrian. ロービームの状態で歩行者を検知する例を説明する図。The figure explaining the example which detects a pedestrian in the state of a low beam. 自車前方で横方向に移動している歩行者を検知する例を説明する図。The figure explaining the example which detects the pedestrian who is moving to the horizontal direction ahead of the own vehicle.

符号の説明Explanation of symbols

1000 物体検知装置
1100 画像取得装置
1200 記憶装置
1210 第一のテンプレート
1211 第一の閾値
1220 第二のテンプレート
1221 第二の閾値
1230 第三のテンプレート
1221 第三の閾値
1300 処理回路
1310 物体位置検出部
1311 処理領域選定部
1321 領域分割部
1331 マッチング率算出部
1340 ロービーム判定部
1341 物体存在判定部
1000 Object detection device 1100 Image acquisition device 1200 Storage device 1210 First template 1211 First threshold 1220 Second template 1221 Second threshold 1230 Third template 1221 Third threshold 1300 Processing circuit 1310 Object position detection unit 1311 Processing region selection unit 1321 Region division unit 1331 Matching rate calculation unit 1340 Low beam determination unit 1341 Object presence determination unit

Claims (5)

画像内から予め設定された物体を検知する物体検知装置であって、
前記画像内で前記物体を検知するための検知処理領域を選定する検知処理領域選定部と、
該検知処理領域選定部により選定された前記検知処理領域を複数の部分領域に分割する領域分割部と、
前記複数の部分領域に対して各々設定され前記物体の部分を検知するためのテンプレートを用いて、前記各部分領域とのマッチング率をそれぞれ算出するマッチング率算出部と、
該マッチング率算出部により算出した各マッチング率に基づいて前記画像内に前記物体が存在するか否かを判定する物体存在判定部と、を有し、
前記検知処理領域選定部は、前記画像内において上下方向に複数の検知処理領域を選定し、
前記領域分割部は、前記検知処理領域を上下方向に分割して前記複数の部分領域とし、
前記物体存在判定部は、前記複数の検知処理領域にて互いに上下方向に位置が異なる部分領域のマッチング率を用いて、前記画像内に前記物体とは上下方向の長さが異なる他の物体が存在するか否かを判定することを特徴とする物体検知装置。
An object detection device for detecting a preset object from within an image,
A detection processing region selection unit for selecting a detection processing region for detecting the object in the image;
A region dividing unit that divides the detection processing region selected by the detection processing region selection unit into a plurality of partial regions;
A matching rate calculation unit that calculates a matching rate with each of the partial regions using a template that is set for each of the plurality of partial regions and detects a part of the object;
An object presence determination unit that determines whether or not the object is present in the image based on each matching rate calculated by the matching rate calculation unit;
The detection processing area selection unit selects a plurality of detection processing areas in the vertical direction in the image,
The region dividing unit divides the detection processing region in the vertical direction into the plurality of partial regions,
The object presence determination unit uses a matching ratio of partial areas whose positions are different from each other in the vertical direction in the plurality of detection processing areas, so that another object having a vertical length different from the object is included in the image. An object detection device that determines whether or not it exists.
画像内から予め設定された物体を検知する物体検知装置であって、
前記画像内で前記物体を検知するための検知処理領域を選定する検知処理領域選定部と、
該検知処理領域選定部により選定された前記検知処理領域を複数の部分領域に分割する領域分割部と、
前記複数の部分領域に対して各々設定され前記物体の部分を検知するためのテンプレートを用いて、前記各部分領域とのマッチング率をそれぞれ算出するマッチング率算出部と、
該マッチング率算出部により算出した各マッチング率に基づいて前記画像内に前記物体が存在するか否かを判定する物体存在判定部と、
自車がロービームの状態で走行しているか否かを判定するロービーム判定部と、を有し、
前記領域分割部は、前記検知処理領域を上部部分領域と下部部分領域に分割し、
前記物体存在判定部は、前記ロービーム判定部によってロービーム状態と判定されているときは前記上部部分領域に対して予め設定されている上部判定閾値と、前記下部部分領域に対して予め設定されている下部判定閾値を調整して物体判定を行うことを特徴とする物体検知装置。
An object detection device for detecting a preset object from within an image,
A detection processing region selection unit for selecting a detection processing region for detecting the object in the image;
A region dividing unit that divides the detection processing region selected by the detection processing region selection unit into a plurality of partial regions;
A matching rate calculation unit that calculates a matching rate with each of the partial regions using a template that is set for each of the plurality of partial regions and detects a part of the object;
An object presence determination unit that determines whether or not the object exists in the image based on each matching rate calculated by the matching rate calculation unit;
A low beam determination unit that determines whether or not the vehicle is running in a low beam state ,
The region dividing unit divides the detection processing region into an upper partial region and a lower partial region,
The object presence determination unit is set in advance for an upper determination threshold set in advance for the upper partial region and in the lower partial region when the low beam determination unit determines that the low beam state is present. An object detection apparatus that performs object determination by adjusting a lower determination threshold.
前記物体存在判定部は、前記ロービーム判定部によってロービーム状態と判定されているときは前記上部判定閾値を非ロービーム状態のときよりも低い値に変更して物体判定を行うことを特徴とする請求項に記載の物体検知装置。 The object existence determination unit performs object determination by changing the upper determination threshold to a lower value than that in a non-low beam state when the low beam determination unit determines that the low beam state is present. 2. The object detection apparatus according to 2. 前記物体存在判定部は、前記ロービーム判定部によってロービーム状態と判定されているときは前記下部判定閾値を非ロービーム状態のときよりも高い値に変更して物体判定を行うことを特徴とする請求項2又は3に記載の物体検知装置。 The object existence determination unit performs object determination by changing the lower determination threshold to a higher value than that in the non-low beam state when the low beam determination unit determines that the low beam state is present. The object detection apparatus according to 2 or 3 . 画像内から予め設定された物体を検知する物体検知装置であって、
前記画像内で前記物体を検知するための検知処理領域を選定する検知処理領域選定部と、
該検知処理領域選定部により選定された前記検知処理領域を複数の部分領域に分割する領域分割部と、
前記複数の部分領域に対して各々設定され前記物体の部分を検知するためのテンプレートを用いて、前記各部分領域とのマッチング率をそれぞれ算出するマッチング率算出部と、
該マッチング率算出部により算出した各マッチング率に基づいて前記画像内に前記物体が存在するか否かを判定する物体存在判定部と、
前記物体の位置を検出する物体位置検出部と、を有し、
前記領域分割部は、前記物体位置検出からの検出信号に基づいて前記物体の横移動速度を算出し、該横移動速度が予め設定された速度閾値を超えている場合には、前記検知処理領域を左右方向に分割して左部分領域と右部分領域とし、
前記物体存在判定部は、前記左部分領域と右部分領域のうち、前記物体の移動方向前側に位置する部分領域に対して予め設定されている第一の閾値を、前記横移動速度が前記速度閾値以下のときよりも低い値に変更して物体判定を行うことを特徴とする物体検知装置。
An object detection device for detecting a preset object from within an image,
A detection processing region selection unit for selecting a detection processing region for detecting the object in the image;
A region dividing unit that divides the detection processing region selected by the detection processing region selection unit into a plurality of partial regions;
A matching rate calculation unit that calculates a matching rate with each of the partial regions using a template that is set for each of the plurality of partial regions and detects a part of the object;
An object presence determination unit that determines whether or not the object exists in the image based on each matching rate calculated by the matching rate calculation unit;
An object position detection unit for detecting the position of the object,
The area dividing unit calculates a lateral movement speed of the object based on a detection signal from the object position detection unit, and the detection process is performed when the lateral movement speed exceeds a preset speed threshold value. Divide the area in the left and right direction into left partial area and right partial area,
The object presence determination unit sets a first threshold value that is set in advance for a partial region located on the front side in the movement direction of the object among the left partial region and the right partial region, and the lateral movement speed is the speed. An object detection apparatus that performs object determination by changing to a lower value than when it is equal to or less than a threshold value.
JP2008304587A 2008-11-28 2008-11-28 Object detection device Active JP5090321B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008304587A JP5090321B2 (en) 2008-11-28 2008-11-28 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008304587A JP5090321B2 (en) 2008-11-28 2008-11-28 Object detection device

Publications (2)

Publication Number Publication Date
JP2010128919A JP2010128919A (en) 2010-06-10
JP5090321B2 true JP5090321B2 (en) 2012-12-05

Family

ID=42329254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008304587A Active JP5090321B2 (en) 2008-11-28 2008-11-28 Object detection device

Country Status (1)

Country Link
JP (1) JP5090321B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5822255B2 (en) * 2011-04-14 2015-11-24 株式会社豊田中央研究所 Object identification device and program
JP5603835B2 (en) 2011-06-27 2014-10-08 クラリオン株式会社 Vehicle perimeter monitoring device
JP5906730B2 (en) * 2011-12-27 2016-04-20 セイコーエプソン株式会社 Detection apparatus and detection method
JP6100635B2 (en) * 2012-12-13 2017-03-22 株式会社デンソー Moving body detection device
JP2014044730A (en) * 2013-09-24 2014-03-13 Clarion Co Ltd Image processing apparatus
KR102164637B1 (en) * 2014-09-23 2020-10-12 현대자동차주식회사 System for tracking a object in road and method thereof
JP2017165345A (en) * 2016-03-18 2017-09-21 株式会社Jvcケンウッド Object recognition device, object recognition method and object recognition program
JP6759995B2 (en) * 2016-11-11 2020-09-23 株式会社デンソー Image processing device
CN109426771A (en) * 2017-08-24 2019-03-05 日立汽车系统株式会社 The device and method that the wisp region of vehicle periphery is identified
JP7009864B2 (en) * 2017-09-20 2022-01-26 カシオ計算機株式会社 Contour detection device and contour detection method
JP7423491B2 (en) 2018-07-31 2024-01-29 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging device and vehicle control system
CN112639877A (en) * 2018-09-12 2021-04-09 日立汽车系统株式会社 Image recognition device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000185610A (en) * 1998-12-24 2000-07-04 Mazda Motor Corp Obstacle alarm device for vehicle
JP2005316607A (en) * 2004-04-27 2005-11-10 Toyota Motor Corp Image processor and image processing method
JP2008015771A (en) * 2006-07-05 2008-01-24 Fujitsu Ten Ltd Image recognition device, image recognition method, and vehicle control device
JP2008021034A (en) * 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, pedestrian recognition device and vehicle controller
JP4263737B2 (en) * 2006-11-09 2009-05-13 トヨタ自動車株式会社 Pedestrian detection device
JP2008181423A (en) * 2007-01-25 2008-08-07 Fujitsu Ten Ltd Pedestrian recognition device and pedestrian recognition method

Also Published As

Publication number Publication date
JP2010128919A (en) 2010-06-10

Similar Documents

Publication Publication Date Title
JP5090321B2 (en) Object detection device
JP5372680B2 (en) Obstacle detection device
JP5401344B2 (en) Vehicle external recognition device
US8903603B2 (en) Environment recognizing device for a vehicle and vehicle control system using the same
EP3179445B1 (en) Outside environment recognition device for vehicles and vehicle behavior control device using same
JP4241834B2 (en) In-vehicle fog determination device
US8199198B2 (en) Bright spot detection and classification method for a vehicular night-time video imaging system
US8175331B2 (en) Vehicle surroundings monitoring apparatus, method, and program
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP5145585B2 (en) Target detection device
JP5283967B2 (en) In-vehicle object detection device
JP2014115978A (en) Mobile object recognition device, notification apparatus using the device, mobile object recognition program for use in the mobile object recognition device, and mobile object with the mobile object recognition device
JP2013061919A (en) External environment recognition method and device, and vehicle system
JP2011257984A (en) Object detection device and program
JP5874831B2 (en) Three-dimensional object detection device
JP5065172B2 (en) Vehicle lighting determination device and program
JP5593217B2 (en) Vehicle external recognition device and vehicle system using the same
JP6533244B2 (en) Object detection device, object detection method, and object detection program
WO2020054260A1 (en) Image recognition device
JP7460282B2 (en) Obstacle detection device, obstacle detection method, and obstacle detection program
JP5313080B2 (en) Linear component reduction device and pedestrian detection display system
JP2021136597A (en) External environment recognition device for vehicle
JP4871941B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120912

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5090321

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350