JP6317986B2 - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP6317986B2
JP6317986B2 JP2014084543A JP2014084543A JP6317986B2 JP 6317986 B2 JP6317986 B2 JP 6317986B2 JP 2014084543 A JP2014084543 A JP 2014084543A JP 2014084543 A JP2014084543 A JP 2014084543A JP 6317986 B2 JP6317986 B2 JP 6317986B2
Authority
JP
Japan
Prior art keywords
attribute
recognition
recognized
takeover
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014084543A
Other languages
Japanese (ja)
Other versions
JP2015203677A (en
Inventor
洋治 笹渕
洋治 笹渕
啓貴 木嶋
啓貴 木嶋
真也 丸尾
真也 丸尾
芳洋 浦井
芳洋 浦井
拓哉 樫木
拓哉 樫木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2014084543A priority Critical patent/JP6317986B2/en
Publication of JP2015203677A publication Critical patent/JP2015203677A/en
Application granted granted Critical
Publication of JP6317986B2 publication Critical patent/JP6317986B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、移動体の周囲に存在する物体を認識する物体認識装置に関する。   The present invention relates to an object recognition device that recognizes an object existing around a moving body.

特許文献1は、撮像手段による瞬間的に不安定な検出結果によりフュージョン物標の大きさ情報を適正に取得できない場合であっても、その影響を極力受けることなくフュージョン物標を更新することを課題としている([0006]、要約)。   Japanese Patent Laid-Open No. 2004-133867 discloses that even if the size information of the fusion target cannot be acquired properly due to the instantaneously unstable detection result by the imaging means, the fusion target is updated without being affected as much as possible. It is an issue ([0006], summary).

当該課題を解決するため、特許文献1では、生成されたフュージョン物標FPの更新時に、レーダ物標MPは検出できたが、撮像手段では瞬間的な画像ロスト(未検出)を生じて大きさ情報を適正に取得できなくても、撮像手段の検出結果に誤りがあり前回の検出物体が存在すると推定する。そして、大きさ情報が過去に取得したフュージョン物標FPの大きさ情報に基づく推定により補間された補間画像物標LIP1〜LIP4を用いて画像ロストフュージョン物標LFP1〜LFP4を生成してフュージョン物標FPを更新する(要約)。 In order to solve the problem, in Patent Document 1, the radar target MP can be detected when the generated fusion target FP is updated, but the imaging means generates an instantaneous image lost (undetected) size. Even if the information cannot be acquired properly, it is estimated that there is an error in the detection result of the imaging means and the previous detected object exists. Then, the image lost fusion targets LFP 1 to LFP 4 are generated using the interpolated image targets LIP 1 to LIP 4 interpolated by the estimation based on the size information of the fusion target FP acquired in the past. Update the fusion target FP (summary).

また、特許文献1では、画像ロストが生じる場合として、ミリ波レーダ2の検出結果が誤っており現実に物体が存在しなくなってしまった場合に加え、例えば、光の当り具合(夕日、影等)の影響によって、ステレオカメラ3側で瞬間的に画像検出物をロスト(未検出)してしまう場合を想定している([0032])。   Also, in Patent Document 1, in addition to the case where the image lost occurs, the detection result of the millimeter wave radar 2 is incorrect and the object no longer exists, for example, the light hit condition (sunset, shadow, etc.) ), The case where the image detection object is instantaneously lost (not detected) on the stereo camera 3 side is assumed ([0032]).

特開2007−226680号公報JP 2007-226680 A

特許文献1では、画像ロストが発生した場合でも、画像ロストフュージョン物標LFP1〜LFP4を生成することにより大きさ情報を用いることが可能となる。しかしながら、特許文献1の技術には改善の余地がある。 In Patent Document 1, even when an image lost occurs, size information can be used by generating the image lost fusion targets LFP 1 to LFP 4 . However, there is room for improvement in the technique of Patent Document 1.

例えば、特許文献1では、フュージョン物標FPの大きさ情報を特定しているが、フュージョン物標FPの種類については特定しておらず、画像ロストが生じた際に「種類」を引き継ぐことについては検討されていない。   For example, in Patent Document 1, the size information of the fusion target FP is specified, but the type of the fusion target FP is not specified, and the “type” is taken over when the image lost occurs. Has not been considered.

本発明は上記のような課題を考慮してなされたものであり、移動体の周囲に存在する物体の属性を好適に認識することが可能な物体認識装置を提供することを目的とする。
The present invention has been made in consideration of the above-described problems, and an object of the present invention is to provide an object recognition apparatus capable of suitably recognizing attributes of an object existing around a moving body.

本発明に係る物体認識装置は、第1物体からの電磁波の反射に基づいて前記第1物体の位置を認識する第1認識手段と、撮像画像内に存在する第2物体の位置及び属性を認識する第2認識手段と、前記第1認識手段で認識された前記第1物体の位置及び前記第2認識手段で認識された前記第2物体の位置が一致する又は所定距離内にあるときに同一の対象物体であると判定するマッチング手段とを備え、移動体に搭載されるものであって、
前記マッチング手段により前記同一の対象物体であると判定される前記第1物体と前記第2物体の組み合わせが認識された後、前記第2物体が認識されなくなった場合、前記第2物体の属性を引き継ぐか否かを判定する引継ぎ判定手段をさらに備え、
前記引継ぎ判定手段は、前記第2物体が認識されなくなってからの不認識時間が所定の引継ぎ許可閾値を下回ることを少なくとも条件の1つとして、前記第2物体の属性を引き継ぐ
ことを特徴とする。
An object recognition apparatus according to the present invention recognizes first recognition means for recognizing the position of the first object based on reflection of electromagnetic waves from the first object, and recognition of the position and attribute of the second object present in the captured image. The second recognizing means, and the same position when the position of the first object recognized by the first recognizing means and the position of the second object recognized by the second recognizing means match or are within a predetermined distance. And a matching means for determining that the target object is mounted on a moving body,
When the second object is not recognized after the combination of the first object and the second object determined to be the same target object by the matching unit is recognized, the attribute of the second object is set. It further comprises takeover determining means for determining whether to take over,
The takeover determining means takes over the attribute of the second object on at least one of the conditions that the non-recognition time after the second object is no longer recognized is below a predetermined takeover permission threshold. .

本発明によれば、対象物体の属性の認識に用いる第2物体が認識されなくなってからの不認識時間が所定の引継ぎ許可閾値を下回ることを少なくとも条件の1つとして、第2物体の属性を引き継ぐ。このため、第2物体の属性を引き継ぐべきか否かを適切に判定し、対象物体の属性の判定精度を高めることが可能となる。
According to the present invention, as one non-recognition time is at least provided that below a predetermined takeover permission threshold from no longer being recognized second object to be used for recognition of the attributes of the object, the attribute of the second object take over. For this reason, it is possible to appropriately determine whether or not to inherit the attribute of the second object, and to increase the accuracy of determining the attribute of the target object.

前記引継ぎ判定手段は、前記マッチング手段により前記同一の対象物体であると判定される前記第1物体と前記第2物体の組み合わせが認識された後、前記移動体から前記対象物体までの距離が、所定の距離閾値より短くなったことを追加条件として、前記第2物体の属性を引き継ぐか否かを判定してもよい。このため、光の当り具合(夕日、影等)の影響によって対象物体を瞬間的に検出できなかった場合の処理と比較して、比較的長い時間、対象物体の属性を認識し続けることが可能となる。
The takeover determining means recognizes the distance from the moving body to the target object after the combination of the first object and the second object determined to be the same target object by the matching means is recognized. It may be determined whether or not the attribute of the second object is taken over as an additional condition that the distance is shorter than a predetermined distance threshold. For this reason, it is possible to continue to recognize the attributes of the target object for a relatively long time compared to the processing when the target object cannot be detected instantaneously due to the influence of the lighting condition (sunset, shadow, etc.) It becomes.

また、対象物体が、移動体との距離閾値を超えるほど移動体に接近していなければ、第2物体の属性を引き継ぐか否かの判定を行わないことが可能となる。従って、当該引継ぎについての判定を行う場面を限定することで、物体認識装置における演算負荷を軽減することが可能となる。
Further, if the target object is not so close to the moving body that it exceeds the distance threshold with the moving body, it is possible to determine whether or not to inherit the attribute of the second object. Therefore, it is possible to reduce the calculation load in the object recognition apparatus by limiting the scenes where the determination about the takeover is performed.

記引継ぎ判定手段は、前記移動体から前記対象物体までの距離が前記距離閾値より短いか否かを、前記第1認識手段で認識された前記第1物体の位置を用いて判定してもよい。これにより、撮像画像ではなく、電磁波の反射を用いて、移動体から対象物体までの距離が短すぎるか否かを判定することが可能となる。このため、第2認識手段よりも第1認識手段の方が位置の認識精度が高い場合、移動体から対象物体までの距離を高精度に認識することが可能となる。
Before Ki引 splicing determination means, wherein the distance to the target object whether shorter than the distance threshold, it is determined using a recognized position of the first object in the first recognition means from the mobile Also good. Thereby, it is possible to determine whether the distance from the moving body to the target object is too short by using the reflection of the electromagnetic wave instead of the captured image. For this reason, when the position recognition accuracy of the first recognition unit is higher than that of the second recognition unit, the distance from the moving body to the target object can be recognized with high accuracy.

前記引継ぎ判定手段は、前記第2物体が認識されなくなる前に前記マッチング手段が前記第1物体と前記第2物体とが前記同一の対象物体であると判定した継続時間に基づいて前記引継ぎ許可閾値を変化させてもよい。前記継続時間は、対象物体の属性の認識精度に影響する。このため、前記継続時間に応じて引継ぎ許可閾値を変化させることで、対象物体の属性の判定精度を高めることが可能となる。
The takeover determining means determines the takeover permission threshold based on a duration time that the matching means determines that the first object and the second object are the same target object before the second object is not recognized. May be changed. The duration time affects the recognition accuracy of the attribute of the target object. For this reason, it becomes possible to improve the determination accuracy of the attribute of the target object by changing the takeover permission threshold according to the duration.

前記引継ぎ判定手段は、前記移動体の移動速度又は前記移動体と前記対象物体の相対速度に基づいて前記引継ぎ許可閾値を変化させてもよい。移動体の移動速度又は移動体と対象物体の相対速度は、対象物体の属性の認識精度に影響する。このため、移動速度又は相対速度に応じて引継ぎ許可閾値を変化させることで、対象物体の属性の判定精度を高めることが可能となる。
The takeover determining means may change the takeover permission threshold based on a moving speed of the moving body or a relative speed of the moving body and the target object. The moving speed of the moving body or the relative speed between the moving body and the target object affects the recognition accuracy of the attribute of the target object. For this reason, it is possible to improve the determination accuracy of the attribute of the target object by changing the takeover permission threshold according to the moving speed or the relative speed.

前記引継ぎ判定手段は、前記第1認識手段で認識された前記第1物体の個数に基づいて前記引継ぎ許可閾値を変化させてもよい。第1認識手段で認識された第1物体の個数は、対象物体の属性の認識精度に影響する。このため、第1物体の個数に応じて引継ぎ許可閾値を変化させることで、対象物体の属性の判定精度を高めることが可能となる。
The takeover determining means may change the takeover permission threshold based on the number of the first objects recognized by the first recognizing means. The number of first objects recognized by the first recognition means affects the recognition accuracy of the attribute of the target object. For this reason, it is possible to increase the determination accuracy of the attribute of the target object by changing the takeover permission threshold according to the number of first objects.

前記引継ぎ判定手段は、前記第1物体からの前記電磁波の反射レベルの変化に基づき、前記対象物体の属性の引継ぎを禁止してもよい。第1物体からの電磁波の反射レベルの変化は、対象物体の属性の認識精度に影響する。このため、前記反射レベルの変化に応じて引継ぎを禁止することで、対象物体の属性の判定精度を高めることが可能となる。
The takeover determining means may prohibit taking over the attribute of the target object based on a change in the reflection level of the electromagnetic wave from the first object. The change in the reflection level of the electromagnetic wave from the first object affects the recognition accuracy of the attribute of the target object. For this reason, it is possible to improve the determination accuracy of the attribute of the target object by prohibiting the takeover according to the change in the reflection level.

本発明によれば、移動体の周囲に存在する物体の属性を好適に認識することが可能となる。
According to the present invention, it is possible to appropriately recognize the attributes of an object existing around a moving body.

本発明の一実施形態に係る物体認識装置を搭載した車両の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle carrying the object recognition apparatus which concerns on one Embodiment of this invention. 前記実施形態における属性判定制御の第1フローチャートである。It is a 1st flowchart of the attribute determination control in the said embodiment. 前記実施形態における属性判定制御の第2フローチャートである。It is a 2nd flowchart of the attribute determination control in the said embodiment. 直近(過去)の属性情報継続時間と仮属性引継ぎ許可閾値との関係を示す図である。It is a figure which shows the relationship between the attribute information continuation time of the last (past) and temporary attribute takeover permission threshold value. 前記車両と対象物体の相対速度と仮属性引継ぎ許可閾値との関係を示す図である。It is a figure which shows the relationship between the relative speed of the said vehicle and a target object, and a temporary attribute inheritance permission threshold value. 画像不認識領域内に存在する第1物体の個数と仮属性引継ぎ許可閾値との関係を示す図である。It is a figure which shows the relationship between the number of the 1st objects which exist in an image non-recognition area | region, and a temporary attribute inheritance permission threshold value. 第2物体又は対象物体としての歩行者と前記車両との位置関係を示す図である。It is a figure which shows the positional relationship of the pedestrian as a 2nd object or a target object, and the said vehicle. カメラの撮像画像の第1例を示す図である。It is a figure which shows the 1st example of the captured image of a camera. 前記カメラの撮像画像の第2例を示す図である。It is a figure which shows the 2nd example of the captured image of the said camera.

A.一実施形態
A1.構成
[A1−1.全体構成]
図1は、本発明の一実施形態に係る物体認識装置12を搭載した車両10(以下「自車10」ともいう。)の構成を示すブロック図である。車両10は、物体認識装置12に加え、車両挙動安定システム14(以下「VSAシステム14」という。)、電動パワーステアリングシステム16(以下「EPSシステム16」という。)、ポップアップフードシステム18(以下「PUHシステム18」という。)及び車速センサ20を有する。
A. Embodiment A1. Configuration [A1-1. overall structure]
FIG. 1 is a block diagram showing a configuration of a vehicle 10 (hereinafter also referred to as “own vehicle 10”) equipped with an object recognition device 12 according to an embodiment of the present invention. In addition to the object recognition device 12, the vehicle 10 includes a vehicle behavior stabilization system 14 (hereinafter referred to as "VSA system 14"), an electric power steering system 16 (hereinafter referred to as "EPS system 16"), and a pop-up hood system 18 (hereinafter referred to as "". A PUH system 18 ”) and a vehicle speed sensor 20.

物体認識装置12は、自車10の周囲に現れる各種の物体100(例えば、他車、歩行者、壁)を検出する。そして、物体認識装置12は、物体100(以下「検出物体100」ともいう。)のうち自車10の制御に関連するものを対象物体100tar(以下「物体100tar」ともいう。)として選択又は特定する。物体認識装置12は、自車10から対象物体100tarまでの距離Lを算出すると共に、対象物体100tarの属性Prtarを判別する。ここでの属性Prtarには、例えば、対象物体100tarの種類Ca(例えば、車両、歩行者(ヒト)又は壁)、大きさ等が含まれる。   The object recognition device 12 detects various objects 100 (for example, other vehicles, pedestrians, walls) that appear around the host vehicle 10. Then, the object recognition device 12 selects or specifies the object 100 (hereinafter also referred to as “detected object 100”) that is related to the control of the host vehicle 10 as the target object 100tar (hereinafter also referred to as “object 100tar”). To do. The object recognition device 12 calculates the distance L from the host vehicle 10 to the target object 100tar, and determines the attribute Prtar of the target object 100tar. The attribute Prtar here includes, for example, the type Ca (for example, vehicle, pedestrian (human) or wall), size, and the like of the target object 100tar.

VSAシステム14の電子制御装置30(以下「VSA ECU30」という。)は、車両挙動安定化制御を実行するものであり、図示しないブレーキシステム等の制御を介してカーブ路の旋回時、自車10に対する他車の接近時等における車両10の挙動を安定化させる。   An electronic control unit 30 (hereinafter referred to as “VSA ECU 30”) of the VSA system 14 performs vehicle behavior stabilization control, and the vehicle 10 is turned when turning on a curved road through control of a brake system (not shown). The behavior of the vehicle 10 when the other vehicle approaches the vehicle is stabilized.

EPSシステム16の電子制御装置32(以下「EPS ECU32」という。)は、操舵アシスト制御を実行するものであり、電動パワーステアリング装置の構成要素{電動モータ、トルクセンサ及び舵角センサ(いずれも図示せず)等}の制御を介して運転者による操舵をアシストする。   An electronic control device 32 (hereinafter referred to as “EPS ECU 32”) of the EPS system 16 executes steering assist control, and is a constituent element of an electric power steering device {an electric motor, a torque sensor, and a steering angle sensor (all shown in FIG. Etc.) assists the steering by the driver.

PUHシステム18の電子制御装置34(以下「PUH ECU34」という。)は、車両10が歩行者102(図7〜図9)との衝突事故に遭った場合、車両10のポップアップフード(図示せず)を跳ね上げ、歩行者102の頭部が車体に当たったときの衝撃を和らげる。   The electronic control device 34 (hereinafter referred to as “PUH ECU 34”) of the PUH system 18 is a pop-up hood (not shown) of the vehicle 10 when the vehicle 10 encounters a collision with the pedestrian 102 (FIGS. 7 to 9). ) And the impact when the head of the pedestrian 102 hits the vehicle body is reduced.

車速センサ20は、車両10の車速V[km/h]を検出して物体認識装置12等に出力する。   The vehicle speed sensor 20 detects the vehicle speed V [km / h] of the vehicle 10 and outputs it to the object recognition device 12 or the like.

[A1−2.物体認識装置12]
図1に示すように、物体認識装置12は、レーダ40、カメラ42及び物体認識電子制御装置44(以下「物体認識ECU44」又は「ECU44」という。)を有する。
[A1-2. Object recognition device 12]
As shown in FIG. 1, the object recognition device 12 includes a radar 40, a camera 42, and an object recognition electronic control device 44 (hereinafter referred to as “object recognition ECU 44” or “ECU 44”).

(A1−2−1.レーダ40)
レーダ40は、電磁波(ここではミリ波)である送信波Wtを車両10の外部に出力し、送信波Wtのうち検出物体100(例えば、他車、歩行者102)に反射して戻って来る反射波Wrを受信する。そして、反射波Wrに対応する検出信号(以下「反射波信号Swr」又は「信号Swr」という。)をECU44に出力する。以下では、レーダ40が検出した検出物体100を「第1物体100r」又は「レーダ物標100r」ともいう。
(A1-2-1. Radar 40)
The radar 40 outputs a transmission wave Wt, which is an electromagnetic wave (here, a millimeter wave), to the outside of the vehicle 10, and reflects back to the detection object 100 (for example, another vehicle, pedestrian 102) out of the transmission wave Wt. The reflected wave Wr is received. Then, a detection signal corresponding to the reflected wave Wr (hereinafter referred to as “reflected wave signal Swr” or “signal Swr”) is output to the ECU 44. Hereinafter, the detected object 100 detected by the radar 40 is also referred to as “first object 100r” or “radar target 100r”.

レーダ40は、車両10の前側(例えば、フロントバンパ及び/又はフロントグリル)に配置される。前側に加えて又は前側に代えて、車両10の後ろ側(例えば、リアバンパ及び/又はリアグリル)又は側方(例えば、フロントバンパの側方)に配置してもよい。   The radar 40 is disposed on the front side of the vehicle 10 (for example, a front bumper and / or a front grill). In addition to the front side or instead of the front side, the vehicle 10 may be arranged on the rear side (for example, the rear bumper and / or the rear grille) or the side (for example, the side of the front bumper).

また、後述するように、ミリ波を出力するレーダ40の代わりに、レーザレーダ、超音波センサ等のセンサを用いることもできる。   As will be described later, a sensor such as a laser radar or an ultrasonic sensor can be used instead of the radar 40 that outputs millimeter waves.

(A1−2−2.カメラ42)
カメラ42(撮像手段)は、車両10の周囲(対象物体100tarを含む。)の画像200(以下「周辺画像200」又は「撮像画像200」ともいう。)(図8及び図9)を取得する。そして、画像200に対応する信号(以下「画像信号Si」又は「信号Si」という。)をECU44に出力する。以下では、カメラ42が検出した検出物体100を「第2物体100c」又は「カメラ物標100c」ともいう。
(A1-2-2. Camera 42)
The camera 42 (imaging means) acquires an image 200 (hereinafter also referred to as “peripheral image 200” or “captured image 200”) (FIGS. 8 and 9) around the vehicle 10 (including the target object 100tar). . Then, a signal corresponding to the image 200 (hereinafter referred to as “image signal Si” or “signal Si”) is output to the ECU 44. Hereinafter, the detected object 100 detected by the camera 42 is also referred to as a “second object 100c” or a “camera target 100c”.

本実施形態では、1つのカメラ42を用いるが、2つのカメラ42を左右対称に配置させてステレオカメラを構成してもよい。カメラ42は、1秒間に15フレーム以上(例えば30フレーム)で画像200を取得する。カメラ42は、主に可視光領域の波長を有する光を利用するモノクロカメラであるが、カラーカメラ又は赤外線カメラであってもよい。カメラ42は、例えば、車両10の車室内の前方部分における車幅方向中心部(例えば、バックミラー周辺)に配置されている。或いは、カメラ42は、車両10の前部バンパー部における車幅方向中心部に配置されてもよい。   In the present embodiment, one camera 42 is used, but a stereo camera may be configured by arranging two cameras 42 symmetrically. The camera 42 acquires the image 200 at 15 frames or more (for example, 30 frames) per second. The camera 42 is a monochrome camera that mainly uses light having a wavelength in the visible light region, but may be a color camera or an infrared camera. The camera 42 is disposed, for example, at the center in the vehicle width direction (for example, around the rearview mirror) in the front portion of the vehicle interior of the vehicle 10. Alternatively, the camera 42 may be disposed at the center in the vehicle width direction in the front bumper portion of the vehicle 10.

(A1−2−3.物体認識ECU44)
物体認識ECU44は、物体認識装置12の全体を制御するものであり、図1に示すように、入出力部50、演算部52及び記憶部54を有する。
(A1-2-3. Object recognition ECU 44)
The object recognition ECU 44 controls the entire object recognition device 12, and includes an input / output unit 50, a calculation unit 52, and a storage unit 54 as shown in FIG.

レーダ40からの反射波信号Swr及びカメラ42からの画像信号Siは、入出力部50を介して物体認識ECU44に供給される。また、物体認識ECU44と、VSA ECU30、EPS ECU32及びPUH ECU34との間の通信は、通信線70及び入出力部50を介して行われる。入出力部50は、入力されたアナログ信号をデジタル信号に変換する図示しないA/D変換回路を備える。   The reflected wave signal Swr from the radar 40 and the image signal Si from the camera 42 are supplied to the object recognition ECU 44 via the input / output unit 50. Communication between the object recognition ECU 44 and the VSA ECU 30, EPS ECU 32, and PUH ECU 34 is performed via the communication line 70 and the input / output unit 50. The input / output unit 50 includes an A / D conversion circuit (not shown) that converts an input analog signal into a digital signal.

演算部52は、レーダ40及びカメラ42からの各信号Swr、Siに基づく演算を行い、演算結果に基づき、VSA ECU30、EPS ECU32及びPUH ECU34に対する信号を生成する。   The calculation unit 52 performs calculations based on the signals Swr and Si from the radar 40 and the camera 42, and generates signals for the VSA ECU 30, EPS ECU 32, and PUH ECU 34 based on the calculation results.

図1に示すように、演算部52は、レーダ情報処理部60(第1認識手段)、カメラ情報処理部62(第2認識手段)及び対象物体情報処理部64(マッチング手段)を有する。各処理部60、62、64は、記憶部54に記憶されているプログラムを実行することにより実現される。前記プログラムは、図示しない無線通信装置(携帯電話機、スマートフォン等)を介して外部から供給されてもよい。前記プログラムの一部をハードウェア(回路部品)で構成することもできる。   As shown in FIG. 1, the calculation unit 52 includes a radar information processing unit 60 (first recognition unit), a camera information processing unit 62 (second recognition unit), and a target object information processing unit 64 (matching unit). Each processing unit 60, 62, 64 is realized by executing a program stored in the storage unit 54. The program may be supplied from the outside via a wireless communication device (mobile phone, smartphone, etc.) not shown. A part of the program can be configured by hardware (circuit parts).

レーダ情報処理部60は、レーダ40が検出した反射波Wr(反射波信号Swr)に基づいて検出物体100(第1物体100r)の情報(以下「レーダ情報Ir」、「第1物体情報Ir」又は「情報Ir」という。)を算出する。カメラ情報処理部62は、カメラ42が取得した周辺画像200(図8及び図9参照)を用いて検出物体100(第2物体100c)の情報(以下「カメラ情報Ic」、「第2物体情報Ic」又は「情報Ic」という。)を算出する。   The radar information processing unit 60 detects information (hereinafter “radar information Ir” and “first object information Ir”) of the detected object 100 (first object 100r) based on the reflected wave Wr (reflected wave signal Swr) detected by the radar 40. Or “information Ir”). The camera information processing unit 62 uses information (hereinafter “camera information Ic”, “second object information”) of the detected object 100 (second object 100c) using the peripheral image 200 (see FIGS. 8 and 9) acquired by the camera 42. Ic "or" information Ic ").

対象物体情報処理部64は、レーダ情報処理部60が算出したレーダ情報Irと、カメラ情報処理部62が算出したカメラ情報Icとを組み合わせた情報(以下「対象物体情報It」又は「情報It」という。)を算出する。換言すると、処理部64は、いわゆるフュージョン処理を行う。情報Itは、レーダ40が検出した検出物体100(第1物体100r)と、カメラ42が検出した検出物体100(第2物体100c)とに基づいて特定する対象物体100tarの情報である。処理部64は、対象物体100tarの属性Prtarを判定する属性判定制御の一部を実行する属性判定部66(属性引継ぎ判定手段)を備える。   The target object information processing unit 64 is information combining the radar information Ir calculated by the radar information processing unit 60 and the camera information Ic calculated by the camera information processing unit 62 (hereinafter “target object information It” or “information It”). Is calculated). In other words, the processing unit 64 performs so-called fusion processing. The information It is information on the target object 100tar specified based on the detected object 100 (first object 100r) detected by the radar 40 and the detected object 100 (second object 100c) detected by the camera 42. The processing unit 64 includes an attribute determination unit 66 (attribute takeover determination unit) that executes part of the attribute determination control for determining the attribute Prtar of the target object 100tar.

記憶部54は、デジタル信号に変換された撮像信号、各種演算処理に供される一時データ等を記憶するRAM(Random Access Memory)、及び実行プログラム、テーブル又はマップ等を記憶するROM(Read Only Memory)等で構成される。   The storage unit 54 includes an imaging signal converted into a digital signal, a RAM (Random Access Memory) that stores temporary data used for various arithmetic processes, and a ROM (Read Only Memory) that stores an execution program, a table, a map, or the like. ) Etc.

A2.制御
[A2−1.制御の概要]
本実施形態では、物体認識装置12(物体認識ECU44)で検出又は認識した対象物体情報It(対象物体100tarの位置Potar、速度Vtar、加速度atar、属性Prtar等)をVSA ECU30、EPS ECU32及びPUH ECU34に出力する。各ECU30、32、34は、対象物体情報Itを用いて制御を行う。VSA ECU30は、例えば、情報Itを用いて自動ブレーキ制御を実行する。EPS ECU32は、例えば、情報Itを用いて自動ステアリング制御を実行する。PUH ECU34は、情報Itを用いてPUH制御を実行する。
A2. Control [A2-1. Overview of control]
In the present embodiment, the target object information It (position Potar, speed Vtar, acceleration atar, attribute Prtar, etc. of the target object 100tar) detected or recognized by the object recognition device 12 (object recognition ECU 44) is used as the VSA ECU 30, EPS ECU 32, and PUH ECU 34. Output to. Each ECU 30, 32, 34 performs control using the target object information It. For example, the VSA ECU 30 performs automatic brake control using the information It. EPS ECU32 performs automatic steering control using information It, for example. PUH ECU34 performs PUH control using information It.

[A2−2.属性判定制御]
(A2−2−1.属性判定制御の全体的な流れ)
図2及び図3は、本実施形態における属性判定制御の第1及び第2フローチャートである。属性判定制御は、物体認識ECU44の演算部52(処理部60、62、64)が実行する。演算部52は、図2及び図3に示す処理を所定の演算周期(例えば、数μsec〜数百msecのいずれかの周期)で繰り返す。
[A2-2. Attribute judgment control]
(A2-2-1. Overall flow of attribute determination control)
2 and 3 are first and second flowcharts of attribute determination control in the present embodiment. The attribute determination control is executed by the calculation unit 52 (processing units 60, 62, 64) of the object recognition ECU 44. The calculation unit 52 repeats the processes shown in FIGS. 2 and 3 at a predetermined calculation cycle (for example, any one of several μsec to several hundred msec).

ステップS1において、ECU44(レーダ情報処理部60)は、レーダ40からの反射波信号Swrに基づいて、検出物体100(第1物体100r)のレーダ情報Irを算出する。レーダ情報Irには、第1物体100rの位置Por、速度Vr、加速度ar等が含まれる。なお、レーダ40の検出範囲内に複数の第1物体100rが存在する場合、ECU44は、各第1物体100rについて位置Por、速度Vr、加速度ar等を算出する。   In step S1, the ECU 44 (radar information processing unit 60) calculates radar information Ir of the detected object 100 (first object 100r) based on the reflected wave signal Swr from the radar 40. The radar information Ir includes the position Por, the speed Vr, the acceleration ar, and the like of the first object 100r. When there are a plurality of first objects 100r within the detection range of the radar 40, the ECU 44 calculates the position Por, the speed Vr, the acceleration ar and the like for each first object 100r.

ステップS2において、ECU44(カメラ情報処理部62)は、カメラ42の画像信号Si(撮像画像200)に基づいて、検出物体100(第2物体100c)のカメラ情報Icを算出する。カメラ情報Icには、第2物体100cの位置Poc、横方向速度Vlc、加速度ac、属性Prc等が含まれる。また、属性Prcとしては、第2物体100cの種類Ca(歩行者、車両等)、大きさ等が含まれる。また、撮像画像200内に複数の第2物体100cが存在する場合、ECU44は、各第2物体100cについて位置Poc、横方向速度Vlc、加速度ac、属性Prc等を算出する。なお、第2物体100cが車両10に近づき過ぎた場合、ECU44は、属性Prcを算出できなくなる(詳細は後述する。)。   In step S2, the ECU 44 (camera information processing unit 62) calculates camera information Ic of the detected object 100 (second object 100c) based on the image signal Si (captured image 200) of the camera 42. The camera information Ic includes the position Poc of the second object 100c, the lateral speed Vlc, the acceleration ac, the attribute Prc, and the like. Further, the attribute Prc includes the type Ca (pedestrian, vehicle, etc.), size, etc., of the second object 100c. When there are a plurality of second objects 100c in the captured image 200, the ECU 44 calculates the position Poc, the lateral velocity Vlc, the acceleration ac, the attribute Prc, and the like for each second object 100c. If the second object 100c gets too close to the vehicle 10, the ECU 44 cannot calculate the attribute Prc (details will be described later).

ステップS3において、ECU44(対象物体情報処理部64)は、レーダ情報Ir(レーダ物標100r)とカメラ情報Ic(カメラ物標100c)をマッチングするマッチング判断を行う。マッチング判断では、レーダ情報処理部60で認識された第1物体100rの位置Por及びカメラ情報処理部62で認識された第2物体100cの位置Pocが一致する又は所定距離内にあるときに同一の対象物体100tarであると判定する。   In step S3, the ECU 44 (target object information processing unit 64) performs a matching determination for matching the radar information Ir (radar target 100r) and the camera information Ic (camera target 100c). The matching determination is the same when the position Por of the first object 100r recognized by the radar information processing unit 60 and the position Poc of the second object 100c recognized by the camera information processing unit 62 match or are within a predetermined distance. It is determined that the target object is 100 tar.

なお、マッチング相手としてのカメラ情報Ic(カメラ物標100c)が存在しないレーダ情報Ir(レーダ物標100r)がある場合、当該レーダ情報Irは、前回の演算周期で算出した対象物体情報It(対象物体100tar)と紐付けされる。この場合、前回の演算周期におけるレーダ物標100r(又は対象物体100tar)の移動方向及び速度に基づいて、現時点におけるレーダ物標100r(又は対象物体100tar)の推定位置を算出する。そして、今回の演算周期で認識されているレーダ物標100rの中から最も当該推定位置に近いものを、前回の演算周期で算出した対象物体100tarと紐付ける。   When there is radar information Ir (radar target 100r) for which there is no camera information Ic (camera target 100c) as a matching partner, the radar information Ir is the target object information It (target It is associated with the object 100 tar). In this case, the estimated position of the radar target 100r (or the target object 100tar) at the current time is calculated based on the moving direction and speed of the radar target 100r (or the target object 100tar) in the previous calculation cycle. Then, the radar target 100r that is recognized in the current calculation cycle and that is closest to the estimated position is linked to the target object 100tar calculated in the previous calculation cycle.

ステップS4〜S18は、ECU44の属性判定部66が行う。すなわち、ステップS4において、ECU44は、前後方向(進行方向)における対象物体100tarが、画像不認識領域154(図7)内にあるか否かを判定する。画像不認識領域154は、歩行者102が撮像画像200の撮影範囲又は画角内に収まりきらなくなる領域を意味する。本実施形態では、歩行者102の大きさを固定値(設計値)として画像不認識領域154を設定する。このため、対象物体100tarが、画像不認識領域154内にあるか否かの判定は、レーダ40からの反射波信号Swrに基づいて算出した第1物体100rの位置Porを用いて行う。換言すると、ステップS4の判定は、第1物体100rが画像不認識領域154内にあるか否かの判定であり、レーダ情報Ir(位置Por)に基づいて行われる。   Steps S4 to S18 are performed by the attribute determination unit 66 of the ECU 44. That is, in step S4, the ECU 44 determines whether or not the target object 100tar in the front-rear direction (traveling direction) is within the image non-recognition region 154 (FIG. 7). The image non-recognition area 154 means an area where the pedestrian 102 cannot fit within the shooting range or angle of view of the captured image 200. In the present embodiment, the image non-recognition region 154 is set with the size of the pedestrian 102 as a fixed value (design value). Therefore, the determination as to whether or not the target object 100tar is within the image non-recognition region 154 is performed using the position Por of the first object 100r calculated based on the reflected wave signal Swr from the radar 40. In other words, the determination in step S4 is a determination as to whether or not the first object 100r is within the image non-recognition region 154, and is performed based on the radar information Ir (position Por).

対象物体100tarが画像不認識領域154内にない場合(S4:NO)、ステップS5において、ECU44は、属性情報継続時間Tpc(以下「継続時間Tpc」又は「時間Tpc」ともいう。)を更新する。具体的には、時間Tpcの前回値に1を足して時間Tpcの今回値とする。   When the target object 100tar is not in the image non-recognition area 154 (S4: NO), in step S5, the ECU 44 updates the attribute information duration Tpc (hereinafter also referred to as “duration Tpc” or “time Tpc”). . Specifically, 1 is added to the previous value of time Tpc to obtain the current value of time Tpc.

時間Tpcは、カメラ情報処理部62において第2物体100cの属性Prcが認識され続けている時間(換言すると、演算周期の回数)を意味する。換言すると、時間Tpcは、第2物体100cが認識されなくなる前に対象物体情報処理部64(マッチング手段)が第1物体100rと第2物体100cとが同一の対象物体100tarであると判定した継続時間である。このため、カメラ情報処理部62において第2物体100cの属性Prcを認識できなくなると、時間Tpcはリセットされることとなる(後述する図3のS15)。   The time Tpc means a time during which the camera information processing unit 62 continues to recognize the attribute Prc of the second object 100c (in other words, the number of calculation cycles). In other words, at time Tpc, the target object information processing unit 64 (matching means) determines that the first object 100r and the second object 100c are the same target object 100tar before the second object 100c is no longer recognized. It's time. For this reason, when the camera information processing unit 62 cannot recognize the attribute Prc of the second object 100c, the time Tpc is reset (S15 in FIG. 3 described later).

続くステップS6において、ECU44は、属性不認識時間Tpn(以下「不認識時間Tpn」又は「時間Tpn」ともいう。)をリセットする。時間Tpnは、カメラ情報処理部62において第2物体100cの属性Prcが認識できていない時間(換言すると、演算周期の回数)を意味する。時間Tpnは、特に、図3のステップS9、S14で用いる。   In subsequent step S6, the ECU 44 resets the attribute non-recognition time Tpn (hereinafter also referred to as “non-recognition time Tpn” or “time Tpn”). The time Tpn means a time during which the attribute Prc of the second object 100c cannot be recognized in the camera information processing unit 62 (in other words, the number of calculation cycles). The time Tpn is used particularly in steps S9 and S14 in FIG.

ステップS7において、ECU44は、ステップS2で算出した属性Prc(すなわち、撮像画像200に基づく属性Prc)を対象物体100tarの属性Prtarとしてそのまま利用する。   In step S7, the ECU 44 uses the attribute Prc calculated in step S2 (that is, the attribute Prc based on the captured image 200) as the attribute Prtar of the target object 100tar.

ステップS4に戻り、対象物体100tarが画像不認識領域154内にある場合(S4:YES)、ステップS8に進む。ステップS8において、ECU44は、撮像画像200に基づき対象物体100tarの属性Prtarが認識できているか否かを判定する。当該判定は、対象物体100tarの属性Prtarが認識できているか又は第2物体100cの属性Prcが認識できているかに基づいて行うことができる。   Returning to step S4, when the target object 100tar is in the image non-recognition region 154 (S4: YES), the process proceeds to step S8. In step S <b> 8, the ECU 44 determines whether or not the attribute Prtar of the target object 100 tar can be recognized based on the captured image 200. This determination can be made based on whether the attribute Prtar of the target object 100tar can be recognized or whether the attribute Prc of the second object 100c can be recognized.

属性Prtarが認識できている場合(S8:YES)、上記と同様に、ステップS5〜S7を実行する。属性Prtarが認識できていない場合(S8:NO)、図3のステップS9において、ECU44は、属性不認識時間Tpnを更新する。具体的には、時間Tpnの前回値に1を足して時間Tpnの今回値とする。   If the attribute Prtar is recognized (S8: YES), steps S5 to S7 are executed in the same manner as described above. If the attribute Prtar is not recognized (S8: NO), the ECU 44 updates the attribute non-recognition time Tpn in step S9 of FIG. Specifically, 1 is added to the previous value of time Tpn to obtain the current value of time Tpn.

ステップS10〜S12では、異なる設定指標に基づく複数の属性引継ぎ許可閾値Tpaの候補(仮属性引継ぎ許可閾値Tpa_p1〜Tpa_p3)を算出する。そして、ステップS13において、仮属性引継ぎ許可閾値Tpa_p1〜Tpa_p3の中から属性引継ぎ許可閾値Tpaを選択する。   In Steps S10 to S12, a plurality of attribute takeover permission threshold Tpa candidates (temporary attribute takeover permission thresholds Tpa_p1 to Tpa_p3) based on different setting indexes are calculated. In step S13, an attribute takeover permission threshold Tpa is selected from the temporary attribute takeover permission thresholds Tpa_p1 to Tpa_p3.

具体的には、ステップS10において、ECU44は、直近(過去)の属性情報継続時間Tpcに基づいて仮属性引継ぎ許可閾値Tpa_p1を算出する。   Specifically, in step S10, the ECU 44 calculates a temporary attribute takeover permission threshold Tpa_p1 based on the latest (past) attribute information continuation time Tpc.

図4は、直近(過去)の属性情報継続時間Tpcと仮属性引継ぎ許可閾値Tpa_p1との関係を示す図である。図4に示すように、属性情報継続時間TpcがTpc1未満である場合、閾値Tpa_p1をゼロに設定する。時間TpcがTpc1以上且つTpc2未満である場合、閾値Tpa_p1を徐々に増加するように設定する。時間TpcがTpc2以上である場合、閾値Tpa_p1を最大値Tpa1_maxで一定にする。   FIG. 4 is a diagram showing a relationship between the latest (past) attribute information duration Tpc and the temporary attribute takeover permission threshold Tpa_p1. As shown in FIG. 4, when the attribute information duration Tpc is less than Tpc1, the threshold value Tpa_p1 is set to zero. When the time Tpc is equal to or greater than Tpc1 and less than Tpc2, the threshold value Tpa_p1 is set to gradually increase. When the time Tpc is equal to or longer than Tpc2, the threshold value Tpa_p1 is made constant at the maximum value Tpa1_max.

図3に戻り、続くステップS11において、ECU44は、自車10と対象物体100tarの相対速度Vrelに基づいて仮属性引継ぎ許可閾値Tpa_p2を算出する。   Returning to FIG. 3, in the subsequent step S11, the ECU 44 calculates a temporary attribute takeover permission threshold Tpa_p2 based on the relative speed Vrel between the host vehicle 10 and the target object 100tar.

図5は、車両10と対象物体100tarの相対速度Vrelと仮属性引継ぎ許可閾値Tpa_p2との関係を示す図である。図5に示すように、相対速度VrelがVrel1未満である場合、閾値Tpa_p2を最大値Tpa2_maxで一定にする。相対速度VrelがVrel1以上且つVrel2未満である場合、閾値Tpa_p2を徐々に減少するように設定する。相対速度VrelがVrel2以上である場合、閾値Tpa_p2を最小値Tpa2_minで一定にする。   FIG. 5 is a diagram illustrating a relationship between the relative speed Vrel between the vehicle 10 and the target object 100tar and the temporary attribute takeover permission threshold value Tpa_p2. As shown in FIG. 5, when the relative speed Vrel is less than Vrel1, the threshold value Tpa_p2 is made constant at the maximum value Tpa2_max. When the relative speed Vrel is equal to or higher than Vrel1 and lower than Vrel2, the threshold value Tpa_p2 is set to be gradually decreased. When the relative speed Vrel is equal to or higher than Vrel2, the threshold value Tpa_p2 is made constant at the minimum value Tpa2_min.

図3に戻り、続くステップS12において、ECU44は、画像不認識領域154内に存在する第1物体100rの個数Nrに基づいて仮属性引継ぎ許可閾値Tpa_p3を算出する。   Returning to FIG. 3, in the subsequent step S12, the ECU 44 calculates a temporary attribute takeover permission threshold Tpa_p3 based on the number Nr of the first objects 100r existing in the image non-recognition region 154.

図6は、画像不認識領域154内に存在する第1物体100rの個数Nrと仮属性引継ぎ許可閾値Tpa_p3との関係を示す図である。図6に示すように、個数NrがNr1未満である場合、閾値Tpa_p3を最大値Tpa3_maxで一定にする。個数NrがNr1以上且つNr2未満である場合、閾値Tpa_p3を徐々に減少するように設定する。個数NrがNr2以上である場合、閾値Tpa_p3を最小値Tpa3_minで一定にする。   FIG. 6 is a diagram showing the relationship between the number Nr of the first objects 100r existing in the image non-recognition region 154 and the temporary attribute takeover permission threshold Tpa_p3. As shown in FIG. 6, when the number Nr is less than Nr1, the threshold value Tpa_p3 is made constant at the maximum value Tpa3_max. When the number Nr is greater than or equal to Nr1 and less than Nr2, the threshold value Tpa_p3 is set to gradually decrease. When the number Nr is greater than or equal to Nr2, the threshold value Tpa_p3 is made constant at the minimum value Tpa3_min.

図3に戻り、続くステップS13において、ECU44は、閾値Tpa_p1〜Tpa_p3のうち最小値を属性引継ぎ許可閾値Tpaとして設定する。後述するように、最小値以外を許可閾値Tpaとして設定してもよい。   Returning to FIG. 3, in the following step S13, the ECU 44 sets the minimum value among the threshold values Tpa_p1 to Tpa_p3 as the attribute takeover permission threshold value Tpa. As will be described later, a value other than the minimum value may be set as the permission threshold value Tpa.

ステップS14において、ECU44は、ステップS9で更新した属性不認識時間Tpnが、ステップS13で設定した許可閾値Tpa以下であるか否かを判定する。時間Tpnが閾値Tpa以下でない場合(S14:NO)、ステップS15において、ECU44は、属性情報継続時間Tpcをリセットする。これにより、次の演算周期で図2のステップS5に到達した場合、継続時間Tpcはゼロから開始する。   In step S14, the ECU 44 determines whether or not the attribute non-recognition time Tpn updated in step S9 is equal to or less than the permission threshold Tpa set in step S13. If the time Tpn is not less than or equal to the threshold Tpa (S14: NO), the ECU 44 resets the attribute information duration Tpc in step S15. As a result, when step S5 in FIG. 2 is reached in the next calculation cycle, the duration time Tpc starts from zero.

続くステップS16において、ECU44は、対象物体100tarの属性Prtarが判定不可であると判定する。換言すると、ECU44は、属性Prtarを引き継がないと判定する。   In subsequent step S16, the ECU 44 determines that the attribute Prtar of the target object 100tar cannot be determined. In other words, the ECU 44 determines that the attribute Prtar is not taken over.

ステップS14に戻り、属性不認識時間Tpnが許可閾値Tpa以下である場合(S14:YES)、ステップS17において、ECU44は、第1物体100rからの反射波Wrの反射レベルLrの変化が大きいか否かを判定する。具体的には、ECU44は、反射レベルLrの現在値と反射レベルLrの平均値Lr_aveとの差ΔLrの絶対値|ΔLr|が閾値THΔLr(以下「反射レベル閾値THΔLr」ともいう。)以下であるか否かを判定する。閾値THΔLrは、例えば、同じ物体であればあり得ない程の差ΔLrを示す値として設定され、実験値又はシミュレーション値を用いることができる。   Returning to step S14, when the attribute non-recognition time Tpn is equal to or less than the permission threshold Tpa (S14: YES), in step S17, the ECU 44 determines whether or not the change in the reflection level Lr of the reflected wave Wr from the first object 100r is large. Determine whether. Specifically, the ECU 44 has an absolute value | ΔLr | of the difference ΔLr between the current value of the reflection level Lr and the average value Lr_ave of the reflection level Lr equal to or less than a threshold value THΔLr (hereinafter also referred to as “reflection level threshold value THΔLr”). It is determined whether or not. The threshold value THΔLr is set, for example, as a value indicating a difference ΔLr that cannot be obtained with the same object, and an experimental value or a simulation value can be used.

反射レベルLrの変化が大きい場合(S17:YES)、ステップS16に進み、ECU44は、属性Prtarを引き継がず、対象物体100tarの属性Prtarが判定不可であると判定する。反射レベルLrの変化が大きくない場合(S17:NO)、ステップS18に進み、ECU44は、前回の演算周期における対象物体100tarの属性Prtarを引き継ぐ。   When the change in the reflection level Lr is large (S17: YES), the process proceeds to step S16, and the ECU 44 determines that the attribute Prtar of the target object 100tar cannot be determined without taking over the attribute Prtar. When the change in the reflection level Lr is not large (S17: NO), the process proceeds to step S18, and the ECU 44 takes over the attribute Prtar of the target object 100tar in the previous calculation cycle.

(A2−2−2.画像不認識領域154)
図7は、第2物体100c又は対象物体100tarとしての歩行者102と車両10との位置関係を示す図である。図8は、カメラ42の撮像画像200の第1例を示す図である。図9は、カメラ42の撮像画像200の第2例を示す図である。
(A2-2-2. Image Unrecognized Area 154)
FIG. 7 is a diagram illustrating a positional relationship between the pedestrian 102 and the vehicle 10 as the second object 100c or the target object 100tar. FIG. 8 is a diagram illustrating a first example of a captured image 200 of the camera 42. FIG. 9 is a diagram illustrating a second example of the captured image 200 of the camera 42.

図7において、領域150は、カメラ42の撮像可能領域であり、領域152は、画像認識領域であり、領域154は、画像不認識領域である。また、実線の枠160は、反射波信号Swrに基づいて検出された第1物体100rに対応する枠である。破線の枠162は、画像信号Siに基づいて検出された第2物体100cに対応する枠である。   In FIG. 7, an area 150 is an imageable area of the camera 42, an area 152 is an image recognition area, and an area 154 is an image non-recognition area. A solid line frame 160 is a frame corresponding to the first object 100r detected based on the reflected wave signal Swr. A dashed frame 162 is a frame corresponding to the second object 100c detected based on the image signal Si.

なお、枠160は、歩行者102が位置Po1、Po2いずれの位置にいる場合でも示されている。一方、枠162は、歩行者102が位置Po1にいる場合のみ示され、位置Po2にいる場合には示されていない。これは、歩行者102が位置Po2にいる場合、撮像画像200による位置Pocが認識できていないことを示している。   Note that the frame 160 is shown even when the pedestrian 102 is in any of the positions Po1 and Po2. On the other hand, the frame 162 is shown only when the pedestrian 102 is at the position Po1, and is not shown when the pedestrian 102 is at the position Po2. This indicates that when the pedestrian 102 is at the position Po2, the position Poc by the captured image 200 cannot be recognized.

図7及び図2のステップS4に示すように、本実施形態では、画像不認識領域154を用いる。領域154は、第2物体100cとしての歩行者102が車両10に近づくことにより、ECU44のカメラ情報処理部62(第2認識手段)が撮像画像200中の第2物体100cを歩行者102として認識できなくなる距離(以下「距離Linv」又は「画像不認識距離Linv」という。)よりも手前側の領域を示す。換言すると、距離Linvは、歩行者102が撮像画像200の撮影範囲又は画角内に収まりきらなくなる距離(距離閾値)を意味する。   As shown in step S4 of FIGS. 7 and 2, in this embodiment, an image non-recognition region 154 is used. In the region 154, when the pedestrian 102 as the second object 100c approaches the vehicle 10, the camera information processing unit 62 (second recognition unit) of the ECU 44 recognizes the second object 100c in the captured image 200 as the pedestrian 102. An area on the near side of the distance that cannot be performed (hereinafter referred to as “distance Linv” or “image non-recognition distance Linv”) is shown. In other words, the distance Linv means a distance (distance threshold) at which the pedestrian 102 cannot fit within the shooting range or angle of view of the captured image 200.

但し、歩行者102の身長や姿勢によっては、歩行者102が画像不認識領域154内にいても、画像信号Siに基づいて歩行者102(第2物体100c)の属性Prcを認識可能な場合がある。換言すると、距離Linvは、基準値又は設計値としての歩行者102の大きさ・姿勢に基づいて設定される。距離Linvは、カメラ42のレンズの最短撮影距離よりも長い値に設定される。   However, depending on the height and posture of the pedestrian 102, the attribute Prc of the pedestrian 102 (second object 100c) may be recognized based on the image signal Si even when the pedestrian 102 is in the image non-recognition region 154. is there. In other words, the distance Linv is set based on the size / posture of the pedestrian 102 as a reference value or a design value. The distance Linv is set to a value longer than the shortest shooting distance of the camera 42 lens.

図8の場合、歩行者102は、例えば、図7中の位置Po1にいる。この場合、物体認識装置12(ECU44)は、レーダ40の検出値(反射波信号Swr)及びカメラ42の撮像画像200(画像信号Si)のいずれに基づいても歩行者102を検出可能である。   In the case of FIG. 8, the pedestrian 102 is at a position Po1 in FIG. 7, for example. In this case, the object recognition device 12 (ECU 44) can detect the pedestrian 102 based on either the detection value (reflected wave signal Swr) of the radar 40 or the captured image 200 (image signal Si) of the camera 42.

換言すると、ECU44は、レーダ40からの反射波信号Swrに基づいて歩行者102を第1物体100rとして検出し、カメラ42からの画像信号Siに基づいて歩行者102を第2物体100cとして検出する。このため、対象物体情報処理部64(マッチング手段)により第1物体100rと第2物体100cとのマッチングが可能であり、歩行者102(対象物体100tar)の位置Potar、属性Prtar等が判定可能である。   In other words, the ECU 44 detects the pedestrian 102 as the first object 100r based on the reflected wave signal Swr from the radar 40, and detects the pedestrian 102 as the second object 100c based on the image signal Si from the camera 42. . Therefore, the target object information processing unit 64 (matching means) can match the first object 100r and the second object 100c, and can determine the position Potar, the attribute Prtar, and the like of the pedestrian 102 (target object 100tar). is there.

一方、図9の場合、歩行者102は、例えば、図7中の位置Po2にいる。この場合、物体認識装置12(ECU44)は、レーダ40からの反射波信号Swrに基づいて歩行者102を検出可能であるが、カメラ42の撮像画像200に基づいて歩行者102を検出することができない。このため、基本的には、歩行者102(対象物体100tar)の属性Prtarを判定することができない。   On the other hand, in the case of FIG. 9, the pedestrian 102 is, for example, at a position Po2 in FIG. In this case, the object recognition device 12 (ECU 44) can detect the pedestrian 102 based on the reflected wave signal Swr from the radar 40, but can detect the pedestrian 102 based on the captured image 200 of the camera 42. Can not. For this reason, basically, the attribute Ptar of the pedestrian 102 (target object 100tar) cannot be determined.

なお、図2のフローチャートで示したように、対象物体100tarが、画像不認識領域154内に存在しても(S4:YES)、対象物体100tarの属性Prtarが認識可能である場合(S8:YES)、当該属性Prtarを用いる(S7)。   As shown in the flowchart of FIG. 2, even if the target object 100tar exists in the image non-recognition area 154 (S4: YES), the attribute Prtar of the target object 100tar can be recognized (S8: YES). ), The attribute Prtar is used (S7).

上記のように、本実施形態では、図3のステップS6〜S18において、対象物体100tarの属性Prtarを引き継ぐか否かの判定を行う場合、対象物体100tarが、画像不認識領域154内に存在すること(S4:YES)を条件の1つとする。これにより、画像不認識領域154(カメラ42の苦手領域)については、演算負荷を増加させてでも、歩行者102等の対象物体100tarに対する制御を継続することが可能となる。   As described above, in this embodiment, when it is determined in steps S6 to S18 in FIG. 3 whether or not the attribute Prtar of the target object 100tar is to be taken over, the target object 100tar exists in the image non-recognition region 154. (S4: YES) is one of the conditions. As a result, with respect to the image non-recognition region 154 (the region that the camera 42 is not good at), it is possible to continue control of the target object 100tar such as the pedestrian 102 even if the calculation load is increased.

A3.本実施形態の効果
以上のように、本実施形態によれば、対象物体100tarの種類Caの認識に用いる第2物体100cが認識されなくなってからの属性不認識時間Tpnが属性引継ぎ許可閾値Tpa以下であること(図3のS14:YES)を少なくとも条件の1つとして、第2物体100cの種類Caを対象物体100tarの属性Prtarとして引き継ぐ(S18)。このため、第2物体100cの種類Caを引き継ぐべきか否かを適切に判定し、対象物体100tarの種類Caの判定精度を高めることが可能となる。
A3. As described above, according to the present embodiment, the attribute non-recognition time Tpn after the second object 100c used for recognition of the type Ca of the target object 100tar is not recognized is equal to or less than the attribute takeover permission threshold Tpa. (S14: YES in FIG. 3) is at least one of the conditions, and the type Ca of the second object 100c is taken over as the attribute Prtar of the target object 100tar (S18). For this reason, it is possible to appropriately determine whether or not the type Ca of the second object 100c should be taken over, and to improve the determination accuracy of the type Ca of the target object 100tar.

本実施形態によれば、対象物体情報処理部64(マッチング手段)により第1物体100rと第2物体100cの組み合わせが認識された後(図2のS3)、車両10から対象物体100tarまでの距離Lが距離Linv(距離閾値)より短くなったこと(S4:YES)を別の条件として、第2物体100cの種類Caを対象物体100tarの属性Prtarとして引き継ぐか否かを判定する(図3のS18)。このため、光の当り具合(夕日、影等)の影響によって対象物体100tarを瞬間的に検出できなかった場合の処理と比較して、比較的長い時間、対象物体100tarの種類Caを認識し続けることが可能となる。   According to the present embodiment, after the combination of the first object 100r and the second object 100c is recognized by the target object information processing unit 64 (matching means) (S3 in FIG. 2), the distance from the vehicle 10 to the target object 100tar. With another condition that L is shorter than the distance Linv (distance threshold) (S4: YES), it is determined whether or not to inherit the type Ca of the second object 100c as the attribute Prtar of the target object 100tar (FIG. 3). S18). For this reason, compared with the processing in the case where the target object 100tar cannot be detected instantaneously due to the influence of the lighting condition (sunset, shadow, etc.), the type Ca of the target object 100tar is continuously recognized for a relatively long time. It becomes possible.

また、対象物体100tarが、車両10との距離Linvを超えるほど車両10に接近していなければ、第2物体100cの種類Caを引き継ぐか否かの判定を行わないことが可能となる。従って、当該引継ぎについての判定を行う場面を限定することで、物体認識装置12における演算負荷を軽減することが可能となる。   Further, if the target object 100tar is not so close to the vehicle 10 that the distance Linv with the vehicle 10 is exceeded, it is possible to determine whether or not to take over the type Ca of the second object 100c. Therefore, it is possible to reduce the calculation load in the object recognition device 12 by limiting the scenes where the determination about the takeover is performed.

本実施形態において、属性判定部66は、対象物体100tar(歩行者102)が画像不認識領域154内にあること(図2のS4:YES)、換言すると、車両10(移動体)から対象物体100tarまでの距離Lが画像不認識距離Linv(距離閾値)より短いことを、レーダ情報処理部60(第1認識手段)で認識された第1物体100rの位置Porを用いて判定する(図2のS4)。   In the present embodiment, the attribute determination unit 66 determines that the target object 100tar (pedestrian 102) is in the image non-recognition area 154 (S4: YES in FIG. 2), in other words, the target object from the vehicle 10 (moving body). It is determined using the position Por of the first object 100r recognized by the radar information processing unit 60 (first recognition means) that the distance L up to 100 tar is shorter than the image non-recognition distance Linv (distance threshold) (FIG. 2). S4).

これにより、撮像画像200ではなく、反射波Wr(電磁波の反射)を用いて、車両10から対象物体100tarまでの距離Lが短すぎるか否かを判定することが可能となる。このため、カメラ情報処理部62(第2認識手段)よりもレーダ情報処理部60の方が位置の認識精度が高い場合、車両10から対象物体100tarまでの距離Lを高精度に認識することが可能となる。   Thereby, it is possible to determine whether the distance L from the vehicle 10 to the target object 100tar is too short using the reflected wave Wr (electromagnetic wave reflection) instead of the captured image 200. For this reason, when the radar information processing unit 60 has higher position recognition accuracy than the camera information processing unit 62 (second recognition unit), the distance L from the vehicle 10 to the target object 100 tar can be recognized with high accuracy. It becomes possible.

本実施形態において、属性判定部66(属性引継ぎ判定手段)は、属性情報継続時間Tpcに基づいて属性引継ぎ許可閾値Tpaを変化させる(図3のS10、S13)。継続時間Tpcは、対象物体100tarの種類Caの認識精度に影響する。このため、継続時間Tpcに応じて属性引継ぎ許可閾値Tpaを変化させることで、対象物体100tarの種類Caの判定精度を高めることが可能となる。   In the present embodiment, the attribute determination unit 66 (attribute takeover determination means) changes the attribute takeover permission threshold Tpa based on the attribute information duration Tpc (S10 and S13 in FIG. 3). The duration Tpc affects the recognition accuracy of the type Ca of the target object 100tar. For this reason, it is possible to increase the determination accuracy of the type Ca of the target object 100tar by changing the attribute takeover permission threshold value Tpa according to the duration time Tpc.

本実施形態において、属性判定部66は、車両10と対象物体100tarの相対速度Vrelに基づいて属性引継ぎ許可閾値Tpaを変化させる(図3のS11、S13)。相対速度Vrelは、対象物体100tarの種類Caの認識精度に影響する。このため、相対速度Vrelに応じて属性引継ぎ許可閾値Tpaを変化させることで、対象物体100tarの種類Caの判定精度を高めることが可能となる。   In the present embodiment, the attribute determination unit 66 changes the attribute takeover permission threshold Tpa based on the relative speed Vrel between the vehicle 10 and the target object 100tar (S11 and S13 in FIG. 3). The relative speed Vrel affects the recognition accuracy of the type Ca of the target object 100tar. For this reason, it is possible to increase the determination accuracy of the type Ca of the target object 100tar by changing the attribute takeover permission threshold Tpa according to the relative speed Vrel.

本実施形態において、属性判定部66は、レーダ情報処理部60(第1認識手段)で認識された第1物体100rの個数Nrに基づいて属性引継ぎ許可閾値Tpaを変化させる(図3のS12、S13)。レーダ情報処理部60で認識された第1物体100rの個数Nrは、対象物体100tarの種類Caの認識精度に影響する。このため、第1物体100rの個数Nrに応じて属性引継ぎ許可閾値Tpaを変化させることで、対象物体100tarの種類Caの判定精度を高めることが可能となる。   In the present embodiment, the attribute determination unit 66 changes the attribute takeover permission threshold Tpa based on the number Nr of the first objects 100r recognized by the radar information processing unit 60 (first recognition unit) (S12 in FIG. 3). S13). The number Nr of the first objects 100r recognized by the radar information processing unit 60 affects the recognition accuracy of the type Ca of the target object 100tar. For this reason, it is possible to improve the determination accuracy of the type Ca of the target object 100tar by changing the attribute takeover permission threshold Tpa according to the number Nr of the first objects 100r.

本実施形態において、属性判定部66(属性引継ぎ判定手段)は、第1物体100rからの反射波Wr(電磁波)の反射レベルLrの変化に基づき、対象物体100tarの種類Caの引継ぎを禁止する(図3のS17:YES→S16)。第1物体100rからの反射レベルLrの変化は、対象物体100tarの種類Caの認識精度に影響する。このため、反射レベルLrの変化に応じて引継ぎを禁止することで、対象物体100tarの種類Caの判定精度を高めることが可能となる。   In the present embodiment, the attribute determination unit 66 (attribute takeover determination means) prohibits the takeover of the type Ca of the target object 100tar based on the change in the reflection level Lr of the reflected wave Wr (electromagnetic wave) from the first object 100r ( S17 in FIG. 3: YES → S16). The change in the reflection level Lr from the first object 100r affects the recognition accuracy of the type Ca of the target object 100tar. For this reason, it is possible to improve the determination accuracy of the type Ca of the target object 100tar by prohibiting takeover according to the change in the reflection level Lr.

本実施形態において、物体認識装置12は、撮像画像200を取得するカメラ42を備える。また、画像不認識距離Linv(距離閾値)は、カメラ42のレンズの最短撮影距離よりも長い値に設定される。   In the present embodiment, the object recognition device 12 includes a camera 42 that acquires the captured image 200. Further, the image non-recognition distance Linv (distance threshold) is set to a value longer than the shortest shooting distance of the lens of the camera 42.

これにより、ピントが合った状態で撮像画像200の取得が行われていても、その後、カメラ情報処理部62の認識精度が低下する可能性が高い場合、第2物体100cの種類Caの引継ぎの判定(図2のS8、図3のS9〜S18)を開始することが可能となる。このため、演算負荷を考慮しつつ、対象物体100tarの種類Caの判定精度を高めることができる。   Thereby, even if acquisition of the captured image 200 is performed in a focused state, if there is a high possibility that the recognition accuracy of the camera information processing unit 62 will decrease thereafter, the type Ca of the second object 100c is taken over. Determination (S8 in FIG. 2, S9 to S18 in FIG. 3) can be started. For this reason, it is possible to improve the determination accuracy of the type Ca of the target object 100tar while considering the calculation load.

本実施形態において、距離Linvは、第2物体100cとしての歩行者102が車両10に近づくことにより、カメラ情報処理部62が撮像画像200中の第2物体100cを歩行者102として認識できなくなる距離に設定される(図7及び図9)。   In the present embodiment, the distance Linv is a distance that prevents the camera information processing unit 62 from recognizing the second object 100c in the captured image 200 as the pedestrian 102 when the pedestrian 102 as the second object 100c approaches the vehicle 10. (FIGS. 7 and 9).

これにより、車両10に対して歩行者102が近づき過ぎることで、カメラ情報処理部62が第2物体100c(歩行者102)の種類Caを認識できなくなる可能性がある場合、第2物体100cの種類Ca(歩行者102)の引継ぎの判定(図2のS8、図3のS9〜S18)を開始することが可能となる。このため、演算負荷を考慮しつつ、対象物体100tarの種類Caの判定精度を高めることができる。   Accordingly, when there is a possibility that the camera information processing unit 62 may not be able to recognize the type Ca of the second object 100c (pedestrian 102) due to the pedestrian 102 being too close to the vehicle 10, the second object 100c It becomes possible to start determination of takeover of the type Ca (pedestrian 102) (S8 in FIG. 2, S9 to S18 in FIG. 3). For this reason, it is possible to improve the determination accuracy of the type Ca of the target object 100tar while considering the calculation load.

B.変形例
なお、本発明は、上記実施形態に限らず、本明細書の記載内容に基づき、種々の構成を採り得ることはもちろんである。例えば、以下の構成を採用することができる。
B. Modifications It should be noted that the present invention is not limited to the above-described embodiment, and it is needless to say that various configurations can be adopted based on the description of the present specification. For example, the following configuration can be adopted.

B1.適用対象
上記実施形態では、物体認識装置12を車両10に適用したが、これに限らず、別の対象に適用してもよい。例えば、物体認識装置12を船舶や航空機等の移動体に用いることもできる。或いは、物体認識装置12を、ロボット、セキュリティ用監視装置又は家電製品に適用してもよい。また、物体認識装置12を車両10(移動体)自体に搭載するのではなく、車両10の外部に配置してもよい。この場合、車両10と物体認識装置12の間で通信を行い、物体認識装置12の認識結果(対象物体情報It)を車両10に通知することも可能である。
B1. Application target In the above-described embodiment, the object recognition device 12 is applied to the vehicle 10, but the present invention is not limited thereto, and may be applied to another target. For example, the object recognition device 12 can be used for a moving body such as a ship or an aircraft. Alternatively, the object recognition device 12 may be applied to a robot, a security monitoring device, or a home appliance. The object recognition device 12 may be arranged outside the vehicle 10 instead of being mounted on the vehicle 10 (moving body) itself. In this case, it is possible to communicate between the vehicle 10 and the object recognition device 12 to notify the vehicle 10 of the recognition result (target object information It) of the object recognition device 12.

B2.物体認識装置12の構成
上記実施形態では、物体認識装置12の出力(対象物体情報It)を、VSA ECU30、EPS ECU32及びPUH ECU34で用いたが、それ以外の用途で用いることも可能である。例えば、車両10の駐車支援又は誤発進防止にも用いることができる。
B2. Configuration of Object Recognizing Device 12 In the above embodiment, the output (target object information It) of the object recognizing device 12 is used by the VSA ECU 30, EPS ECU 32, and PUH ECU 34, but may be used for other purposes. For example, it can be used for parking assistance of the vehicle 10 or prevention of erroneous start.

上記実施形態では、ミリ波である送信波Wt及び反射波Wrを使用するレーダ40を用いた。しかしながら、例えば、電磁波としての送信波Wtの反射波Wrを用いて第1物体100rの情報Irを取得する観点からすれば、レーザレーダ、超音波センサ等のセンサを用いることもできる。   In the above embodiment, the radar 40 using the transmission wave Wt and the reflected wave Wr that are millimeter waves is used. However, for example, from the viewpoint of obtaining the information Ir of the first object 100r using the reflected wave Wr of the transmission wave Wt as an electromagnetic wave, a sensor such as a laser radar or an ultrasonic sensor can be used.

B3.物体認識ECU44の制御
[B3−1.対象物体100tarの属性Prtarの引継ぎ]
上記実施形態では、対象物体100tarの属性Prtarの引継ぎ(図3のS18)を行う条件として、対象物体100tarが画像不認識領域154内にあること(図2のS4:YES)、対象物体100tarの属性Prtarを認識可能でないこと(S8:NO)、属性不認識時間Tpnが属性引継ぎ許可閾値Tpa以下であること(図3のS14:YES)及び反射レベルLrの変化が大きくないこと(S17:NO)を条件とした。
B3. Control of the object recognition ECU 44 [B3-1. Inheritance of attribute Prtar of target object 100tar]
In the above embodiment, as a condition for taking over the attribute Prtar of the target object 100tar (S18 in FIG. 3), the target object 100tar is in the image non-recognition area 154 (S4 in FIG. 2: YES), and the target object 100tar The attribute Prtar is not recognizable (S8: NO), the attribute non-recognition time Tpn is less than or equal to the attribute takeover permission threshold Tpa (S14: YES in FIG. 3), and the change in the reflection level Lr is not large (S17: NO) ).

しかしながら、対象物体100tarの属性Prtarの引継ぎを行う観点からすれば、これらの判定(S4、S8、S14、S17)の1つ、2つ又は3つのみを、対象物体100tarの属性Prtarの引継ぎを行う条件としてもよい。或いは、上記各判定以外の判定を加えることも可能である。   However, from the viewpoint of taking over the attribute Prtar of the target object 100tar, only one, two, or three of these determinations (S4, S8, S14, S17) are taken over from the attribute Prtar of the target object 100tar. It is good also as conditions to perform. Alternatively, determinations other than the above determinations can be added.

上記実施形態では、対象物体情報処理部64(マッチング手段)により同一の対象物体100tarであると判定される第1物体100rと第2物体100cの組み合わせが認識された後、第2物体100cが認識されなくなったことの判定を、直近の属性情報継続時間Tpcに基づいて行った。すなわち、対象物体100tarの属性Prtarの引き継ぎを行うか否かを判定する場合、直近の属性情報継続時間Tpcがゼロでないこと(本実施形態では、Tpc1未満でないこと)をもって、第2物体100cの種類Caを引き継ぐことができると判定した(図3のS10、S13)。   In the above embodiment, after the combination of the first object 100r and the second object 100c determined by the target object information processing unit 64 (matching means) to be the same target object 100tar is recognized, the second object 100c is recognized. The determination that it was not performed was performed based on the latest attribute information duration Tpc. That is, when determining whether to take over the attribute Prtar of the target object 100tar, the type of the second object 100c is that the latest attribute information duration Tpc is not zero (in this embodiment, it is not less than Tpc1). It was determined that Ca can be taken over (S10 and S13 in FIG. 3).

しかしながら、当該判定をその他の方法で行うことも可能である。例えば、前回の演算周期において第2物体100cの種類Caが認識されている一方、今回の演算周期において当該第2物体100cの種類Caが認識されていない場合、第1物体100rと第2物体100cの組み合わせが認識された後、第2物体100cが認識されなくなったと判定してもよい。或いは、対象物体情報処理部64によりマッチングが成功したことを示すフラグを当該対象物体100tarについて設定し、その後の演算周期でマッチングが成功しなかった場合、第1物体100rと第2物体100cの組み合わせが認識された後、第2物体100cが認識されなくなったと判定することも可能である。   However, the determination can be performed by other methods. For example, when the type Ca of the second object 100c is recognized in the previous calculation cycle, but the type Ca of the second object 100c is not recognized in the current calculation cycle, the first object 100r and the second object 100c. After the combination is recognized, it may be determined that the second object 100c is no longer recognized. Alternatively, when the target object information processing unit 64 sets a flag indicating that the matching is successful for the target object 100tar, and the matching is not successful in the subsequent calculation cycle, the combination of the first object 100r and the second object 100c It is also possible to determine that the second object 100c is no longer recognized after being recognized.

[B3−2.画像不認識領域154]
上記実施形態では、車両10の手前側の領域である画像不認識領域154内に対象物体100tarが存在するか否かを判定した(図2のS4)。しかしながら、例えば、対象物体100tarの属性Prtarの引き継ぎを行うか否かを判定する観点からすれば、これに限らない。
[B3-2. Image non-recognition area 154]
In the embodiment described above, it is determined whether or not the target object 100tar exists in the image non-recognition region 154 that is the region on the near side of the vehicle 10 (S4 in FIG. 2). However, for example, from the viewpoint of determining whether or not to take over the attribute Prtar of the target object 100tar, the present invention is not limited to this.

例えば、車両10の手前側の領域154に加えて又はこれに代えて、対象物体100tarが車両10の奥側の領域内に存在するか否かを判定してもよい。当該奥側の領域は、撮像可能領域150よりも奥側に設定される。例えば、車両10からの距離Lが遠すぎるため、車両10の各種制御(例えば、ECU30、32、34による制御)の対象とならない領域を当該奥側の領域として設定することできる。   For example, in addition to or instead of the area 154 on the near side of the vehicle 10, it may be determined whether or not the target object 100 tar exists in the area on the far side of the vehicle 10. The back side region is set on the back side of the imageable region 150. For example, since the distance L from the vehicle 10 is too long, an area that is not a target of various controls of the vehicle 10 (for example, control by the ECUs 30, 32, and 34) can be set as the back area.

[B3−3.属性引継ぎ許可閾値Tpa]
上記実施形態では、3つの仮属性引継ぎ許可閾値Tpa_p1〜Tpa_p3のうち最小値を属性引継ぎ許可閾値Tpaとして設定した(図3のS13)。しかしながら、例えば、3つの仮属性引継ぎ許可閾値Tpa_p1〜Tpa_p3を用いて属性引継ぎ許可閾値Tpaを設定する観点からすれば、これに限らない。例えば、3つの仮属性引継ぎ許可閾値Tpa_p1〜Tpa_p3の平均値、中間値又は最大値を属性引継ぎ許可閾値Tpaとして設定してもよい。
[B3-3. Attribute takeover permission threshold Tpa]
In the above embodiment, the minimum value among the three temporary attribute takeover permission threshold values Tpa_p1 to Tpa_p3 is set as the attribute takeover permission threshold value Tpa (S13 in FIG. 3). However, for example, from the viewpoint of setting the attribute takeover permission threshold Tpa using the three temporary attribute takeover permission thresholds Tpa_p1 to Tpa_p3, the present invention is not limited to this. For example, an average value, an intermediate value, or a maximum value of the three temporary attribute takeover permission threshold values Tpa_p1 to Tpa_p3 may be set as the attribute takeover permission threshold value Tpa.

また、属性引継ぎ許可閾値Tpaの設定には、3つの仮属性引継ぎ許可閾値Tpa_p1〜Tpa_p3のうち1つ又は2つのみを用いることも可能である。或いは、属性引継ぎ許可閾値Tpaを可変値とせずに、固定値とすることもできる。   Also, only one or two of the three temporary attribute takeover permission thresholds Tpa_p1 to Tpa_p3 can be used for setting the attribute takeover permission threshold Tpa. Alternatively, the attribute takeover permission threshold value Tpa may be a fixed value instead of a variable value.

上記実施形態では、演算周期毎に属性引継ぎ許可閾値Tpaを更新した(図3参照)。しかしながら、例えば、許可閾値Tpaを使用する観点からすれば、これに限らない。例えば、一旦、属性不認識時間Tpnの積算を開始すると、属性引継ぎ許可閾値Tpaを更新せずに固定値として使用することも可能である。   In the above embodiment, the attribute takeover permission threshold value Tpa is updated for each calculation cycle (see FIG. 3). However, for example, from the viewpoint of using the permission threshold Tpa, this is not limiting. For example, once the integration of the attribute non-recognition time Tpn is started, the attribute takeover permission threshold Tpa can be used as a fixed value without being updated.

上記実施形態では、自車10と対象物体100tarとの相対速度Vrelに基づいて仮属性引継ぎ許可閾値Tpa_p2を算出した(図3のS11)。しかしながら、例えば、レーダ40の検出精度の観点からすれば、自車10の車速Vに基づいて仮属性引継ぎ許可閾値Tpa_p2を算出することも可能である。この場合、図5の横軸を相対速度Vrelから車速Vに置き換えて用いる。   In the above embodiment, the temporary attribute takeover permission threshold Tpa_p2 is calculated based on the relative speed Vrel between the host vehicle 10 and the target object 100tar (S11 in FIG. 3). However, for example, from the viewpoint of the detection accuracy of the radar 40, the temporary attribute takeover permission threshold Tpa_p2 can be calculated based on the vehicle speed V of the host vehicle 10. In this case, the horizontal axis in FIG. 5 is used by replacing the relative speed Vrel with the vehicle speed V.

上記実施形態では、画像不認識領域154内に存在する第1物体100rの個数Nrに基づいて仮属性引継ぎ許可閾値Tpa_p3を算出した(図3のS12)。しかしながら、例えば、車両10の周囲に存在する物体100の個数に基づいて仮属性引継ぎ許可閾値Tpa_p3を変化させる観点からすれば、これに限らない。例えば、撮像可能領域150内における第1物体100rの個数Nrに基づいて仮属性引継ぎ許可閾値Tpa_p3を算出してもよい。   In the above embodiment, the temporary attribute takeover permission threshold value Tpa_p3 is calculated based on the number Nr of the first objects 100r existing in the image non-recognition region 154 (S12 in FIG. 3). However, for example, from the viewpoint of changing the temporary attribute takeover permission threshold Tpa_p3 based on the number of objects 100 present around the vehicle 10, this is not a limitation. For example, the temporary attribute takeover permission threshold Tpa_p3 may be calculated based on the number Nr of the first objects 100r in the imageable area 150.

[B3−4.反射レベルLr]
上記実施形態では、反射波Wrの反射レベルLrの異常を判定するために、反射レベルLrの変化が大きいか否かを判定した(図3のS17)。しかしながら、例えば、反射レベルLrの異常を判定する観点からすれば、これに限らない。例えば、反射レベルLrが高すぎることを判定する上限閾値を設定しておき、反射レベルLrの現在値が当該上限閾値を上回るか否かを判定することも可能である。
[B3-4. Reflection level Lr]
In the above embodiment, in order to determine the abnormality of the reflection level Lr of the reflected wave Wr, it is determined whether or not the change in the reflection level Lr is large (S17 in FIG. 3). However, for example, from the viewpoint of determining an abnormality in the reflection level Lr, the present invention is not limited to this. For example, it is possible to set an upper limit threshold value for determining that the reflection level Lr is too high, and to determine whether or not the current value of the reflection level Lr exceeds the upper limit threshold value.

また、反射レベルLrは、対象物体100tarに対応する第1物体100rからの反射波Wrについてのものではなく、レーダ40の走査領域全体からの反射波Wrの反射レベルLrを用いることも可能である。   The reflection level Lr is not for the reflected wave Wr from the first object 100r corresponding to the target object 100tar, but the reflection level Lr of the reflected wave Wr from the entire scanning area of the radar 40 can also be used. .

10…車両(移動体) 12…物体認識装置
42…カメラ
60…レーダ情報処理部(第1認識手段)
62…カメラ情報処理部(第2認識手段)
64…対象物体情報処理部(マッチング手段)
66…属性判定部(属性引継ぎ判定手段) 100…検出物体
100c…第2物体 100r…第1物体
100tar…対象物体 102…歩行者
200…撮像画像 Ca…種類
L…車両(移動体)から対象物体までの距離
Linv…画像不認識距離(距離閾値)
Lr…反射波(電磁波)の反射レベル Nr…第1物体の個数
Poc…第2物体の位置 Por…第1物体の位置
Prtar…対象物体の属性 Tpa…属性引継ぎ許可閾値
Tpc…属性情報継続時間(継続時間) Tpn…属性不認識時間
V…車速 Vrel…相対速度
Wr…反射波 Wt…送信波(電磁波)
DESCRIPTION OF SYMBOLS 10 ... Vehicle (moving body) 12 ... Object recognition apparatus 42 ... Camera 60 ... Radar information processing part (1st recognition means)
62 ... Camera information processing section (second recognition means)
64 ... Target object information processing unit (matching means)
66 ... Attribute determining unit (attribute takeover determining means) 100 ... detected object 100c ... second object 100r ... first object 100tar ... target object 102 ... pedestrian 200 ... captured image Ca ... type L ... target object from vehicle (moving body) Distance Linv ... Image non-recognition distance (distance threshold)
Lr ... Reflection level of reflected wave (electromagnetic wave) Nr ... Number of first objects Poc ... Position of second object Por ... Position of first object Prtar ... Attribute of target object Tpa ... Attribute takeover permission threshold Tpc ... Attribute information duration ( Duration) Tpn ... attribute non-recognition time V ... vehicle speed Vrel ... relative speed Wr ... reflected wave Wt ... transmitted wave (electromagnetic wave)

Claims (6)

第1物体からの電磁波の反射に基づいて前記第1物体の位置を認識する第1認識手段と、撮像画像内に存在する第2物体の位置及び属性を認識する第2認識手段と、前記第1認識手段で認識された前記第1物体の位置及び前記第2認識手段で認識された前記第2物体の位置が一致する又は所定距離内にあるときに同一の対象物体であると判定するマッチング手段とを備え、移動体に搭載される物体認識装置であって、
前記マッチング手段により前記同一の対象物体であると判定される前記第1物体と前記第2物体の組み合わせが認識された後、前記第2物体が認識されなくなった場合、前記第2物体の属性を引き継ぐか否かを判定する引継ぎ判定手段をさらに備え、
前記引継ぎ判定手段は、前記第2物体が認識されなくなってからの不認識時間が所定の引継ぎ許可閾値を下回ることを少なくとも条件の1つとして、前記第2物体の属性を引き継ぎ、
前記引継ぎ判定手段は、前記第2物体が認識されなくなる前に前記マッチング手段が前記第1物体と前記第2物体とが前記同一の対象物体であると判定した継続時間に基づいて前記引継ぎ許可閾値を変化させる
ことを特徴とする物体認識装置。
First recognition means for recognizing the position of the first object based on reflection of electromagnetic waves from the first object; second recognition means for recognizing the position and attribute of the second object present in the captured image; Matching that determines the same target object when the position of the first object recognized by the first recognition means and the position of the second object recognized by the second recognition means match or are within a predetermined distance And an object recognition device mounted on a moving body,
When the second object is not recognized after the combination of the first object and the second object determined to be the same target object by the matching unit is recognized, the attribute of the second object is set. It further comprises takeover determining means for determining whether to take over,
The takeover determining means takes over the attribute of the second object, at least as one of the conditions that the non-recognition time after the second object is no longer recognized is below a predetermined takeover permission threshold,
The takeover determining means determines the takeover permission threshold based on a duration time that the matching means determines that the first object and the second object are the same target object before the second object is not recognized. An object recognition device characterized by changing the value.
第1物体からの電磁波の反射に基づいて前記第1物体の位置を認識する第1認識手段と、撮像画像内に存在する第2物体の位置及び属性を認識する第2認識手段と、前記第1認識手段で認識された前記第1物体の位置及び前記第2認識手段で認識された前記第2物体の位置が一致する又は所定距離内にあるときに同一の対象物体であると判定するマッチング手段とを備え、移動体に搭載される物体認識装置であって、
前記マッチング手段により前記同一の対象物体であると判定される前記第1物体と前記第2物体の組み合わせが認識された後、前記第2物体が認識されなくなった場合、前記第2物体の属性を引き継ぐか否かを判定する引継ぎ判定手段をさらに備え、
前記引継ぎ判定手段は、前記第2物体が認識されなくなってからの不認識時間が所定の引継ぎ許可閾値を下回ることを少なくとも条件の1つとして、前記第2物体の属性を引き継ぎ、
前記引継ぎ判定手段は、前記移動体の移動速度又は前記移動体と前記対象物体の相対速度に基づいて前記引継ぎ許可閾値を変化させる
ことを特徴とする物体認識装置。
First recognition means for recognizing the position of the first object based on reflection of electromagnetic waves from the first object; second recognition means for recognizing the position and attribute of the second object present in the captured image; Matching that determines the same target object when the position of the first object recognized by the first recognition means and the position of the second object recognized by the second recognition means match or are within a predetermined distance And an object recognition device mounted on a moving body,
When the second object is not recognized after the combination of the first object and the second object determined to be the same target object by the matching unit is recognized, the attribute of the second object is set. It further comprises takeover determining means for determining whether to take over,
The takeover determining means takes over the attribute of the second object, at least as one of the conditions that the non-recognition time after the second object is no longer recognized is below a predetermined takeover permission threshold,
The takeover determining means changes the takeover permission threshold based on a moving speed of the moving body or a relative speed of the moving body and the target object.
第1物体からの電磁波の反射に基づいて前記第1物体の位置を認識する第1認識手段と、撮像画像内に存在する第2物体の位置及び属性を認識する第2認識手段と、前記第1認識手段で認識された前記第1物体の位置及び前記第2認識手段で認識された前記第2物体の位置が一致する又は所定距離内にあるときに同一の対象物体であると判定するマッチング手段とを備え、移動体に搭載される物体認識装置であって、
前記マッチング手段により前記同一の対象物体であると判定される前記第1物体と前記第2物体の組み合わせが認識された後、前記第2物体が認識されなくなった場合、前記第2物体の属性を引き継ぐか否かを判定する引継ぎ判定手段をさらに備え、
前記引継ぎ判定手段は、前記第2物体が認識されなくなってからの不認識時間が所定の引継ぎ許可閾値を下回ることを少なくとも条件の1つとして、前記第2物体の属性を引き継ぎ、
前記引継ぎ判定手段は、前記第1認識手段で認識された前記第1物体の個数に基づいて前記引継ぎ許可閾値を変化させる
ことを特徴とする物体認識装置。
First recognition means for recognizing the position of the first object based on reflection of electromagnetic waves from the first object; second recognition means for recognizing the position and attribute of the second object present in the captured image; Matching that determines the same target object when the position of the first object recognized by the first recognition means and the position of the second object recognized by the second recognition means match or are within a predetermined distance And an object recognition device mounted on a moving body,
When the second object is not recognized after the combination of the first object and the second object determined to be the same target object by the matching unit is recognized, the attribute of the second object is set. It further comprises takeover determining means for determining whether to take over,
The takeover determining means takes over the attribute of the second object, at least as one of the conditions that the non-recognition time after the second object is no longer recognized is below a predetermined takeover permission threshold,
The handover determination unit changes the handover permission threshold based on the number of the first objects recognized by the first recognition unit.
請求項1〜3のいずれか1項に記載の物体認識装置において、
前記引継ぎ判定手段は、前記マッチング手段により前記同一の対象物体であると判定される前記第1物体と前記第2物体の組み合わせが認識された後、前記移動体から前記対象物体までの距離が、所定の距離閾値より短くなったことを追加条件として、前記第2物体の属性を引き継ぐか否かを判定する
ことを特徴とする物体認識装置。
The object recognition apparatus according to any one of claims 1 to 3,
The takeover determining means recognizes the distance from the moving body to the target object after the combination of the first object and the second object determined to be the same target object by the matching means is recognized. An object recognition apparatus characterized by determining whether or not to inherit the attribute of the second object with an additional condition that the distance is shorter than a predetermined distance threshold.
請求項4記載の物体認識装置において、
前記引継ぎ判定手段は、前記移動体から前記対象物体までの距離が前記距離閾値より短いか否かを、前記第1認識手段で認識された前記第1物体の位置を用いて判定する
ことを特徴とする物体認識装置。
The object recognition device according to claim 4.
The handover determination unit determines whether the distance from the moving body to the target object is shorter than the distance threshold using the position of the first object recognized by the first recognition unit. An object recognition device.
請求項1〜5のいずれか1項に記載の物体認識装置において、
前記引継ぎ判定手段は、前記第1物体からの前記電磁波の反射レベルの変化に基づき、前記対象物体の属性の引継ぎを禁止する
ことを特徴とする物体認識装置。
In the object recognition device according to any one of claims 1 to 5,
The object recognizing device, wherein the takeover determining means prohibits taking over the attribute of the target object based on a change in a reflection level of the electromagnetic wave from the first object.
JP2014084543A 2014-04-16 2014-04-16 Object recognition device Active JP6317986B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014084543A JP6317986B2 (en) 2014-04-16 2014-04-16 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014084543A JP6317986B2 (en) 2014-04-16 2014-04-16 Object recognition device

Publications (2)

Publication Number Publication Date
JP2015203677A JP2015203677A (en) 2015-11-16
JP6317986B2 true JP6317986B2 (en) 2018-04-25

Family

ID=54597186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014084543A Active JP6317986B2 (en) 2014-04-16 2014-04-16 Object recognition device

Country Status (1)

Country Link
JP (1) JP6317986B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6236549B1 (en) * 2016-06-02 2017-11-22 日本郵船株式会社 Ship navigation support device
CN106767852B (en) * 2016-12-30 2019-10-11 东软集团股份有限公司 A kind of method, apparatus and equipment generating detection target information
JP2019086406A (en) * 2017-11-07 2019-06-06 株式会社Soken Object detector
JP7561098B2 (en) 2021-07-26 2024-10-03 株式会社デンソー Vehicle control device and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7702425B2 (en) * 2004-06-07 2010-04-20 Ford Global Technologies Object classification system for a vehicle
JP2007156626A (en) * 2005-12-01 2007-06-21 Nissan Motor Co Ltd Object type determination device and object type determination method
JP4595833B2 (en) * 2006-02-24 2010-12-08 トヨタ自動車株式会社 Object detection device
JP5379543B2 (en) * 2009-04-09 2013-12-25 日立オートモティブシステムズ株式会社 Automobile external recognition device

Also Published As

Publication number Publication date
JP2015203677A (en) 2015-11-16

Similar Documents

Publication Publication Date Title
JP6084192B2 (en) Object recognition device
JP6190758B2 (en) Object recognition device and vehicle
US10163352B2 (en) Driving control device
US10994732B2 (en) Controller for a vehicle
JP6539228B2 (en) Vehicle control device and vehicle control method
US10328941B2 (en) Driving assistance device
JP6036724B2 (en) Vehicle surrounding situation recognition device and vehicle control device
CN109891262B (en) Object detecting device
US20190034742A1 (en) Pedestrian determination method and determination device
WO2016199345A1 (en) Road surface display device
WO2017111156A1 (en) Vehicle control device and vehicle control method
US20190005823A1 (en) Lane change assistance device and lane change assistance method
JP2018151816A (en) Collision avoidance control device
JP6317986B2 (en) Object recognition device
WO2015097511A1 (en) Vehicle surrounding situation estimation device
JP6300181B2 (en) Vehicle control device
JP6166249B2 (en) Transportation support device
JP6478414B2 (en) Vehicle control device, vehicle control method, and vehicle control program
JP2016124389A (en) Vehicle braking control device
JP6174644B2 (en) Image processing device
JP2016192167A (en) Vehicle control apparatus and vehicle control method
JP2017114429A (en) Driving support device and driving support method
JP2014146083A (en) Object detection device, object detection system and object detection method
JP6627093B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND VEHICLE CONTROL PROGRAM
JP6193177B2 (en) Motion support system and object recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180402

R150 Certificate of patent or registration of utility model

Ref document number: 6317986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154