JP5724955B2 - Object detection apparatus, information processing apparatus, and object detection method - Google Patents

Object detection apparatus, information processing apparatus, and object detection method Download PDF

Info

Publication number
JP5724955B2
JP5724955B2 JP2012141249A JP2012141249A JP5724955B2 JP 5724955 B2 JP5724955 B2 JP 5724955B2 JP 2012141249 A JP2012141249 A JP 2012141249A JP 2012141249 A JP2012141249 A JP 2012141249A JP 5724955 B2 JP5724955 B2 JP 5724955B2
Authority
JP
Japan
Prior art keywords
target
distance
sensor
lateral position
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012141249A
Other languages
Japanese (ja)
Other versions
JP2014006123A (en
Inventor
和希 根本
和希 根本
秀昭 林
秀昭 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2012141249A priority Critical patent/JP5724955B2/en
Publication of JP2014006123A publication Critical patent/JP2014006123A/en
Application granted granted Critical
Publication of JP5724955B2 publication Critical patent/JP5724955B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/589Velocity or trajectory determination systems; Sense-of-movement determination systems measuring the velocity vector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、2つ以上のセンサで物体を検出する物体検出装置に関する。   The present invention relates to an object detection apparatus that detects an object with two or more sensors.

障害物を検出して回避するための支援や被害低減を行う技術が知られている。障害物を検出するセンサとして、主にレーザ装置を使用するレーダセンサと画像を撮影するカメラセンサがあるが、さらに、両方のセンサを搭載して検出精度等を向上させる試みがある。一般に、レーダセンサは距離及び相対速度の精度が高く、カメラセンサは方位の精度が高いといわれている。制御側の装置(以下、単に制御装置という)は、それぞれのセンサによる同一対象物の検出信頼度を数値化して、一方のセンサの検出結果のみを取り出したり、双方の検出結果に重み付けするなどして、対象物を高精度に検出する。   Technologies for detecting and avoiding obstacles and reducing damage are known. As sensors for detecting obstacles, there are mainly radar sensors that use laser devices and camera sensors that take images. However, there are attempts to improve detection accuracy by mounting both sensors. In general, it is said that a radar sensor has high accuracy in distance and relative speed, and a camera sensor has high accuracy in orientation. The device on the control side (hereinafter simply referred to as the control device) digitizes the detection reliability of the same object by each sensor, extracts only the detection result of one sensor, weights both detection results, etc. Thus, the object is detected with high accuracy.

また、レーダセンサとカメラセンサはセンサの性能上、検出範囲が異なることが多い。
図1は、レーダセンサとカメラセンサそれぞれの検出範囲を模式的に示す図の一例である。図示するようにカメラセンサの方が検出範囲が広い。このような検出範囲の違いを利用して、カメラセンサでのみ対象物が検出されている場合でも、対象物の位置等を運転支援に活用する技術が考えられている(例えば、特許文献1参照。)。
Also, the radar sensor and the camera sensor often have different detection ranges due to sensor performance.
FIG. 1 is an example of a diagram schematically illustrating detection ranges of a radar sensor and a camera sensor. As shown, the camera sensor has a wider detection range. A technique for utilizing the position of the object for driving support even when the object is detected only by the camera sensor by using the difference in the detection range is considered (for example, see Patent Document 1). .)

特許文献1には、レーダセンサで検出していた対象物が消失した場合、その消失した位置及び物体の移動方向によって、カメラセンサがカバーする物体検出範囲に移動したか否かを判定し、レーダセンサによって検出された対象物の消失する直前の情報を初期情報として参照し、カメラセンサがその対象物の検出を続行する物体検出装置が開示されている。   In Patent Document 1, when an object detected by a radar sensor disappears, it is determined whether or not the object has been moved to an object detection range covered by the camera sensor based on the disappeared position and the moving direction of the object. An object detection device is disclosed in which information immediately before disappearance of an object detected by a sensor is referred to as initial information, and a camera sensor continues to detect the object.

特開2007−272441号公報JP 2007-272441 A

しかしながら、特許文献1に開示された物体検出装置では、各センサの検出範囲のみから切り替えの有無を判定しているため、実際の走行環境では切り替えるべきでないシーンでもセンサを切り替えてしまうという問題がある。   However, since the object detection device disclosed in Patent Document 1 determines whether or not to switch only from the detection range of each sensor, there is a problem that the sensor is switched even in a scene that should not be switched in an actual traveling environment. .

図2(a)〜(c)は、レーザセンサからカメラセンサに切り替えるべきでない走行環境のシーンの一例を示す図である。図2(a)はカメラセンサが撮影した画像を、図2(b)はレーダセンサとカメラセンサが検出している対象物(Hがカメラセンサの検出結果を、+がレーダセンサの検出結果を示している)を、図2(c)はレーダセンサとカメラセンサの検知結果を融合(フュージョン)したフュージョン物標をそれぞれ示す。図2(b)に示すように、合計で3つの物標a〜cが検出されているが、物標aはカメラセンサの検出範囲でのみ検出されている。   FIGS. 2A to 2C are diagrams illustrating an example of a scene of a traveling environment that should not be switched from a laser sensor to a camera sensor. 2A shows an image captured by the camera sensor, FIG. 2B shows an object detected by the radar sensor and the camera sensor (H indicates the detection result of the camera sensor, and + indicates the detection result of the radar sensor. FIG. 2C shows a fusion target obtained by fusing (detecting) the detection results of the radar sensor and the camera sensor. As shown in FIG. 2B, a total of three targets a to c are detected, but the target a is detected only in the detection range of the camera sensor.

このようなシーンで、物標aがカメラセンサの検出範囲にのみ存在するため、カメラセンサに切り替えてしまうと物標aをカメラセンサのみで検出することになる。このため、制御装置は1つのセンサのみによる信頼度の低い物標情報に基づき運転支援しなければならないことになる。例えば、図示するシーンは、自車両が至近距離で物標aとすれ違う場合に生じうるシーンである。至近距離でのすれ違いシーンでは、物標aと接触する可能性は低いので、物標aの検出をカメラセンサのみに切り替えて衝突判定する必要性は低い。カメラセンサのみにより衝突判定すると、判定精度が悪い可能性もある(ぶつからないのにぶつかると判定するおそれがある)。すなわち、至近距離でのすれ違いシーンでは、物標aと接触する可能性が低いので、カメラセンサに切り替えるよりも検出範囲外のレーダセンサを用いた方が好ましいと言える。   In such a scene, since the target a exists only in the detection range of the camera sensor, the target a is detected only by the camera sensor when switched to the camera sensor. For this reason, the control device must support driving based on target information with low reliability by only one sensor. For example, the scene shown in the figure is a scene that may occur when the host vehicle passes a target a at a close distance. In a passing scene at a close distance, the possibility of contact with the target a is low. Therefore, it is not necessary to make a collision determination by switching the detection of the target a only to the camera sensor. If the collision is determined only by the camera sensor, there is a possibility that the determination accuracy is poor (there is a possibility that it will collide with no collision). That is, in a passing scene at a close distance, the possibility of contact with the target a is low, so it can be said that it is preferable to use a radar sensor outside the detection range rather than switching to the camera sensor.

一方、レーダセンサは原理的に低車速・至近距離で物標を検知することが難しいという性質がある。このため、レーダセンサ及びカメラセンサの検出範囲に物標が存在しても、レーダセンサよりもカメラセンサの検出結果を優先すべきシーンもある。   On the other hand, a radar sensor has the property that it is difficult in principle to detect a target at a low vehicle speed and a close range. For this reason, even if a target exists in the detection range of the radar sensor and the camera sensor, there is a scene where the detection result of the camera sensor should be given priority over the radar sensor.

図2(d)〜(f)は、レーダセンサよりもカメラセンサの検出結果を優先すべきシーンの一例を示す図である。図2(d)はカメラセンサが撮影した画像を、図2(e)はレーダセンサとカメラセンサが検出している物標を、図2(f)はレーダセンサとカメラセンサの検知結果を統合したフュージョン物標をそれぞれ示す。このシーンは、ラップ率が大きい状態で至近距離に先行車両が停止しているシーンである(以下、至近距離物体静止シーンという)。このような至近距離では、レーダセンサの検出結果は精度が低いので(例えば、距離に連続性がなくなる距離飛びが生じる場合がある)、制御装置はカメラセンサの検出結果に基づき衝突判定する方が好ましい。   2D to 2F are diagrams illustrating an example of a scene where the detection result of the camera sensor should be prioritized over the radar sensor. 2D shows an image taken by the camera sensor, FIG. 2E shows a target detected by the radar sensor and the camera sensor, and FIG. 2F shows a detection result of the radar sensor and the camera sensor. Each fusion target is shown. This scene is a scene in which the preceding vehicle is stopped at a close distance with a large lap rate (hereinafter referred to as a close-range object stationary scene). At such a close distance, the detection result of the radar sensor is low in accuracy (for example, there may be a distance jump where the distance is not continuous), so the control device should make a collision determination based on the detection result of the camera sensor. preferable.

至近距離物体静止シーンでカメラセンサの検出結果に基づき衝突判定するには、一律に、レーダセンサとカメラセンサによる距離のうち近い方を採用すれば、安全サイドの制御が可能になると考えられる。しかし、単純に近い方の距離を採用するだけでは、全ての物標に対し一方のセンサのみで捉えた情報で衝突判定することになってしまう。例えば、至近距離でのすれ違いシーンでカメラセンサのみによる衝突判定を行う可能性が生じてしまう。   In order to make a collision determination based on the detection result of the camera sensor in a close-up object still scene, it is considered that the safe side can be controlled by adopting the shorter distance between the radar sensor and the camera sensor. However, by simply adopting the closer distance, a collision determination is made with information captured by only one sensor for all targets. For example, there is a possibility of performing a collision determination using only a camera sensor in a passing scene at a close distance.

本発明は、上記課題に鑑み、複数のセンサで物標を検出する物体検出装置において、シーンに応じて制御に使用するセンサを適宜、選択可能な物体検出装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an object detection apparatus capable of appropriately selecting a sensor to be used for control according to a scene in an object detection apparatus that detects a target with a plurality of sensors.

本発明は、物標との第一距離、及び、物標の第一横位置を含む第一物標情報を検出する第一のセンサと、物標との第二距離、及び、物標の第二横位置を含む第二物標情報を検出し、前記第一のセンサよりも物標の検出範囲が広い第二のセンサと、自車両情報を取得する自車両情報取得手段と、同じ物標に対し、前記第一横位置と同程度の前記第二横位置が所定時間以上検出され、前記第一距離又は前記第二距離が閾値以下であり、かつ、自車両が直進走行しているというシーン特定条件を満たす場合、前記第一距離と前記第二距離のうち小さい方を物標までの距離に選択するデータ選択手段と、前記データ選択手段が選択した距離に基づき物標と衝突すると判定された場合、運転支援を行う運転支援手段と、 前記第二のセンサが検出した物標の存在確率を、同じ物標が継続して検出されるほど高くなるように算出する存在確率算出手段と、を有し、前記シーン特定条件を満たさない場合、 前記運転支援手段は、前記存在確率算出手段が算出した前記存在確率が閾値以上であれば、前記第二物標情報に基づく物標との衝突判定結果に応じて運転支援を行う、ことを特徴とする。 The present invention provides a first sensor for detecting first target information including a first distance to a target and a first lateral position of the target, a second distance between the target and the target. A second sensor that detects second target information including the second lateral position and has a wider target detection range than the first sensor; to target, said first lateral position and the second lateral position of the same degree is detected for a predetermined time or more, the and the first distance or less the second distance threshold, and the own vehicle is running straight If the scene specifying condition is met, the data selection means for selecting the smaller one of the first distance and the second distance as the distance to the target, and the collision with the target based on the distance selected by the data selection means then when it is determined, the drive assist means for performing a driving support, those wherein the second sensor detects targets Existence probability calculation means for calculating the existence probability so that the existence target becomes higher as the same target is continuously detected, and when the scene specifying condition is not satisfied, the driving support means calculates the existence probability. If the existence probability calculated by the means is equal to or higher than a threshold value, driving assistance is performed according to a collision determination result with the target based on the second target information .

複数のセンサで物標を検出する物体検出装置において、シーンに応じて優先するセンサを選択する物体検出装置を提供することができる。   In the object detection apparatus that detects a target with a plurality of sensors, it is possible to provide an object detection apparatus that selects a sensor that has priority according to a scene.

レーダセンサとカメラセンサの物標の検出範囲を模式的に示す図の一例である。It is an example of the figure which shows typically the detection range of the target of a radar sensor and a camera sensor. 至近距離でのすれ違いシーン、至近距離物体静止シーンを説明する図の一例である。It is an example of the figure explaining the passing scene in the short distance, and the short distance object still scene. 物体検出装置の概略的な特徴を説明する図の一例である。It is an example of the figure explaining the general | schematic characteristic of an object detection apparatus. 物体検出装置の概略構成図の一例である。It is an example of the schematic block diagram of an object detection apparatus. システムECUの機能ブロック図の一例である。It is an example of the functional block diagram of system ECU. 画像フュージョン存在確率の算出要因を説明する図の一例である。It is an example of the figure explaining the calculation factor of an image fusion presence probability. 静止物存在確率の算出方法を説明する図の一例である。It is an example of the figure explaining the calculation method of a stationary object presence probability. センサフュージョン部がフュージョン信頼度等を算出する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which a sensor fusion part calculates a fusion reliability etc. FIG. システムECUの動作手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the operation | movement procedure of system ECU.

以下、本発明を実施するための形態について図面を参照しながら説明する。
図3は、本実施形態の物体検出装置の概略的な特徴を説明する図の一例である。物体検出装置は、レーダセンサとカメラセンサの検出結果から物標の存在確率(画像フュージョン存在確率、静止物存在確率)を計算している。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
FIG. 3 is an example of a diagram illustrating schematic features of the object detection device of the present embodiment. The object detection device calculates the existence probability of the target (image fusion existence probability, stationary object existence probability) from the detection results of the radar sensor and the camera sensor.

S10:物体検出装置は、2つのセンサの検出結果(物標情報)がフュージョンし、かつ、安定・直進しているか否かを判定する。安定・直進とは、車速がほぼ変動することなく直進走行しているこという。フュージョンとは、カメラセンサとレーダセンサの検出結果が同一視できる程度に一致していることをいう。
S20:ステップS10の判定がYesの場合、物体検出装置は至近距離補正フラグをONに設定する。
S30:至近距離補正フラグかONかOFFかを判定する。
S40:至近距離補正フラグがONの場合、物体検出装置はレーダ距離と画像距離のうち小さい方をフュージョン選択距離に採用する。レーダ距離は、レーダセンサが検出した距離であり、画像処理はカメラセンサが検出した距離である。
S50:また、物体認識装置は、後述する画像フュージョン存在確率と静止物存在確率の大きい方を衝突判定用の画像存在確率に決定する。
S10: The object detection device determines whether or not the detection results (target information) of the two sensors are fused and are stable and straight ahead. Stable / straight traveling means that the vehicle travels straight with almost no change in vehicle speed. The term “fusion” means that the detection results of the camera sensor and the radar sensor coincide with each other to the same extent.
S20: If the determination in step S10 is Yes, the object detection device sets the close distance correction flag to ON.
S30: It is determined whether the close distance correction flag is ON or OFF.
S40: When the close distance correction flag is ON, the object detection device adopts the smaller one of the radar distance and the image distance as the fusion selection distance. The radar distance is the distance detected by the radar sensor, and the image processing is the distance detected by the camera sensor.
S50: Also, the object recognition apparatus determines the image existence probability for collision determination, which has the larger image fusion existence probability and stationary object existence probability described later.

まず、ステップS10でフュージョンしていると判定されることは、2つのセンサがいずれも物標を良好な精度で検出していること(物標が確かに存在し位置の精度も高いこと)を意味する。安定・直進していることはカメラセンサの検出範囲外からカメラセンサの検出範囲に物標が急に出現したのではないことを意味している。したがって、至近距離補正フラグがONの場合、レーダ距離と画像距離のうち小さい方をフュージョン選択距離に採用することで、確かに存在する物標に対しより安全サイドの制御が可能になる。   First, it is determined that the fusion is performed in step S10, that both sensors detect the target with good accuracy (the target is surely present and the position accuracy is high). means. Stable and straight traveling means that the target has not suddenly appeared in the detection range of the camera sensor from outside the detection range of the camera sensor. Therefore, when the closest distance correction flag is ON, by adopting the smaller one of the radar distance and the image distance as the fusion selection distance, it is possible to control the safe side with respect to a target that is surely present.

例えば、ラップ率が大きい状態で至近距離に先行車両が停止している場合、S10の判定により至近距離補正フラグはONになる。この場合、物体検出装置はフュージョン選択距離に基づき衝突判定するので、レーダ距離とカメラ距離のうち近い方に基づき衝突判定する。よって、レーダセンサが原理的に低車速・至近距離で物標を検知することを苦手にしていても、安全サイドで衝突判定することができる。   For example, when the preceding vehicle is stopped at a close distance with a large lap rate, the close distance correction flag is turned ON by the determination at S10. In this case, since the object detection device determines the collision based on the fusion selection distance, the collision determination is performed based on the closer of the radar distance and the camera distance. Therefore, even if the radar sensor is not good at detecting a target at a low vehicle speed and close range in principle, it is possible to make a collision determination on the safe side.

また、例えば、至近距離のすれ違いシーンでは、運転者がステアリング操作することなどによりカメラセンサの検出範囲外から物標が進入することがある。この場合、ステップS10の条件から至近距離補正フラグはOFFのままである。よって、物体検出装置はフュージョン選択距離ではなく、従来どおり、カメラセンサのみが検出した物標情報に基づき衝突判定を行う。検出範囲外から進入した物標の静止物存在確率はすぐには増大しないので(閾値を超えないので)、カメラセンサのみが検出した物標情報に基づき衝突判定することはほとんどない。   Also, for example, in a passing scene at a close distance, a target may enter from outside the detection range of the camera sensor when the driver performs a steering operation. In this case, the close distance correction flag remains OFF from the condition of step S10. Therefore, the object detection apparatus performs the collision determination based on the target information detected only by the camera sensor, not the fusion selection distance, as usual. Since the stationary object existence probability of a target that has entered from outside the detection range does not increase immediately (because the threshold value is not exceeded), there is almost no collision determination based on target information detected only by the camera sensor.

このように、至近距離補正フラグを導入することで全ての物標に対し一方のセンサの検出結果で衝突判定することを抑制でき、存在する可能性が高い物標に対してのみ、フュージョン選択距離で車載装置を制御できる(レーダセンサの苦手とする領域をカメラセンサで補うことができる)。また、カメラセンサの方が検出範囲が広くても、カメラセンサのみによる衝突判定を抑制できる。   In this way, by introducing the close distance correction flag, it is possible to suppress the collision determination based on the detection result of one sensor for all targets, and the fusion selection distance only for targets that are likely to exist. Can control the in-vehicle device (the camera sensor can compensate for the area that the radar sensor is not good at). Moreover, even if the detection range of the camera sensor is wider, the collision determination by only the camera sensor can be suppressed.

〔構成例〕
図4は、本実施形態の物体検出装置の概略構成図の一例を示す。物体検出装置100は、システムECU(Electronic Control Unit)14により制御され、主にレーダセンサ装置11、カメラセンサ装置12、自車情報取得装置13、及び、作動デバイス15を有している。これらの装置又はECUはCAN(Controller Area Network)などの車載LANにより互いに通信可能に接続されている。
[Configuration example]
FIG. 4 shows an example of a schematic configuration diagram of the object detection apparatus of the present embodiment. The object detection device 100 is controlled by a system ECU (Electronic Control Unit) 14 and mainly includes a radar sensor device 11, a camera sensor device 12, a vehicle information acquisition device 13, and an operation device 15. These devices or ECUs are communicably connected to each other via an in-vehicle LAN such as a CAN (Controller Area Network).

<レーダセンサ装置>
レーダセンサ装置11は、レーダセンサ21とレーダECU22を有している。レーダセンサ21は、車両のフロントグリルなど車両の前方の中央部に配置され、車両の前方を中心に所定の角度(例えば、正面を中心に左右10度)にミリ波帯の電波を出射し、この範囲に存在する物標により反射したミリ波を受信する。レーダセンサ21は、例えば送信波と受信波の周波数差(ビート周波数)から距離を求めるFMCW(Frequency Modulated Continuous Wave)を送信する。または、パルスレーザでもよい。
<Radar sensor device>
The radar sensor device 11 includes a radar sensor 21 and a radar ECU 22. The radar sensor 21 is disposed in the center of the front of the vehicle, such as the front grille of the vehicle, and emits millimeter-wave radio waves at a predetermined angle (for example, 10 degrees left and right with the front as the center). A millimeter wave reflected by a target existing in this range is received. The radar sensor 21 transmits, for example, FMCW (Frequency Modulated Continuous Wave) for obtaining a distance from a frequency difference (beat frequency) between a transmission wave and a reception wave. Alternatively, a pulse laser may be used.

レーダセンサ21は1つの送信アンテナとN個の受信アンテナを有する。ミリ波レーダセンサ21は、送信アンテナから一定速度で上昇しまた一定速度で下降するミリ波を送信しながら、受信アンテナをスイッチで時分割に切り替える。レーダセンサ21は送信信号と受信信号をミキサーでミキシングすることで、受信アンテナ毎に送信信号と受信信号のビート信号を生成する。ビート信号を例えばFFT解析し、送信周波数の上昇時のビート周波数と下降時のビート周波数から、物標との距離及び相対速度が得られる。   The radar sensor 21 has one transmission antenna and N reception antennas. The millimeter wave radar sensor 21 switches the reception antenna in a time division manner with a switch while transmitting a millimeter wave that rises at a constant speed and descends at a constant speed from the transmission antenna. The radar sensor 21 generates a beat signal of the transmission signal and the reception signal for each reception antenna by mixing the transmission signal and the reception signal with a mixer. The beat signal is subjected to FFT analysis, for example, and the distance and relative speed from the target can be obtained from the beat frequency when the transmission frequency is increased and the beat frequency when the transmission frequency is decreased.

また、物標の方向は、各受信アンテナのビート信号に例えばDBF(Digital Beam Forming)処理を施すことで求められる。DBF処理は、各アンテナが受信する受信波の位相が物標の方位に応じて異なることを利用して位相差から物標の方位を算出するフェーズドアレイアンテナをデジタル回路で実現したものである。DBF処理では、演算により位相と振幅を任意に変えてアンテナの指向性を形成することができる。DBFの他、MUSIC解析やCapon解析などで方位を求めてもよい。   The direction of the target can be obtained by performing, for example, DBF (Digital Beam Forming) processing on the beat signal of each receiving antenna. The DBF processing is a digital circuit that realizes a phased array antenna that calculates the azimuth of a target from a phase difference by utilizing the fact that the phase of a received wave received by each antenna differs according to the azimuth of the target. In the DBF processing, the antenna directivity can be formed by arbitrarily changing the phase and amplitude by calculation. The orientation may be obtained by MUSIC analysis or Capon analysis other than DBF.

なお、方位と距離が分かることで、物標の横位置(自車両の横方向の中央位置を基準にして、物標の幅員方向の中央位置)を求めることができる。レーダセンサ21は、このようにして検出した全ての物標の距離、相対速度、方位をレーダECU22に送信する。   By knowing the azimuth and distance, the lateral position of the target (the central position in the width direction of the target with reference to the lateral central position of the host vehicle) can be obtained. The radar sensor 21 transmits the distances, relative velocities, and azimuths of all the targets thus detected to the radar ECU 22.

レーダECU22は、CPU、ROM、RAM、入出力I/F、CANコントローラ、及び、A/D変換回路等を備えたマイコンと、特定機能用のIC、及び、電源回路などを備えている。他のECUについても構成は同様である。レーダECU22は、CPUがROMに記憶されたプログラムを実行して、静止物・先行車判定、及び、相対位置・速度演算を行う。   The radar ECU 22 includes a microcomputer including a CPU, a ROM, a RAM, an input / output I / F, a CAN controller, an A / D conversion circuit, an IC for a specific function, a power supply circuit, and the like. The other ECUs have the same configuration. In the radar ECU 22, the CPU executes a program stored in the ROM, and performs stationary object / preceding vehicle determination and relative position / speed calculation.

相対位置・速度演算は、距離と方位から横位置やラップ率を算出したり、物標の路面に対する速度を演算する。   In the relative position / speed calculation, the lateral position and the lap rate are calculated from the distance and direction, or the speed of the target with respect to the road surface is calculated.

静止物・先行車判定の静止物判定では、物標が路面に対して静止しているか否かを判定する。例えば、物標との相対速度が、自車両の路面に対する車速と同程度と見なせる場合、物標は静止物であると判定する。先行車判定では、例えば、物標との相対速度と自車両の路面に対する車速から、物標の速度を算出し、所定値以上の速度で走行する物標を先行車の候補とする。そして、候補の物標のうち方位が自車両の正面方向と見なせる物標を先行車両と判定する。   In the stationary object determination of the stationary object / preceding vehicle determination, it is determined whether or not the target is stationary with respect to the road surface. For example, if the relative speed with respect to the target can be considered to be approximately the same as the vehicle speed with respect to the road surface of the host vehicle, the target is determined to be a stationary object. In the preceding vehicle determination, for example, the speed of the target is calculated from the relative speed with respect to the target and the vehicle speed relative to the road surface of the host vehicle, and a target traveling at a speed equal to or higher than a predetermined value is set as a candidate for the preceding vehicle. Then, among the candidate targets, a target whose direction is regarded as the front direction of the host vehicle is determined as the preceding vehicle.

<カメラセンサ装置>
カメラセンサ装置12は、カメラセンサ23とカメラECU24を有している。カメラは、距離情報を取得可能なステレオカメラであるが、距離情報を取得可能なら単眼カメラでもよい。カメラは、光軸を車両前方に向けて例えばルームミラーに配置される。カメラは所定間隔、離間して配置された右カメラと左カメラを有し、各カメラはCCD又はCMOSなどの光電変換素子である。右カメラと左カメラはほぼ同時に像を撮影し、画像データを所定の周期(例えば30〜60fps)でカメラECU24に出力する。
<Camera sensor device>
The camera sensor device 12 includes a camera sensor 23 and a camera ECU 24. The camera is a stereo camera capable of acquiring distance information, but may be a monocular camera as long as the distance information can be acquired. The camera is arranged, for example, on a rearview mirror with the optical axis facing the front of the vehicle. The camera has a right camera and a left camera that are spaced apart by a predetermined distance, and each camera is a photoelectric conversion element such as a CCD or a CMOS. The right camera and the left camera capture images almost simultaneously, and output image data to the camera ECU 24 at a predetermined cycle (for example, 30 to 60 fps).

左右のカメラ間の、製造誤差、レンズ歪み、焦点距離誤差などは、車両製造時や出荷時にキャリブレーションされている。キャリブレーションにより、右カメラと左カメラの画像データは視差に相当する違いのみを有するようになる。   Manufacturing errors, lens distortions, focal length errors, and the like between the left and right cameras are calibrated at the time of vehicle manufacture and shipment. Due to the calibration, the image data of the right camera and the left camera has only a difference corresponding to the parallax.

カメラセンサ23は、右カメラと左カメラがそれぞれ撮影した2つの画像の相関に基づき、左右のカメラで撮影された同一の物標に対する視差を算出する。具体的には、左カメラの画像データを固定し、順次、着目する画素を選択する。そして、着目する画素を中心とする予め定められたサイズの画素ブロック毎に、右カメラの画像データにおいて対応する位置の画素ブロックを取り出し、1画素ずつシフトしながら、最も相関するシフト量を決定する。相関値は、2つの画素ブロックの各画素における輝度の差の絶対値の和又は二乗和とすればよい。上下・左右にシフトさせた位置毎に、相関値が最も小さくなるシフト位置を、着目する画素のシフト量として求める。これを全画素について着目して行うことで、画素毎にシフト量が得られる。   The camera sensor 23 calculates a parallax for the same target photographed by the left and right cameras based on the correlation between the two images photographed by the right camera and the left camera, respectively. Specifically, the image data of the left camera is fixed, and the target pixel is sequentially selected. Then, for each pixel block of a predetermined size centered on the pixel of interest, the pixel block at the corresponding position in the right camera image data is extracted, and the most correlated shift amount is determined while shifting pixel by pixel. . The correlation value may be the sum or the sum of squares of the absolute values of the luminance differences in the pixels of the two pixel blocks. For each position shifted up and down and left and right, the shift position with the smallest correlation value is obtained as the shift amount of the pixel of interest. By performing this with attention paid to all pixels, a shift amount can be obtained for each pixel.

視差(シフトした画素数)をn、レンズの焦点距離をf、右カメラと左カメラの間隔をm、画素ピッチをdとすると、各画素までの距離Lは次式から算出される。
L=(f×m)/(n×d)
同程度の距離の連続した画素にはある1つの物標が撮影されていると推定できる。距離が分かれば、焦点距離f、画像における物標位置により物標の方位を求めることができる。また、相対速度は、距離情報に微分処理を施すことで得られる。
If the parallax (the number of shifted pixels) is n, the focal length of the lens is f, the distance between the right camera and the left camera is m, and the pixel pitch is d, the distance L to each pixel is calculated from the following equation.
L = (f × m) / (n × d)
It can be presumed that a single target is shot on consecutive pixels at the same distance. If the distance is known, the azimuth of the target can be obtained from the focal length f and the target position in the image. The relative speed can be obtained by performing a differentiation process on the distance information.

このように、レーダセンサ装置11とカメラセンサ装置12では、共に、方位、相対速度及び距離(以下、これらを物標情報という)が得られる。しかしながら、レーダセンサ21とカメラセンサ23では、検出範囲が異なっているため(一般に、カメラセンサ23の方が広い)、物標の位置によってはカメラセンサ23しか物標を検知できない場合がある。また、双方の検出範囲で同じ物標が検出された場合でも、距離、相対速度及び方位のそれぞれが一致するとは限らない。   Thus, both the radar sensor device 11 and the camera sensor device 12 can obtain an orientation, a relative speed, and a distance (hereinafter, these are referred to as target information). However, since the radar sensor 21 and the camera sensor 23 have different detection ranges (generally, the camera sensor 23 is wider), only the camera sensor 23 may detect the target depending on the position of the target. Further, even when the same target is detected in both detection ranges, the distance, the relative speed, and the direction do not always match.

<自車情報取得装置>
自車情報取得装置13は、ヨーレート・Gセンサ25、車輪速センサ26、及び、操舵角センサ23を有している。ヨーレート・Gセンサ25は、2方向の加速度(前後方向と左右方向)と1つのヨーレートを検出可能なセンサである。例えば、MEMS技術により作成され、複数の微小振動部分の静電容量の変化を電気回路で取り出すことで加速度とヨーレートを検出する。
<Vehicle information acquisition device>
The own vehicle information acquisition device 13 includes a yaw rate / G sensor 25, a wheel speed sensor 26, and a steering angle sensor 23. The yaw rate / G sensor 25 is a sensor that can detect acceleration in two directions (front-rear direction and left-right direction) and one yaw rate. For example, the acceleration and yaw rate are detected by taking out the change in electrostatic capacitance of a plurality of minute vibration parts by an electric circuit, which is created by the MEMS technology.

車輪速センサ26は、例えば、各輪に配置されたロータの回転を車体側のセンサが磁束変化などから取り出すことで、車輪パルスとして検出するセンサである。単位時間の車輪パルスの数から回転速度が求められ、さらにタイヤの径を考慮することで車速を求めることができる。   The wheel speed sensor 26 is, for example, a sensor that detects the rotation of the rotor arranged in each wheel as a wheel pulse by a vehicle-side sensor taking out from a change in magnetic flux. The rotational speed is obtained from the number of wheel pulses per unit time, and the vehicle speed can be obtained by further considering the tire diameter.

操舵角センサ23は、ステアリングシャフトの回転角度を検出するセンサである。検出原理には様々なものがあるが、例えば、ステアリングシャフト側にS極とN極の磁性体を配置しておき、ステアリングシャフトの周囲をリング状に囲み、リング側で磁性の変化を検出することで回転角度を検出する。   The steering angle sensor 23 is a sensor that detects the rotation angle of the steering shaft. There are various detection principles. For example, S pole and N pole magnetic bodies are arranged on the steering shaft side, the periphery of the steering shaft is enclosed in a ring shape, and a change in magnetism is detected on the ring side. Thus, the rotation angle is detected.

<作動デバイス>
作動デバイス15は、物標との異常接近を回避するための運転支援に用いられる各種の車載装置である。作動デバイス15は、システムECU14から作動命令を取得すると作動する。
<Operating device>
The operation device 15 is various in-vehicle devices used for driving support for avoiding abnormal approach to the target. The operation device 15 operates when it receives an operation command from the system ECU 14.

作動デバイス15として、例えば、警報ブザーや自動ブレーキ装置を挙げることができる。警報ブザーは、メータパネルのブザーを吹鳴することで運転者に物標が接近していることを注意喚起する。また、自動ブレーキ装置は、ブレーキECUとブレーキアクチュエータとにより実現される、運転者がブレーキペダルを踏み込まなくても車両を制動する装置である。具体的には、ブレーキECUは、ブレーキACTの弁の開閉を制御することでポンプが生成した制動油圧をホイルシリンダに供給して、各輪毎に独立に車輪を制動する。   Examples of the actuation device 15 include an alarm buzzer and an automatic brake device. The alarm buzzer alerts the driver that the target is approaching by blowing the buzzer on the meter panel. The automatic brake device is a device that is realized by a brake ECU and a brake actuator and brakes the vehicle without the driver depressing a brake pedal. Specifically, the brake ECU supplies the braking hydraulic pressure generated by the pump to the wheel cylinder by controlling the opening and closing of the valve of the brake ACT, and brakes the wheel independently for each wheel.

<システムECU>
システムECU14は、物標との衝突判定演算及び至近距離補正演算等を行う。
図5は、システムECU14の機能ブロック図の一例を示す。システムECU14は、CPUがプログラムを実行しハードウェアと協働して実現する、センサフュージョン部31、画像フュージョン存在確率算出部34、静止物存在確率算出部35、至近距離補正判定部32、補正処理部33、及び、衝突判定部36を有している。
<System ECU>
The system ECU 14 performs a collision determination calculation with a target, a close distance correction calculation, and the like.
FIG. 5 shows an example of a functional block diagram of the system ECU 14. The system ECU 14 is implemented by the CPU executing a program and cooperating with hardware. The sensor fusion unit 31, the image fusion existence probability calculation unit 34, the stationary object existence probability calculation unit 35, the closest distance correction determination unit 32, and the correction process The unit 33 and the collision determination unit 36 are included.

センサフュージョン部31は、レーダセンサ装置11が検出する物標情報(以下、区別するため物標情報Lという)と、カメラセンサ装置12が検出する物標情報(以下、区別するため物標情報Cという)を統合する。統合とは、物標情報LとCに重みづけして1つの物標情報Fを生成すること、又は、物標情報LとCのうちいずれか一方を選択することである。また、センサフュージョン部31は、物標情報LとCがフュージョンしているか否かを判定し、フュージョン信頼度を算出する。   The sensor fusion unit 31 includes target information detected by the radar sensor device 11 (hereinafter referred to as target information L for distinction) and target information detected by the camera sensor device 12 (hereinafter referred to as target information C for distinction). Integrated). Integration refers to weighting the target information L and C to generate one target information F, or selecting one of the target information L and C. Further, the sensor fusion unit 31 determines whether or not the target information L and C are fused, and calculates the fusion reliability.

システムECU14は画像存在確率を算出する。画像存在確率は、衝突判定に使用する条件の1つであり、物標が存在する確からしさを表すパラメータである。画像存在確率が閾値以上でなければ作動デバイス15は作動しない。画像存在確率は、画像フュージョン存在確率と静止物存在確率の大きい方をいう。フュージョンしていれば、画像存在確率も閾値を超えていることが予想される。   The system ECU 14 calculates the image existence probability. The image existence probability is one of the conditions used for collision determination, and is a parameter that represents the probability that the target exists. The activation device 15 does not operate unless the image existence probability is equal to or higher than the threshold value. The image existence probability is the greater of the image fusion existence probability and the stationary object existence probability. If fusion has occurred, it is expected that the image presence probability also exceeds the threshold.

画像フュージョン存在確率算出部34は画像フュージョン存在確率を算出し、静止物存在確率算出部35は静止物存在確率を算出する。   The image fusion existence probability calculating unit 34 calculates the image fusion existence probability, and the stationary object existence probability calculating unit 35 calculates the stationary object existence probability.

至近距離補正判定部32は、至近距離補正フラグをONとするかOFFするかを物標毎に判定する。補正処理部33は、至近距離補正フラグがONの場合に、レーダセンサ21が検出したレーダ距離と、カメラセンサ23が検出した画像距離の小さい方をフュージョン選択距離に決定する。また、補正処理部33は、至近距離補正フラグがONの場合に、画像フュージョン存在確率と静止物存在確率の大きい方を画像存在確率に決定する。   The close distance correction determination unit 32 determines for each target whether the close distance correction flag is set to ON or OFF. When the close distance correction flag is ON, the correction processing unit 33 determines the smaller one of the radar distance detected by the radar sensor 21 and the image distance detected by the camera sensor 23 as the fusion selection distance. Further, when the close-range correction flag is ON, the correction processing unit 33 determines the larger one of the image fusion existence probability and the stationary object existence probability as the image existence probability.

衝突判定部36は、物標の存在確率と物標情報(及び物標情報から算出されるTTC(Time To Collision))に基づき物標との衝突判定を行う。物標情報LとCがフュージョンしている場合は、フュージョンした物標情報Fに基づき、画像フュージョン存在確率が閾値以上の場合に衝突判定を行う。物標情報Cのみが検出された場合、物標情報Cのみに基づき静止物存在確率が閾値以上の場合に衝突判定を行う。物標情報Lのみが検出された場合、物標情報Lのみに基づき衝突判定を行う(存在確率を用いてもよいし用いなくてもよい)。   The collision determination unit 36 performs the collision determination with the target based on the presence probability of the target and the target information (and TTC (Time To Collision) calculated from the target information). When the target information L and C are fused, the collision determination is performed based on the fused target information F when the image fusion existence probability is equal to or higher than a threshold value. When only the target information C is detected, the collision determination is performed based on only the target information C when the stationary object existence probability is equal to or higher than the threshold value. When only the target information L is detected, the collision determination is performed based only on the target information L (the existence probability may or may not be used).

本実施形態では、フュージョンしている場合には至近距離補正フラグがONの場合とOFFの場合があるが、至近距離補正フラグがOFFの場合はフュージョンしている場合と同じになる。至近距離補正フラグがONの場合は後述する。   In the present embodiment, when the fusion is performed, the close distance correction flag may be ON or OFF, but when the close distance correction flag is OFF, the same as when the fusion is performed. The case where the close distance correction flag is ON will be described later.

<画像フュージョン存在確率>
まず、画像フュージョン存在確率について説明する。画像フュージョン存在確率は、物標情報Lが物標情報Cにどの程度類似しているかに基づき算出される物標の存在確率である。つまり、画像フュージョン存在確率が高いほど、フュージョンしている可能性が高いと推定される。
<Image fusion existence probability>
First, the image fusion existence probability will be described. The image fusion existence probability is the existence probability of a target calculated based on how similar the target information L is to the target information C. That is, it is estimated that the higher the image fusion existence probability, the higher the possibility of fusion.

図6(a)は画像フュージョン存在確率の算出要因を説明する図の一例である。この図には「ミリ波検出状況」「重複状態」「画像フュージョン存在確率増減値」の各カラムがある。   FIG. 6A is an example of a diagram for explaining the calculation factor of the image fusion existence probability. In this figure, there are columns of “millimeter wave detection status”, “overlapping state”, and “image fusion existence probability increase / decrease value”.

「ミリ波検出状況」と「重複状態」は、「画像フュージョン存在確率増減値」を決定するための条件である。「ミリ波検出状況」は、レーダセンサ21による物標の検出状態である。レーダセンサ21による物標の検出では、マルチパスなどの影響により同じ物標を毎回のレーダ走査で必ず検出できるとは限らない。例えば、レーダセンサ21はビート信号にFFT処理を施してピーク周波数をビート周波数とするが、ピーク値(電力値)が大きいほど物標検出の信頼性が高い傾向にある。このため、例えば、閾値を2つ用意し、高い方の閾値を超えた場合はミリ波検出状況を"良好"、低い方の閾値を超えた場合はミリ波検出状況を"通常"と判定する。低い方の閾値を超えない場合はミリ波検出状況は"検出なし"となる。   The “millimeter wave detection status” and the “overlapping state” are conditions for determining the “image fusion existence probability increase / decrease value”. The “millimeter wave detection status” is a detection state of the target by the radar sensor 21. In the detection of a target by the radar sensor 21, the same target cannot always be detected by each radar scan due to the influence of multipath or the like. For example, the radar sensor 21 performs FFT processing on the beat signal to set the peak frequency to the beat frequency, but the higher the peak value (power value), the higher the reliability of target detection. For this reason, for example, two threshold values are prepared, and when the higher threshold value is exceeded, the millimeter wave detection status is determined as “good”, and when the lower threshold value is exceeded, the millimeter wave detection status is determined as “normal”. . If the lower threshold is not exceeded, the millimeter wave detection status is “no detection”.

「重複状態」は、物標情報Cと物標情報Lの横位置が重複しているか否かを示す。図6(b)に示すように、物標情報Cの物標は横幅があるのに対し、物標情報Lの横位置(方位)は原理的に1点で定まる。このため、「重複状態」は、物標情報Cの横幅内に物標情報Lの横位置が検出される"画像範囲内"、物標情報Cの横幅の右端又は左端から所定距離内に物標情報Lの横位置が検出される"画像範囲外"がある。なお、1つの物標情報Cに複数の物標情報Lが対応づけられる場合がある。   “Overlapping state” indicates whether or not the horizontal positions of the target information C and the target information L overlap. As shown in FIG. 6B, the target of the target information C has a horizontal width, whereas the horizontal position (azimuth) of the target information L is determined by one point in principle. For this reason, the “overlapping state” is “within the image range” in which the horizontal position of the target information L is detected within the horizontal width of the target information C, and within a predetermined distance from the right or left end of the horizontal width of the target information C. There is “out of image range” in which the lateral position of the mark information L is detected. A plurality of target information L may be associated with one target information C.

「ミリ波検出状況」と「重複状態」の関係により、「画像フュージョン存在確率増減値」が定められている。すなわち、「ミリ検出状況」が"良好"で「重複状態」が"画像範囲内"であれば、フュージョンしている可能性が高いと推定できるので「画像フュージョン存在確率増減値」は"+ΔQ"である。ΔQは数%〜数10%程度の設計値である。「重複状態」が"画像範囲外"であれば、フュージョンしている可能性がやや低くなるので「画像フュージョン存在確率増減値」は"+ΔQ/2"である。「ミリ検出状況」が"通常"の場合も同様に考えることができる。   The “image fusion existence probability increase / decrease value” is determined by the relationship between the “millimeter wave detection status” and the “overlapping state”. That is, if the “millimeter detection status” is “good” and the “overlapping state” is “within image range”, it can be estimated that there is a high possibility of fusion, so the “image fusion existence probability increase / decrease value” is “+ ΔQ”. It is. ΔQ is a design value of about several percent to several tens of percent. If the “overlapping state” is “out of image range”, the possibility of fusion is slightly reduced, so the “image fusion existence probability increase / decrease value” is “+ ΔQ / 2”. The same can be considered when the “millimeter detection status” is “normal”.

一方、「ミリ検出状況」が"検出なし"の場合、過去に検知されていたピーク値が次のレーダ走査で検知されなくなったとしても、急に物標が存在するのは不自然である。また、再度、ピークが検知されることもある。このため、「画像フュージョン存在確率増減値」は徐々に低減される。すなわち、前回まで「ミリ検出状況」が"良好"又は"通常"で前回の「重複状態」が"画像範囲内"であれば、「画像フュージョン存在確率増減値」は"−ΔQ/3"である。また、前回の「重複状態」が"画像範囲外"であれば"−ΔQ/2"である。   On the other hand, when the “millimeter detection status” is “no detection”, even if the peak value detected in the past is not detected in the next radar scan, it is unnatural that the target suddenly exists. Moreover, a peak may be detected again. For this reason, the “image fusion existence probability increase / decrease value” is gradually reduced. That is, if the “millimeter detection status” is “good” or “normal” and the previous “overlap state” is “within the image range” until the previous time, the “image fusion existence probability increase / decrease value” is “−ΔQ / 3”. is there. If the previous “overlap state” is “out of image range”, “−ΔQ / 2”.

このように「ミリ検出状況」と「重複状態」の組み合わせに応じて、徐々に画像フュージョン存在確率を増減できる。なお、画像フュージョン存在確率は、例えば、最初にレーダセンサ21が物標情報Lを高閾値で検出した場合に予め定められた初期値(例えば20〜40等)から始まり、低閾値で検出した場合に初期値ゼロから始まる。   In this manner, the image fusion existence probability can be gradually increased or decreased according to the combination of the “millimeter detection status” and the “overlapping state”. The image fusion existence probability starts when, for example, the radar sensor 21 first detects the target information L with a high threshold value, and starts with a predetermined initial value (for example, 20 to 40, etc.) and detects with a low threshold value. The initial value starts from zero.

<フュージョン信頼度>
フュージョン信頼度は、例えば物標の物標情報Lと物標情報Cがフュージョンしていると判定された期間から求められる。物標情報Lと物標情報Cが、例えば1秒間、同一であると見なされた場合に20%、2秒間で40%、3秒間で60%、4秒間で80%、5秒間以上で100%、とする。この他、物標情報Lと物標情報Cが同一であると見なされた回数でフュージョン信頼度を算出してもよい。
<Fusion reliability>
The fusion reliability is obtained from a period during which it is determined that the target information L and the target information C of the target are fused, for example. For example, if the target information L and the target information C are considered to be the same for 1 second, 20%, 40% for 2 seconds, 60% for 3 seconds, 80% for 4 seconds, 100 for 5 seconds or more %. In addition, the fusion reliability may be calculated by the number of times that the target information L and the target information C are considered to be the same.

また、フュージョン信頼度は、フュージョンしていないと判定された期間に応じて減少される。時間に対する増加量と減少量は同じでもよいし、異なっていてもよい。例えば、減少量を増加量よりも小さくすることで、過去にフュージョンしていたことを検出しやすくなる。一度も、フュージョンしていない物標のフュージョン信頼度はゼロである。   Further, the fusion reliability is decreased according to a period in which it is determined that the fusion is not performed. The increase amount and the decrease amount with respect to time may be the same or different. For example, by making the decrease amount smaller than the increase amount, it becomes easier to detect that the fusion has occurred in the past. The fusion reliability of a target that has never been fused is zero.

また、フュージョン信頼度とは別に、現在、物標情報Lと物標情報Cが同一であると見なせることができる場合、フュージョン状態=ONという。   In addition to the fusion reliability, when the target information L and the target information C can be regarded as the same at present, the fusion state = ON.

<静止物存在確率>
図7は、静止物存在確率の算出方法を説明する図の一例である。静止物存在確率は、物標情報Cのみから算出される物標の存在確率である。「静止物存在確率の設定例」には"リセット条件""ダウン条件""アップ条件"が定められている。"リセット条件"は、静止物存在確率に初期値を設定するための条件であり、"ダウン条件"は静止物存在確率を減少させるための条件であり、"アップ条件"は静止物存在確率を減少させるための条件である。いずれの条件も適宜、設定できるが、"リセット条件"は新規物標を検出したこと、"ダウン条件"は物標が検出されなくなったこと、"アップ条件"は継続して同じ物標が検出されたことが、条件になっている。
<Probability of stationary objects>
FIG. 7 is an example of a diagram illustrating a method for calculating the stationary object existence probability. The stationary object existence probability is a target existence probability calculated from the target information C alone. “Setting example of stationary object existence probability” defines “reset condition”, “down condition”, and “up condition”. The “reset condition” is a condition for setting an initial value for the stationary object existence probability, the “down condition” is a condition for decreasing the stationary object existence probability, and the “up condition” is the stationary object existence probability. This is a condition for decreasing. Either condition can be set as appropriate, but “reset condition” indicates that a new target has been detected, “down condition” indicates that the target is no longer detected, and “up condition” continues to detect the same target. What has been done is a condition.

静止物存在確率算出部35は、"リセット条件""ダウン条件""アップ条件"が成立するか否かを判定し、「静止物存在確率」にて定められた値にて静止物存在確率を新規設定又は更新する。なお、静止物存在確率は0〜100%の範囲を超えないように処理される。   The stationary object existence probability calculating unit 35 determines whether or not the “reset condition”, the “down condition”, and the “up condition” are satisfied, and calculates the stationary object existence probability with a value determined by the “stationary object existence probability”. New setting or update. Note that the stationary object existence probability is processed so as not to exceed the range of 0 to 100%.

<フュージョン信頼度等の算出手順>
図8(a)はセンサフュージョン部31がフュージョン信頼度等を算出する手順を示すフローチャート図の一例である。システムECU14は、周期的に物標情報Lと物標情報Cを受信する。物標情報Lと物標情報Cはそれぞれ複数存在しうる。
<Fusion reliability calculation procedure>
FIG. 8A is an example of a flowchart illustrating a procedure for the sensor fusion unit 31 to calculate the fusion reliability and the like. The system ECU 14 periodically receives the target information L and the target information C. There may be a plurality of target information L and target information C, respectively.

画像フュージョン存在確率算出部34は、1つの物標情報L毎に画像フュージョン存在確率を算出する(S110)。図8(b)は、物標情報Lと物標情報Cを模式的に示す図の一例である。レーダセンサ21は2つの物標を検出しており、それぞれの物標情報L1、L2をシステムECU14に送信している。カメラセンサ23は3つの物標を検出しており、それぞれの物標情報C1、C2、C3をシステムECU14に送信している。   The image fusion existence probability calculation unit 34 calculates the image fusion existence probability for each target information L (S110). FIG. 8B is an example of a diagram schematically showing the target information L and the target information C. The radar sensor 21 detects two targets, and transmits the target information L1 and L2 to the system ECU 14. The camera sensor 23 detects three targets and transmits the target information C1, C2, and C3 to the system ECU 14.

レーダセンサ21の検出範囲よりもカメラセンサ23の検出範囲の方が広いので、物標情報L1,L2に着目して、物標情報C1〜C3それぞれとの画像フュージョン存在確率を算出する。よって、画像フュージョン存在確率算出部34は、物標情報L1と物標情報C1〜C3をそれぞれ比較し、画像フュージョン存在確率の算出方法で説明したようにして画像フュージョン存在確率を算出する。物標情報L2についても同様である。   Since the detection range of the camera sensor 23 is wider than the detection range of the radar sensor 21, paying attention to the target information L1 and L2, the image fusion existence probability with each of the target information C1 to C3 is calculated. Therefore, the image fusion existence probability calculation unit 34 compares the target information L1 and the target information C1 to C3, respectively, and calculates the image fusion existence probability as described in the image fusion existence probability calculation method. The same applies to the target information L2.

次に、センサフュージョン部31は、物標情報L毎に、フュージョン信頼度を算出する(S120)。センサフュージョン部31は、例えば、物標情報Lに最も近い物標情報Cと物標情報を比較し、物標情報Cの横幅から閾値内に物標情報Lが存在する場合、物標情報Lと物標情報Cが同じもの(フュージョンしていると)であると判定する。図の例では物標情報L1と物標情報C1がフュージョンしていると判定される。横位置だけでなく、方位及び相対速度を比較して、フュージョンしているか否かを判定してもよい。   Next, the sensor fusion unit 31 calculates the fusion reliability for each target information L (S120). For example, the sensor fusion unit 31 compares the target information C with the target information C closest to the target information L. If the target information L exists within the threshold from the lateral width of the target information C, the sensor information L And the target information C are the same (if they are fused). In the example of the figure, it is determined that the target information L1 and the target information C1 are fused. It may be determined whether or not fusion is performed by comparing not only the lateral position but also the azimuth and relative velocity.

一方、レーダセンサ21とカメラセンサ23のいずれか1つ以上の検出精度が低下するシーンでは、同じ物標の物標情報LとCが同一と見なせない場合がある。図の例では物標情報L2は物標情報C2の横幅の閾値内に存在しないので、フュージョンしていないと判定される。なお、画像フュージョン存在確率の算出方法に基づき、物標情報L2に対しても画像フュージョン存在確率は算出されている。   On the other hand, in the scene where the detection accuracy of any one or more of the radar sensor 21 and the camera sensor 23 decreases, the target information L and C of the same target may not be regarded as the same. In the example of the figure, the target information L2 does not exist within the width threshold of the target information C2, so it is determined that the target is not fused. Note that the image fusion existence probability is also calculated for the target information L2 based on the image fusion existence probability calculation method.

センサフュージョン部31は、フュージョンしていると判定した物標情報LとCに対し、物標情報Lと物標情報Cを統合し物標情報Fを生成する(S130)。統合する際は、例えば、距離と相対速度は物標情報Lに大きな重み付けαをして、物標情報Cに小さな重み付けβをする(α+β=1 α>β)。方位(横位置)は物標情報Lに小さな重み付けβをして、物標情報Cに大きな重み付けαをする。または、距離と相対速度は物標情報Lから取り出し、方位(横位置)は物標情報Cから取りだしてもよい。   The sensor fusion unit 31 integrates the target information L and the target information C with respect to the target information L and C determined to be fused, and generates the target information F (S130). At the time of integration, for example, the distance and relative speed are given a large weighting α to the target information L and a small weighting β to the target information C (α + β = 1 α> β). The azimuth (lateral position) is given a small weighting β to the target information L and a large weighting α to the target information C. Alternatively, the distance and relative speed may be extracted from the target information L, and the azimuth (lateral position) may be extracted from the target information C.

なお、このように物標情報LとCを統合した場合でも、至近距離補正フラグがONの場合、後述するセンサフュージョン選択距離が取り出せるように、物標情報LとCはフュージョンされた物標情報Fに含まれている。   Even when the target information L and C are integrated in this way, when the close distance correction flag is ON, the target information L and C are fused target information so that a sensor fusion selection distance described later can be taken out. F.

次いで、静止物存在確率算出部35は、物標情報C毎に静止物存在確率を算出する(S140)。図8(b)では、物標情報C1〜C3の3つの物標情報Cがあるので、それぞれについて静止物存在確率が算出される。   Next, the stationary object existence probability calculating unit 35 calculates the stationary object existence probability for each target information C (S140). In FIG. 8B, since there is three target information C of target information C1 to C3, the stationary object existence probability is calculated for each.

<至近距離補正ON条件>
至近距離補正判定部32は、至近距離補正フラグをON又はOFFにする条件が成立するか否かを判定する。至近距離補正フラグのON条件は、レーダ距離と画像距離の近い方を用いて、より安全サイドの制御を行うか否かの判定条件である。
<Close distance correction ON condition>
The close distance correction determination unit 32 determines whether or not a condition for turning on or off the close distance correction flag is satisfied. The ON condition of the close distance correction flag is a determination condition as to whether or not the safe side control is to be performed using the closer one of the radar distance and the image distance.

至近距離補正フラグのON条件は、例えば以下の条件をいい、各条件が全て成立する場合に至近距離補正判定部32は至近距離補正フラグをONに設定する。
・フュージョン信頼度=100%
・距離≦2.5m(適合値)
・自車速>5km/h(適合値)
・カーブR>1000m(適合値)
・操舵角<90°(適合値)
・フュージョン状態=ON
なお、適合値とは適宜、最適化できる値であることを意味し、具体的数値は上記に限定されない。また、判定のための距離は、フュージョン信頼度が100%なのでレーダ距離と画像距離のどちらをもちいてもよい。
The close distance correction flag ON condition is, for example, the following condition. When all the conditions are satisfied, the close distance correction determination unit 32 sets the close distance correction flag to ON.
・ Fusion reliability = 100%
・ Distance ≦ 2.5m (conformity value)
・ Self-vehicle speed> 5km / h (conformity value)
・ Curve R> 1000m (conformity value)
・ Steering angle <90 ° (conformity)
・ Fusion state = ON
In addition, a suitable value means that it is a value which can be optimized suitably, and a specific numerical value is not limited to the above. Further, the determination distance may be either the radar distance or the image distance because the fusion reliability is 100%.

至近距離補正フラグのON条件が意図するのは、
・至近距離にある物標について、過去のフュージョン信頼度が十分であり、かつ、安定・直進している場合、安全サイドの衝突判定を行う、
・この条件を満たさない場合は、従来どおりに衝突判定を行う、というものである。
The close distance correction flag ON condition is intended
-For targets at close range, if the past fusion reliability is sufficient, and if the target is stable and going straight, the collision judgment on the safe side is performed.
・ If this condition is not met, the collision is determined as before.

なお、至近距離補正フラグのON条件に「フュージョン状態=ON」であることをも含めなくてもよい。現在、フュージョンしていなくても、フュージョン信頼度が100%なら、物標情報Cの信頼性が高いことを推定できるためである。これにより、現在、フュージョンしていなくても、レーダセンサが苦手な低車速・至近距離を物標情報Cで補うことができる。   It should be noted that the ON condition of the close distance correction flag may not include “fusion state = ON”. This is because even if the fusion is not currently performed, if the fusion reliability is 100%, it can be estimated that the reliability of the target information C is high. As a result, the target information C can compensate for the low vehicle speed and the close distance that the radar sensor is not good at even if the fusion is not currently performed.

至近距離補正フラグのOFF条件は、例えば以下の条件をいい、各条件が全て成立する場合に至近距離補正判定部32は至近距離補正フラグをOFFに設定するものとする。
・距離>5m(適合値)
・操舵角>180°(適合値)
つまり、物標との距離が至近距離でなくなるか、又は、直進走行していないことが確実になると至近距離補正フラグはOFFになる。物標との距離が至近距離でなくなれば、レーダセンサ21の検出精度は十分になり、直進走行していない場合はフュージョン信頼度が100%でも運転支援の必要性が低下するためである。
The close condition correction flag OFF condition refers to, for example, the following conditions. When all the conditions are satisfied, the close distance correction determination unit 32 sets the close distance correction flag to OFF.
・ Distance> 5m (conformity value)
・ Steering angle> 180 ° (conformity value)
In other words, when it is certain that the distance from the target is not close or the vehicle is not traveling straight, the close distance correction flag is turned off. This is because if the distance from the target is not close, the detection accuracy of the radar sensor 21 is sufficient, and the need for driving assistance is reduced even when the fusion reliability is 100% when the vehicle is not traveling straight.

このように至近距離補正フラグのON/OFFを判定することで、フュージョンしており、かつ、車両が安定・直進している場合、安全サイドの制御が可能になる。単純に、常に、フュージョン選択距離を採用すると、全ての物標に対し一方のセンサのみで捉えた信頼度の低い情報で衝突判定してしまうが、至近距離補正フラグがONであることを条件とすることで存在する可能性が高い物標に対してのみ安全サイドの制御が可能になる。また、至近距離を条件にしているので、レーダセンサ21が苦手とする低車速・至近距離の物標をカメラセンサ23でカバーできる。   By determining whether the close distance correction flag is ON / OFF in this way, it is possible to control the safe side when the vehicle is fused and the vehicle is stable and straight ahead. Simply, if the fusion selection distance is always adopted, collision detection is performed with low reliability information captured by only one sensor for all targets, provided that the close distance correction flag is ON. This makes it possible to control the safe side only for targets that are likely to exist. Further, since the close distance is used as a condition, the camera sensor 23 can cover a low-speed / close-range target that the radar sensor 21 is not good at.

〔動作手順〕
図9は、システムECU14の動作手順を示すフローチャート図の一例を示す。図9の手順は例えばレーダセンサ21とカメラセンサ23の電源がONになると繰り返し実行される。
[Operation procedure]
FIG. 9 shows an example of a flowchart showing the operation procedure of the system ECU 14. The procedure of FIG. 9 is repeatedly executed when the power of the radar sensor 21 and the camera sensor 23 is turned on, for example.

まず、至近距離補正判定部32は、至近距離補正フラグのON条件が成立したか否かを判定する(S210)。フュージョン信頼度とフュージョン状態は、センサフュージョン部31が算出している。距離は、カメラセンサ23とレーダセンサ21の少なくともいずれか一方の値から求めることができる。自車速は車輪速センサ26が検出している。カーブRは操舵角センサ23が検出した操舵角又はナビゲーションシステムが提供する道路情報から求める。操舵角は操舵角センサ23が検出する。   First, the close distance correction determination unit 32 determines whether or not the close distance correction flag ON condition is satisfied (S210). The sensor fusion unit 31 calculates the fusion reliability and the fusion state. The distance can be obtained from at least one value of the camera sensor 23 and the radar sensor 21. The vehicle speed is detected by the wheel speed sensor 26. The curve R is obtained from the steering angle detected by the steering angle sensor 23 or the road information provided by the navigation system. A steering angle sensor 23 detects the steering angle.

至近距離補正フラグのON条件が成立した場合(S210のYes)、至近距離補正判定部32は、至近距離補正フラグをONに設定する(S220)。   When the close distance correction flag ON condition is satisfied (Yes in S210), the close distance correction determination unit 32 sets the close distance correction flag to ON (S220).

次いで、至近距離補正判定部32は、至近距離補正フラグのOFF条件が成立したか否かを判定する(S230)。このように、常時、至近距離補正判定部32は、至近距離補正フラグをONにすべきかOFFにすべきかを判定している。   Next, the close distance correction determination unit 32 determines whether or not the close distance correction flag OFF condition is satisfied (S230). Thus, the close distance correction determination unit 32 always determines whether the close distance correction flag should be turned on or off.

至近距離補正フラグのOFF条件が成立した場合(S230のYes)、至近距離補正判定部32は、至近距離補正フラグをOFFに設定する(S240)。   When the close condition correction flag OFF condition is satisfied (Yes in S230), the close distance correction determination unit 32 sets the close distance correction flag to OFF (S240).

そして、至近距離補正フラグがONの場合(S250のYes)、補正処理部33は至近距離補正演算を行う(S260)。   If the close distance correction flag is ON (Yes in S250), the correction processing unit 33 performs a close distance correction calculation (S260).

すなわち、補正処理部33は、物標情報Cの画像距離と物標情報Lのレーダ距離のうち近い方をフュージョン選択距離に採用する。また、画像フュージョン存在確率と静止物存在確率のうち大きい方を画像存在確率に決定する。したがって、至近距離物体静止シーンのようにレーダセンサの苦手な至近距離に物標が存在する場合、より安全サイドの制御が可能になる。なお、フュージョン選択距離は、レーダ距離と画像距離の差が1m未満の場合にだけ使用してもよい。レーダ距離と画像距離の差が大きい場合は、近い方の距離も信頼性が低い場合があるためである。なお、衝突判定するため、フュージョン選択距離として距離を選択した物標情報から相対速度を取得する。   That is, the correction processing unit 33 employs the shorter of the image distance of the target information C and the radar distance of the target information L as the fusion selection distance. Also, the larger one of the image fusion existence probability and the stationary object existence probability is determined as the image existence probability. Therefore, when a target is present at a close range where the radar sensor is not good like a close-up object still scene, the safer side can be controlled. The fusion selection distance may be used only when the difference between the radar distance and the image distance is less than 1 m. This is because when the difference between the radar distance and the image distance is large, the nearer distance may be less reliable. In addition, in order to determine the collision, the relative speed is acquired from the target information whose distance is selected as the fusion selection distance.

衝突判定部36は、物標情報Fの横位置から接触するおそれがあると判定される物標の内、フュージョン選択距離と相対速度に基づきTTCを算出し、TTCが最も小さい物標について作動デバイス15の作動が必要か否かを判定する。例えばTTCが1秒になると警報ブザーに警報音を吹鳴させ、TTCが0.6秒になると自動ブレーキを作動させる。   The collision determination unit 36 calculates the TTC based on the fusion selection distance and the relative speed among the targets determined to possibly come in contact from the lateral position of the target information F, and operates the target device having the smallest TTC. It is determined whether or not 15 is necessary. For example, when the TTC reaches 1 second, the alarm buzzer sounds and when the TTC reaches 0.6 seconds, the automatic brake is activated.

また、至近距離補正フラグがONでない場合(S250のNo)、衝突判定部36は、センサフュージョン部31が出力したフュージョンされた物標情報F、又は、物標情報L若しくはCの一方に基づき衝突判定を行う。フュージョンされた物標情報Fについては物標情報Lと物標情報Cが統合されているので正確な衝突判定が可能である。また、画像フュージョン存在確率を利用すればよい。   When the close distance correction flag is not ON (No in S250), the collision determination unit 36 collides based on either the fused target information F output from the sensor fusion unit 31 or the target information L or C. Make a decision. As for the fused target information F, the target information L and the target information C are integrated, so that accurate collision determination is possible. Further, the image fusion existence probability may be used.

これに対し、フュージョンしていないため、物標情報L若しくはCの一方のみに基づく衝突判定は正確でない可能性がある。しかし、物標情報Lのみが検出されている場合でも、画像フュージョン存在確率が算出されているので、画像フュージョン存在確率が閾値以上であれば、正確な衝突判定が可能である。   On the other hand, since it is not fusion, the collision determination based on only one of the target information L or C may not be accurate. However, even when only the target information L is detected, the image fusion existence probability is calculated. Therefore, if the image fusion existence probability is equal to or higher than the threshold value, accurate collision determination is possible.

また、物標情報Cのみしか検出されない場合、静止物存在確率が閾値以上であれば、物標情報Cに基づき衝突判定される。至近距離のすれ違いシーンでは、カメラセンサ23の検出範囲外から検出範囲内に物標が進入すると考えられるが、フュージョン信頼度や操舵角により至近距離補正フラグがOFFになる。また、この場合、物標は一時的にカメラセンサ23の検出範囲内に入るだけなので静止物存在確率が閾値を超える場合は少ない。よって、至近距離でのすれ違いシーンにおいて、衝突判定部36が物標情報Cに基づき衝突判定することはほとんどない。   Further, when only the target information C is detected, if the stationary object existence probability is equal to or greater than the threshold value, the collision is determined based on the target information C. In a close distance passing scene, it is considered that the target enters the detection range from outside the detection range of the camera sensor 23, but the close distance correction flag is turned off depending on the fusion reliability and the steering angle. In this case, since the target only temporarily falls within the detection range of the camera sensor 23, the probability that the stationary object exists exceeds the threshold value is small. Therefore, in a passing scene at a close distance, the collision determination unit 36 hardly determines a collision based on the target information C.

また、至近距離補正フラグがOFFだが、レーダセンサ21とカメラセンサ23の検出範囲内からカメラセンサ23のみの検出範囲に物標が進入した場合、静止物存在確率が閾値を超えている可能性が高い。よって、カメラセンサ23のみで検出された物標に対し衝突判定することもできる。また、この場合、物標に対し過去に画像フュージョン存在確率が計算されている可能性が高いが、画像フュージョン存在確率は閾値を超えている可能性がある。よって、画像フュージョン存在確率に基づき衝突判定することもできる。   Further, when the close distance correction flag is OFF, but the target enters the detection range of only the camera sensor 23 from the detection range of the radar sensor 21 and the camera sensor 23, there is a possibility that the stationary object existence probability exceeds the threshold value. high. Therefore, it is possible to make a collision determination with respect to a target detected only by the camera sensor 23. In this case, there is a high possibility that the image fusion existence probability has been calculated in the past for the target, but the image fusion existence probability may exceed the threshold. Therefore, it is possible to make a collision determination based on the image fusion existence probability.

以上説明したように、本実施形態の物体検出装置100は、至近距離補正フラグにより安全サイドに振ることが好ましいシーンのみを特定し、レーダ距離と画像距離の近い方に基づき衝突判定できる。一律にレーダ距離と画像距離の近い方を取り出すことも、物標情報Cしか検出されていない場合に画像距離のみに基づき衝突判定することも抑制できる。   As described above, the object detection apparatus 100 according to the present embodiment can identify only a scene that is preferably shaken to the safe side by using the close distance correction flag, and can make a collision determination based on the closer radar distance and image distance. It is possible to suppress the uniform extraction of the one closer to the radar distance and the image distance, and the collision determination based only on the image distance when only the target information C is detected.

11 レーダセンサ装置
12 カメラセンサ装置
13 自車情報取得装置
14 システムECU
15 作動デバイス
21 レーダセンサ
23 カメラセンサ
100 物体検出装置
DESCRIPTION OF SYMBOLS 11 Radar sensor apparatus 12 Camera sensor apparatus 13 Own vehicle information acquisition apparatus 14 System ECU
DESCRIPTION OF SYMBOLS 15 Actuation device 21 Radar sensor 23 Camera sensor 100 Object detection apparatus

Claims (6)

物標との第一距離、及び、物標の第一横位置を含む第一物標情報を検出する第一のセンサと、
物標との第二距離、及び、物標の第二横位置を含む第二物標情報を検出し、前記第一のセンサよりも物標の検出範囲が広い第二のセンサと、
自車両情報を取得する自車両情報取得手段と、
同じ物標に対し、前記第一横位置と同程度の前記第二横位置が所定時間以上検出され、前記第一距離又は前記第二距離が閾値以下であり、かつ、自車両が直進走行しているというシーン特定条件を満たす場合、
前記第一距離と前記第二距離のうち小さい方を物標までの距離に選択するデータ選択手段と、
前記データ選択手段が選択した距離に基づき物標と衝突すると判定された場合、運転支援を行う運転支援手段と、
前記第二のセンサが検出した物標の存在確率を、同じ物標が継続して検出されるほど高くなるように算出する存在確率算出手段と、を有し、
前記シーン特定条件を満たさない場合、
前記運転支援手段は、前記存在確率算出手段が算出した前記存在確率が閾値以上であれば、前記第二物標情報に基づく物標との衝突判定結果に応じて運転支援を行う、ことを特徴とする物体検出装置。
A first sensor for detecting first target information including a first distance to the target and a first lateral position of the target;
A second distance to the target, and second target information including a second lateral position of the target, and a second sensor having a wider detection range of the target than the first sensor;
Own vehicle information acquisition means for acquiring own vehicle information;
For the same target object, the first lateral position and the second lateral position of the same degree is detected more than a predetermined time, the first distance or the second distance is below the threshold, and the vehicle is running straight If you meet the scene specific condition that
Data selection means for selecting a smaller one of the first distance and the second distance as a distance to the target;
When it is determined that the data selection means collides with the target based on the selected distance, driving assistance means for performing driving assistance;
A presence probability calculating means for calculating the presence probability of the target detected by the second sensor so as to increase as the same target is continuously detected;
If the scene specific condition is not satisfied,
The driving support means performs driving support according to a collision determination result with a target based on the second target information if the presence probability calculated by the presence probability calculation means is equal to or greater than a threshold value. An object detection device.
前記第一横位置と前記第二横位置を比較して、前記第一物標情報と前記第二物標情報が一致している可能性を表す一致確率を算出する一致確率算出手段を有し、
前記シーン特定条件が成立する場合、
前記データ選択手段は、前記存在確率と前記一致確率のうち大きい方を物標の存在判定確率として選択し、
前記運転支援手段は、前記存在判定確率が閾値以上の場合に、前記データ選択手段が選択した距離に基づく物標との衝突判定結果に応じて運転支援を行う、
ことを特徴とする請求項1に記載の物体検出装置。
Comparing probability calculating means for comparing the first horizontal position and the second horizontal position and calculating a matching probability indicating a possibility that the first target information and the second target information are matched. ,
When the scene specifying condition is satisfied,
The data selecting means selects a larger one of the existence probability and the matching probability as a target existence probability,
The driving support means performs driving support according to a collision determination result with a target based on the distance selected by the data selection means when the presence determination probability is equal to or higher than a threshold value.
The object detection apparatus according to claim 1 .
前記第一横位置と同程度の前記第二横位置が所定時間以上検出されている場合とは、現在、前記第一横位置と同程度の前記第二横位置が検出されており、かつ、
過去に所定時間以上、前記第一横位置と同程度の前記第二横位置が検出されている場合、又は、過去に所定回数以上、前記第一横位置と同程度の前記第二横位置が検出されている場合である、ことを特徴とする請求項1又は2に記載の物体検出装置。
When the second lateral position that is approximately the same as the first lateral position is detected for a predetermined time or more, the second lateral position that is approximately the same as the first lateral position is currently detected, and
Past a predetermined time, if the second lateral position comparable to the first lateral position is detected, or past a predetermined number of times or more, said second lateral position of the same level as the first lateral position The object detection apparatus according to claim 1, wherein the object detection apparatus is a case where the object is detected.
前記第一のセンサはレーダセンサであり、前記第二のセンサはカメラセンサである、
ことを特徴とする請求項1〜3いずれか1項記載の物体検出装置。
The first sensor is a radar sensor and the second sensor is a camera sensor;
Object detection apparatus according to any one of claims 1 to 3, characterized in that.
物標との第一距離、及び、物標の第一横位置を含む第一物標情報を検出する第一のセンサと、
物標との第二距離、及び、物標の第二横位置を含む第二物標情報を検出し、前記第一のセンサよりも物標の検出範囲が広い第二のセンサと、
自車両情報を取得する自車両情報取得手段と、接続された情報処理装置であって、
同じ物標に対し、前記第一横位置と同程度の前記第二横位置が所定時間以上検出され、前記第一距離又は前記第二距離が閾値以下であり、かつ、自車両が直進走行しているというシーン特定条件を満たす場合、
前記第一距離と前記第二距離のうち小さい方を物標までの距離に選択するデータ選択手段と、
前記データ選択手段が選択した距離に基づき物標と衝突すると判定された場合、運転支援を行う運転支援手段と、
前記第二のセンサが検出した物標の存在確率を、同じ物標が継続して検出されるほど高くなるように算出する存在確率算出手段と、を有し、
前記シーン特定条件を満たさない場合、
前記運転支援手段は、前記存在確率算出手段が算出した前記存在確率が閾値以上であれば、前記第二物標情報に基づく物標との衝突判定結果に応じて運転支援を行う、ことを特徴とする情報処理装置。
A first sensor for detecting first target information including a first distance to the target and a first lateral position of the target;
A second distance to the target, and second target information including a second lateral position of the target, and a second sensor having a wider detection range of the target than the first sensor;
A host vehicle information acquisition means for acquiring host vehicle information, and a connected information processing apparatus,
For the same target, the second lateral position equivalent to the first lateral position is detected for a predetermined time or more, the first distance or the second distance is equal to or less than a threshold value, and the host vehicle travels straight ahead. If you meet the scene specific condition that
Data selection means for selecting a smaller one of the first distance and the second distance as a distance to the target;
When it is determined that the data selection means collides with the target based on the selected distance, driving assistance means for performing driving assistance;
A presence probability calculating means for calculating the presence probability of the target detected by the second sensor so as to increase as the same target is continuously detected;
If the scene specific condition is not satisfied,
The driving support means performs driving support according to a collision determination result with a target based on the second target information if the presence probability calculated by the presence probability calculation means is equal to or greater than a threshold value. Information processing apparatus.
物標との第一距離、及び、物標の第一横位置を含む第一物標情報を検出する第一のセンサと、
物標との第二距離、及び、物標の第二横位置を含む第二物標情報を検出し、前記第一のセンサよりも物標の検出範囲が広い第二のセンサと、
自車両情報を取得する自車両情報取得手段と、接続された装置の物体検出方法であって、
同じ物標に対し、前記第一横位置と同程度の前記第二横位置が所定時間以上検出され、前記第一距離又は前記第二距離が閾値以下であり、かつ、自車両が直進走行しているというシーン特定条件を満たす場合、
データ選択手段が、前記第一距離と前記第二距離のうち小さい方を物標までの距離に選択するステップと、
運転支援手段が、前記データ選択手段が選択した距離に基づき物標と衝突すると判定された場合、運転支援を行うステップと、
存在確率算出手段が、前記第二のセンサが検出した物標の存在確率を、同じ物標が継続して検出されるほど高くなるように算出するステップと、を有し、
前記シーン特定条件を満たさない場合、
前記運転支援手段は、前記存在確率算出手段が算出した前記存在確率が閾値以上であれば、前記第二物標情報に基づく物標との衝突判定結果に応じて運転支援を行う、ことを特徴とする物体検出方法。
A first sensor for detecting first target information including a first distance to the target and a first lateral position of the target;
A second distance to the target, and second target information including a second lateral position of the target, and a second sensor having a wider detection range of the target than the first sensor;
A host vehicle information acquisition means for acquiring host vehicle information, and an object detection method of a connected apparatus,
For the same target, the second lateral position equivalent to the first lateral position is detected for a predetermined time or more, the first distance or the second distance is equal to or less than a threshold value, and the host vehicle travels straight ahead. If you meet the scene specific condition that
A data selecting means selecting a smaller one of the first distance and the second distance as a distance to the target;
When it is determined that the driving support means collides with the target based on the distance selected by the data selection means;
A presence probability calculating means calculating the presence probability of the target detected by the second sensor so as to increase as the same target is continuously detected;
If the scene specific condition is not satisfied,
The driving support means performs driving support according to a collision determination result with a target based on the second target information if the presence probability calculated by the presence probability calculation means is equal to or greater than a threshold value. An object detection method.
JP2012141249A 2012-06-22 2012-06-22 Object detection apparatus, information processing apparatus, and object detection method Active JP5724955B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012141249A JP5724955B2 (en) 2012-06-22 2012-06-22 Object detection apparatus, information processing apparatus, and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012141249A JP5724955B2 (en) 2012-06-22 2012-06-22 Object detection apparatus, information processing apparatus, and object detection method

Publications (2)

Publication Number Publication Date
JP2014006123A JP2014006123A (en) 2014-01-16
JP5724955B2 true JP5724955B2 (en) 2015-05-27

Family

ID=50103979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012141249A Active JP5724955B2 (en) 2012-06-22 2012-06-22 Object detection apparatus, information processing apparatus, and object detection method

Country Status (1)

Country Link
JP (1) JP5724955B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460467B2 (en) * 2016-06-10 2019-10-29 Mitsubishi Electric Corporation Object recognition processing apparatus, object recognition processing method, and autonomous driving system

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5929870B2 (en) * 2013-10-17 2016-06-08 株式会社デンソー Target detection device
RU2559828C1 (en) * 2014-03-18 2015-08-10 Федеральное государственное унитарное предприятие "Государственный научно-исследовательский институт авиационных систем" Method for short-range radar location
JP6134687B2 (en) * 2014-05-23 2017-05-24 本田技研工業株式会社 Object recognition device
KR102192256B1 (en) * 2014-07-28 2020-12-17 현대모비스 주식회사 Intergrated sensor system of the vehicles
CN106233219B (en) * 2015-03-31 2020-03-17 深圳市大疆创新科技有限公司 Mobile platform operating system and method
JP6396838B2 (en) * 2015-03-31 2018-09-26 株式会社デンソー Vehicle control apparatus and vehicle control method
JP6354646B2 (en) * 2015-04-09 2018-07-11 トヨタ自動車株式会社 Collision avoidance support device
JP6380232B2 (en) * 2015-05-19 2018-08-29 株式会社デンソー Object detection apparatus and object detection method
JP2017156219A (en) 2016-03-02 2017-09-07 沖電気工業株式会社 Tracking device, tracking method, and program
JP6493365B2 (en) 2016-05-19 2019-04-03 株式会社デンソー Vehicle control apparatus and vehicle control method
US11132611B2 (en) * 2016-05-27 2021-09-28 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method for determining presence probability of object
JP6750012B2 (en) * 2016-06-16 2020-09-02 日立オートモティブシステムズ株式会社 Vehicle position control device
EP3279830B1 (en) * 2016-08-02 2020-10-28 Veoneer Sweden AB A vision system and method for a motor vehicle
JP6855776B2 (en) * 2016-12-16 2021-04-07 株式会社デンソー Object detection device and object detection method
JP6805970B2 (en) * 2017-06-09 2020-12-23 トヨタ自動車株式会社 Target information acquisition device
JP2019079453A (en) * 2017-10-27 2019-05-23 住友電気工業株式会社 Information generation system, information generation apparatus, information generation method, and computer program
KR102334158B1 (en) * 2017-10-30 2021-12-02 현대모비스 주식회사 Autonomous emergency braking apparatus and control method thereof
JP7192229B2 (en) * 2018-03-26 2022-12-20 株式会社デンソー DETECTION APPARATUS, DETECTION METHOD, AND COMPUTER PROGRAM
JP7117566B2 (en) * 2018-03-27 2022-08-15 パナソニックIpマネジメント株式会社 Information processing system and information processing method
JP7019503B2 (en) 2018-04-25 2022-02-15 日立Astemo株式会社 Electronic control device, calculation method
JP6973302B2 (en) * 2018-06-06 2021-11-24 トヨタ自動車株式会社 Target recognition device
CN108983213B (en) * 2018-09-07 2021-01-01 百度在线网络技术(北京)有限公司 Method, device and equipment for determining static state of obstacle and storage medium
KR102524293B1 (en) * 2018-11-07 2023-04-21 현대자동차주식회사 Apparatus and method for removing misrecognition of front vehicle and vehicle including the same
JP7238422B2 (en) * 2019-01-22 2023-03-14 株式会社リコー distance measuring method, distance measuring device, in-vehicle device, moving body, distance measuring system
CN111366926B (en) * 2019-01-24 2022-05-31 杭州海康威视系统技术有限公司 Method, device, storage medium and server for tracking target
JP7397609B2 (en) * 2019-09-24 2023-12-13 株式会社Subaru Driving environment recognition device
JP7431623B2 (en) 2020-03-11 2024-02-15 株式会社Subaru Vehicle exterior environment recognition device
JP2022032109A (en) * 2020-08-11 2022-02-25 株式会社デンソー Collision determination device, collision determination method, and collision avoidance system
CN112130136B (en) * 2020-09-11 2024-04-12 中国重汽集团济南动力有限公司 Comprehensive perception system and method for traffic targets
CN116324506A (en) * 2020-09-24 2023-06-23 三菱电机株式会社 Information processing system, information processing device, program, and information processing method
CN112859008A (en) * 2021-01-19 2021-05-28 英博超算(南京)科技有限公司 Performance improving method for forward millimeter wave radar
CN112885097B (en) * 2021-02-07 2023-01-10 云控智行(上海)汽车科技有限公司 Road side fusion management method and system based on cross-point location
WO2024089780A1 (en) * 2022-10-25 2024-05-02 株式会社Subaru Control device for vehicle, and recording medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3601157B2 (en) * 1996-02-02 2004-12-15 日産自動車株式会社 Inter-vehicle distance measurement device
JP3628092B2 (en) * 1996-02-07 2005-03-09 富士通テン株式会社 Automotive control system
JP2004037239A (en) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd Identical object judging method and system, and misregistration correcting method and system
JP2006258497A (en) * 2005-03-15 2006-09-28 Omron Corp Object recognition apparatus for vehicle
JP2007024590A (en) * 2005-07-13 2007-02-01 Toyota Motor Corp Object detector
JP4823781B2 (en) * 2005-08-31 2011-11-24 本田技研工業株式会社 Vehicle travel safety device
JP4304517B2 (en) * 2005-11-09 2009-07-29 トヨタ自動車株式会社 Object detection device
JP2010249613A (en) * 2009-04-14 2010-11-04 Toyota Motor Corp Obstacle recognition device and vehicle control unit

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460467B2 (en) * 2016-06-10 2019-10-29 Mitsubishi Electric Corporation Object recognition processing apparatus, object recognition processing method, and autonomous driving system

Also Published As

Publication number Publication date
JP2014006123A (en) 2014-01-16

Similar Documents

Publication Publication Date Title
JP5724955B2 (en) Object detection apparatus, information processing apparatus, and object detection method
JP4823781B2 (en) Vehicle travel safety device
US10836388B2 (en) Vehicle control method and apparatus
US10922561B2 (en) Object recognition device and vehicle travel control system
EP1462823B1 (en) Collision prediction device, method of predicting collision, and computer product
EP2302412B1 (en) System and method for evaluation of an automotive vehicle forward collision threat
US20140044311A1 (en) Neighboring vehicle detecting apparatus
JP7119720B2 (en) Driving support device
JP4602277B2 (en) Collision determination device
CN107408346B (en) Vehicle control device and vehicle control method
US10611240B2 (en) Vehicle cruise control apparatus and cruise control method
US11348462B2 (en) Collision prediction apparatus
JP7145034B2 (en) Driving support device
US20200130683A1 (en) Collision prediction apparatus and collision prediction method
JP2018067237A (en) Sensor control device
JP6504078B2 (en) Collision prediction device
JP4747883B2 (en) Target detection apparatus and target detection method
JP7275623B2 (en) Driving support device
JP5075656B2 (en) Object detection device
JP5312493B2 (en) Automotive radar equipment
JP6927132B2 (en) Driver assistance systems and methods
US20220227362A1 (en) Control device for controlling safety device in vehicle
JP4644590B2 (en) Peripheral vehicle position detection device and peripheral vehicle position detection method
JP2019197270A (en) Object detection device and object detection method
US20220227363A1 (en) Control device for controlling safety device in vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150316

R151 Written notification of patent or utility model registration

Ref document number: 5724955

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151