JP6805970B2 - Target information acquisition device - Google Patents

Target information acquisition device Download PDF

Info

Publication number
JP6805970B2
JP6805970B2 JP2017114780A JP2017114780A JP6805970B2 JP 6805970 B2 JP6805970 B2 JP 6805970B2 JP 2017114780 A JP2017114780 A JP 2017114780A JP 2017114780 A JP2017114780 A JP 2017114780A JP 6805970 B2 JP6805970 B2 JP 6805970B2
Authority
JP
Japan
Prior art keywords
target
sensor
fusion
radar
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017114780A
Other languages
Japanese (ja)
Other versions
JP2019002691A (en
Inventor
俊介 宮田
俊介 宮田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017114780A priority Critical patent/JP6805970B2/en
Publication of JP2019002691A publication Critical patent/JP2019002691A/en
Application granted granted Critical
Publication of JP6805970B2 publication Critical patent/JP6805970B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、車両(自車両)の周辺に存在する立体物(例えば、他の車両)の幅及び長さ等の物標情報を取得する物標情報取得装置に関する。 The present invention relates to a target information acquisition device that acquires target information such as the width and length of a three-dimensional object (for example, another vehicle) existing around a vehicle (own vehicle).

従来から、車線変更を行うための操舵操作(ハンドル操作)を支援する車線変更支援装置が知られている(例えば、特許文献1を参照。)。車線変更支援装置は、車両に備えられた複数のレーダセンサ(例えば、ミリ波レーダやレーザレーダなど)によって、車両の周辺に存在する立体物(例えば、他車両)を検出し、その立体物の自車両に対する「縦位置、横位置及び相対車速」、並びに、その立体物の「幅及び長さ」等の情報(以下、「物標情報」とも称呼する。)を取得する。そして、車線変更支援装置は、取得した物標情報に基づいて、自車両が車線変更を行っても安全であるかどうかを監視し、安全であると判定した場合に車線変更支援を実行する。このような、「自車両の周辺に存在する立体物の物標情報を取得する物標情報取得装置」は、車線変更支援装置に限らず、他の運転支援装置(例えば、車両周辺監視・警報装置)にも採用される。 Conventionally, a lane change support device that supports a steering operation (steering wheel operation) for changing lanes has been known (see, for example, Patent Document 1). The lane change support device detects a three-dimensional object (for example, another vehicle) existing around the vehicle by a plurality of radar sensors (for example, millimeter-wave radar and laser radar) provided in the vehicle, and the three-dimensional object is detected. Information such as "vertical position, horizontal position and relative vehicle speed" for the own vehicle and "width and length" of the three-dimensional object (hereinafter, also referred to as "target information") is acquired. Then, the lane change support device monitors whether or not the own vehicle is safe even if the vehicle changes lanes based on the acquired target information, and executes lane change support when it is determined that the vehicle is safe. Such a "target information acquisition device for acquiring target information of a three-dimensional object existing around the own vehicle" is not limited to the lane change support device, but is not limited to other driving support devices (for example, vehicle peripheral monitoring / alarm). It is also used for equipment).

特開2009−274594号公報JP-A-2009-274594

ところで、レーダセンサは、周知であるように、放射中心軸線に対して左右に所定の角度幅をもつ範囲にレーダ波を放射し且つそのレーダ波が立体物によって反射されることにより生成される反射波を受信し、その受信した反射波に基づいて物標を認識し且つ物標情報を取得する。このため、立体物の種類及び立体物と自車両との相対位置関係等によっては、2つのレーダセンサが同一の立体物に対して複数のセンサ物標(反射点)を認識する場合がある。 By the way, as is well known, a radar sensor emits a radar wave in a range having a predetermined angular width to the left and right with respect to the radiation center axis, and the reflection generated by the radar wave being reflected by a three-dimensional object. It receives a wave, recognizes a target based on the received reflected wave, and acquires target information. Therefore, depending on the type of the three-dimensional object and the relative positional relationship between the three-dimensional object and the own vehicle, the two radar sensors may recognize a plurality of sensor targets (reflection points) for the same three-dimensional object.

そこで、物標情報取得装置は、センサ物標が複数検出されている場合、その複数のセンサ物標のうち同一の立体物を検出している可能性が高いセンサ物標同士をグルーピングすることにより、その同一の立体物を示すフュージョン物標を生成するように構成され得る。 Therefore, when a plurality of sensor targets are detected, the target information acquisition device groups the sensor targets that are likely to detect the same three-dimensional object among the plurality of sensor targets. , May be configured to produce a fusion marker indicating that same three-dimensional object.

一方、複数のレーダセンサのうちの特定の2つのレーダセンサに着目すると、その2つのレーダセンサは、それぞれの立体物の検出範囲の一部が互いに重複するように(換言すると、重複検出領域を有するように)自車両に塔載されることが多い(例えば、図4のグレーに着色された領域を参照。)。特定の2つのレーダセンサが重複検出領域を有している場合、当該重複検出領域内の任意の位置に対するそれら2つの各レーダセンサのレーダ波の放射角度は互いに相違する(例えば、図4の点Pに対する放射角度θ1及び放射角度θ2を参照。)。他方、レーダセンサは、周知であるように、レーダ波の放射角度θhが大きくなるほどセンサ物標情報(特に、横位置)の検出精度が低下してしまう特性を有する(図3を参照。)。 On the other hand, focusing on two specific radar sensors among the plurality of radar sensors, the two radar sensors have a part of the detection range of each three-dimensional object overlapped with each other (in other words, the overlap detection area is set. Often mounted on own vehicle (as it has) (see, for example, the gray colored area of FIG. 4). When two specific radar sensors have an overlap detection area, the radar wave radiation angles of each of the two radar sensors with respect to an arbitrary position in the overlap detection area are different from each other (for example, the point of FIG. 4). See radiation angle θ1 and radiation angle θ2 with respect to P). On the other hand, as is well known, the radar sensor has a characteristic that the detection accuracy of the sensor target information (particularly, the lateral position) decreases as the radiation angle θh of the radar wave increases (see FIG. 3).

従って、立体物の全体又は一部が重複検出領域内に存在する場合、その立体物に対して生成されたフュージョン物標に属する複数のセンサ物標の中に、センサ物標情報に含まれる横位置の検出精度が低いセンサ物標が含まれることがある。この結果、特に、立体物の幅(フュージョン物標の幅)を算出する際、「そのフュージョン物標に属する複数のセンサ物標のうちの何れのセンサ物標の横位置」を用いるかによって、大きな誤差が生じてしまう場合がある。 Therefore, when all or a part of the three-dimensional object exists in the overlap detection region, the lateral sensor target information included in the plurality of sensor targets belonging to the fusion target generated for the three-dimensional object is included in the sensor target information. Sensor targets with low position detection accuracy may be included. As a result, in particular, when calculating the width of the three-dimensional object (width of the fusion target), depending on which of the plurality of sensor targets belonging to the fusion target is used, the lateral position of the sensor target is used. Large errors may occur.

本発明は上述した課題に対処するためになされた。即ち、本発明の目的の一つは、複数のレーダセンサを用いて「立体物の幅を含む物標情報」をより精度良く取得することが可能な物標情報取得装置(以下、「本発明装置」とも称呼する。)を提供することにある。 The present invention has been made to address the above-mentioned problems. That is, one of the objects of the present invention is a target information acquisition device capable of more accurately acquiring "target information including the width of a three-dimensional object" by using a plurality of radar sensors (hereinafter, "the present invention". Also referred to as "equipment").

本発明装置は、複数のレーダセンサ(16FC、16FL、16FR、16RL及び16RR)を備える。
複数のレーダセンサ(16FC、16FL、16FR、16RL及び16RR)は、それぞれが、自車両(SV)の周辺の範囲であって且つ放射中心軸線(Cs)に対して左右に所定の角度幅(|α|)をもつ範囲にレーダ波を放射し、前記放射したレーダ波の立体物による反射点をセンサ物標(Bn)として検出し、前記検出したセンサ物標の前記自車両に対する縦位置(Xobj)、横位置(Yobj)及び相対速度(Vxobj,Vyobj)をセンサ物標情報として取得する。
The apparatus of the present invention includes a plurality of radar sensors (16FC, 16FL, 16FR, 16RL and 16RR).
The plurality of radar sensors (16FC, 16FL, 16FR, 16RL and 16RR) each have a predetermined angular width (|) in the range around the own vehicle (SV) and to the left and right with respect to the radiation center axis (Cs). A radar wave is radiated in a range having α |), the reflection point of the radiated radar wave by a three-dimensional object is detected as a sensor target (Bn), and the vertical position (Xobj) of the detected sensor target with respect to the own vehicle. ), Horizontal position (Yobj) and relative speed (Vxobj, Vyobj) are acquired as sensor target information.

更に、本発明装置は、
前記センサ物標が複数検出されている場合、前記複数のセンサ物標のうち同一の立体物を検出している可能性が高いセンサ物標同士をグルーピングすることにより当該同一の立体物を示すフュージョン物標(FBn)を生成するフュージョン物標生成手段(10、ステップ1120、ステップ1140、ステップ1150)と、
前記フュージョン物標の属性値の一つである当該フュージョン物標の幅(Wf)を、当該フュージョン物標を生成するようにグルーピングされた前記センサ物標の前記センサ物標情報に基づいて算出するフュージョン物標情報算出手段(10、ステップ1180)と、
を備える。
Further, the apparatus of the present invention
When a plurality of the sensor targets are detected, fusion indicating the same three-dimensional object by grouping the sensor targets that are likely to detect the same three-dimensional object among the plurality of sensor targets. Fusion target generation means (10, step 1120, step 1140, step 1150) for generating a target (FBn), and
The width (Wf) of the fusion target, which is one of the attribute values of the fusion target, is calculated based on the sensor target information of the sensor targets grouped so as to generate the fusion target. Fusion target information calculation means (10, step 1180),
To be equipped.

加えて、前記複数のレーダセンサは、
第1レーダセンサ(例えば、16RR)及び第2レーダセンサ(例えば、16RL)を含み、前記第1レーダセンサが前記センサ物標を検出可能な領域である第1領域(AR)と前記第2レーダセンサが前記センサ物標を検出可能な領域である第2領域(AL)とが重複する領域(ARL)を有するように前記自車両(SV)に搭載されている。
In addition, the plurality of radar sensors
A first region (AR) and a second radar, which include a first radar sensor (for example, 16RR) and a second radar sensor (for example, 16RL) and are regions in which the first radar sensor can detect the sensor target. The sensor is mounted on the own vehicle (SV) so as to have a region (ARL) that overlaps with a second region (AL) that is a region in which the sensor target can be detected.

ところが、一般に、重複検出領域内の任意の位置に対するそれら2つの各レーダセンサのレーダ波の放射角度は互いに相違するので、フュージョン物標を生成するようにグルーピングされたセンサ物標の中に、センサ物標情報に含まれる横位置の検出精度が高いセンサ物標と当該検出精度が低いセンサ物標とが含まれることがある。そのため、低い検出精度の横位置がフュージョン物標の幅の計算に使用されると、その計算された幅が大きな誤差を含む場合が生じる。 However, in general, the radiation angles of the radar waves of each of the two radar sensors with respect to an arbitrary position in the overlap detection region are different from each other, so that the sensors are included in the sensor targets grouped to generate fusion targets. A sensor target having a high horizontal position detection accuracy and a sensor target having a low detection accuracy included in the target information may be included. Therefore, when the horizontal position with low detection accuracy is used to calculate the width of the fusion target, the calculated width may include a large error.

そこで、前記フュージョン物標を生成するようにグルーピングされた前記センサ物標のうちの少なくとも一つが前記第1レーダセンサ(例えば、16RR)によって検出されたセンサ物標(第1センサ物標)であり、且つ、前記フュージョン物標を生成するようにグルーピングされた前記センサ物標のうちの少なくとも他の一つが前記第2レーダセンサ(例えば、16RL)によって検出されたセンサ物標(第2センサ物標)である場合、
前記フュージョン物標情報算出手段は、
前記第2センサ物標(例えば、BRL1、BRL2)が、後述の基準軸線(Qb)に対して前記第1レーダセンサ(16RR)に近い側の領域に位置しているときには、前記第2センサ物標の前記センサ物標情報を用いることなく前記第1センサ物標(例えば、BRR1、BRR2)の前記センサ物標情報に含まれる前記横位置を用いて前記フュージョン物標の幅(Wf)を算出し、
前記第1センサ物標(例えば、BRR3、BRR4)が、前記基準軸線(Qb)に対して前記第2レーダセンサ(16RL)に近い側の領域に位置しているときには、前記第1センサ物標の前記センサ物標情報を用いることなく前記第2センサ物標(例えば、BRL3、BRL4)の前記センサ物標情報に含まれる前記横位置を用いて前記フュージョン物標の幅(Wf)を算出する、
ように構成されている。
Therefore, at least one of the sensor targets grouped so as to generate the fusion target is a sensor target (first sensor target) detected by the first radar sensor (for example, 16RR). And, at least one of the sensor targets grouped so as to generate the fusion target is a sensor target (second sensor target) detected by the second radar sensor (for example, 16RL). )If it is,
The fusion target information calculation means
When the second sensor target (for example, BRL1 or BRL2) is located in a region closer to the first radar sensor (16RR) with respect to the reference axis (Qb) described later, the second sensor object. The width (Wf) of the fusion target is calculated using the horizontal position included in the sensor target information of the first sensor target (for example, BRR1 and BRR2) without using the sensor target information of the target. And
When the first sensor target (for example, BRR3, BRR4) is located in a region closer to the second radar sensor (16RL) with respect to the reference axis (Qb), the first sensor target The width (Wf) of the fusion target is calculated by using the horizontal position included in the sensor target information of the second sensor target (for example, BRL3, BRL4) without using the sensor target information of the above. ,
It is configured as follows.

第2センサ物標(例えば、BRL1、BRL2)が、基準軸線(Qb)に対して第1レーダセンサ(16RR)に近い側の領域に位置しているときには、第2レーダセンサ放射角度が第1レーダセンサ放射角度よりも大きいので、第2センサ物標のセンサ物標情報に含まれる横位置の精度よりも第1センサ物標(例えば、BRR1、BRR2)のセンサ物標情報に含まれる横位置の精度の方が高い。これに対し、第1センサ物標(例えば、BRR3、BRR4)が、基準軸線(Qb)に対して第2レーダセンサ(16RL)に近い側の領域に位置しているときには、第1レーダセンサ放射角度が第2レーダセンサ放射角度よりも大きいので、第1センサ物標のセンサ物標情報に含まれる横位置の精度よりも第2センサ物標(例えば、BRL3、BRL4)のセンサ物標情報に含まれる横位置の精度の方が高い。従って、本発明装置によれば、より精度の高い横位置に基づいてフュージョン物標の幅(Wf)が算出されるから、フュージョン物標の幅をより精度良く算出することができる。 When the second sensor target (for example, BRL1 and BRL2) is located in the region closer to the first radar sensor (16RR) with respect to the reference axis (Qb), the second radar sensor emission angle is the first. Since it is larger than the radar sensor radiation angle, the lateral position included in the sensor target information of the first sensor target (for example, BRR1 and BRR2) is more than the accuracy of the lateral position included in the sensor target information of the second sensor target. The accuracy of is higher. On the other hand, when the first sensor target (for example, BRR3, BRR4) is located in the region closer to the second radar sensor (16RL) with respect to the reference axis (Qb), the first radar sensor emits light. Since the angle is larger than the second radar sensor radiation angle, the sensor target information of the second sensor target (for example, BRL3, BRL4) is more important than the accuracy of the lateral position included in the sensor target information of the first sensor target. The accuracy of the included horizontal position is higher. Therefore, according to the apparatus of the present invention, the width (Wf) of the fusion target is calculated based on the more accurate horizontal position, so that the width of the fusion target can be calculated more accurately.

上記説明においては、本発明の理解を助けるために、後述する実施形態に対応する発明の構成に対し、その実施形態で用いた名称及び/又は符号を括弧書きで添えている。しかしながら、本発明の各構成要素は、上記名称及び/又は符号によって規定される実施形態に限定されるものではない。 In the above description, in order to help the understanding of the present invention, the names and / or symbols used in the embodiments are added in parentheses to the configurations of the invention corresponding to the embodiments described later. However, each component of the present invention is not limited to the embodiment defined by the above name and / or reference numeral.

図1は、本発明の実施形態に係る運転支援装置の概略構成図である。FIG. 1 is a schematic configuration diagram of a driving support device according to an embodiment of the present invention. 図2は、図1に示した周辺レーダセンサの配設位置を示した自車両の平面図である。FIG. 2 is a plan view of the own vehicle showing the arrangement position of the peripheral radar sensor shown in FIG. 図3は、レーダセンサの検知範囲の検知精度の分布を示した模式図である。FIG. 3 is a schematic diagram showing the distribution of detection accuracy in the detection range of the radar sensor. 図4は、2つのレーダセンサの重複検出領域及び放射角度を示した平面図である。FIG. 4 is a plan view showing the overlap detection region and the radiation angle of the two radar sensors. 図5は、車線維持制御を説明するための自車両及び道路の平面図である。FIG. 5 is a plan view of the own vehicle and the road for explaining the lane keeping control. 図6は、物標幅及び物標長さの算出方法を説明するための図である。FIG. 6 is a diagram for explaining a method of calculating the target width and the target length. 図7(A)は、フュージョン物標の物標幅及び物標長さの演算方法の参考例を説明するための平面図である。図7(B)は、本実施装置のフュージョン物標の物標幅及び物標長さの演算方法を説明するための平面図である。FIG. 7A is a plan view for explaining a reference example of a method of calculating the target width and the target length of the fusion target. FIG. 7B is a plan view for explaining a method of calculating the target width and the target length of the fusion target of the present implementation device. 図8(A)、(B)及び(C)は、センサ物標を統合するグルーピング処理を説明するための図である。8 (A), (B) and (C) are diagrams for explaining a grouping process for integrating sensor targets. 図9(A)及び(B)は、センサ物標を統合するグルーピング処理を説明するための図である。9 (A) and 9 (B) are diagrams for explaining a grouping process for integrating sensor targets. 図10は、センサ物標を統合するグルーピング処理を説明するための図である。FIG. 10 is a diagram for explaining a grouping process for integrating sensor targets. 図11は、図1に示した運転支援ECUのCPUが実行するルーチンを示したフローチャートである。FIG. 11 is a flowchart showing a routine executed by the CPU of the driving support ECU shown in FIG.

以下、本発明の実施形態に係る物標情報取得装置について図面を参照しながら説明する。この物標情報取得装置は、運転支援制御装置(車両走行制御装置)の一部である車線変更支援装置(以下、「本実施装置」とも称呼される。)に組み込まれている。 Hereinafter, the target information acquisition device according to the embodiment of the present invention will be described with reference to the drawings. This target information acquisition device is incorporated in a lane change support device (hereinafter, also referred to as "this implementation device") which is a part of a driving support control device (vehicle travel control device).

(構成)
本実施装置は、図1に示したように、車両(以下において、他の車両と区別するために、「自車両」と称呼される。)に適用され、運転支援ECU10、エンジンECU30、ブレーキECU40、ステアリングECU50、メータECU60及び表示ECU70を備えている。尚、以下において、運転支援ECU10は、単に、「DSECU」とも称呼される。
(Constitution)
As shown in FIG. 1, the present implementation device is applied to a vehicle (hereinafter, referred to as "own vehicle" to distinguish it from other vehicles), and is applied to a driving support ECU 10, an engine ECU 30, and a brake ECU 40. , Steering ECU 50, meter ECU 60 and display ECU 70. In the following, the driving support ECU 10 is also simply referred to as a “DS ECU”.

これらのECUは、マイクロコンピュータを主要部として備える電気制御装置(Electric Control Unit)であり、図示しないCAN(Controller Area Network)を介して相互に情報を送信可能及び受信可能に接続されている。本明細書において、マイクロコンピュータは、CPU、ROM、RAM、不揮発性メモリ及びインターフェースI/F等を含む。CPUはROMに格納されたインストラクション(プログラム、ルーチン)を実行することにより各種機能を実現するようになっている。これらのECUは、幾つか又は全部が一つのECUに統合されてもよい。 These ECUs are electric control units (Electric Control Units) including a microcomputer as a main part, and are connected to each other so as to be able to transmit and receive information via a CAN (Controller Area Network) (not shown). In the present specification, the microcomputer includes a CPU, ROM, RAM, non-volatile memory, interface I / F, and the like. The CPU realizes various functions by executing instructions (programs, routines) stored in ROM. Some or all of these ECUs may be integrated into one ECU.

DSECUは、以下に列挙するセンサ(スイッチを含む。)と接続されていて、それらのセンサの検出信号又は出力信号を受信するようになっている。尚、各センサは、DSECU以外のECUに接続されていてもよい。その場合、DSECUは、センサが接続されたECUからCANを介してそれらの検出信号又は出力信号を受信する。 The DSECU is connected to the sensors (including switches) listed below and is adapted to receive detection signals or output signals of those sensors. Each sensor may be connected to an ECU other than the DSECU. In that case, the DSECU receives their detection signal or output signal from the ECU to which the sensor is connected via CAN.

アクセルペダル11aの操作量を検出するアクセルペダル操作量センサ11。
ブレーキペダル12aの操作量を検出するブレーキペダル操作量センサ12。
操舵ハンドルSWの操舵角θを検出する操舵角センサ13。
操舵ハンドルSWの操作により自車両のステアリングシャフトUSに加わる操舵トルクTraを検出する操舵トルクセンサ14。
自車両の走行速度(車速)を検出し、自車両の前後方向の速度(即ち、縦速度)である車速Vを検出する車速センサ15。
周辺レーダセンサ16a及びカメラセンサ16bを含む周辺センサ16。
操作スイッチ17。
自車両SVのヨーレートYRtを検出するヨーレートセンサ18。
自車両SVの前後方向の加速度Gxを検出する前後加速度センサ19。
自車両SVの横(車幅)方向(自車両SVの中心軸線に直交する方向)の加速度Gyを検出する横加速度センサ20。
Accelerator pedal operation amount sensor 11 that detects the operation amount of the accelerator pedal 11a.
Brake pedal operation amount sensor 12 that detects the operation amount of the brake pedal 12a.
Steering angle sensor 13 that detects the steering angle θ of the steering wheel SW.
A steering torque sensor 14 that detects a steering torque Tra applied to the steering shaft US of the own vehicle by operating the steering handle SW.
A vehicle speed sensor 15 that detects the traveling speed (vehicle speed) of the own vehicle and detects the vehicle speed V, which is the speed in the front-rear direction (that is, the vertical speed) of the own vehicle.
Peripheral sensor 16 including peripheral radar sensor 16a and camera sensor 16b.
Operation switch 17.
A yaw rate sensor 18 that detects the yaw rate YRt of the own vehicle SV.
A front-rear acceleration sensor 19 that detects an acceleration Gx in the front-rear direction of the own vehicle SV.
The lateral acceleration sensor 20 that detects the acceleration Gy in the lateral (vehicle width) direction of the own vehicle SV (the direction orthogonal to the central axis of the own vehicle SV).

周辺レーダセンサ16aは、図2に示したように、中央前方周辺センサ16FC、右前方周辺センサ16FR、左前方周辺センサ16FL、右後方周辺センサ16RR、及び、左後方周辺センサ16RLを含んでいる。これらの周辺センサは実質的に同一の構成を備えていて、これらを個々に区別する必要が無い場合には「周辺レーダセンサ16a」と称呼される。 As shown in FIG. 2, the peripheral radar sensor 16a includes a central front peripheral sensor 16FC, a right front peripheral sensor 16FR, a left front peripheral sensor 16FL, a right rear peripheral sensor 16RR, and a left rear peripheral sensor 16RL. These peripheral sensors have substantially the same configuration and are referred to as "peripheral radar sensors 16a" when it is not necessary to distinguish them individually.

周辺レーダセンサ16aは、レーダ送受信部と信号処理部(図示略)とを備えている。レーダ送受信部は、図3に示したように、ミリ波帯の電波であるレーダ波(以下、「ミリ波」と称呼する。)を、放射中心軸線Csに対して左右に所定の角度幅(|α|°)をもつ範囲に放射する。更に、周辺レーダセンサ16aは、放射範囲内に存在する立体物(例えば、他車両、歩行者、自転車及び建造物等)によって反射されたミリ波(即ち、反射波)を受信する。ミリ波を反射する立体物の点は「反射点」とも称呼される。 The peripheral radar sensor 16a includes a radar transmission / reception unit and a signal processing unit (not shown). As shown in FIG. 3, the radar transmission / reception unit transmits radar waves (hereinafter, referred to as “millimeter waves”), which are radio waves in the millimeter wave band, to the left and right with respect to the radiation center axis Cs. It radiates in the range with | α | °). Further, the peripheral radar sensor 16a receives millimeter waves (that is, reflected waves) reflected by three-dimensional objects (for example, other vehicles, pedestrians, bicycles, buildings, etc.) existing in the radiation range. A point of a three-dimensional object that reflects millimeter waves is also called a "reflection point".

信号処理部は、送信したミリ波と受信した反射波との位相差、それらの周波数差、及び、反射波の減衰レベル及びミリ波を送信してから反射波を受信するまでの時間等に基づいて、自車両SVと立体物の反射点との距離、自車両SVと立体物の反射点との相対速度、及び、自車両SVに対する立体物の反射点の方位、を検出する。この立体物の反射点は物標と見做され、且つ、「センサ物標」と称呼される。 The signal processing unit is based on the phase difference between the transmitted millimeter wave and the received reflected wave, their frequency difference, the attenuation level of the reflected wave, the time from the transmission of the millimeter wave to the reception of the reflected wave, and the like. The distance between the own vehicle SV and the reflection point of the three-dimensional object, the relative speed between the own vehicle SV and the reflection point of the three-dimensional object, and the orientation of the reflection point of the three-dimensional object with respect to the own vehicle SV are detected. The reflection point of this three-dimensional object is regarded as a target and is also called a "sensor target".

中央前方周辺センサ16FCは、車体のフロント中央部に設けられ、自車両SVの前方領域に存在するセンサ物標を検出する。
右前方周辺センサ16FRは、車体の右前コーナー部に設けられ、主に自車両SVの右前方領域に存在するセンサ物標を検出する。右前方周辺センサ16FRのセンサ物標検出領域の一部は、中央前方周辺センサ16FCのセンサ物標検出領域の一部と重複している。即ち、右前方周辺センサ16FR及び中央前方周辺センサ16FCは、重複検出領域を有している。
左前方周辺センサ16FLは、車体の左前コーナー部に設けられ、主に自車両SVの左前方領域に存在するセンサ物標を検出する。左前方周辺センサ16FLのセンサ物標検出領域の一部は、中央前方周辺センサ16FCのセンサ物標検出領域の一部と重複している。即ち、左前方周辺センサ16FL及び中央前方周辺センサ16FCは、重複検出領域を有している。
右後方周辺センサ16RRは、車体の右後コーナー部に設けられ、図4に示したように、主に自車両SVの右後方領域ARに存在するセンサ物標を検出する。
左後方周辺センサ16RLは、車体の左後コーナー部に設けられ、図4に示したように、主に自車両SVの左後方領域ALに存在するセンサ物標を検出する。
左後方周辺センサ16RLのセンサ物標検出領域の一部は、右後方周辺センサ16RRのセンサ物標検出領域の一部と重複している。即ち、左前方周辺センサ16FL及び右後方周辺センサ16RRは、重複検出領域(図4のグレーに着色した領域ARL)を有している。
例えば、周辺レーダセンサ16aは、自車両SVからの距離が100メートル程度の範囲に入るセンサ物標を検出する。尚、周辺レーダセンサ16aはミリ波帯以外の周波数帯の電波(レーダ波)を用いるレーダセンサであってもよい。
The center front peripheral sensor 16FC is provided in the front center portion of the vehicle body and detects a sensor target existing in the front region of the own vehicle SV.
The right front peripheral sensor 16FR is provided at the right front corner of the vehicle body, and mainly detects a sensor target existing in the right front region of the own vehicle SV. A part of the sensor target detection area of the right front peripheral sensor 16FR overlaps with a part of the sensor target detection area of the central front peripheral sensor 16FC. That is, the right front peripheral sensor 16FR and the central front peripheral sensor 16FC have an overlap detection region.
The left front peripheral sensor 16FL is provided at the left front corner of the vehicle body, and mainly detects a sensor target existing in the left front region of the own vehicle SV. A part of the sensor target detection area of the left front peripheral sensor 16FL overlaps with a part of the sensor target detection area of the central front peripheral sensor 16FC. That is, the left front peripheral sensor 16FL and the central front peripheral sensor 16FC have an overlap detection region.
The right rear peripheral sensor 16RR is provided at the right rear corner of the vehicle body, and as shown in FIG. 4, mainly detects a sensor target existing in the right rear region AR of the own vehicle SV.
The left rear peripheral sensor 16RL is provided at the left rear corner of the vehicle body, and as shown in FIG. 4, mainly detects a sensor target existing in the left rear region AL of the own vehicle SV.
A part of the sensor target detection area of the left rear peripheral sensor 16RL overlaps with a part of the sensor target detection area of the right rear peripheral sensor 16RR. That is, the left front peripheral sensor 16FL and the right rear peripheral sensor 16RR have an overlap detection region (region ARL colored in gray in FIG. 4).
For example, the peripheral radar sensor 16a detects a sensor target whose distance from the own vehicle SV is within a range of about 100 meters. The peripheral radar sensor 16a may be a radar sensor that uses radio waves (radar waves) in a frequency band other than the millimeter wave band.

DSECUは、図2に示したように、X−Y座標を規定している。X軸は、自車両SVの前後方向に沿って自車両SVの前端部の幅方向中心位置を通るように伸び、前方を正の値として有する座標軸である。Y軸は、X軸と直交し、自車両SVの左方向を正の値として有する座標軸である。X軸の原点及びY軸の原点は、自車両SVの前端部の幅方向中心位置である。 As shown in FIG. 2, the DSECU defines the XY coordinates. The X-axis is a coordinate axis that extends along the front-rear direction of the own vehicle SV so as to pass through the center position in the width direction of the front end portion of the own vehicle SV and has the front as a positive value. The Y-axis is a coordinate axis that is orthogonal to the X-axis and has a positive value in the left direction of the own vehicle SV. The origin of the X-axis and the origin of the Y-axis are the center positions in the width direction of the front end portion of the own vehicle SV.

周辺レーダセンサ16aは、上述した反射点情報に基づいて、以下に述べる「センサ物標についての情報」をDSECUに所定時間(演算周期)が経過する毎に送信する。センサ物標についての情報は、以下、「センサ物標情報」と称呼される。 Based on the above-mentioned reflection point information, the peripheral radar sensor 16a transmits the following "information about the sensor target" to the DSPE every time a predetermined time (calculation cycle) elapses. The information about the sensor target is hereinafter referred to as "sensor target information".

・センサ物標のX座標位置(Xobj)。即ち、自車両SVとセンサ物標とのX軸方向の符号付き距離。X座標位置Xobjは、縦距離Xobj又は縦位置Xobjとも称呼される。
・センサ物標のY座標位置(Yobj)。即ち、自車両SVとセンサ物標とのY軸方向の符号付き距離。Y座標位置Yobjは、横位置Yobjとも称呼される。
・センサ物標の自車両SVに対するX軸方向の速度(即ち、縦相対速度)Vxobj。尚、縦絶対速度Vaxobjは、縦相対速度Vxobjに自車両SVの車速Vが加えられた値である。
・センサ物標の自車両SVに対するY軸方向の速度(即ち、横相対速度)Vyobj。尚、横絶対速度Vayobjは、横相対速度Vyobjと等しい値に設定される。
・センサ物標を識別(特定)するためのセンサ物標識別情報(センサ物標ID)
-X coordinate position (Xobj) of the sensor target. That is, the signed distance between the own vehicle SV and the sensor target in the X-axis direction. The X coordinate position Xobj is also referred to as a vertical distance Xobj or a vertical position Xobj.
-Y coordinate position (Yobj) of the sensor target. That is, the signed distance between the own vehicle SV and the sensor target in the Y-axis direction. The Y coordinate position Yobj is also referred to as a horizontal position Yobj.
-Velocity (that is, vertical relative velocity) Vxobj in the X-axis direction with respect to the own vehicle SV of the sensor target. The vertical absolute speed Vaxobj is a value obtained by adding the vehicle speed V of the own vehicle SV to the vertical relative speed Vxobj.
-Velocity in the Y-axis direction (that is, lateral relative velocity) Vyobj of the sensor target with respect to the own vehicle SV. The lateral absolute velocity Vyobj is set to a value equal to the lateral relative velocity Vyobj.
-Information for each sensor target (sensor target ID) for identifying (identifying) the sensor target

ところで、一つの立体物が二以上の反射点を有する場合がある。従って、周辺レーダセンサ16aのそれぞれは、一つの立体物に対して、複数のセンサ物標を検出する場合がある。更に、二以上の周辺レーダセンサ16aが、一つの立体物に対して複数のセンサ物標を検出する場合がある。 By the way, one three-dimensional object may have two or more reflection points. Therefore, each of the peripheral radar sensors 16a may detect a plurality of sensor targets for one three-dimensional object. Further, two or more peripheral radar sensors 16a may detect a plurality of sensor targets for one three-dimensional object.

そこで、DSECUは、一つの立体物を検出している可能性が高い複数のセンサ物標をグルーピング(統合、フュージョン)することにより、複数のセンサ物標が示す一つの物標(以下、「フュージョン物標」と称呼される。)を認識する。 Therefore, the DSECU groups (integrates, fuses) a plurality of sensor targets that are likely to detect one three-dimensional object, thereby indicating one target indicated by the plurality of sensor targets (hereinafter, "fusion"). It is called a "target").

更に、DSECUは、その「フュージョン物標の属性値(属性値についての情報)」を後述するように取得する。フュージョン物標の属性値についての情報は「フュージョン物標情報又はフュージョン物標属性値」と称呼され、以下に述べる情報を含む。 Further, the DSECU acquires the "attribute value (information about the attribute value) of the fusion target" as described later. The information about the attribute value of the fusion target is referred to as "fusion target information or fusion target attribute value" and includes the information described below.

・フュージョン物標のX座標位置(Xf)。即ち、自車両SVとフュージョン物標とのX軸方向の符号付き距離。本例において、X座標位置Xfは、フュージョン物標の中心点のX座標位置である。
・フュージョン物標のY座標位置(Yf)。即ち、自車両SVとフュージョン物標とのY軸方向の符号付き距離。本例において、Y座標位置Yfは、フュージョン物標の中心点のY座標位置である。
・フュージョン物標の自車両SVに対するX軸方向の速度(即ち、縦相対速度)Vxf。
・フュージョン物標の自車両SVに対するY軸方向の速度(即ち、横相対速度)Vyf。
・フュージョン物標の長さLf(フュージョン物標のX軸方向の長さ)。
・フュージョン物標の幅Wf(フュージョン物標のY軸方向の長さ)。
・フュージョン物標を識別(特定)するためのフュージョン物標識別情報(フュージョン物標ID)。
-X coordinate position (Xf) of the fusion target. That is, the signed distance between the own vehicle SV and the fusion target in the X-axis direction. In this example, the X coordinate position Xf is the X coordinate position of the center point of the fusion target.
-Y coordinate position (Yf) of the fusion target. That is, the signed distance between the own vehicle SV and the fusion target in the Y-axis direction. In this example, the Y coordinate position Yf is the Y coordinate position of the center point of the fusion target.
-Velocity (that is, vertical relative velocity) Vxf in the X-axis direction with respect to the own vehicle SV of the fusion target.
-Velocity (that is, lateral relative velocity) Vyf in the Y-axis direction with respect to the own vehicle SV of the fusion target.
-Length of fusion target Lf (length of fusion target in the X-axis direction).
-Width of fusion target Wf (length of fusion target in the Y-axis direction).
-Information for each fusion target (fusion target ID) for identifying (identifying) the fusion target.

カメラセンサ16bは、ステレオカメラであるカメラ部、及び、カメラ部によって撮影して得られた画像データを解析して道路の白線を認識するレーン認識部を備えている。カメラセンサ16b(カメラ部)は、自車両SVの前方の風景を撮影する。カメラセンサ16b(レーン認識部)は、所定の角度範囲(自車両SV前方に広がる範囲)を有する画像処理領域の画像データを解析して、自車両SVの前方の道路に形成された白線(区画線)を認識(検出)する。カメラセンサ16bは、認識した白線に関する情報をDSECUに送信する。 The camera sensor 16b includes a camera unit that is a stereo camera, and a lane recognition unit that analyzes image data obtained by photographing by the camera unit and recognizes a white line on a road. The camera sensor 16b (camera unit) captures the scenery in front of the own vehicle SV. The camera sensor 16b (lane recognition unit) analyzes the image data of the image processing area having a predetermined angle range (range extending in front of the own vehicle SV), and a white line (section) formed on the road in front of the own vehicle SV. Line) is recognized (detected). The camera sensor 16b transmits information about the recognized white line to the DSP.

DSECUは、カメラセンサ16bから供給された情報に基づいて、図5に示したように、自車両SVの走行している車線(以下、「自車線」とも称呼する。)における左右の白線WLの幅方向の中心位置となる車線中心ラインCLを特定する。この車線中心ラインCLは、後述する車線維持支援制御における目標走行ラインとして利用される。更に、DSECUは、車線中心ラインCLのカーブの曲率Cuを演算する。 Based on the information supplied from the camera sensor 16b, the DSECU has left and right white lines WL in the lane in which the own vehicle SV is traveling (hereinafter, also referred to as “own lane”), as shown in FIG. The lane center line CL, which is the center position in the width direction, is specified. This lane center line CL is used as a target traveling line in lane keeping support control described later. Further, the DESCU calculates the curvature Cu of the curve of the lane center line CL.

加えて、DSECUは、左白線及び右白線で区画される車線における自車両SVの位置及び向きを演算する。例えば、DSECUは、図5に示したように、自車両SVの基準点P(例えば、重心位置)と車線中心ラインCLとの道路幅方向の符号付き距離Dyを演算する。符号付き距離Dyの大きさは、自車両SVが車線中心ラインCLに対して道路幅方向に偏移している距離を示す。この符号付き距離Dyは以下において「横偏差Dy」とも称呼される。 In addition, the DESCU calculates the position and orientation of the own vehicle SV in the lane partitioned by the left white line and the right white line. For example, as shown in FIG. 5, the DESCU calculates the signed distance Dy in the road width direction between the reference point P (for example, the position of the center of gravity) of the own vehicle SV and the lane center line CL. The magnitude of the signed distance Dy indicates the distance at which the own vehicle SV deviates from the lane center line CL in the road width direction. This signed distance Dy is also referred to hereinafter as "lateral deviation Dy".

DSECUは、車線中心ラインCLの方向と自車両SVの向いている方向(自車両SVの前後軸の方向)とのなす角度θyを演算する。この角度θyは以下において「ヨー角θy」とも称呼される。ヨー角θyは、自車両SVの向いている方向が車線中心ラインCLの方向に対して右回り側であるとき正の値となり、自車両SVの向いている方向が車線中心ラインCLの方向に対して左回り側であるとき負の値となるように定義されている。以下、曲率Cu、横偏差Dy、及び、ヨー角θyを表す情報(Cu、Dy、θy)は「車線関連車両情報」と称呼される場合がある。 The DESCU calculates the angle θy formed by the direction of the lane center line CL and the direction in which the own vehicle SV is facing (the direction of the front-rear axis of the own vehicle SV). This angle θy is also referred to hereinafter as “yaw angle θy”. The yaw angle θy becomes a positive value when the direction in which the own vehicle SV is facing is clockwise with respect to the direction of the lane center line CL, and the direction in which the own vehicle SV is facing is in the direction of the lane center line CL. On the other hand, it is defined to have a negative value when it is on the counterclockwise side. Hereinafter, the information (Cu, Dy, θy) representing the curvature Cu, the lateral deviation Dy, and the yaw angle θy may be referred to as “lane-related vehicle information”.

カメラセンサ16bは、自車線の左白線及び右白線の種類(例えば、実線であるか破線であるか等)及び白線の形状等についての情報をDSECUに供給する。更に、カメラセンサ16bは、自車線に隣接する車線の左白線及び右白線の種類及び白線の形状等についてもDSECUに供給する。即ち、カメラセンサ16bは、「白線に関する情報」についてもDSECUに供給する。白線が実線である場合、車両がその白線を跨いで車線変更することは禁止されている。一方、白線が破線(一定の間隔で断続的に形成されている白線)の場合、車両がその白線を跨いで車線変更することは許可されている。車線関連車両情報(Cu、Dy、θy)、及び、白線に関する情報は、「車線情報」と称呼される場合がある。 The camera sensor 16b supplies the DSECU with information about the types of the left white line and the right white line of the own lane (for example, whether they are solid lines or broken lines) and the shape of the white lines. Further, the camera sensor 16b also supplies the DSECU with the types of the left white line and the right white line of the lane adjacent to the own lane, the shape of the white line, and the like. That is, the camera sensor 16b also supplies "information about the white line" to the DSECU. If the white line is a solid line, vehicles are prohibited from changing lanes across the white line. On the other hand, if the white line is a broken line (white line formed intermittently at regular intervals), the vehicle is allowed to change lanes across the white line. Lane-related vehicle information (Cu, Dy, θy) and information on white lines may be referred to as "lane information".

操作スイッチ17は、何れも後述する「車線変更支援制御、車線維持制御、及び、追従車間距離制御」のそれぞれを実行するか否かについての選択を行うために運転者により操作される操作器である。従って、操作スイッチ17は、運転者の操作に応じて、上記の各制御の実行が選択されたか否かを示す信号を出力する。 The operation switch 17 is an operator operated by the driver to select whether or not to execute each of the "lane change support control, lane keeping control, and follow-up inter-vehicle distance control" described later. is there. Therefore, the operation switch 17 outputs a signal indicating whether or not the execution of each of the above controls is selected according to the operation of the driver.

エンジンECU30は、エンジンアクチュエータ31と接続されている。エンジンアクチュエータ31は、内燃機関の吸入空気量を調整するためのスロットル弁の開度を変更するスロットル弁アクチュエータを含む。エンジンECU30は、エンジンアクチュエータ31を駆動することによって、内燃機関32が発生するトルクを変更することにより、自車両SVの駆動力を制御し加速状態(加速度)を変更することができる。 The engine ECU 30 is connected to the engine actuator 31. The engine actuator 31 includes a throttle valve actuator that changes the opening degree of the throttle valve for adjusting the intake air amount of the internal combustion engine. The engine ECU 30 can control the driving force of the own vehicle SV and change the acceleration state (acceleration) by changing the torque generated by the internal combustion engine 32 by driving the engine actuator 31.

ブレーキECU40は、ブレーキアクチュエータ41に接続されている。ブレーキアクチュエータ41は、ブレーキECU40からの指示に応じて摩擦ブレーキ機構42のブレーキキャリパ42bに内蔵されたホイールシリンダに供給する油圧を調整し、その油圧によりブレーキパッドをブレーキディスク42aに押し付けて摩擦制動力を発生させる。従って、ブレーキECU40は、ブレーキアクチュエータ41を制御することによって、自車両SVの制動力を制御し加速状態(減速度)を変更することができる。 The brake ECU 40 is connected to the brake actuator 41. The brake actuator 41 adjusts the hydraulic pressure supplied to the wheel cylinder built in the brake caliper 42b of the friction brake mechanism 42 in response to an instruction from the brake ECU 40, and the brake pad is pressed against the brake disc 42a by the hydraulic pressure to cause friction braking force. To generate. Therefore, the brake ECU 40 can control the braking force of the own vehicle SV and change the acceleration state (deceleration) by controlling the brake actuator 41.

ステアリングECU50は、周知の電動パワーステアリングシステムの制御装置であって、モータドライバ51に接続されている。モータドライバ51は、転舵用モータ52に接続されている。転舵用モータ52は、車両の「操舵ハンドル、操舵ハンドルに連結されたステアリングシャフト及び操舵用ギア機構等を含むステアリング機構」に組み込まれている。転舵用モータ52は、モータドライバ51から供給される電力によってトルクを発生し、このトルクによって操舵アシストトルクを加えたり、左右の操舵輪を転舵したりすることができる。即ち、転舵用モータ52は、自車両SVの舵角(転舵輪の転舵角度)を変更することができる。 The steering ECU 50 is a well-known control device for an electric power steering system, and is connected to a motor driver 51. The motor driver 51 is connected to the steering motor 52. The steering motor 52 is incorporated in the "steering mechanism including the steering wheel, the steering shaft connected to the steering handle, the steering gear mechanism, and the like" of the vehicle. The steering motor 52 generates torque by the electric power supplied from the motor driver 51, and the steering assist torque can be applied or the left and right steering wheels can be steered by this torque. That is, the steering motor 52 can change the steering angle (steering angle of the steering wheel) of the own vehicle SV.

ステアリングECU50は、ウインカーレバースイッチ53と接続されている。ウインカーレバースイッチ53は、ターンシグナルランプ61を作動(点滅)させるために運転者によって操作されるウインカーレバーの操作位置を検出する検出スイッチである。 The steering ECU 50 is connected to the turn signal lever switch 53. The blinker lever switch 53 is a detection switch that detects an operating position of the blinker lever operated by the driver to operate (blink) the turn signal lamp 61.

ウインカーレバーはステアリングコラムに設けられている。ウインカーレバーは、初期位置から右回り操作方向に所定角度回転された第1段階位置と、第1段階位置よりも更に所定回転角度だけ右回り操作方向に回転された第2段階位置と、の2つの位置に操作できるようになっている。ウインカーレバーは、右回り操作方向の第1段階位置に運転者によって維持されている限りその位置を維持するが、運転者がウインカーレバーから手を離すと初期位置に自動的に戻るようになっている。ウインカーレバースイッチ53は、ウインカーレバーが右回り操作方向の第1段階位置にあるとき、ウインカーレバーが右回り操作方向の第1段階位置に維持されていることを示す信号をステアリングECU50に出力する。 The blinker lever is provided on the steering column. The winker lever has two positions: a first stage position that is rotated by a predetermined angle in the clockwise operation direction from the initial position, and a second stage position that is rotated in a clockwise operation direction by a predetermined rotation angle from the first stage position. It can be operated in one position. The turn signal lever maintains that position as long as it is maintained in the first stage position in the clockwise operation direction by the driver, but when the driver releases the turn signal lever, it automatically returns to the initial position. There is. The blinker lever switch 53 outputs a signal to the steering ECU 50 indicating that the blinker lever is maintained in the first stage position in the clockwise operation direction when the blinker lever is in the first stage position in the clockwise operation direction.

同様に、ウインカーレバーは、初期位置から左回り操作方向に所定角度回転された第1段階位置と、第1段階位置よりも更に所定回転角度だけ左回り操作方向に回転された第2段階位置と、の2つの位置に操作できるようになっている。ウインカーレバーは、左回り操作方向の第1段階位置に運転者によって維持されている限りその位置を維持するが、運転者がウインカーレバーから手を離すと初期位置に自動的に戻るようになっている。ウインカーレバースイッチ53は、ウインカーレバーが左回り操作方向の第1段階位置にあるとき、ウインカーレバーが左回り操作方向の第1段階位置に維持されていることを示す信号をステアリングECU50に出力する。尚、このようなウインカーレバーについては、例えば、特開2005−138647号公報に開示されている。 Similarly, the winker lever has a first stage position rotated counterclockwise from the initial position by a predetermined angle and a second stage position rotated counterclockwise by a predetermined rotation angle from the first stage position. It can be operated in two positions,, and. The blinker lever maintains its position as long as it is maintained in the first stage position in the counterclockwise operation direction by the driver, but when the driver releases the blinker lever, it automatically returns to the initial position. There is. The blinker lever switch 53 outputs a signal to the steering ECU 50 indicating that the blinker lever is maintained in the first stage position in the counterclockwise operation direction when the blinker lever is in the first stage position in the counterclockwise operation direction. It should be noted that such a blinker lever is disclosed in, for example, Japanese Patent Application Laid-Open No. 2005-138647.

DSECUは、ウインカーレバースイッチ53からの信号に基づいて、ウインカーレバーが右回り操作方向の第1段階位置に保持されている継続時間を計測するようになっている。更に、DSECUは、その計測した継続時間が予め設定した支援要求確定時間(例えば、0.8秒)以上であると判定したとき、運転者が右側車線への車線変更を行うために車線変更支援を受けたいという要求(以下、「車線変更支援要求」とも称呼される。)を発していると判定するようになっている。 Based on the signal from the blinker lever switch 53, the DSECU measures the duration of the blinker lever held in the first stage position in the clockwise operation direction. Further, when the DSPE determines that the measured duration is equal to or longer than the preset support request confirmation time (for example, 0.8 seconds), the lane change support is provided for the driver to change lanes to the right lane. It is determined that a request to receive the request (hereinafter, also referred to as a "lane change support request") has been issued.

更に、DSECUは、ウインカーレバースイッチ53からの信号に基づいて、ウインカーレバーが左回り操作方向の第1段階位置に保持されている継続時間を計測するようになっている。更に、DSECUは、その計測した継続時間が予め設定した支援要求確定時間以上であると判定したとき、運転者が左側車線への車線変更を行うために車線変更支援要求を発していると判定するようになっている。 Further, the DSECU measures the duration of the blinker lever held in the first stage position in the counterclockwise operation direction based on the signal from the blinker lever switch 53. Further, when the DSPE determines that the measured duration is equal to or longer than the preset support request confirmation time, it determines that the driver has issued a lane change support request in order to change the lane to the left lane. It has become like.

メータECU60は、左右のターンシグナルランプ61(ウインカーランプ)及び情報ディスプレイ62と接続されている。 The meter ECU 60 is connected to the left and right turn signal lamps 61 (turn signal lamps) and the information display 62.

メータECU60は、図示しないウインカー駆動回路を介して、ウインカーレバースイッチ53からの信号及びDSECUからの指示等に応じて左又は右のターンシグナルランプ61を点滅させるようになっている。例えば、メータECU60は、ウインカーレバーが左回り操作方向の第1段階位置に維持されていることを示す信号をウインカーレバースイッチ53が出力しているとき、左のターンシグナルランプ61を点滅させる。更に、メータECU60は、ウインカーレバーが右回り操作方向の第1段階位置に維持されていることを示す信号をウインカーレバースイッチ53が出力しているとき、右のターンシグナルランプ61を点滅させる。 The meter ECU 60 blinks the left or right turn signal lamp 61 in response to a signal from the blinker lever switch 53, an instruction from the DSECU, or the like via a blinker drive circuit (not shown). For example, the meter ECU 60 blinks the left turn signal lamp 61 when the blinker lever switch 53 outputs a signal indicating that the blinker lever is maintained at the first stage position in the counterclockwise operation direction. Further, the meter ECU 60 blinks the right turn signal lamp 61 when the blinker lever switch 53 outputs a signal indicating that the blinker lever is maintained at the first stage position in the clockwise operation direction.

情報ディスプレイ62は、運転席の正面に設けられたマルチインフォメーションディスプレイである。情報ディスプレイ62は、車速及びエンジン回転速度等の計測値に加えて、各種の情報を表示する。例えば、メータECU60は、DSECUからの運転支援状態に応じた表示指令を受信すると、その表示指令により指定された画面を情報ディスプレイ62に表示させる。 The information display 62 is a multi-information display provided in front of the driver's seat. The information display 62 displays various information in addition to measured values such as vehicle speed and engine speed. For example, when the meter ECU 60 receives a display command from the DSECU according to the driving support state, the meter ECU 60 displays the screen designated by the display command on the information display 62.

表示ECU70は、ブザー71及び表示器72に接続されている。表示ECU70は、DSECUからの指示に応じ、ブザー71を鳴動させたり、表示器72に注意画面を表示させたりすることによって、運転者への注意喚起を行うことができる。 The display ECU 70 is connected to the buzzer 71 and the display 72. The display ECU 70 can alert the driver by sounding the buzzer 71 or displaying a caution screen on the display 72 in response to an instruction from the DSECU.

(基本的な運転支援制御の概要)
DSECUは、追従車間距離制御、車線維持制御及び車線変更支援制御を実行するようになっている。車線維持制御は、追従車間距離制御が実行されている場合に限り実行される。車線変更支援制御は、車線維持制御が実行されている場合に限り実行される。
(Overview of basic driving support control)
The DSECU is designed to execute follow-up inter-vehicle distance control, lane keeping control, and lane change support control. The lane keeping control is executed only when the following inter-vehicle distance control is executed. The lane change support control is executed only when the lane keeping control is executed.

追従車間距離制御は、自車両SVの直前を走行している先行車(即ち、追従対象車両)と自車両SVとの車間距離を所定の距離に維持しながら、自車両SVを先行車に追従させる制御である(例えば、特開2014−148293号公報、特開2006−315491号公報、特許第4172434号明細書、及び、特許第4929777号明細書等を参照。)。 The following vehicle-to-vehicle distance control follows the own vehicle SV while maintaining the distance between the preceding vehicle (that is, the vehicle to be followed) and the own vehicle SV traveling in front of the own vehicle SV at a predetermined distance. (For example, see Japanese Patent Application Laid-Open No. 2014-148293, Japanese Patent Application Laid-Open No. 2006-315491, Japanese Patent No. 4172434, Japanese Patent No. 4929777, and the like).

車線維持制御は、自車両SVの位置が「自車両SVが走行しているレーン(自車線)」内の目標走行ライン(例えば、自車線の中央ライン)付近に維持されるように、操舵トルクをステアリング機構に付与して自車両SVの舵角を変更し、以て、運転者の操舵操作を支援する制御である(例えば、特開2008−195402号公報、特開2009−190464号公報、特開2010−6279号公報、及び、特許第4349210号明細書、等を参照。)。 The lane keeping control is the steering torque so that the position of the own vehicle SV is maintained near the target driving line (for example, the center line of the own lane) in the "lane (own lane) in which the own vehicle SV is traveling". Is applied to the steering mechanism to change the steering angle of the own vehicle SV, thereby supporting the steering operation of the driver (for example, JP-A-2008-195402, JP-A-2009-190464, Japanese Patent Application Laid-Open No. 2010-6279, Japanese Patent No. 4349210, etc.).

車線変更支援制御は、自車両SVが、自車線(元車線)から「運転者が希望する、元車線に隣接する車線(目標隣接車線)」に移動するように、操舵トルクをステアリング機構に付与することにより自車両SVの舵角を変更し、以て、運転者の操舵操作(車線変更のためのハンドル操作)を支援する制御である(例えば、特開2016−207060号公報、及び、特開2017−74823号公報、等を参照。)。 The lane change support control applies steering torque to the steering mechanism so that the own vehicle SV moves from the own lane (former lane) to the "lane adjacent to the original lane (target adjacent lane) desired by the driver". By doing so, the steering angle of the own vehicle SV is changed, thereby supporting the driver's steering operation (steering operation for changing lanes) (for example, Japanese Patent Application Laid-Open No. 2016-207060 and Japanese Patent Application Laid-Open No. 2016-207060). See Kai 2017-74823, et al.).

<作動の概要>
ところで、DSECUは、車線変更支援制御を実行する際、自車両SVが安全に車線変更を行うことができるか否かを判定するため、自車両SVの周囲に存在する立体物の位置、相対速度及び大きさ(長さ、幅)等についての立体物情報を取得する必要がある。DSECUは、この立体物を前述した「フュージョン物標」を生成することによって認識し、且つ、前述した「フュージョン物標情報(例えば、フュージョン物標の「長さ、幅、座標位置及び相対速度」)」を立体物情報として取得する。以下、フュージョン物標情報を取得する際の本実施装置の作動の概要について説明する。尚、フュージョン物標の生成・更新方法については後述する。
<Outline of operation>
By the way, when executing the lane change support control, the DSECU determines whether or not the own vehicle SV can safely change lanes, so that the position and relative speed of the three-dimensional object existing around the own vehicle SV And it is necessary to acquire three-dimensional object information about the size (length, width) and the like. The DESCU recognizes this three-dimensional object by generating the above-mentioned "fusion target", and the above-mentioned "fusion target information (for example," length, width, coordinate position and relative velocity "of the fusion target". ) ”Is acquired as three-dimensional object information. The outline of the operation of the present implementation device when acquiring the fusion target information will be described below. The method of generating / updating the fusion target will be described later.

DSECUは、所定の演算周期(Δt)が経過する毎に、周辺レーダセンサ16aが検知したセンサ物標を後述するグルーピング処理によってグルーピング(統合)してフュージョン物標を生成又は更新する。更に、DSECUは、生成又は更新されたフュージョン物標のフュージョン物標情報を、そのフュージョン物標に属するセンサ物標(即ち、フュージョン物標を生成するようにグルーピングされたセンサ物標)のセンサ物標情報に基づいて生成する。 Every time a predetermined calculation cycle (Δt) elapses, the DSPE groups (integrates) the sensor targets detected by the peripheral radar sensor 16a by a grouping process described later to generate or update the fusion target. Further, the DSPE uses the fusion target information of the generated or updated fusion target as the sensor object of the sensor target belonging to the fusion target (that is, the sensor target grouped so as to generate the fusion target). Generate based on the target information.

ところが、総てのセンサ物標が正確なセンサ物標情報を有しているとは限らない。即ち、センサ物標が周辺レーダセンサ16aによって誤検出された物標(所謂、ゴースト物標)である場合、及び、センサ物標情報がノイズの影響によって誤った情報になっている場合、等において、センサ物標情報の精度が低下する。 However, not all sensor targets have accurate sensor target information. That is, when the sensor target is a target erroneously detected by the peripheral radar sensor 16a (so-called ghost target), or when the sensor target information is erroneous due to the influence of noise, etc. , The accuracy of the sensor target information is reduced.

そこで、DSECU(又は、周辺レーダセンサ16a)は、センサ物標について、「AGE」と称呼される「センサ物標が検知され続けている期間の長さを表す情報」を演算している。具体的に述べると、DSECUは、初めて検知されたセンサ物標の「AGE」の値を「0」に設定し、一演算周期Δtが経過する毎に、前回の演算時において検知されたセンサ物標と同じセンサ物標(同一の識別情報を有するセンサ物標)が検知された場合、そのセンサ物標についての「AGE」の値をインクリメント(+1)する。センサ物標が、ゴースト或いはノイズによって検知されている場合、そのセンサ物標が長時間に渡って同一の物標として検出され続ける可能性は低いので、そのセンサ物標のAGEは大きくならない。 Therefore, the DSPE (or the peripheral radar sensor 16a) calculates "information indicating the length of the period during which the sensor target continues to be detected" called "AGE" for the sensor target. Specifically, the DSPE sets the value of "AGE" of the sensor target detected for the first time to "0", and each time one calculation cycle Δt elapses, the sensor object detected at the time of the previous calculation. When the same sensor target as the target (sensor target having the same identification information) is detected, the value of "AGE" for the sensor target is incremented (+1). When the sensor target is detected by ghost or noise, it is unlikely that the sensor target will continue to be detected as the same target for a long period of time, so that the AGE of the sensor target does not increase.

更に、DSECUは、「AGE」の値が所定閾値以上のセンサ物標を「高AGEセンサ物標」と認識する。DSECUは、「AGE」の値が所定閾値より小さいセンサ物標を「低AGEセンサ物標」と認識する。 Further, the DSECU recognizes a sensor target having a value of "AGE" equal to or higher than a predetermined threshold value as a "high AGE sensor target". The DESCU recognizes a sensor target whose "AGE" value is smaller than a predetermined threshold value as a "low AGE sensor target".

そして、DSECUは、フュージョン物標情報のうち、少なくとも、フュージョン物標の長さLf(以下「物標長さLf」とも称呼される。)、フュージョン物標の幅Wf(以下「物標幅Wf」とも称呼される。)、及び、位置(Xf、Yf)を、「フュージョン物標に属するセンサ物標のうちの高AGEセンサ物標」のセンサ物標情報を用いて演算する。 Then, the DESCU has at least the length Lf of the fusion target (hereinafter, also referred to as "target length Lf") and the width Wf of the fusion target (hereinafter, "target width Wf") in the fusion target information. ”) And the position (Xf, Yf) are calculated using the sensor target information of the“ high AGE sensor target among the sensor targets belonging to the fusion target ”.

図6に示した例においては、センサ物標Bn1、センサ物標Bn2及びセンサ物標Bn3をグルーピング(統合)したフュージョン物標FBnが生成されている。センサ物標Bn1及びセンサ物標Bn2は何れも高AGEセンサ物標であり、センサ物標Bn3は低AGEセンサ物標である。 In the example shown in FIG. 6, a fusion target FBn in which the sensor target Bn1, the sensor target Bn2, and the sensor target Bn3 are grouped (integrated) is generated. Both the sensor target Bn1 and the sensor target Bn2 are high AGE sensor targets, and the sensor target Bn3 is a low AGE sensor target.

従って、この場合、DSECUは、フュージョン物標FBnの「物標長さLf、物標幅Wf及び座標位置(Xf,Yf)」を、高AGEセンサ物標である「センサ物標Bn1及び高AGEセンサ物標Bn2」を用いて演算する。 Therefore, in this case, the DSPE sets the "target length Lf, target width Wf, and coordinate position (Xf, Yf)" of the fusion target FBn to the high AGE sensor target "sensor target Bn1 and high AGE". The calculation is performed using the sensor target Bn2.

より具体的に述べると、DSECUは、最大縦位置Xmaxhと最小縦位置Xminhとの差の大きさ(=|Xmaxh−Xminh|)を物標長さLfとして演算する。ここで、最大縦位置Xmaxhは、「フュージョン物標FBnに属する高AGE物標のX座標位置Xobjの中の最大値」であり、図6の例ではセンサ物標Bn2のX座標位置Xobjである。最小縦位置Xminhは、「フュージョン物標FBnに属する高AGE物標のX座標位置Xobjの中の最小値」であり、図6の例ではセンサ物標Bn1のX座標位置Xobjである。 More specifically, the DSPE calculates the magnitude of the difference between the maximum vertical position Xmaxh and the minimum vertical position Xminh (= | Xmaxh−Xminh |) as the target length Lf. Here, the maximum vertical position Xmaxh is "the maximum value in the X coordinate position Xobj of the high AGE target belonging to the fusion target FBn", and in the example of FIG. 6, it is the X coordinate position Xobj of the sensor target Bn2. .. The minimum vertical position Xminh is "the minimum value in the X coordinate position Xobj of the high AGE target belonging to the fusion target FBn", and in the example of FIG. 6, it is the X coordinate position Xobj of the sensor target Bn1.

同様に、最大横位置Ymaxhと最小横位置Yminhとの差の大きさ(=|Ymaxh−Yminh|)をフュージョン物標FBnの幅Wfとして演算することが考えられる。ここで、最大横位置Ymaxhは、「フュージョン物標FBnに属する高AGE物標のY座標位置Yobjの中の最大値」であり、図6の例ではセンサ物標Bn2のY座標位置Yobjである。最小横位置Yminhは、「フュージョン物標FBnに属する高AGE物標のY座標位置Yobjの中の最小値」であり、図6の例ではセンサ物標Bn1のY座標位置Yobjである。 Similarly, it is conceivable to calculate the magnitude of the difference between the maximum lateral position Ymaxh and the minimum lateral position Yminh (= | Ymaxh−Yminh |) as the width Wf of the fusion target FBn. Here, the maximum horizontal position Ymaxh is "the maximum value in the Y coordinate position Yobj of the high AGE target belonging to the fusion target FBn", and in the example of FIG. 6, it is the Y coordinate position Yobj of the sensor target Bn2. .. The minimum lateral position Yminh is "the minimum value in the Y coordinate position Yobj of the high AGE target belonging to the fusion target FBn", and in the example of FIG. 6, it is the Y coordinate position Yobj of the sensor target Bn1.

ところが、高AGEセンサ物標の中でも、自車両SVに対するセンサ物標の位置によって(換言すると、センサ物標を検出している周辺レーダセンサ16aが何れであるかによって)、センサ物標情報に含まれる位置情報の精度、特に、横位置(Y座標位置Yobj)の精度が低下してしまう。より具体的に述べると、図3に示されるように、周辺レーダセンサ16aにより取得されるセンサ物標情報に含まれる位置(特に、横位置)の精度は、レーダ波の放射角度θhが大きくなるほどが悪化する。ここで、放射角度θhは、放射中心軸線Csと、センサ物標SBと周辺レーダセンサ16a(レーダ波放射位置)とを結んだ直線と、が成す角度(大きさ)である。従って、上述したように、DSECUが、最大横位置Ymaxhと最小横位置Yminhとを求め、それらの差の大きさ(=|Ymaxh−Yminh|)をフュージョン物標FBnの幅Wfとして演算すると、幅Wfが立体物の真の幅と大きく相違してしまう場合がある。 However, among the high AGE sensor targets, it is included in the sensor target information depending on the position of the sensor target with respect to the own vehicle SV (in other words, which peripheral radar sensor 16a is detecting the sensor target). The accuracy of the position information, especially the accuracy of the horizontal position (Y coordinate position Yobj), is lowered. More specifically, as shown in FIG. 3, the accuracy of the position (particularly the lateral position) included in the sensor target information acquired by the peripheral radar sensor 16a increases as the radiation angle θh of the radar wave increases. Get worse. Here, the radiation angle θh is an angle (magnitude) formed by the radiation center axis Cs and the straight line connecting the sensor target SB and the peripheral radar sensor 16a (radar wave radiation position). Therefore, as described above, when the DSECU finds the maximum lateral position Ymaxh and the minimum lateral position Yminh and calculates the magnitude of the difference between them (= | Ymaxh-Yminh |) as the width Wf of the fusion target FBn, the width is calculated. Wf may be significantly different from the true width of the three-dimensional object.

以下、このように幅Wfの精度が低下する具体例と、それに対処するためにDSECUが採用した幅Wfの算出方法と、について説明する。尚、以下において、フュージョン物標FBnに属するセンサ物標の中に2つ以上の周辺レーダセンサ16aにより検出されたセンサ物標があるとき、そのフュージョン物標は「混在フュージョン物標」とも称呼される。 Hereinafter, a specific example in which the accuracy of the width Wf is lowered in this way and a method for calculating the width Wf adopted by the DSPE to deal with the decrease will be described. In the following, when there is a sensor target detected by two or more peripheral radar sensors 16a among the sensor targets belonging to the fusion target FBn, the fusion target is also referred to as a "mixed fusion target". To.

図7(A)に示された例では、センサ物標BRR1、センサ物標BRR2、センサ物標BRL1及びセンサ物標BRL2をグルーピング(統合)した混在フュージョン物標FBa1が生成されている。センサ物標BRR1及びセンサ物標BRR2は、右後方周辺センサ16RRによって検知されたセンサ物標である。センサ物標BRL1及びセンサ物標BRL2は、左後方周辺センサ16RLによって検知されたセンサ物標である。センサ物標BRR1、センサ物標BRR2、センサ物標BRL1及びセンサ物標BRL2は、何れも高AGE物標である。 In the example shown in FIG. 7A, a mixed fusion target FBa1 in which the sensor target BRR1, the sensor target BRR2, the sensor target BRL1 and the sensor target BRL2 are grouped (integrated) is generated. The sensor target BRR1 and the sensor target BRR2 are sensor targets detected by the right rear peripheral sensor 16RR. The sensor target BRL1 and the sensor target BRL2 are sensor targets detected by the left rear peripheral sensor 16RL. The sensor target BRR1, the sensor target BRR2, the sensor target BRL1, and the sensor target BRL2 are all high AGE targets.

ここで、混在フュージョン物標FBa1の物標幅Wa1を、フュージョン物標FBa1に属する高AGE物標の中の最大横位置Ymaxh(センサ物標BRL2の横位置)及び最小横位置Yminh(センサ物標BRR2の横位置)の差分の大きさ(=|Ymaxh−Yminh|)を演算することにより求めると、物標幅Wa1が実際の立体物の幅と大きく相違してしまう可能性が高くなる。これは、センサ物標BRL2が左後方周辺センサ16RLにより検出されていて、且つ、センサ物標BRL2に対する左後方周辺センサ16RLのレーダ波の放射角度が大きいので、センサ物標BRL2のセンサ物標情報に含まれる横位置(Y座標位置Yobj)の精度が良くないからである。 Here, the target width Wa1 of the mixed fusion target FBa1 is set to the maximum horizontal position Ymaxh (horizontal position of the sensor target BRL2) and the minimum horizontal position Yminh (sensor target) among the high AGE targets belonging to the fusion target FBa1. When the magnitude of the difference (= | Ymaxh-Yminh |) of the BRR2 lateral position is calculated, there is a high possibility that the target width Wa1 will be significantly different from the width of the actual three-dimensional object. This is because the sensor target BRL2 is detected by the left rear peripheral sensor 16RL and the radiation angle of the radar wave of the left rear peripheral sensor 16RL with respect to the sensor target BRL2 is large, so that the sensor target information of the sensor target BRL2 This is because the accuracy of the horizontal position (Y coordinate position Yobj) included in is not good.

ところで、基準軸線Qbは、右後方周辺センサ16RRのレーダ波の放射角度(第1レーダセンサ放射角度)θ1(図4を参照。)と、左後方周辺センサ16RLのレーダ波の放射角度(第2レーダセンサ放射角度)θ2(図4を参照。)と、が互いに等しくなる点を結んだ直線である。従って、基準軸線Qbの任意の点に位置する物標を、右後方周辺センサ16RRによって検出した場合と左後方周辺センサ16RLによって検出した場合とにおいて、それらのセンサ物標情報の横位置の精度は実質的に同じである。 By the way, the reference axis Qb is the radiation angle of the radar wave of the right rear peripheral sensor 16RR (first radar sensor radiation angle) θ1 (see FIG. 4) and the radiation angle of the radar wave of the left rear peripheral sensor 16RL (second). Radar sensor radiation angle) θ2 (see FIG. 4) and a straight line connecting points that are equal to each other. Therefore, when a target located at an arbitrary point on the reference axis Qb is detected by the right rear peripheral sensor 16RR and when detected by the left rear peripheral sensor 16RL, the accuracy of the lateral position of the sensor target information is high. It is virtually the same.

これに対し、基準軸線Qbに対して右後方周辺センサ16RRに近い側(図7(A)及び(B)において基準軸線Qbよりも右側の領域)において混在フュージョン物標が生成された場合、その混在フュージョン物標に属する「右後方周辺センサ16RRによって検出されたセンサ物標」のセンサ物標情報に含まれる横位置は、その混在フュージョン物標に属する「左後方周辺センサ16RLによって検出されたセンサ物標」のセンサ物標情報に含まれる横位置、よりも精度が高い。これは、第1レーダセンサ放射角度θ1の方が第2レーダセンサ放射角度θ2よりも小さいからである。 On the other hand, when a mixed fusion target is generated on the side closer to the right rear peripheral sensor 16RR with respect to the reference axis Qb (the region on the right side of the reference axis Qb in FIGS. 7A and 7B), the mixed fusion target is generated. The horizontal position included in the sensor target information of the "sensor target detected by the right rear peripheral sensor 16RR" belonging to the mixed fusion target is the sensor detected by the "left rear peripheral sensor 16RL" belonging to the mixed fusion target. The accuracy is higher than the horizontal position included in the sensor target information of "Target". This is because the radiation angle θ1 of the first radar sensor is smaller than the radiation angle θ2 of the second radar sensor.

同様に、基準軸線Qbに対して左後方周辺センサ16RLに近い側(図7(A)及び(B)において基準軸線Qbよりも左側の領域)において混在フュージョン物標が生成された場合、その混在フュージョン物標に属する「左後方周辺センサ16RLによって検出されたセンサ物標」のセンサ物標情報に含まれる横位置は、その混在フュージョン物標に属する「右後方周辺センサ16RRによって検出されたセンサ物標」のセンサ物標情報に含まれる横位置、よりも精度が高い。これは、第2レーダセンサ放射角度θ2の方が第1レーダセンサ放射角度θ1よりも小さいからである。 Similarly, when a mixed fusion target is generated on the side closer to the left rear peripheral sensor 16RL with respect to the reference axis Qb (the region on the left side of the reference axis Qb in FIGS. 7A and 7B), the mixture is mixed. The horizontal position included in the sensor target information of the "sensor target detected by the left rear peripheral sensor 16RR" belonging to the fusion target is the sensor object detected by the right rear peripheral sensor 16RR belonging to the mixed fusion target. The accuracy is higher than the horizontal position included in the sensor target information of the "mark". This is because the second radar sensor radiation angle θ2 is smaller than the first radar sensor radiation angle θ1.

以上の観点から、DSECUは、混在フュージョン物標が生成された場合、その混在フュージョン物標の幅Wfを精度良く算出するために、その混在フュージョン物標に属する高AGEセンサ物標の中から、精度の高い横位置を示す可能性が高いセンサ物標を次のように特定(抽出)する。この特定(抽出)されるセンサ物標は、「高精度高AGEセンサ物標」とも称呼される。 From the above viewpoint, when the mixed fusion target is generated, the DSECU has selected the high AGE sensor target belonging to the mixed fusion target in order to accurately calculate the width Wf of the mixed fusion target. The sensor target that is likely to indicate a highly accurate lateral position is specified (extracted) as follows. This specified (extracted) sensor target is also referred to as a "high-precision, high-AGE sensor target".

DSECUは、混在フュージョン物標に属する高AGEセンサ物標の中から、基準軸線Qbに対して近い側の周辺レーダセンサにより検出されている高AGEセンサ物標を「高精度高AGEセンサ物標」として抽出し、その抽出した高精度高AGEセンサ物標のセンサ物標情報に含まれる横位置を用いて混在フュージョン物標FBnの物標幅Wfを演算する。換言すると、DSECUは、混在フュージョン物標に属する高AGEセンサ物標の中の、基準軸線Qbに対して遠い側の周辺レーダセンサにより検出されている高AGEセンサ物標のセンサ物標情報を幅Wfの演算に用いない。 Among the high AGE sensor targets belonging to the mixed fusion target, the DSECU refers to the high AGE sensor target detected by the peripheral radar sensor on the side closer to the reference axis Qb as the "high-precision high AGE sensor target". The target width Wf of the mixed fusion target FBn is calculated by using the horizontal position included in the sensor target information of the extracted high-precision and high-precision sensor target. In other words, the DSPE widths the sensor target information of the high AGE sensor target detected by the peripheral radar sensor on the side far from the reference axis Qb among the high AGE sensor targets belonging to the mixed fusion target. Not used for Wf calculation.

例えば、図7(B)に示された例では、右後方周辺センサ16RRによって検出された「センサ物標BRR1及びセンサ物標BRR2」と、左後方周辺センサ16RLによって検出された「センサ物標BRL1及びセンサ物標BRL2」と、がグルーピング(統合)されることにより、混在フュージョン物標FBa1が生成されている。更に、右後方周辺センサ16RRによって検出された「センサ物標BRR3及びセンサ物標BRR4」と、左後方周辺センサ16RLによって検出された「センサ物標BRL3及びセンサ物標BRL4」と、がグルーピング(統合)されることにより、混在フュージョン物標FBa2が生成されている。尚、これらのセンサ物標は何れも高AGEセンサ物標であると仮定する。 For example, in the example shown in FIG. 7B, the “sensor target BRR1 and sensor target BRR2” detected by the right rear peripheral sensor 16RR and the “sensor target BRL1” detected by the left rear peripheral sensor 16RL. And the sensor target BRL2 ”are grouped (integrated) to generate the mixed fusion target FBa1. Further, the "sensor target BRR3 and the sensor target BRR4" detected by the right rear peripheral sensor 16RR and the "sensor target BRL3 and the sensor target BRL4" detected by the left rear peripheral sensor 16RL are grouped (integrated). ), The mixed fusion target FBa2 is generated. It is assumed that all of these sensor targets are high AGE sensor targets.

この場合、混在フュージョン物標FBa1に着目すると、基準軸線Qbに対して近い側の周辺レーダセンサは右後方周辺センサ16RRであるから、センサ物標BRR1及びセンサ物標BRR2が高精度高AGEセンサ物標として抽出される。 In this case, focusing on the mixed fusion target FBa1, the peripheral radar sensor on the side closer to the reference axis Qb is the right rear peripheral sensor 16RR, so that the sensor target BRR1 and the sensor target BRR2 are high-precision and high-AGE sensors. It is extracted as a marker.

そして、DSECUは、抽出した高精度高AGEセンサ物標が2つ以上ある場合、その抽出した高精度高AGEセンサ物標のY座標位置Yobjの中の最大値を最大横位置Ymaxh(センサ物標BRR1のY座標位置Yobj)として決定し、その抽出した高精度高AGEセンサ物標のY座標位置Yobjの中の最小値を最小横位置Yminh(センサ物標BRR2のY座標位置Yobj)として決定する。更に、DSECUは、最大横位置Ymaxhと最小横位置Yminhとの差分の大きさ(=|最大横位置Ymaxh−最小横位置Yminh|)を演算して、これを混在フュージョン物標の物標幅(Wa1)とする。 Then, when there are two or more high-precision high-precision AGE sensor targets extracted, the DSPE sets the maximum value in the Y-coordinate position Yobj of the extracted high-precision high-AGE sensor target to the maximum horizontal position Ymaxh (sensor target). It is determined as the Y coordinate position Yobj of BRR1), and the minimum value in the Y coordinate position Yobj of the extracted high-precision high AGE sensor target is determined as the minimum horizontal position Yminh (Y coordinate position Yobj of the sensor target BRR2). .. Further, the DSPE calculates the magnitude of the difference between the maximum horizontal position Ymaxh and the minimum horizontal position Yminh (= | maximum horizontal position Ymaxh − minimum horizontal position Yminh |), and uses this as the target width of the mixed fusion target (= | Let it be Wa1).

一方、混在フュージョン物標FBa2に着目すると、基準軸線Qbに対して近い側の周辺レーダセンサは左後方周辺センサ16RLであるから、センサ物標BRL3及びセンサ物標BRL4が高精度高AGEセンサ物標として抽出される。 On the other hand, focusing on the mixed fusion target FBa2, since the peripheral radar sensor on the side closer to the reference axis Qb is the left rear peripheral sensor 16RL, the sensor target BRL3 and the sensor target BRL4 are high-precision and high-AGE sensor targets. Is extracted as.

そして、DSECUは、上述した手法によって、最大横位置Ymaxhとしてセンサ物標BRL4のY座標位置Yobjを採用し、最小横位置Yminhとしてセンサ物標BRL3のY座標位置Yobjを採用する。更に、DSECUは、最大横位置Ymaxhと最小横位置Yminhとの差分の大きさ(=|最大横位置Ymaxh−最小横位置Yminh|)を演算して、これを混在フュージョン物標の物標幅(Wa2)とする。 Then, the DESCU adopts the Y coordinate position Yobj of the sensor target BRL4 as the maximum horizontal position Ymaxh and the Y coordinate position Yobj of the sensor target BRL3 as the minimum horizontal position Yminh by the above-mentioned method. Further, the DSPE calculates the magnitude of the difference between the maximum horizontal position Ymaxh and the minimum horizontal position Yminh (= | maximum horizontal position Ymaxh − minimum horizontal position Yminh |), and uses this as the target width of the mixed fusion target (= | Wa2).

尚、前述したように、DSECUは、混在フュージョン物標FBa1に属する全ての高AGE物標のX座標位置Xobjの最大値(=センサ物標BRR1のX座標位置Xobj)を最大縦位置Xmaxhとして選択し、混在フュージョン物標FBa1に属する全ての高AGE物標のX座標位置Xobjの最小値(=センサ物標BRL2のX座標位置Xobj)を最小縦位置Xminhとして選択し、それらの差分の大きさ(=|Xmaxh−Xminh|)を混在フュージョン物標FBa1の物標長さLa1として演算する。混在フュージョン物標FBa2の物標長さLa2についても同様である。 As described above, the DSPE selects the maximum value of the X coordinate position Xobj of all the high AGE targets belonging to the mixed fusion target FBa1 (= the X coordinate position Xobj of the sensor target BRR1) as the maximum vertical position Xmaxh. Then, the minimum value of the X coordinate position Xobj of all the high AGE targets belonging to the mixed fusion target FBa1 (= X coordinate position Xobj of the sensor target BRL2) is selected as the minimum vertical position Xminh, and the magnitude of the difference between them is selected. (= | Xmaxh-Xminh |) is calculated as the target length La1 of the mixed fusion target FBa1. The same applies to the target length La2 of the mixed fusion target FBa2.

更に、DSECUは、最大縦位置Xmaxhを示すセンサ物標として選択されたセンサ物標のX座標位置Xobjと、最小縦位置Xminhを示すセンサ物標として選択されたセンサ物標のX座標位置Xobjと、の中央位置をフュージョン物標FBn(n=a1、a2)のX座標位置Xfnとして演算する。同様に、DSECUは、最大横位置Ymaxhを示すセンサ物標として選択されたセンサ物標のY座標位置Yobjと、最小横位置Yminhを示すセンサ物標として選択されたセンサ物標のY座標位置Yobjと、の中央位置をフュージョン物標FBnのY座標位置Yfnとして演算する。加えて、DSECUは、フュージョン物標FBnに属する高AGEセンサ物標の「縦相対速度の平均値及び横相対速度の平均値」を、そのフュージョン物標FBnの「縦相対速度Vxfn及び横相対速度Vyfn」としてそれぞれ演算する。 Further, the DSPE includes the X coordinate position Xobj of the sensor target selected as the sensor target indicating the maximum vertical position Xmaxh and the X coordinate position Xobj of the sensor target selected as the sensor target indicating the minimum vertical position Xminh. , Is calculated as the X coordinate position Xfn of the fusion target FBn (n = a1, a2). Similarly, the DESCU has a Y coordinate position Yobj of the sensor target selected as the sensor target indicating the maximum lateral position Ymaxh and a Y coordinate position Yobj of the sensor target selected as the sensor target indicating the minimum horizontal position Yminh. And, the center position of is calculated as the Y coordinate position Yfn of the fusion target FBn. In addition, the DSPE uses the "mean value of vertical relative velocity and the average value of horizontal relative velocity" of the high AGE sensor target belonging to the fusion target FBn as the "vertical relative velocity Vxfn and lateral relative velocity" of the fusion target FBn. Each calculation is performed as "Vyfn".

図7(B)に示した例では、それぞれの混在フュージョン物標に対して選択された高精度高AGE物標が2以上あったが、混在フュージョン物標に対して選択された高精度高AGE物標が1つしかない場合、DSECUは、フュージョン物標の物標幅Wfを予め定められた固定幅Wに設定し、フュージョン物標の物標長さLfを予め定められた固定長さLに設定する。更に、その一つの選択された高精度高AGE物標の「X−Y座標位置、縦相対速度及び横相対速度」を、そのフュージョン物標FBnの「X−Y座標位置、縦相対速度Vxfn及び横相対速度Vyfn」としてそれぞれ設定する。 In the example shown in FIG. 7B, there were two or more high-precision high AGE targets selected for each mixed fusion target, but the high-precision high AGE selected for the mixed fusion target. When there is only one target, the DSPE sets the target width Wf of the fusion target to a predetermined fixed width W, and sets the target length Lf of the fusion target to a predetermined fixed length L. Set to. Further, the "XY coordinate position, vertical relative velocity and horizontal relative velocity" of the one selected high-precision high AGE target, the "XY coordinate position, vertical relative velocity Vxfn" of the fusion target FBn and It is set as "horizontal relative velocity Vyfn".

更に、DSECUは、混在フュージョン物標に属するセンサ物標中に高AGEセンサ物標がない場合、そのフュージョン物標が後述する推定物標に基づいて生成されているのであれば、その推定物標の「X−Y座標位置、物標幅、長さ、縦相対速度及び横相対速度」を、混在フュージョン物標の「X−Y座標位置、物標幅Wf、物標長さLf、縦相対速度及び横相対速度」としてそれぞれ設定する。 Further, the DESCU is an estimated target if there is no high AGE sensor target among the sensor targets belonging to the mixed fusion target and the fusion target is generated based on the estimated target described later. "XY coordinate position, target width, length, vertical relative velocity and horizontal relative velocity" of "XY coordinate position, target width Wf, target length Lf, vertical relative" of mixed fusion target Set as "speed and lateral relative velocity" respectively.

更に、DSECUは、混在フュージョン物標に属するセンサ物標中に高AGEセンサ物標がなく、且つ、その混在フュージョン物標が後述する推定物標に基づいて生成されていない場合、予め定められた「固定幅及び長さ」を混在フュージョン物標の「物標幅Wf及び物標長さLf」としてそれぞれ設定する。更に、混在フュージョン物標に属するセンサ物標の中で最も大きいAGEを有するセンサ物標の「X−Y座標位置、縦相対速度及び横相対速度」を、混在フュージョン物標の「X−Y座標位置、縦相対速度及び横相対速度」としてそれぞれ設定する。 Further, the DESCU is predetermined when there is no high AGE sensor target among the sensor targets belonging to the mixed fusion target and the mixed fusion target is not generated based on the estimated target described later. “Fixed width and length” are set as “target width Wf and target length Lf” of the mixed fusion target, respectively. Further, the "XY coordinate position, vertical relative velocity and horizontal relative velocity" of the sensor target having the largest AGE among the sensor targets belonging to the mixed fusion target are set to the "XY coordinates" of the mixed fusion target. Set as "position, vertical relative velocity and horizontal relative velocity" respectively.

また、フュージョン物標が混在フュージョン物標でない場合、DSECUはフュージョン物標に属するセンサ物標中に高AGEセンサ物標が2以上あれば、それらの高AGEセンサ物標のセンサ物標情報から、最大縦位置Xmaxh、最小縦位置Xminh、最大横位置Ymaxh及び最小横位置Yminhを選択し、上述した方法によって物標幅Wf、物標長さLf及び座標位置(Xf,Yf)を決定する。加えて、DSECUは、フュージョン物標FBnに属する高AGEセンサ物標の「縦相対速度の平均値及び横相対速度の平均値」を、そのフュージョン物標FBnの「縦相対速度Vxfn及び横相対速度Vyfn」としてそれぞれ演算する。一方、フュージョン物標が混在フュージョン物標でない場合に高AGEセンサ物標が1つ以下であれば、DSECUは、フュージョン物標が混在フュージョン物標であって高精度高AGE物標が1つ以下である場合と同様にして物標幅Wf、物標長さLf、座標位置(Xf,Yf)及び相対速度を決定する。 Further, when the fusion target is not a mixed fusion target, if there are two or more high AGE sensor targets in the sensor targets belonging to the fusion target, the DSECU can be obtained from the sensor target information of those high AGE sensor targets. The maximum vertical position Xmaxh, the minimum vertical position Xminh, the maximum horizontal position Ymaxh, and the minimum horizontal position Yminh are selected, and the target width Wf, the target length Lf, and the coordinate positions (Xf, Yf) are determined by the method described above. In addition, the DSPE uses the "mean value of vertical relative velocity and the average value of horizontal relative velocity" of the high AGE sensor target belonging to the fusion target FBn as the "vertical relative velocity Vxfn and lateral relative velocity" of the fusion target FBn. Each calculation is performed as "Vyfn". On the other hand, if the fusion target is not a mixed fusion target and the number of high AGE sensor targets is one or less, the DESCU has a fusion target that is a mixed fusion target and has one or less high-precision high AGE target. The target width Wf, the target length Lf, the coordinate positions (Xf, Yf), and the relative velocity are determined in the same manner as in the case of.

(フュージョン物標の生成・更新方法)
次に、DSECUが実行するフュージョン物標の生成・更新方法について説明する。
(How to generate / update fusion targets)
Next, a method of generating / updating the fusion target executed by the DSPE will be described.

DSECUは、所定時間(演算周期)Δtが経過する毎に、周辺レーダセンサ16aからセンサ物標情報を取得する。更に、DSECUは、後述するグルーピング処理を行なって「一つの立体物nから得られている可能性が高い複数のセンサ物標」をグルーピング(統合、フュージョン)することにより、その一つの立体物nに対応するフュージョン物標FBnを生成する。以下、図8の(A)及び(B)に示した例を用いて、「グルーピング処理」について詳述する。 The DSPE acquires sensor target information from the peripheral radar sensor 16a every time the predetermined time (calculation cycle) Δt elapses. Further, the DSECU performs a grouping process described later to group (integrate, fuse) "a plurality of sensor targets that are likely to be obtained from one three-dimensional object n", thereby forming the one three-dimensional object n. Generates a fusion target FBn corresponding to. Hereinafter, the "grouping process" will be described in detail with reference to the examples shown in FIGS. 8A and 8B.

いま、図8(A)に示したように、センサ物標B0,B1及びB2が検出されたと仮定する。この例において、センサ物標B0は右前方周辺センサ16FRによって検出されたセンサ物標であり、センサ物標B1及びセンサ物標B2は、中央前方周辺センサ16FCによって検出されたセンサ物標である。更に、この例では、現時点までに(換言すると、前回の演算時において)フュージョン物標が生成されていない。 Now, as shown in FIG. 8A, it is assumed that the sensor targets B0, B1 and B2 are detected. In this example, the sensor target B0 is a sensor target detected by the right front peripheral sensor 16FR, and the sensor target B1 and the sensor target B2 are sensor targets detected by the central front peripheral sensor 16FC. Furthermore, in this example, no fusion target has been generated so far (in other words, at the time of the previous calculation).

このように、今回の演算の開始時点においてフュージョン物標FBnが生成されていない場合、DSECUは、新規のフュージョン物標FBnを生成するためのグルーピング処理を次に述べるように行う。尚、このグルーピング処理は、「新規グルーピング処理」と称呼される。 As described above, when the fusion target FBn is not generated at the start of the current calculation, the DSPE performs the grouping process for generating the new fusion target FBn as described below. This grouping process is called "new grouping process".

まず、DSECUは、複数のセンサ物標(例えば、センサ物標B0乃至B2)の中から、任意の一つのセンサ物標(例えば、センサ物標B0)をグルーピング基準物標Bsとして選択する。次に、DSECUは、グルーピング基準物標Bs(例えば、センサ物標B0)に対して、「グルーピング候補となる他のセンサ物標Bn(例えば、センサ物標Bn、n=1、2)」が、下記(条件G1)及び(条件G2)の両条件を満たしているか否かを判定する。グルーピング候補のセンサ物標Bnが下記(条件G1)及び(条件G2)の両条件を満たしている場合、センサ物標Bnはグルーピング条件を満たしていると判定される。 First, the DSPE selects any one sensor target (for example, sensor target B0) as the grouping reference target Bs from the plurality of sensor targets (for example, sensor targets B0 to B2). Next, the DESCU has "another sensor target Bn (for example, sensor target Bn, n = 1, 2) that is a grouping candidate" with respect to the grouping reference target Bs (for example, sensor target B0). , It is determined whether or not both of the following conditions (condition G1) and (condition G2) are satisfied. When the sensor target Bn of the grouping candidate satisfies both the following conditions (condition G1) and (condition G2), it is determined that the sensor target Bn satisfies the grouping condition.

(条件G1)位置を判定の基準とした条件
図8(B)の左側の図に示されるように、
「グルーピング候補のセンサ物標BnのX座標位置Xobj(=XBn)」と「グルーピング基準物標BsのX座標位置Xobj(=XBs)」との差分の絶対値(=|XBn−XBs|)が所定の閾値縦距離Xth以下であり、且つ
「グルーピング候補のセンサ物標BnのY座標位置Yobj(=YBn)」と「グルーピング基準物標BsのY座標位置Yobj(=YBs)」との差分の絶対値(=|YBn−YBs|)が所定の閾値横距離Yth以下であること。
尚、ここで、閾値縦距離Xthは、例えば、「物標長さL0×0.5+所定値α」である。閾値横距離Ythは、「物標幅W0×0.5+所定値β」である。物標長さL0及び物標幅W0には、判定に適した任意の固定値が使用される。例えば、物標長さL0には自動二輪車両の標準的長さが設定され、物標幅W0には自動二輪車両の標準的車幅が設定される。
(Condition G1) Condition using position as a criterion as shown in the figure on the left side of FIG. 8 (B).
The absolute value (= | XBn-XBs |) of the difference between the "X coordinate position Xobj (= XBn) of the sensor target Bn of the grouping candidate" and the "X coordinate position Xobj (= XBs) of the grouping reference target Bs" is The difference between the predetermined threshold vertical distance Xth or less and the "Y coordinate position Yobj (= YBn) of the grouping candidate sensor target Bn" and the "Y coordinate position Yobj (= YBs) of the grouping reference target Bs". The absolute value (= | YBn-YBs |) is equal to or less than the predetermined threshold lateral distance Yth.
Here, the threshold vertical distance Xth is, for example, "target length L0 × 0.5 + predetermined value α". The threshold lateral distance Yth is “target width W0 × 0.5 + predetermined value β”. Arbitrary fixed values suitable for determination are used for the target length L0 and the target width W0. For example, the target length L0 is set to the standard length of the motorcycle, and the target width W0 is set to the standard width of the motorcycle.

(条件G2)速度を判定の基準とした条件
図8(B)の右側の図に示されるように、
「グルーピング候補のセンサ物標Bnの縦相対速度Vxobj(=VxBn)」と「グルーピング基準物標Bsの縦相対速度Vxobj(=VxBs)」との差分の絶対値(=|VxBn−VxBs|)が、所定の閾値縦速度差Vxth以下であり、且つ
「グルーピング候補のセンサ物標Bnの横相対速度Vyobj(=VyBn)」と「グルーピング基準物標Bsの横相対速度Vyobj(=VyBs)」との差分の絶対値(=|VyBn−VyBs|)が、所定の閾値横速度差Vyth以下であること。
(Condition G2) Condition using speed as a criterion as shown in the figure on the right side of FIG. 8 (B).
The absolute value (= | VxBn-VxBs |) of the difference between the "vertical relative velocity Vxobj (= VxBn) of the grouping candidate sensor target Bn" and the "vertical relative velocity Vxobj (= VxBs) of the grouping reference target Bs" is , A predetermined threshold vertical velocity difference Vxth or less, and "horizontal relative velocity Vyobj (= VyBn) of the grouping candidate sensor target Bn" and "horizontal relative velocity Vyobj (= VyBs) of the grouping reference target Bs" The absolute value of the difference (= | VyBn-VyBs |) is equal to or less than the predetermined threshold lateral velocity difference Vyth.

なお、条件G2が成立しているか否かは、絶対速度を用いて判定されてもよい。即ち、条件G2は以下のとおりであってもよい。
「グルーピング候補のセンサ物標Bnの縦絶対速度」と「グルーピング基準物標Bsの縦絶対速度」との差分の絶対値が、閾値縦速度差Vxth以下であり、且つ
「グルーピング候補のセンサ物標Bnの横絶対速度」と「グルーピング基準物標Bsの横絶対速度」との差分の絶対値が、閾値横速度差Vyth以下であること。
Whether or not the condition G2 is satisfied may be determined using the absolute velocity. That is, the condition G2 may be as follows.
The absolute value of the difference between the "vertical absolute velocity of the grouping candidate sensor target Bn" and the "vertical absolute velocity of the grouping reference target Bs" is equal to or less than the threshold longitudinal velocity difference Vxth, and the "grouping candidate sensor target" The absolute value of the difference between "the lateral absolute velocity of Bn" and "the lateral absolute velocity of the grouping reference target Bs" is equal to or less than the threshold lateral velocity difference Vyth.

グルーピング候補のセンサ物標Bnがグルーピング基準物標Bsに対して、(条件G1)及び(条件G2)の両条件からなるグルーピング条件を満たしている場合、DSECUは、センサ物標Bnとグルーピング基準物標Bsとを統合して、新規のフュージョン物標FBnを生成する。更に、DSECUは、新規のフュージョン物標FBnに対して、フュージョン物標FBnを他のフュージョン物標と区別(識別)するための識別情報(ID)を設定する。 When the grouping candidate sensor target Bn satisfies the grouping condition consisting of both (condition G1) and (condition G2) with respect to the grouping reference target Bs, the DSPE determines the sensor target Bn and the grouping standard. Integrate with the marker Bs to generate a new fusion target FBn. Further, the DSECU sets identification information (ID) for distinguishing (identifying) the fusion target FBn from other fusion targets with respect to the new fusion target FBn.

例えば、図8(A)において、グルーピング候補のセンサ物標B1がグルーピング基準物標B0に対して、(条件G1)及び(条件G2)の両条件を満たし、且つ、グルーピング候補のセンサ物標B2もグルーピング基準物標B0に対して、(条件G1)及び(条件G2)の両条件を満たしていると仮定する。この場合、DSECUは、センサ物標B1及びセンサ物標B2と、センサ物標B0と、をグルーピング(統合)してフュージョン物標FB1を新たに生成する。フュージョン物標FB1の識別情報は、例えば「ID1」である。 For example, in FIG. 8A, the grouping candidate sensor target B1 satisfies both the conditions (condition G1) and (condition G2) with respect to the grouping reference target B0, and the grouping candidate sensor target B2. It is also assumed that both the conditions (condition G1) and (condition G2) are satisfied with respect to the grouping reference target B0. In this case, the DSPE groups (integrates) the sensor target B1 and the sensor target B2 and the sensor target B0 to newly generate the fusion target FB1. The identification information of the fusion target FB1 is, for example, "ID1".

更に、図8(A)において、グルーピング候補のセンサ物標B2もグルーピング基準物標B0に対して、(条件G1)及び(条件G2)の両条件を満たしている場合、DSECUは、センサ物標B2もセンサ物標B0と統合する。即ち、センサ物標B2は、フュージョン物標FB1に統合される。 Further, in FIG. 8A, when the grouping candidate sensor target B2 also satisfies both the conditions (condition G1) and (condition G2) with respect to the grouping reference target B0, the DESCU determines the sensor target. B2 is also integrated with the sensor target B0. That is, the sensor target B2 is integrated with the fusion target FB1.

これに対し、グルーピング候補のセンサ物標Bnがグルーピング基準物標Bsに対して、(条件G1)及び(条件G2)の少なくとも一方を満たしていない場合、DSECUは、そのセンサ物標Bnを別のグルーピング基準物標Bsとして選択する。そして、DSECUは、そのグルーピング基準物標Bsに対して、グルーピング候補となるセンサ物標(即ち、それまでにフュージョン物標に統合されていないセンサ物標)が(条件G1)及び(条件G2)のグルーピング条件の両方を満たしているか否かを判定する。以上の処理が、新規物標生成グルーピング処理である。 On the other hand, when the grouping candidate sensor target Bn does not satisfy at least one of (condition G1) and (condition G2) with respect to the grouping reference target Bs, the DSPE uses another sensor target Bn. Select as the grouping reference target Bs. Then, in the DESCU, the sensor targets (that is, the sensor targets that have not been integrated into the fusion target by then) that are grouping candidates are (condition G1) and (condition G2) with respect to the grouping reference target Bs. It is determined whether or not both of the grouping conditions of are satisfied. The above process is a new target generation grouping process.

一方、前回の演算(演算周期Δt前の演算)においてフュージョン物標FBnが生成されていた場合(即ち、今回の演算の開始時点において既にフュージョン物標FBnが生成されている場合)、DSECUは、そのフュージョン物標FBnを次のように更新する。以下では、図9(A)に示されるように、今回の演算を開始するときに既に2つのフュージョン物標FB1及びFB2(即ち、FBn,n=1,2)が生成されている例を用いて、フュージョン物標の更新(生成)方法について説明する。以下、前回の演算において生成又は更新されたフュージョン物標を「前回フュージョン物標」と称呼し、前回フュージョン物標の物標情報を「前回フュージョン物標情報」と称呼する。 On the other hand, when the fusion target FBn is generated in the previous calculation (calculation before the calculation cycle Δt) (that is, when the fusion target FBn is already generated at the start of the current calculation), the DSPE is used. The fusion target FBn is updated as follows. In the following, as shown in FIG. 9A, an example is used in which two fusion targets FB1 and FB2 (that is, FBn, n = 1, 2) have already been generated when the current calculation is started. The method of updating (generating) the fusion target will be described. Hereinafter, the fusion target generated or updated in the previous calculation is referred to as "previous fusion target", and the target information of the previous fusion target is referred to as "previous fusion target information".

DSECUは、前回フュージョン物標FBnの前回フュージョン物標情報に基づいて、今回の演算におけるフュージョン物標FBnの位置及び相対速度を推定する。この推定されたフュージョン物標は「推定物標FBn’」と称呼される。例えば、図9(A)に示された例においては、前回フュージョン物標FB1及びFB2に基づいて推定物標FB1’及びFB2’がそれぞれ生成されている。 The DESCU estimates the position and relative velocity of the fusion target FBn in this calculation based on the previous fusion target information of the previous fusion target FBn. This estimated fusion target is referred to as the "estimated target FBn'". For example, in the example shown in FIG. 9A, estimated target targets FB1'and FB2'are generated based on the previous fusion targets FB1 and FB2, respectively.

より具体的に述べると、前回の演算時におけるX−Y座標(以下、「前回X−Y座標」と称呼する。)において、前回フュージョン物標FBnのX−Y座標位置を(Xfn、Yfn)、前回フュージョン物標FBnの縦相対速度をVxfn、前回フュージョン物標FBnの横相対速度をVyfnとする。このとき、DSECUは、前回X−Y座標における推定物標FBn’のX−Y座標位置(Xfn’、Yfn’)を、以下の式に従って算出する。

Xfn’=Xfn+Δt・Vxfn
Yfn’=Yfn+Δt・Vyfn
More specifically, in the XY coordinates at the time of the previous calculation (hereinafter, referred to as "previous XY coordinates"), the XY coordinate positions of the previous fusion target FBn are (Xfn, Yfn). Let Vxfn be the vertical relative velocity of the previous fusion target FBn, and Vyfn be the horizontal relative velocity of the previous fusion target FBn. At this time, the DSPE calculates the XY coordinate positions (Xfn', Yfn') of the estimated target FBn'in the previous XY coordinates according to the following formula.

Xfn'= Xfn + Δt · Vxfn
Yfn'= Yfn + Δt · Vyfn

その後、DSECUは、その求めた「前回X−Y座標における推定物標FBn’のX−Y座標位置(Xfn’、Yfn’)及び」を、今回の演算時におけるX−Y座標(以下、「今回X−Y座標」と称呼する。)におけるX−Y座標位置へと変換(座標変換)する。更に、DSECUは、前回X−Y座標における「前回フュージョン物標FBnの相対速度(Vxfn,Vyfn)」を今回X−Y座標における相対速度へと変換(座標変換)し、これを今回X−Y座標における推定物標FBn’の相対速度として設定する。尚、DSECUは、前回X−Y座標と今回X−Y座標との関係を、「自車両SVの車速V、横偏差Dy、及び、ヨー角θy」等と、時間Δtと、から認識し、この関係からX−Y座標位置及び相対速度等の上記座標変換を行う。 After that, the DSECU sets the obtained "XY coordinate positions (Xfn', Yfn') of the estimated target FBn'in the previous XY coordinates and" to the XY coordinates at the time of this calculation (hereinafter, "" This time, it is called "XY coordinates") and is converted (coordinate conversion) to the XY coordinate position. Further, the DSECU converts (coordinate conversion) the "relative velocity (Vxfn, Vyfn) of the previous fusion target FBn" in the previous XY coordinates into the relative velocity in the XY coordinates this time, and this time XY. It is set as the relative velocity of the estimated target FBn'in coordinates. The DSPE recognizes the relationship between the previous XY coordinates and the current XY coordinates from the time Δt and the like “vehicle speed V, lateral deviation Dy, and yaw angle θy of the own vehicle SV”. From this relationship, the above coordinate conversion such as the XY coordinate position and the relative velocity is performed.

更に、DSECUは、推定物標FBn’の「物標幅及び物標長さ」を、前回フュージョン物標FBnの「物標幅Wf及び物標長さLf」とそれぞれ同じ値に設定する。これにより、DSECUは、推定物標FBn’(即ち、FB1’及びFB2’)を生成する。 Further, the DSPE sets the "target width and target length" of the estimated target FBn'to the same values as the "target width Wf and target length Lf" of the previous fusion target FBn, respectively. As a result, the DSPE generates the estimated target FBn'(that is, FB1'and FB2').

推定物標FBn’は、今回の演算時において新たに検知されたセンサ物標(以下、「今回検知センサ物標」とも称呼する。)をグルーピング(統合)するための判定基準となる物標である。従って、推定物標FBn’の識別情報は、前回フュージョン物標FBnの識別情報と同一の情報に設定される。即ち、例えば、推定物標FB1’の識別情報は、前回フュージョン物標FB1の識別情報である「ID1」に維持される。推定物標FB2’の識別情報は、前回フュージョン物標FB2の識別情報である「ID2」に維持される。 The estimated target FBn'is a target for grouping (integrating) the sensor target newly detected at the time of this calculation (hereinafter, also referred to as "this detection sensor target"). is there. Therefore, the identification information of the estimated target FBn'is set to the same information as the identification information of the previous fusion target FBn. That is, for example, the identification information of the estimated target FB1'is maintained in the "ID1" which is the identification information of the previous fusion target FB1. The identification information of the estimated target FB2'is maintained in "ID2" which is the identification information of the previous fusion target FB2.

次に、DSECUは、推定物標FBn’に対してグルーピング候補となる今回センサ物標を抽出する。この抽出は、推定物標FBn’の位置に基づいて行われる。より具体的に述べると、DSECUは、推定物標FBn’の位置に基づいて定められるグルーピング対象領域にある「今回検知センサ物標」をその推定物標FBn’のグルーピング対象として抽出する。 Next, the DSPE extracts the sensor target this time, which is a grouping candidate for the estimated target FBn'. This extraction is based on the position of the estimated target FBn'. More specifically, the DSPE extracts the "current detection sensor target" in the grouping target area determined based on the position of the estimated target FBn'as the grouping target of the estimated target FBn'.

図9(A)に示した例においては、センサ物標BFC1は、中央前方周辺センサ16FCが今回検知した今回検知センサ物標である。センサ物標BFL1、BFL2及びBFL3は、左前方周辺センサ16FLが今回検知した今回検知センサ物標である。センサ物標BRL1は、左後方周辺センサ16RLが今回検知した今回検知センサ物標である。左前方周辺センサ16FL及び右後方周辺センサ16RRは、いずれも今回検知センサ物標を検知していない。推定物標FB1’に対するグルーピング候補は、点線R1で囲まれた「センサ物標BFC1、センサ物標BFL1、BFL2及びBFL3、並びに、センサ物標BRL1」である。推定物標FB2’に対するグルーピング候補は、点線R2で囲まれたグルーピング対象領域に存在する「センサ物標BRL1」である。 In the example shown in FIG. 9A, the sensor target BFC1 is the current detection sensor target detected by the central front peripheral sensor 16FC. The sensor targets BFL1, BFL2, and BFL3 are the current detection sensor targets detected by the left front peripheral sensor 16FL this time. The sensor target BRL1 is the current detection sensor target detected this time by the left rear peripheral sensor 16RL. Neither the left front peripheral sensor 16FL nor the right rear peripheral sensor 16RR has detected the detection sensor target this time. Grouping candidates for the estimated target FB1'are "sensor target BFC1, sensor target BFL1, BFL2 and BFL3, and sensor target BRL1" surrounded by the dotted line R1. The grouping candidate for the estimated target FB2'is the "sensor target BRL1" existing in the grouping target area surrounded by the dotted line R2.

DSECUは、推定物標FBn’に基づいて、今回検知センサ物標を前回フュージョン物標FBnに関連付けるためのグルーピング処理(以下、「第1グルーピング処理」と称呼される。)を実行する。 The DESCU executes a grouping process (hereinafter, referred to as "first grouping process") for associating the detection sensor target with the previous fusion target FBn based on the estimated target FBn'.

即ち、DSECUは、先ず、推定物標FBn’をグルーピング基準物標として選択する。次いで、DSECUは、そのグルーピング基準物標(即ち、推定物標FBn’)に対して、グルーピング候補である今回検知センサ物標が、上述の(条件G1)及び(条件G2)からなるグルーピング条件を満たしているか否かを判定する。このように、グルーピング基準物標が推定物標FBn’である場合、グルーピング基準物標の物標情報としては推定物標FBn’の物標情報(X−Y座標位置、縦相対速度及び横相対速度)が使用される。 That is, the DSPE first selects the estimated target FBn'as the grouping reference target. Next, the DSPE sets a grouping condition in which the current detection sensor target, which is a grouping candidate, comprises the above-mentioned (condition G1) and (condition G2) with respect to the grouping reference target (that is, the estimated target FBn'). Determine if it is satisfied. In this way, when the grouping reference target is the estimated target FBn', the target information of the grouping reference target is the target information (XY coordinate position, vertical relative velocity, and horizontal relative) of the estimated target FBn'. Speed) is used.

グルーピング候補の今回検知センサ物標がグルーピング基準物標として選択された推定物標FBn’に対して、(条件G1)及び(条件G2)の両条件を満たしている場合、DSECUは、推定物標FBn’とその今回検知センサ物標とを統合して、フュージョン物標FBnを更新(生成)する。DSECUは、この処理を、グルーピング候補の今回検知センサ物標の総てに対して行ってフュージョン物標FBnを更新する。このフュージョン物標FBnの識別情報は、推定物標FBn’の識別情報と同じ情報に維持される。 When the current detection sensor target of the grouping candidate satisfies both the conditions (condition G1) and (condition G2) with respect to the estimated target FBn'selected as the grouping reference target, the DSECU determines the estimated target. The fusion target FBn is updated (generated) by integrating the FBn'and the detection sensor target this time. The DSECU performs this process on all of the grouping candidate current detection sensor targets to update the fusion target FBn. The identification information of the fusion target FBn is maintained in the same information as the identification information of the estimated target FBn'.

図9(B)に示される例において、推定物標FB1’に対し、点線R1により囲まれたグルーピング候補の今回検知センサ物標のうち、センサ物標BFC1及びセンサ物標BFL1が(条件G1)及び(条件G2)の両条件(即ち、グルーピング条件)を満たしていると仮定する。この場合、図10に示されるように、DSECUは、推定物標FB1’と「センサ物標BFC1及びセンサ物標BFL1」とを統合することによりフュージョン物標FB1を更新(生成)する。推定物標FB1’に統合できると判定されたセンサ物標の数(グルーピング物標数)は「2」である。 In the example shown in FIG. 9B, among the currently detected sensor targets of the grouping candidates surrounded by the dotted line R1 with respect to the estimated target FB1', the sensor target BFC1 and the sensor target BFL1 are (condition G1). It is assumed that both the conditions (that is, the grouping condition) of (condition G2) are satisfied. In this case, as shown in FIG. 10, the DSPE updates (generates) the fusion target FB1 by integrating the estimated target FB1'and the "sensor target BFC1 and the sensor target BFL1". The number of sensor targets (grouping characteristics) determined to be integrated into the estimated target FB1'is "2".

更に、図9(B)に示される例において、推定物標FB2’に対し、グルーピング候補であるセンサ物標BRL1はグルーピング条件を満たしていないと仮定する。即ち、推定物標FB2’に対し、点線R2により囲まれたグルーピング候補の今回検知センサ物標のうちグルーピング条件を満たしているセンサ物標は存在しない。換言すると、推定物標FB2’に対して統合できると判定されたセンサ物標の数(グルーピング物標数)は「0」である。この場合、DSECUは、フュージョン物標FB2を外挿する。即ち、DSECUは、推定物標FB2’を、前回フュージョン物標FB2を外挿することにより得られた今回フュージョン物標FB3と見做し、今回フュージョン物標の物標情報を推定物標FB3’の物標情報によって置換する。この処理を、フュージョン物標の外挿又は外挿処理と称呼する。 Further, in the example shown in FIG. 9B, it is assumed that the sensor target BRL1 which is a grouping candidate does not satisfy the grouping condition with respect to the estimated target FB2'. That is, there is no sensor target that satisfies the grouping condition among the currently detected sensor targets of the grouping candidates surrounded by the dotted line R2 with respect to the estimated target FB2'. In other words, the number of sensor targets (grouping characteristic) determined to be integrated with the estimated target FB2'is "0". In this case, the DESCU extrapolates the fusion target FB2. That is, the DSPE regards the estimated target FB2'as the current fusion target FB3 obtained by extrapolating the fusion target FB2 last time, and the target information of the current fusion target is the estimated target FB3'. Replace with the target information of. This process is referred to as extrapolation or extrapolation of the fusion target.

更に、第1グルーピング処理により何れの推定物標とも統合されなかった今回検知センサ物標(以下、「残余センサ物標」とも称呼する。)が存在する場合、DSECUは、残余センサ物標同士のグルーピングを試みる。この処理は、第2グルーピング処理と称呼される。 Further, when there is a detection sensor target (hereinafter, also referred to as “residual sensor target”) that has not been integrated with any of the estimated targets by the first grouping process, the DSPE is used between the residual sensor targets. Try grouping. This process is called a second grouping process.

例えば、図10に示された例においては、点線R3により囲まれた「センサ物標BFL2及びBFL3、並びに、センサ物標BRL1」は、残余センサ物標である。DSECUは、これらの残余センサ物標に対し、前述した「新規グルーピング処理」と同様の処理を第2グルーピング処理として実行する。これにより、DSECUは、新規のフュージョン物標FBnを生成する。 For example, in the example shown in FIG. 10, the "sensor target BFL2 and BFL3 and the sensor target BRL1" surrounded by the dotted line R3 are residual sensor targets. The DESCU executes the same process as the above-mentioned "new grouping process" for these residual sensor targets as the second grouping process. As a result, the DSPE generates a new fusion target FBn.

尚、上述したように、推定物標FBn’に対するグルーピング物標数が「0」の場合、DSECUは、推定物標FBn’に基づいて今回フュージョン物標FBnを外挿する。フュージョン物標の外挿は、その外挿を開始してからの継続時間(外挿継続時間)が所定の最大外挿継続時間tg以上になるまで継続され、外挿継続時間が最大外挿継続時間tgに到達すると終了する。この場合、DSECUは、そのフュージョン物標がロストしたと判定する。これに対し、外挿継続時間が最大外挿継続時間tgに到達する前に、その外挿によるフュージョン物標に対応した推定物標に対して統合されるセンサ物標が現れ、当該センサ物標がその推定物標に統合されたとき、DSECUはフュージョン物標の外挿を終了する。 As described above, when the grouping characteristic number with respect to the estimated target FBn'is "0", the DSPE extrapolates the fusion target FBn this time based on the estimated target FBn'. Extrapolation of the fusion target is continued until the duration (extrapolation duration) from the start of the extrapolation becomes the predetermined maximum extrapolation duration tg or more, and the extrapolation duration is the maximum extrapolation continuation. It ends when the time tg is reached. In this case, the DESCU determines that the fusion target has been lost. On the other hand, before the extrapolation duration reaches the maximum extrapolation duration tg, a sensor target that is integrated with the estimated target corresponding to the fusion target by the extrapolation appears, and the sensor target appears. Is integrated into the putative target, the DSECU ends the extrapolation of the fusion target.

(具体的作動)
次に、本実施装置の具体的な作動について説明する。DSECUのCPU(以下、単に「CPU」と称呼される。)は、所定のタイミングになると、所定時間(所定演算周期)Δtが経過する毎に、図11に示した物標トラッキングルーチンを実行する。
(Specific operation)
Next, the specific operation of the present implementation device will be described. The CPU of the DSPE (hereinafter, simply referred to as “CPU”) executes the target tracking routine shown in FIG. 11 every time a predetermined time (predetermined calculation cycle) Δt elapses at a predetermined timing. ..

従って、CPUは、所定のタイミングになると図11のステップ1100から処理を開始してステップ1110に進み、前回フュージョン物標が存在しているか否かを判定する。即ち、CPUは、前回の本ルーチンの実行時においてフュージョン物標が生成又は外挿されていたか否かを判定する。 Therefore, when the predetermined timing is reached, the CPU starts the process from step 1100 in FIG. 11 and proceeds to step 1110 to determine whether or not the previous fusion target exists. That is, the CPU determines whether or not the fusion target has been generated or extrapolated at the time of the previous execution of this routine.

前回フュージョン物標が存在していない場合、CPUはステップ1110にて「No」と判定してステップ1120に進み、上述した新規グルーピング処理を実行する。その後、CPUは後述するステップ1160以降に進む。 If the fusion target does not exist last time, the CPU determines "No" in step 1110, proceeds to step 1120, and executes the new grouping process described above. After that, the CPU proceeds to step 1160 or later, which will be described later.

これに対し、前回フュージョン物標が存在していない場合、CPUはステップ1110にて「Yes」と判定し、以下に述べるステップ1130乃至ステップ1150の処理を順に行い、その後、ステップ1160以降に進む。 On the other hand, when the fusion target does not exist last time, the CPU determines "Yes" in step 1110, performs the processes of steps 1130 to 1150 described below in order, and then proceeds to step 1160 and subsequent steps.

ステップ1130:CPUは、上述した手法に従って、前回フュージョン物標に基づいて推定物標を生成する。このとき、推定物標の識別情報は、その推定物標が生成された元となった前回フュージョン物標情報の識別情報と同一に設定される。
ステップ1140:CPUは、上述した手法に従って、第1グルーピング処理を実行する。
ステップ1150:CPUは、上述した手法に従って、第2グルーピング処理を実行する。
Step 1130: The CPU generates an estimated target based on the previous fusion target according to the technique described above. At this time, the identification information of the estimated target is set to be the same as the identification information of the previous fusion target information from which the estimated target was generated.
Step 1140: The CPU executes the first grouping process according to the method described above.
Step 1150: The CPU executes the second grouping process according to the method described above.

CPUは、ステップ1120又はステップ1150の処理を終了すると、以下に述べるステップ1160乃至ステップ1180の処理を順に行い、ステップ1195に進んで本ルーチンを一旦終了する。 When the CPU finishes the process of step 1120 or step 1150, the process of steps 1160 to 1180 described below is performed in order, and the process proceeds to step 1195 to temporarily end this routine.

ステップ1160:CPUは、上述した手法に従って、ロスト判定を行う。即ち、CPUは、前回フュージョン物標のうち消失したと判定できるフュージョン物標を特定する。
ステップ1170:CPUは、上述した手法に従って、グルーピング物標数が「0」である推定物標に基づいてフュージョン物標を外挿する。
Step 1160: The CPU makes a lost determination according to the method described above. That is, the CPU identifies the fusion target that can be determined to have disappeared from the previous fusion targets.
Step 1170: The CPU extrapolates the fusion target based on the estimated target with a grouping characteristic of "0" according to the technique described above.

ステップ1180:CPUは、上述した手法に従って、フュージョン物標情報を更新する。このとき、CPUは、ステップ1120、ステップ1140及びステップ1150にて生成・更新されたフュージョン物標の中に上述の混在フュージョン物標が存在していれば、その混在フュージョン物標に属する高AGEセンサ物標の中から高精度高AGEセンサ物標を抽出し、その抽出した高精度高AGEセンサ物標のセンサ物標情報に含まれる横位置を用いて混在フュージョン物標FBnの物標幅Wfを演算する。 Step 1180: The CPU updates the fusion target information according to the method described above. At this time, if the above-mentioned mixed fusion target exists in the fusion target generated / updated in step 1120, step 1140, and step 1150, the CPU is a high AGE sensor belonging to the mixed fusion target. A high-precision high-AGE sensor target is extracted from the target, and the horizontal position included in the sensor target information of the extracted high-precision high-AGE sensor target is used to determine the target width Wf of the mixed fusion target FBn. Calculate.

<変形例>
以上、本発明の実施形態について具体的に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的思想に基づく各種の変形が可能である。
<Modification example>
Although the embodiments of the present invention have been specifically described above, the present invention is not limited to the above-described embodiments, and various modifications based on the technical idea of the present invention are possible.

例えば、上述の実施形態において、混在フュージョン物標は、左後方周辺センサ16RL及び右後方周辺センサ16RRの両方により検出されたセンサ物標を含むフュージョン物標であったが、複数の周辺レーダセンサ16aの中から選ばれた他の2つの周辺センサ(例えば、中央前方周辺センサ16FC及び右前方周辺センサ16FRの二つの周辺センサ、或いは、中央前方周辺センサ16FC及び左前方周辺センサ16FLの二つの周辺センサ)により検出されたセンサ物標を含むフュージョン物標であってもよい。 For example, in the above-described embodiment, the mixed fusion target is a fusion target including sensor targets detected by both the left rear peripheral sensor 16RL and the right rear peripheral sensor 16RR, but a plurality of peripheral radar sensors 16a Two other peripheral sensors selected from among (for example, two peripheral sensors of the central front peripheral sensor 16FC and the right front peripheral sensor 16FR, or two peripheral sensors of the central front peripheral sensor 16FC and the left front peripheral sensor 16FL). ) May be a fusion target including the sensor target detected by.

この場合、基準軸線は、一方の周辺センサのレーダ波の放射角度θhと他方の周辺センサのレーダ波の放射角度θhとが同じになる点を結んだ直線である。そして、DSECUは、混在フュージョン物標に属する複数の高AGEセンサ物標の中から、その高AGE物標が基準軸線に対してその二つの周辺センサの何れに近い側に存在しているかに応じて、フュージョン物標の幅Wfを算出するための高精度高AGEセンサ物標を抽出すればよい。 In this case, the reference axis is a straight line connecting points where the radiation angle θh of the radar wave of one peripheral sensor and the radiation angle θh of the radar wave of the other peripheral sensor are the same. Then, the DSECU depends on which of the two peripheral sensors the high AGE target is closer to the reference axis from among the plurality of high AGE sensor targets belonging to the mixed fusion target. Then, a high-precision and high-precision AGE sensor target for calculating the width Wf of the fusion target may be extracted.

更に、複数の周辺レーダセンサ16aの搭載位置は、上述の実施形態に限定されない。加えて、上記実施形態は、センサ物標を高AGEセンサ物標と低AGEセンサ物標とに区別して取り扱っていたが、このような区別は必ずしも必要ない。例えば、周辺レーダセンサ16aは、高AGE物標と判定されたセンサ物標とそのセンサ物標情報のみをDSECUに送信するように構成されていてもよい。 Further, the mounting position of the plurality of peripheral radar sensors 16a is not limited to the above-described embodiment. In addition, in the above embodiment, the sensor target is treated as a high AGE sensor target and a low AGE sensor target separately, but such a distinction is not always necessary. For example, the peripheral radar sensor 16a may be configured to transmit only the sensor target determined to be a high AGE target and the sensor target information thereof to the DESCU.

10…運転支援ECU、15…車速センサ、16a…周辺レーダセンサ、16FC…中央前方周辺センサ、16FR…右前方周辺センサ、16FL…左前方周辺センサ、16RR…右後方周辺センサ、16RL…左後方周辺センサ、16b…カメラセンサ、17…操作スイッチ、52…転舵用モータ、53…ウインカーレバースイッチ 10 ... Driving support ECU, 15 ... Vehicle speed sensor, 16a ... Peripheral radar sensor, 16FC ... Center front peripheral sensor, 16FR ... Right front peripheral sensor, 16FL ... Left front peripheral sensor, 16RR ... Right rear peripheral sensor, 16RL ... Left rear peripheral Sensor, 16b ... Camera sensor, 17 ... Operation switch, 52 ... Steering motor, 53 ... Winker lever switch

Claims (1)

それぞれが、自車両の周辺の範囲であって且つ放射中心軸線に対して左右に所定の角度幅をもつ範囲にレーダ波を放射し、前記放射したレーダ波の立体物による反射点をセンサ物標として検出し、前記検出したセンサ物標の前記自車両に対する縦位置、横位置及び相対速度をセンサ物標情報として取得する、複数のレーダセンサと、
前記センサ物標が複数検出されている場合、前記複数のセンサ物標のうち同一の立体物を検出している可能性が高いセンサ物標同士をグルーピングすることにより当該同一の立体物を示すフュージョン物標を生成するフュージョン物標生成手段と、
前記フュージョン物標の属性値の一つである当該フュージョン物標の幅を、当該フュージョン物標を生成するようにグルーピングされた前記センサ物標の前記センサ物標情報に基づいて算出するフュージョン物標情報算出手段と、
を備えた物標情報取得装置において、
前記複数のレーダセンサは、
第1レーダセンサ及び第2レーダセンサを含み、前記第1レーダセンサが前記センサ物標を検出可能な領域である第1領域と前記第2レーダセンサが前記センサ物標を検出可能な領域である第2領域とが重複する領域を有するように前記自車両に搭載され、
前記フュージョン物標情報算出手段は、
前記フュージョン物標を生成するようにグルーピングされた前記センサ物標のうちの少なくとも一つが前記第1レーダセンサによって検出されたセンサ物標である第1センサ物標であり、且つ、前記フュージョン物標を生成するようにグルーピングされた前記センサ物標のうちの少なくとも他の一つが前記第2レーダセンサによって検出されたセンサ物標である第2センサ物標である場合、
前記第2センサ物標が、前記第1レーダセンサの前記放射中心軸線との成す角度である第1レーダセンサ放射角度と前記第2レーダセンサの前記放射中心軸線との成す角度である第2レーダセンサ放射角度とが等しくなる点の集合である基準軸線に対して前記第1レーダセンサに近い側の領域に位置しているときには、前記第2センサ物標の前記センサ物標情報を用いることなく前記第1センサ物標の前記センサ物標情報に含まれる前記横位置を用いて前記フュージョン物標の幅を算出し、
前記第1センサ物標が、前記基準軸線に対して前記第2レーダセンサに近い側の領域に位置しているときには、前記第1センサ物標の前記センサ物標情報を用いることなく前記第2センサ物標の前記センサ物標情報に含まれる前記横位置を用いて前記フュージョン物標の幅を算出する、
ように構成された、物標情報取得装置。
Each emits radar waves in a range around the own vehicle and having a predetermined angular width to the left and right with respect to the radiation center axis, and the point of reflection of the emitted radar waves by a three-dimensional object is a sensor target. A plurality of radar sensors that detect as, and acquire the vertical position, horizontal position, and relative speed of the detected sensor target with respect to the own vehicle as sensor target information.
When a plurality of the sensor targets are detected, fusion indicating the same three-dimensional object by grouping the sensor targets that are likely to detect the same three-dimensional object among the plurality of sensor targets. Fusion target generation means for generating targets, and
The width of the fusion target, which is one of the attribute values of the fusion target, is calculated based on the sensor target information of the sensor targets grouped so as to generate the fusion target. Information calculation means and
In the target information acquisition device equipped with
The plurality of radar sensors
A first region including a first radar sensor and a second radar sensor, which is a region where the first radar sensor can detect the sensor target and a region where the second radar sensor can detect the sensor target. It is mounted on the own vehicle so as to have an area overlapping with the second area.
The fusion target information calculation means
At least one of the sensor targets grouped so as to generate the fusion target is a first sensor target which is a sensor target detected by the first radar sensor, and the fusion target. When at least the other one of the sensor targets grouped to generate is a second sensor target, which is a sensor target detected by the second radar sensor.
The second radar, which is the angle between the radiation center axis of the first radar sensor and the radiation center axis of the second radar sensor, which is the angle formed by the second sensor target with the radiation center axis of the first radar sensor. When the sensor is located in a region close to the first radar sensor with respect to the reference axis, which is a set of points equal to the sensor radiation angle, the sensor target information of the second sensor target is not used. The width of the fusion target is calculated using the horizontal position included in the sensor target information of the first sensor target.
When the first sensor target is located in a region closer to the second radar sensor with respect to the reference axis, the second sensor target information of the first sensor target is not used. The width of the fusion target is calculated using the horizontal position included in the sensor target information of the sensor target.
A target information acquisition device configured as follows.
JP2017114780A 2017-06-09 2017-06-09 Target information acquisition device Active JP6805970B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017114780A JP6805970B2 (en) 2017-06-09 2017-06-09 Target information acquisition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017114780A JP6805970B2 (en) 2017-06-09 2017-06-09 Target information acquisition device

Publications (2)

Publication Number Publication Date
JP2019002691A JP2019002691A (en) 2019-01-10
JP6805970B2 true JP6805970B2 (en) 2020-12-23

Family

ID=65006014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017114780A Active JP6805970B2 (en) 2017-06-09 2017-06-09 Target information acquisition device

Country Status (1)

Country Link
JP (1) JP6805970B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7397609B2 (en) 2019-09-24 2023-12-13 株式会社Subaru Driving environment recognition device
CN110874848A (en) * 2019-11-20 2020-03-10 东软睿驰汽车技术(沈阳)有限公司 Object tracking method and device based on millimeter wave radar
CN111289969B (en) * 2020-03-27 2022-03-04 北京润科通用技术有限公司 Vehicle-mounted radar moving target fusion method and device
JP7296345B2 (en) * 2020-06-26 2023-06-22 酒井重工業株式会社 Obstacle detection device for compaction roller
JP7414025B2 (en) 2021-01-21 2024-01-16 トヨタ自動車株式会社 Collision avoidance support device

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4082286B2 (en) * 2003-06-16 2008-04-30 日産自動車株式会社 Front object position detection device
JP2009222455A (en) * 2008-03-14 2009-10-01 Hitachi Ltd Radar system
JP4680294B2 (en) * 2008-12-26 2011-05-11 トヨタ自動車株式会社 Object detection apparatus and object detection method
JP2010249613A (en) * 2009-04-14 2010-11-04 Toyota Motor Corp Obstacle recognition device and vehicle control unit
JP5206579B2 (en) * 2009-05-12 2013-06-12 トヨタ自動車株式会社 Object detection device
JP4948689B1 (en) * 2011-10-06 2012-06-06 アジア航測株式会社 Laser ortho image generating apparatus and program thereof
JP5724955B2 (en) * 2012-06-22 2015-05-27 トヨタ自動車株式会社 Object detection apparatus, information processing apparatus, and object detection method
JP2014145731A (en) * 2013-01-30 2014-08-14 Toyota Motor Corp Target detection apparatus and target detection method
JP5842862B2 (en) * 2013-05-14 2016-01-13 株式会社デンソー Collision mitigation device
US9255988B2 (en) * 2014-01-16 2016-02-09 GM Global Technology Operations LLC Object fusion system of multiple radar imaging sensors
JP6770299B2 (en) * 2015-03-25 2020-10-14 パナソニック株式会社 Object detection device and object detection method

Also Published As

Publication number Publication date
JP2019002691A (en) 2019-01-10

Similar Documents

Publication Publication Date Title
US10457278B2 (en) Lane changing support apparatus
CN109572672B (en) Vehicle driving assistance device
US10515278B2 (en) Driving assistance device
JP6572880B2 (en) Driving assistance device
JP6805970B2 (en) Target information acquisition device
JP6816658B2 (en) Target information acquisition device
CN108238047B (en) Driving support device
JP6898591B2 (en) Vehicle driving support device
EP2803546B1 (en) Collision mitigation apparatus
JP6825528B2 (en) Vehicle driving support device
JP2019038314A (en) Vehicle driving support device
JP6828602B2 (en) Target detection device
JP2019012323A (en) Vehicle controller
CN110893855B (en) Vehicle lane change assist device
JP6432538B2 (en) Collision prediction device
JP7067379B2 (en) Vehicle lane change support device
JP6828603B2 (en) Target detection device
JP6825527B2 (en) Vehicle driving support device
JP6963211B2 (en) Vehicle driving support device
JP2018144577A (en) Drive assisting device
JP2020155007A (en) Pre-collision controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201117

R151 Written notification of patent or utility model registration

Ref document number: 6805970

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151