JP6828603B2 - Target detection device - Google Patents

Target detection device Download PDF

Info

Publication number
JP6828603B2
JP6828603B2 JP2017114777A JP2017114777A JP6828603B2 JP 6828603 B2 JP6828603 B2 JP 6828603B2 JP 2017114777 A JP2017114777 A JP 2017114777A JP 2017114777 A JP2017114777 A JP 2017114777A JP 6828603 B2 JP6828603 B2 JP 6828603B2
Authority
JP
Japan
Prior art keywords
target
sensor
fusion
vehicle
extrapolation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017114777A
Other languages
Japanese (ja)
Other versions
JP2019002690A (en
Inventor
俊介 宮田
俊介 宮田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017114777A priority Critical patent/JP6828603B2/en
Publication of JP2019002690A publication Critical patent/JP2019002690A/en
Application granted granted Critical
Publication of JP6828603B2 publication Critical patent/JP6828603B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両(自車両)の周辺に存在する立体物(例えば、他の車両)の幅及び長さ等の物標情報を取得する物標検出装置に関する。 The present invention relates to a target detection device that acquires target information such as the width and length of a three-dimensional object (for example, another vehicle) existing around a vehicle (own vehicle).

従来から、車線変更を行うための操舵操作(ハンドル操作)を支援する車線変更支援装置が知られている(例えば、特許文献1を参照。)。車線変更支援装置は、車両に備えられた複数のレーダセンサ(例えば、ミリ波レーダやレーザレーダなど)によって、車両の周囲に存在する立体物(例えば、他車両)を検出し、その立体物の自車両に対する「縦位置、横位置及び相対車速」、並びに、その立体物の「幅及び長さ」等の情報(以下、「物標情報」とも称呼する。)を取得する。そして、車線変更支援装置は、取得した物標情報に基づいて、自車両が車線変更を行っても安全であるかどうかを監視し、安全であると判定した場合に車線変更支援を実行する。このような、「自車両の周辺に存在する立体物の物標情報を取得する物標検出装置」は、車線変更支援装置に限らず、他の運転支援装置にも採用される。 Conventionally, a lane change support device that supports a steering operation (steering wheel operation) for changing lanes has been known (see, for example, Patent Document 1). The lane change support device detects a three-dimensional object (for example, another vehicle) existing around the vehicle by a plurality of radar sensors (for example, millimeter-wave radar and laser radar) provided in the vehicle, and the three-dimensional object is detected. Obtains information such as "vertical position, horizontal position and relative vehicle speed" for the own vehicle and "width and length" of the three-dimensional object (hereinafter, also referred to as "target information"). Then, the lane change support device monitors whether or not the own vehicle is safe even if the vehicle changes lanes based on the acquired target information, and executes lane change support when it is determined that the vehicle is safe. Such a "target detection device that acquires target information of a three-dimensional object existing around the own vehicle" is adopted not only in the lane change support device but also in other driving support devices.

特開2009−274594号公報JP-A-2009-274594

ところで、レーダセンサは、周知であるように、自身の周囲にレーダ波を送信し且つそのレーダ波が立体物によって反射されることにより生成される反射波を受信し、その受信した反射波に基づいて物標を認識し且つ物標情報を取得する。このため、自車両に搭載されているレーダセンサの検知範囲、性能及び周辺環境の少なくとも一つによって、自車両の周囲に存在する物標が一時的に検知されないことが生じ得るため、自車両の周囲の物標の存在を正確に判断できない可能性がある。 By the way, as is well known, a radar sensor transmits a radar wave around itself, receives a reflected wave generated by the radar wave being reflected by a three-dimensional object, and is based on the received reflected wave. Recognize the target and acquire the target information. For this reason, the detection range, performance, and at least one of the surrounding environment of the radar sensor mounted on the own vehicle may temporarily prevent the target existing around the own vehicle from being detected. It may not be possible to accurately determine the presence of surrounding objects.

そのため、従来の物標検出装置において、レーダセンサによって、物標が検知されなくなった後、物標が再検知されない限り、外挿処理を行うことにより途切れない物体検知を実行することが行われている。更に、従来の物標検出装置において、外挿処理を最大外挿継続時間以上行ったときに、外挿処理を行ったセンサ物標がロストした(存在しなくなった)と判定することが行われている。 Therefore, in the conventional target detection device, after the target is no longer detected by the radar sensor, uninterrupted object detection is performed by performing extrapolation processing unless the target is re-detected. There is. Further, in the conventional target detection device, when the extrapolation process is performed for the maximum extrapolation duration or longer, it is determined that the sensor target for which the extrapolation process has been performed has been lost (no longer exists). ing.

尚、外挿処理(単に「外挿」と称呼される場合がある。)とは、検知されていた物標の検知されていたときの物標情報又は当該物標情報に基づいて推定した物標情報に基づいて、検知されなくなった物標の物標情報を推定し、検知されなくなった物標の物標情報を推定した物標情報によって置換することによって物標を外挿する処理のことをいう。 The extrapolation process (sometimes referred to simply as "extrapolation") is the target information of the detected target when it was detected or an estimated value based on the target information. A process of extrapolating a target by estimating the target information of the undetected target based on the target information and replacing the target information of the undetected target with the estimated target information. To say.

更に、従来装置において、物標が継続して検知される継続演算回数に比例して、一定の上昇率にて増加するパラメータ(以下、「存在確率」とも称呼される。)の大きさが大きくなるほど、最大外挿継続時間が、長くなるように設定されることが行われている。 Further, in the conventional device, the magnitude of the parameter (hereinafter, also referred to as “existence probability”) that increases at a constant rate of increase in proportion to the number of continuous operations in which the target is continuously detected is large. Indeed, the maximum extrapolation duration is set to be long.

更に、従来装置において、一つの立体物から得られている可能性が高い複数の物標をグルーピングすることにより、その一つの立体物に対応する複数の物標が示す一つの物標(「フュージョン物標」とも称呼される。)を認識することが行われている。 Further, in the conventional device, by grouping a plurality of targets that are likely to be obtained from one three-dimensional object, one target indicated by the plurality of targets corresponding to the one three-dimensional object (“fusion”). It is also called a "target").

この場合、検知されていた一つの立体物に対応する複数の物標のうちの一つの物標がロストと判定された場合でも、一つの立体物に対応する他の物標が一つでも検知されていれば、その一つの立体物に対応するフュージョン物標は継続して認識される。一方で、一つの立体物に対応する複数の物標の全てが検出されなくなれば、そのフュージョン物標はロストと判定されてしまう。 In this case, even if one of the plurality of targets corresponding to one three-dimensional object that has been detected is determined to be lost, even one other target corresponding to one three-dimensional object is detected. If so, the fusion target corresponding to the one solid object is continuously recognized. On the other hand, if all of the plurality of targets corresponding to one three-dimensional object are not detected, the fusion target is determined to be lost.

ところで、一つの立体物から得られる複数の異なる物標が交互に検知を繰り返す場合や一つの立体物から得られる一つの物標が、短期間且つ一時的に検知及びロストを繰り返す場合がある。これらの場合、物標が継続して検知される継続演算回数が少ないため、存在確率が小さくなって、その物標の最大外挿継続時間も短くなり、一つの立体物に対応するフュージョン物標の認識が短期間且つ一時的に途切れてしまうことがあり得る。 By the way, a plurality of different targets obtained from one three-dimensional object may alternately repeat detection, or one target obtained from one three-dimensional object may repeat detection and loss temporarily for a short period of time. In these cases, since the number of continuous operations for continuously detecting the target is small, the existence probability is small, the maximum extrapolation duration of the target is also short, and the fusion target corresponding to one three-dimensional object is used. Recognition may be interrupted for a short period of time and temporarily.

本発明は上述した課題に対処するためになされた。即ち、本発明の目的の一つは、一つの立体物に対応する複数の物標が示す一つのフュージョン物標を認識する場合に、フュージョン物標の認識が短期間且つ一時的に途切れてしまう可能性を低くすることができる物標検出装置(以下、「本発明装置」とも称呼する。)を提供することにある。 The present invention has been made to address the above-mentioned problems. That is, one of the objects of the present invention is that when recognizing one fusion target indicated by a plurality of targets corresponding to one three-dimensional object, the recognition of the fusion target is interrupted for a short period of time and temporarily. It is an object of the present invention to provide a target detection device (hereinafter, also referred to as "device of the present invention") capable of reducing the possibility.

本発明装置は、それぞれが、自車両の周囲に送信するレーダ波の立体物による反射点をセンサ物標として検出し、前記検出したセンサ物標の前記自車両に対する縦距離、横位置及び相対速度を含むセンサ物標情報を取得するための位置速度情報を検出する複数のレーダセンサ(16FC、16FL、16FR、16RL及び16RR)と、
所定時間が経過する毎に、前記センサ物標に基づいて前記自車両の周囲に存在する立体物を示すフュージョン物標を生成し、前記生成したフュージョン物標の前記自車両に対する位置及び速度を前記センサ物標情報に基づいて算出するフュージョン物標生成手段(10)と、
前記フュージョン物標の存在確率(Trst)を演算する存在確率演算手段(10)と、
前記所定時間前に生成されていた前記フュージョン物標である特定フュージョン物標に対応するセンサ物標が検出されなくなった場合、当該特定フュージョン物標に対応する前記センサ物標が検出されない限り、前記特定フュージョン物標の前記自車両に対する位置及び速度に基づいて、当該特定フュージョン物標に対応する外挿フュージョン物標を生成する外挿処理を行う外挿処理手段(10)と、
前記外挿処理を最大外挿継続時間以上行ったときに当該外挿処理を行った前記センサ物標が存在しないと判定するセンサ物標存在判定手段と、
前記存在確率及び前記特定フュージョン物標の縦相対速度に基づいて前記外挿処理を行う時間の最大値である最大外挿継続時間を演算する最大外挿継続時間演算手段(10)と
を備え、
前記存在確率演算手段は、
前記フュージョン物標が生成されている場合に当該フュージョン物標の縦相対速度の大きさが大きくなるほど前記存在確率の上昇率が大きくなるように当該フュージョン物標の縦相対速度に基づいて当該存在確率の上昇率を求めるとともに、前記フュージョン物標が継続して生成されている時間に対応する値と前記存在確率の上昇率とに基づいて決定される前記存在確率の増大量を積算することによって前記存在確率を算出する(ステップ1422)ように構成され、
前記最大外挿継続時間演算手段は、
前記存在確率が大きくなるほど前記最大外挿継続時間が長くなり、且つ、前記縦相対速度の大きさが小さくなるほど前記最大外挿継続時間が長くなるように、前記最大外挿継続時間を演算する(ステップ1430)ように構成されている。
Each device of the present invention detects the reflection point of the radar wave transmitted around the own vehicle by a three-dimensional object as a sensor target, and the vertical distance, the horizontal position, and the relative speed of the detected sensor target with respect to the own vehicle. A plurality of radar sensors (16FC, 16FL, 16FR, 16RL and 16RR) for detecting position / velocity information for acquiring sensor target information including
Every time a predetermined time elapses, a fusion target indicating a three-dimensional object existing around the own vehicle is generated based on the sensor target, and the position and speed of the generated fusion target with respect to the own vehicle are determined. Fusion target generation means (10) calculated based on sensor target information, and
Existence probability calculation means (10) for calculating the existence probability (Trst) of the fusion target, and
When the sensor target corresponding to the specific fusion target, which is the fusion target generated before the predetermined time, is no longer detected, the sensor target corresponding to the specific fusion target is not detected. An extrapolation processing means (10) that performs extrapolation processing to generate an extrapolation fusion target corresponding to the specific fusion target based on the position and speed of the specific fusion target with respect to the own vehicle.
When the extrapolation process is performed for the maximum extrapolation duration or longer, the sensor target presence determination means for determining that the sensor target for which the extrapolation process has been performed does not exist, and
It is provided with a maximum extrapolation duration calculation means (10) for calculating the maximum extrapolation duration, which is the maximum value of the time for performing the extrapolation process based on the existence probability and the vertical relative velocity of the specific fusion target.
The existence probability calculation means
The existence probability on the basis of the longitudinal relative velocity of the fusion object to longitudinal relative velocity magnitude is larger the increase rate of the existence probability of the fusion object is increased when the fusion objects is generated The increase rate of the existence probability is obtained, and the increase amount of the existence probability determined based on the value corresponding to the time during which the fusion target is continuously generated and the increase rate of the existence probability is integrated. It is configured to calculate the probability of existence (step 1422).
The maximum extrapolation duration calculation means is
The maximum extrapolation duration is calculated so that the larger the existence probability is, the longer the maximum extrapolation duration is, and the smaller the magnitude of the longitudinal relative velocity is, the longer the maximum extrapolation duration is. It is configured as in step 1430).

これによれば、フュージョン物標が継続して生成され続けている時間が長くなるほど増加するパラメータである存在確率を、フュージョン物標に対して設定している。これにより、フュージョン物標が生成され続けている時間に応じた適切な存在確率を設定することができると共に、その存在確率に応じた適切な最大外挿継続時間を決定することができる。 According to this, the existence probability, which is a parameter that increases as the time during which the fusion target is continuously generated increases, is set for the fusion target. Thereby, an appropriate existence probability can be set according to the time during which the fusion target continues to be generated, and an appropriate maximum extrapolation duration can be determined according to the existence probability.

その結果、一つの立体物から得られるセンサ物標が、以下のように検出される場合において、一つの立体物に対応するフュージョン物標の認識が短期間且つ一時的に途切れてしまう可能性を低くすることができる。
・一つの立体物から得られる複数の異なるセンサ物標が、交互に検知を繰り返す場合
・一つの立体物から得られる一つのセンサ物標が、短期間且つ一時的に検知及びロストを繰り返す場合
As a result, when the sensor target obtained from one three-dimensional object is detected as follows, the recognition of the fusion target corresponding to one three-dimensional object may be interrupted for a short period of time and temporarily. Can be lowered.
-When multiple different sensor targets obtained from one three-dimensional object repeat detection alternately-When one sensor target obtained from one three-dimensional object repeatedly detects and loses temporarily for a short period of time

上記説明においては、本発明の理解を助けるために、後述する実施形態に対応する発明の構成に対し、その実施形態で用いた名称及び/又は符号を括弧書きで添えている。しかしながら、本発明の各構成要素は、上記名称及び/又は符号によって規定される実施形態に限定されるものではない。本発明の他の目的、他の特徴及び付随する利点は、以下の図面を参照しつつ記述される本発明の実施形態についての説明から容易に理解されるであろう。 In the above description, in order to help the understanding of the present invention, the names and / or symbols used in the embodiments are added in parentheses to the configurations of the invention corresponding to the embodiments described later. However, each component of the present invention is not limited to the embodiment defined by the above name and / or reference numeral. Other objects, other features and accompanying advantages of the present invention will be readily understood from the description of embodiments of the present invention described with reference to the following drawings.

図1は、本発明の実施形態に係る運転支援装置の概略構成図である。FIG. 1 is a schematic configuration diagram of a driving support device according to an embodiment of the present invention. 図2は、図1に示した周辺レーダセンサの配設位置を示した自車両の平面図である。FIG. 2 is a plan view of the own vehicle showing the arrangement position of the peripheral radar sensor shown in FIG. 図3は、車線維持制御を説明するための自車両及び道路の平面図である。FIG. 3 is a plan view of the own vehicle and the road for explaining the lane keeping control. 図4(A)、(B)及び(C)は、センサ物標を統合するグルーピング処理を説明するための図である。4 (A), (B) and (C) are diagrams for explaining a grouping process for integrating sensor targets. 図5(A)及び(B)は、センサ物標を統合するグルーピング処理を説明するための図である。5 (A) and 5 (B) are diagrams for explaining a grouping process for integrating sensor targets. 図6は、センサ物標を統合するグルーピング処理を説明するための図である。FIG. 6 is a diagram for explaining a grouping process for integrating sensor targets. 図7は、フュージョン物標の外挿を説明するための自車両、立体物及び道路の平面図である。FIG. 7 is a plan view of the own vehicle, a three-dimensional object, and a road for explaining the extrapolation of the fusion target. 図8は、縦相対速度の絶対値と上昇率と関係を示したグラフである。FIG. 8 is a graph showing the relationship between the absolute value of the vertical relative velocity and the rate of increase. 図9は、縦相対速度の絶対値と最大外挿時間と存在確率との関係を示したグラフである。FIG. 9 is a graph showing the relationship between the absolute value of the vertical relative velocity, the maximum extrapolation time, and the existence probability. 図10は、実施例を説明するためのタイムチャートである。FIG. 10 is a time chart for explaining an embodiment. 図11は、参考例を説明するためのタイムチャートである。FIG. 11 is a time chart for explaining a reference example. 図12は、図1に示した運転支援ECUのCPUが実行するルーチンを示したフローチャートである。FIG. 12 is a flowchart showing a routine executed by the CPU of the driving support ECU shown in FIG. 図13は、図1に示した運転支援ECUのCPUが実行するルーチンを示したフローチャートである。FIG. 13 is a flowchart showing a routine executed by the CPU of the driving support ECU shown in FIG. 図14は、図1に示した運転支援ECUのCPUが実行するルーチンを示したフローチャートである。FIG. 14 is a flowchart showing a routine executed by the CPU of the driving support ECU shown in FIG. 図15は、図1に示した運転支援ECUのCPUが実行するルーチンを示したフローチャートである。FIG. 15 is a flowchart showing a routine executed by the CPU of the driving support ECU shown in FIG.

以下、本発明の実施形態に係る物標情報取得装置について図面を参照しながら説明する。この物標情報取得装置は、運転支援制御装置(車両走行制御装置)の一部である車線変更支援装置(以下、「本実施装置」とも称呼される。)に組み込まれている。 Hereinafter, the target information acquisition device according to the embodiment of the present invention will be described with reference to the drawings. This target information acquisition device is incorporated in a lane change support device (hereinafter, also referred to as "this implementation device") which is a part of a driving support control device (vehicle travel control device).

(構成)
本実施装置は、図1に示したように、車両(以下において、他の車両と区別するために、「自車両」と称呼される。)に適用され、運転支援ECU10、エンジンECU30、ブレーキECU40、ステアリングECU50、メータECU60及び表示ECU70を備えている。尚、以下において、運転支援ECU10は、単に、「DSECU」とも称呼される。
(Constitution)
As shown in FIG. 1, the present implementation device is applied to a vehicle (hereinafter, referred to as "own vehicle" to distinguish it from other vehicles), and is applied to a driving support ECU 10, an engine ECU 30, and a brake ECU 40. , Steering ECU 50, meter ECU 60 and display ECU 70. In the following, the driving support ECU 10 is also simply referred to as a “DS ECU”.

これらのECUは、マイクロコンピュータを主要部として備える電気制御装置(Electric Control Unit)であり、図示しないCAN(Controller Area Network)を介して相互に情報を送信可能及び受信可能に接続されている。本明細書において、マイクロコンピュータは、CPU、ROM、RAM、不揮発性メモリ及びインターフェースI/F等を含む。CPUはROMに格納されたインストラクション(プログラム、ルーチン)を実行することにより各種機能を実現するようになっている。これらのECUは、幾つか又は全部が一つのECUに統合されてもよい。 These ECUs are electric control units (Electric Control Units) including a microcomputer as a main part, and are connected to each other so as to be able to transmit and receive information via a CAN (Controller Area Network) (not shown). In the present specification, the microcomputer includes a CPU, ROM, RAM, non-volatile memory, interface I / F, and the like. The CPU realizes various functions by executing instructions (programs, routines) stored in ROM. Some or all of these ECUs may be integrated into one ECU.

DSECUは、以下に列挙するセンサ(スイッチを含む。)と接続されていて、それらのセンサの検出信号又は出力信号を受信するようになっている。尚、各センサは、DSECU以外のECUに接続されていてもよい。その場合、DSECUは、センサが接続されたECUからCANを介してそのセンサの検出信号又は出力信号を受信する。 The DSECU is connected to the sensors (including switches) listed below and is adapted to receive detection signals or output signals of those sensors. Each sensor may be connected to an ECU other than the DSECU. In that case, the DSECU receives the detection signal or the output signal of the sensor from the ECU to which the sensor is connected via the CAN.

アクセルペダル操作量センサ11は、自車両のアクセルペダル11aの操作量(アクセル開度)を検出し、アクセルペダル操作量APを表す信号を出力するようになっている。 ブレーキペダル操作量センサ12は、自車両のブレーキペダル12aの操作量を検出し、ブレーキペダル操作量BPを表す信号を出力するようになっている。 The accelerator pedal operation amount sensor 11 detects the operation amount (accelerator opening degree) of the accelerator pedal 11a of the own vehicle, and outputs a signal representing the accelerator pedal operation amount AP. The brake pedal operation amount sensor 12 detects the operation amount of the brake pedal 12a of the own vehicle and outputs a signal indicating the brake pedal operation amount BP.

操舵角センサ13は、自車両の操舵角を検出し、操舵角θを表す信号を出力するようになっている。
操舵トルクセンサ14は、操舵ハンドルSWの操作により自車両のステアリングシャフトUSに加わる操舵トルクを検出し、操舵トルクTraを表す信号を出力するようになっている。
車速センサ15は、自車両の走行速度(車速)を検出し、車速Vsxを表す信号を出力するようになっている。即ち、車速Vsxは、車両の前後方向(自車両の前後方向に伸びる中心軸線に沿う方向)の速度(即ち、縦速度)である。
The steering angle sensor 13 detects the steering angle of the own vehicle and outputs a signal representing the steering angle θ.
The steering torque sensor 14 detects the steering torque applied to the steering shaft US of the own vehicle by operating the steering handle SW, and outputs a signal representing the steering torque Tra.
The vehicle speed sensor 15 detects the traveling speed (vehicle speed) of the own vehicle and outputs a signal representing the vehicle speed Vsx. That is, the vehicle speed Vsx is the speed (that is, the vertical speed) in the front-rear direction of the vehicle (the direction along the central axis extending in the front-rear direction of the own vehicle).

周辺センサ16は、周辺レーダセンサ16a及びカメラセンサ16bを備えている。 The peripheral sensor 16 includes a peripheral radar sensor 16a and a camera sensor 16b.

周辺レーダセンサ16aは、図2に示したように、中央前方周辺センサ16FC、右前方周辺センサ16FR、左前方周辺センサ16FL、右後方周辺センサ16RR、及び、左後方周辺センサ16RLを備えている。 As shown in FIG. 2, the peripheral radar sensor 16a includes a central front peripheral sensor 16FC, a right front peripheral sensor 16FR, a left front peripheral sensor 16FL, a right rear peripheral sensor 16RR, and a left rear peripheral sensor 16RL.

周辺センサ16FC,16FR,16FL,16RR及び16RLを個々に区別する必要が無い場合には、それらは周辺レーダセンサ16aと称呼される。周辺センサ16FC,16FR,16FL,16RR及び16RLは、実質的に互いに同一の構成を有する。 Peripheral sensors 16FC, 16FR, 16FL, 16RR and 16RL are referred to as peripheral radar sensors 16a when it is not necessary to distinguish them individually. The peripheral sensors 16FC, 16FR, 16FL, 16RR and 16RL have substantially the same configuration as each other.

周辺レーダセンサ16aは、レーダ送受信部と信号処理部(図示略)とを備えている。レーダ送受信部は、ミリ波帯の電波であるレーダ波(以下、「ミリ波」と称呼する。)を放射し、更に、放射範囲内に存在する立体物(例えば、他車両、歩行者、自転車及び建造物等)によって反射されたミリ波(即ち、反射波)を受信する。レーダ波を反射する立体物の点は「反射点」とも称呼される。 The peripheral radar sensor 16a includes a radar transmission / reception unit and a signal processing unit (not shown). The radar transmitter / receiver emits radar waves (hereinafter referred to as "millimeter waves"), which are radio waves in the millimeter wave band, and further, three-dimensional objects (for example, other vehicles, pedestrians, bicycles) existing within the radiation range. And receive millimeter waves (ie, reflected waves) reflected by buildings, etc.). A point of a three-dimensional object that reflects radar waves is also called a "reflection point".

信号処理部は、送信したミリ波と受信した反射波との位相差、それらの周波数差、及び、反射波の減衰レベル及びミリ波を送信してから反射波を受信するまでの時間等に基づいて、自車両SVと立体物の反射点との距離、自車両SVと立体物の反射点との相対速度、及び、自車両SVに対する立体物の反射点の方位、を表す反射点情報を所定時間が経過する毎に取得してDSECUに供給する。この立体物の反射点は物標と見做され、且つ、「センサ物標」と称呼される。 The signal processing unit is based on the phase difference between the transmitted millimeter wave and the received reflected wave, their frequency difference, the attenuation level of the reflected wave, the time from the transmission of the millimeter wave to the reception of the reflected wave, and the like. Therefore, the reflection point information indicating the distance between the own vehicle SV and the reflection point of the three-dimensional object, the relative speed between the own vehicle SV and the reflection point of the three-dimensional object, and the direction of the reflection point of the three-dimensional object with respect to the own vehicle SV is predetermined. It is acquired every time the time elapses and supplied to the DSECU. The reflection point of this three-dimensional object is regarded as a target and is also called a "sensor target".

中央前方周辺センサ16FCは、車体のフロント中央部に設けられ、自車両SVの前方領域に存在するセンサ物標を検出する。右前方周辺センサ16FRは、車体の右前コーナー部に設けられ、主に自車両SVの右前方領域に存在するセンサ物標を検出する。左前方周辺センサ16FLは、車体の左前コーナー部に設けられ、主に自車両SVの左前方領域に存在するセンサ物標を検出する。右後方周辺センサ16RRは、車体の右後コーナー部に設けられ、主に自車両SVの右後方領域に存在するセンサ物標を検出する。左後方周辺センサ16RLは、車体の左後コーナー部に設けられ、主に自車両SVの左後方領域に存在するセンサ物標を検出する。例えば、周辺レーダセンサ16aは、自車両SVからの距離が100メートル程度の範囲に入るセンサ物標を検出する。尚、周辺レーダセンサ16aはミリ波帯以外の周波数帯の電波(レーダ波)を用いるレーダセンサであってもよい。 The center front peripheral sensor 16FC is provided in the front center portion of the vehicle body and detects a sensor target existing in the front region of the own vehicle SV. The right front peripheral sensor 16FR is provided at the right front corner of the vehicle body, and mainly detects a sensor target existing in the right front region of the own vehicle SV. The left front peripheral sensor 16FL is provided at the left front corner of the vehicle body, and mainly detects a sensor target existing in the left front region of the own vehicle SV. The right rear peripheral sensor 16RR is provided at the right rear corner of the vehicle body, and mainly detects a sensor target existing in the right rear region of the own vehicle SV. The left rear peripheral sensor 16RL is provided at the left rear corner of the vehicle body, and mainly detects a sensor target existing in the left rear region of the own vehicle SV. For example, the peripheral radar sensor 16a detects a sensor target whose distance from the own vehicle SV is within a range of about 100 meters. The peripheral radar sensor 16a may be a radar sensor that uses radio waves (radar waves) in a frequency band other than the millimeter wave band.

DSECUは、図2に示したように、X−Y座標を規定している。X軸は、自車両SVの前後方向に沿って自車両SVの前端部の幅方向中心位置を通るように伸び、前方を正の値として有する座標軸である。Y軸は、X軸と直交し、自車両SVの左方向を正の値として有する座標軸である。X軸の原点及びY軸の原点は、自車両SVの前端部の幅方向中心位置である。 As shown in FIG. 2, the DSECU defines the XY coordinates. The X-axis is a coordinate axis that extends along the front-rear direction of the own vehicle SV so as to pass through the center position in the width direction of the front end portion of the own vehicle SV and has the front as a positive value. The Y-axis is a coordinate axis that is orthogonal to the X-axis and has a positive value in the left direction of the own vehicle SV. The origin of the X-axis and the origin of the Y-axis are the center positions in the width direction of the front end portion of the own vehicle SV.

周辺レーダセンサ16aは、上述した反射点情報に基づいて、以下に述べる「センサ物標についての情報」をDSECUに所定時間(演算周期)が経過する毎に送信する。センサ物標についての情報は、以下、「センサ物標情報」と称呼される。なお、DSECUは、演算周期が経過する毎に、上述した反射点情報を周辺レーダセンサ16aから直接取得して、反射点情報に基づいて「センサ物標情報」を演算して求めるようにして、センサ物標情報を取得してもよい。 Based on the above-mentioned reflection point information, the peripheral radar sensor 16a transmits the following "information about the sensor target" to the DSPE every time a predetermined time (calculation cycle) elapses. The information about the sensor target is hereinafter referred to as "sensor target information". Each time the calculation cycle elapses, the DSPE directly acquires the above-mentioned reflection point information from the peripheral radar sensor 16a, and calculates and obtains the "sensor target information" based on the reflection point information. Sensor target information may be acquired.

・センサ物標のX座標位置(Xobj)。即ち、自車両SVとセンサ物標とのX軸方向の符号付き距離。X座標位置Xobjは、縦距離Xobj又は縦位置Xobjとも称呼される。
・センサ物標のY座標位置(Yobj)。即ち、自車両SVとセンサ物標とのY軸方向の符号付き距離。Y座標位置Yobjは、横位置Yobjとも称呼される。
・センサ物標の自車両SVに対するX軸方向の速度(即ち、縦相対速度)Vxobj。尚、縦相対速度Vxobjの大きさ(|Vxobj|)は縦絶対速度Vaxobjと表記される場合がある。縦絶対速度Vaxobjは、縦相対速度Vxobjに自車両SVの車速Vが加えられた値である。
・センサ物標の自車両SVに対するY軸方向の速度(即ち、横相対速度)Vyobj。尚、横相対速度Vyobjの大きさ(|Vyobj|)は横絶対速度Vayobjと表記される場合がある。横絶対速度Vayobjは、横相対速度Vyobjと等しい値に設定される。
・センサ物標を識別(特定)するためのセンサ物標識別情報(センサ物標ID)
-X coordinate position (Xobj) of the sensor target. That is, the signed distance between the own vehicle SV and the sensor target in the X-axis direction. The X coordinate position Xobj is also referred to as a vertical distance Xobj or a vertical position Xobj.
-Y coordinate position (Yobj) of the sensor target. That is, the signed distance between the own vehicle SV and the sensor target in the Y-axis direction. The Y coordinate position Yobj is also referred to as a horizontal position Yobj.
-Velocity (that is, vertical relative velocity) Vxobj in the X-axis direction with respect to the own vehicle SV of the sensor target. The magnitude of the vertical relative velocity Vxobj (| Vxobj |) may be expressed as the vertical absolute velocity Vxobj. The vertical absolute speed Vaxobj is a value obtained by adding the vehicle speed V of the own vehicle SV to the vertical relative speed Vxobj.
-Velocity in the Y-axis direction (that is, lateral relative velocity) Vyobj of the sensor target with respect to the own vehicle SV. The magnitude of the lateral relative velocity Vyobj (| Vyobj |) may be expressed as the lateral absolute velocity Vyobj. The lateral absolute velocity Vyobj is set to a value equal to the lateral relative velocity Vyobj.
-Information for each sensor target (sensor target ID) for identifying (identifying) the sensor target

ところで、一つの立体物が二以上の反射点を有する場合がある。従って、周辺レーダセンサ16aのそれぞれは、一つの立体物に対して、複数のセンサ物標を検出する場合がある。即ち、周辺レーダセンサ16aのそれぞれは、複数組のセンサ物標情報を取得する場合がある。更に、二以上の周辺レーダセンサ16aが、一つの立体物に対して複数組のセンサ物標情報を取得する場合がある。 By the way, one three-dimensional object may have two or more reflection points. Therefore, each of the peripheral radar sensors 16a may detect a plurality of sensor targets for one three-dimensional object. That is, each of the peripheral radar sensors 16a may acquire a plurality of sets of sensor target information. Further, two or more peripheral radar sensors 16a may acquire a plurality of sets of sensor target information for one three-dimensional object.

そこで、DSECUは、一つの立体物を検出している可能性が高い複数のセンサ物標をグルーピング(統合、フュージョン)することにより、複数のセンサ物標が示す一つの物標(以下、「フュージョン物標」と称呼される。)を認識する。 Therefore, the DSECU groups (integrates, fuses) a plurality of sensor targets that are likely to detect one three-dimensional object, thereby indicating one target indicated by the plurality of sensor targets (hereinafter, "fusion"). It is called a "target").

更に、DSECUは、その「フュージョン物標の属性値の情報」を後述するように取得し、その情報をDSECUに所定時間(演算周期)が経過する毎に送信する。フュージョン物標についての情報は「フュージョン物標情報又はフュージョン物標属性値」と称呼され、以下に述べる情報を含む。 Further, the DSECU acquires the "information on the attribute value of the fusion target" as described later, and transmits the information to the DSECU every time a predetermined time (calculation cycle) elapses. The information about the fusion target is referred to as "fusion target information or fusion target attribute value" and includes the information described below.

・フュージョン物標のX座標位置(Xf)。即ち、自車両SVとフュージョン物標とのX軸方向の符号付き距離。本例において、X座標位置Xfは、フュージョン物標の中心点のX座標位置である。
・フュージョン物標のY座標位置(Yf)。即ち、自車両SVとフュージョン物標とのY軸方向の符号付き距離。本例において、Y座標位置Yfは、フュージョン物標の中心点のY座標位置である。
・フュージョン物標の自車両SVに対するX軸方向の速度(即ち、縦相対速度)Vxf。
・フュージョン物標の自車両SVに対するY軸方向の速度(即ち、横相対速度)Vyf。
・フュージョン物標の長さLf(フュージョン物標のX軸方向の長さ)。
・フュージョン物標の幅Wf(フュージョン物標のY軸方向の長さ)。
・フュージョン物標を識別(特定)するためのフュージョン物標識別情報(フュージョン物標ID)
-X coordinate position (Xf) of the fusion target. That is, the signed distance between the own vehicle SV and the fusion target in the X-axis direction. In this example, the X coordinate position Xf is the X coordinate position of the center point of the fusion target.
-Y coordinate position (Yf) of the fusion target. That is, the signed distance between the own vehicle SV and the fusion target in the Y-axis direction. In this example, the Y coordinate position Yf is the Y coordinate position of the center point of the fusion target.
-Velocity (that is, vertical relative velocity) Vxf in the X-axis direction with respect to the own vehicle SV of the fusion target.
-Velocity (that is, lateral relative velocity) Vyf in the Y-axis direction with respect to the own vehicle SV of the fusion target.
-Length of fusion target Lf (length of fusion target in the X-axis direction).
-Width of fusion target Wf (length of fusion target in the Y-axis direction).
-Information for each fusion target (fusion target ID) for identifying (identifying) the fusion target

カメラセンサ16bは、ステレオカメラであるカメラ部、及び、カメラ部によって撮影して得られた画像データを解析して道路の白線を認識するレーン認識部を備えている。カメラセンサ16b(カメラ部)は、自車両SVの前方の風景を撮影する。カメラセンサ16b(レーン認識部)は、所定の角度範囲(自車両SV前方に広がる範囲)を有する画像処理領域の画像データを解析して、自車両SVの前方の道路に形成された白線(区画線)を認識(検出)する。カメラセンサ16bは、認識した白線に関する情報をDSECUに送信する。 The camera sensor 16b includes a camera unit that is a stereo camera, and a lane recognition unit that analyzes image data obtained by photographing by the camera unit and recognizes a white line on a road. The camera sensor 16b (camera unit) captures the scenery in front of the own vehicle SV. The camera sensor 16b (lane recognition unit) analyzes the image data of the image processing area having a predetermined angle range (range extending in front of the own vehicle SV), and a white line (section) formed on the road in front of the own vehicle SV. Line) is recognized (detected). The camera sensor 16b transmits information about the recognized white line to the DSP.

DSECUは、カメラセンサ16bから供給された情報に基づいて、図3に示したように、自車両SVの走行している車線(以下、「自車線」とも称呼する。)における左右の白線WLの幅方向の中心位置となる車線中心ラインCLを特定する。この車線中心ラインCLは、後述する車線維持支援制御における目標走行ラインとして利用される。更に、DSECUは、車線中心ラインCLのカーブの曲率Cuを演算する。尚、曲率Cuは、車線中心ラインCLが右にカーブしているとき正の値となり、車線中心ラインCLが左にカーブしているとき負の値となるように定義されている。 Based on the information supplied from the camera sensor 16b, the DSECU has left and right white lines WL in the lane in which the own vehicle SV is traveling (hereinafter, also referred to as “own lane”), as shown in FIG. The lane center line CL, which is the center position in the width direction, is specified. This lane center line CL is used as a target traveling line in lane keeping support control described later. Further, the DESCU calculates the curvature Cu of the curve of the lane center line CL. The curvature Cu is defined to have a positive value when the lane center line CL is curved to the right and a negative value when the lane center line CL is curved to the left.

加えて、DSECUは、左白線及び右白線で区画される車線における自車両SVの位置及び向きを演算する。例えば、DSECUは、図3に示したように、自車両SVの基準点P(例えば、重心位置)と車線中心ラインCLとの道路幅方向の符号付き距離Dyを演算する。符号付き距離Dyの大きさは、自車両SVが車線中心ラインCLに対して道路幅方向に偏移している距離を示す。符号付き距離Dyは、自車両SVの基準点Pが車線中心ラインCLに対して道路幅方向の右側に偏移しているとき正の値となり、自車両SVの基準点Pが車線中心ラインCLに対して道路幅方向の左側に偏移しているとき負の値となるように定義されている。この符号付き距離Dyは以下において「横偏差Dy」とも称呼される。 In addition, the DESCU calculates the position and orientation of the own vehicle SV in the lane partitioned by the left white line and the right white line. For example, as shown in FIG. 3, the DESCU calculates the signed distance Dy in the road width direction between the reference point P (for example, the position of the center of gravity) of the own vehicle SV and the lane center line CL. The magnitude of the signed distance Dy indicates the distance at which the own vehicle SV deviates from the lane center line CL in the road width direction. The signed distance Dy becomes a positive value when the reference point P of the own vehicle SV shifts to the right side in the road width direction with respect to the lane center line CL, and the reference point P of the own vehicle SV is the lane center line CL. It is defined to be a negative value when shifting to the left side in the road width direction. This signed distance Dy is also referred to hereinafter as "lateral deviation Dy".

DSECUは、車線中心ラインCLの方向と自車両SVの向いている方向(自車両SVの前後軸の方向)とのなす角度θyを演算する。この角度θyは以下において「ヨー角θy」とも称呼される。ヨー角θyは、自車両SVの向いている方向が車線中心ラインCLの方向に対して右回り側であるとき正の値となり、自車両SVの向いている方向が車線中心ラインCLの方向に対して左回り側であるとき負の値となるように定義されている。以下、曲率Cu、横偏差Dy、及び、ヨー角θyを表す情報(Cu、Dy、θy)は「車線関連車両情報」と称呼される場合がある。 The DESCU calculates the angle θy formed by the direction of the lane center line CL and the direction in which the own vehicle SV is facing (the direction of the front-rear axis of the own vehicle SV). This angle θy is also referred to hereinafter as “yaw angle θy”. The yaw angle θy becomes a positive value when the direction in which the own vehicle SV is facing is clockwise with respect to the direction of the lane center line CL, and the direction in which the own vehicle SV is facing is in the direction of the lane center line CL. On the other hand, it is defined to have a negative value when it is on the counterclockwise side. Hereinafter, the information (Cu, Dy, θy) representing the curvature Cu, the lateral deviation Dy, and the yaw angle θy may be referred to as “lane-related vehicle information”.

カメラセンサ16bは、自車線の左白線及び右白線の種類(例えば、実線であるか破線であるか等)及び白線の形状等についての情報をDSECUに供給する。更に、カメラセンサ16bは、自車線に隣接する車線の左白線及び右白線の種類及び白線の形状等についてもDSECUに供給する。即ち、カメラセンサ16bは、「白線に関する情報」についてもDSECUに供給する。白線が実線である場合、車両がその白線を跨いで車線変更することは禁止されている。一方、白線が破線(一定の間隔で断続的に形成されている白線)の場合、車両がその白線を跨いで車線変更することは許可されている。車線関連車両情報(Cu、Dy、θy)、及び、白線に関する情報は、「車線情報」と称呼される場合がある。 The camera sensor 16b supplies the DSECU with information about the types of the left white line and the right white line of the own lane (for example, whether they are solid lines or broken lines) and the shape of the white lines. Further, the camera sensor 16b also supplies the DSECU with the types of left and right white lines and the shape of the white lines in the lane adjacent to the own lane. That is, the camera sensor 16b also supplies "information about the white line" to the DSECU. If the white line is a solid line, vehicles are prohibited from changing lanes across the white line. On the other hand, if the white line is a broken line (white line formed intermittently at regular intervals), the vehicle is allowed to change lanes across the white line. Lane-related vehicle information (Cu, Dy, θy) and information on white lines may be referred to as "lane information".

再び図1を参照すると、操作スイッチ17は、何れも後述する「車線変更支援制御、車線維持制御、及び、追従車間距離制御」のそれぞれを実行するか否かについての選択を行うために運転者により操作される操作器である。従って、操作スイッチ17は、運転者の操作に応じて、上記の各制御の実行が選択されたか否かを示す信号を出力する。加えて、操作スイッチ17は、上記の各制御を実行する際の運転者の好みを反映するためのパラメータ(例えば、後述する車間時間)を運転者に入力又は選択させる機能も備えている。 Referring to FIG. 1 again, the operation switch 17 makes a selection as to whether or not to execute each of the “lane change support control, lane keeping control, and follow-up inter-vehicle distance control” described later. It is an operator operated by. Therefore, the operation switch 17 outputs a signal indicating whether or not the execution of each of the above controls is selected according to the operation of the driver. In addition, the operation switch 17 also has a function of causing the driver to input or select a parameter (for example, the inter-vehicle time described later) for reflecting the driver's preference when executing each of the above controls.

DSECUは、操作スイッチ17から供給される信号に基づいて追従車間距離制御の実行が選択されているか否かを判定し、追従車間距離制御の実行が選択されていない場合、車線変更支援制御及び車線維持制御を実行しないようになっている。更に、DSECUは、操作スイッチ17から供給される信号に基づいて車線維持制御の実行が選択されているか否かを判定し、車線維持制御の実行が選択されていない場合、車線変更支援制御を実行しないようになっている。 The DESCU determines whether or not the execution of the following inter-vehicle distance control is selected based on the signal supplied from the operation switch 17, and if the execution of the following inter-vehicle distance control is not selected, the lane change support control and the lane Maintenance control is not executed. Further, the DSECU determines whether or not the execution of the lane keeping control is selected based on the signal supplied from the operation switch 17, and if the execution of the lane keeping control is not selected, the lane change support control is executed. It is designed not to.

ヨーレートセンサ18は、自車両SVのヨーレートYRtを検出し、実ヨーレートYRtを出力するようになっている。尚、実ヨーレートYRtは、自車両SVが前進しながら左旋回している場合に正の値となり、自車両SVが前進しながら右旋回している場合に負の値となる。
前後加速度センサ19は、自車両SVの前後方向の加速度Gxを検出し、実前後加速度Gxを出力するようになっている。尚、実前後加速度Gxは、自車両SVが前方に加速しているときに正の値となり、減速しているときに負の値となる。
横加速度センサ20は、自車両SVの横(車幅)方向(自車両SVの中心軸線に直交する方向)の加速度Gyを検出し、実横加速度Gyを出力するようになっている。尚、実横加速度Gyは、自車両SVが前進しながら左旋回している場合に(即ち、車両右方向の加速度に対して)正の値となり、自車両SVが前進しながら右旋回している場合に(即ち、車両左方向の加速度に対して)負の値となる。
The yaw rate sensor 18 detects the yaw rate YRt of the own vehicle SV and outputs the actual yaw rate YRt. The actual yaw rate YRt is a positive value when the own vehicle SV is turning left while moving forward, and is a negative value when the own vehicle SV is turning right while moving forward.
The front-rear acceleration sensor 19 detects the acceleration Gx in the front-rear direction of the own vehicle SV and outputs the actual front-rear acceleration Gx. The actual front-rear acceleration Gx becomes a positive value when the own vehicle SV is accelerating forward, and becomes a negative value when the vehicle is decelerating.
The lateral acceleration sensor 20 detects the acceleration Gy in the lateral (vehicle width) direction of the own vehicle SV (the direction orthogonal to the central axis of the own vehicle SV) and outputs the actual lateral acceleration Gy. The actual lateral acceleration Gy becomes a positive value when the own vehicle SV is turning left while moving forward (that is, with respect to the acceleration in the right direction of the vehicle), and the own vehicle SV is turning right while moving forward. In some cases (ie, with respect to vehicle leftward acceleration) it will be a negative value.

エンジンECU30は、エンジンアクチュエータ31と接続されている。エンジンアクチュエータ31は内燃機関32の運転状態を変更するためのアクチュエータである。本例において、内燃機関32はガソリン燃料噴射・火花点火式・多気筒エンジンであり、吸入空気量を調整するためのスロットル弁を備えている。エンジンアクチュエータ31は、少なくとも、スロットル弁の開度を変更するスロットル弁アクチュエータを含む。エンジンECU30は、エンジンアクチュエータ31を駆動することによって、内燃機関32が発生するトルクを変更することができる。内燃機関32が発生するトルクは図示しない変速機を介して図示しない駆動輪に伝達される。従って、エンジンECU30は、エンジンアクチュエータ31を制御することによって、自車両SVの駆動力を制御し加速状態(加速度)を変更することができる。 The engine ECU 30 is connected to the engine actuator 31. The engine actuator 31 is an actuator for changing the operating state of the internal combustion engine 32. In this example, the internal combustion engine 32 is a gasoline fuel injection / spark ignition type / multi-cylinder engine, and includes a throttle valve for adjusting the intake air amount. The engine actuator 31 includes at least a throttle valve actuator that changes the opening degree of the throttle valve. The engine ECU 30 can change the torque generated by the internal combustion engine 32 by driving the engine actuator 31. The torque generated by the internal combustion engine 32 is transmitted to drive wheels (not shown) via a transmission (not shown). Therefore, the engine ECU 30 can control the driving force of the own vehicle SV and change the acceleration state (acceleration) by controlling the engine actuator 31.

ブレーキECU40は、ブレーキアクチュエータ41に接続されている。ブレーキアクチュエータ41は、ブレーキペダルの踏力によって作動油を加圧する図示しないマスタシリンダと、左右前後輪に設けられる摩擦ブレーキ機構42との間の油圧回路に設けられる。摩擦ブレーキ機構42は、車輪に固定されるブレーキディスク42aと、車体に固定されるブレーキキャリパ42bとを備える。ブレーキアクチュエータ41は、ブレーキECU40からの指示に応じてブレーキキャリパ42bに内蔵されたホイールシリンダに供給する油圧を調整し、その油圧によりホイールシリンダを作動させることによりブレーキパッドをブレーキディスク42aに押し付けて摩擦制動力を発生させる。従って、ブレーキECU40は、ブレーキアクチュエータ41を制御することによって、自車両SVの制動力を制御し加速状態(減速度)を変更することができる。 The brake ECU 40 is connected to the brake actuator 41. The brake actuator 41 is provided in a hydraulic circuit between a master cylinder (not shown) that pressurizes hydraulic oil by the pedaling force of a brake pedal and a friction brake mechanism 42 provided on the left, right, front, and rear wheels. The friction brake mechanism 42 includes a brake disc 42a fixed to the wheel and a brake caliper 42b fixed to the vehicle body. The brake actuator 41 adjusts the hydraulic pressure supplied to the wheel cylinder built in the brake caliper 42b in response to an instruction from the brake ECU 40, and operates the wheel cylinder by the hydraulic pressure to press the brake pad against the brake disc 42a to cause friction. Generates braking force. Therefore, the brake ECU 40 can control the braking force of the own vehicle SV and change the acceleration state (deceleration) by controlling the brake actuator 41.

ステアリングECU50は、周知の電動パワーステアリングシステムの制御装置であって、モータドライバ51に接続されている。モータドライバ51は、転舵用モータ52に接続されている。転舵用モータ52は、車両の「操舵ハンドル、操舵ハンドルに連結されたステアリングシャフト及び操舵用ギア機構等を含むステアリング機構」に組み込まれている。転舵用モータ52は、モータドライバ51から供給される電力によってトルクを発生し、このトルクによって操舵アシストトルクを加えたり、左右の操舵輪を転舵したりすることができる。即ち、転舵用モータ52は、自車両SVの舵角(転舵輪の転舵角度)を変更することができる。 The steering ECU 50 is a well-known control device for an electric power steering system, and is connected to a motor driver 51. The motor driver 51 is connected to the steering motor 52. The steering motor 52 is incorporated in the "steering mechanism including the steering wheel, the steering shaft connected to the steering handle, the steering gear mechanism, and the like" of the vehicle. The steering motor 52 generates torque by the electric power supplied from the motor driver 51, and the steering assist torque can be applied or the left and right steering wheels can be steered by this torque. That is, the steering motor 52 can change the steering angle (steering angle of the steering wheel) of the own vehicle SV.

ステアリングECU50は、ウインカーレバースイッチ53と接続されている。ウインカーレバースイッチ53は、後述するターンシグナルランプ61を作動(点滅)させるために運転者によって操作されるウインカーレバーの操作位置を検出する検出スイッチである。 The steering ECU 50 is connected to the turn signal lever switch 53. The blinker lever switch 53 is a detection switch that detects an operating position of the blinker lever operated by the driver to operate (blink) the turn signal lamp 61 described later.

ウインカーレバーはステアリングコラムに設けられている。ウインカーレバーは、初期位置から右回り操作方向に所定角度回転された第1段階位置と、第1段階位置よりも更に所定回転角度だけ右回り操作方向に回転された第2段階位置と、の2つの位置に操作できるようになっている。ウインカーレバーは、右回り操作方向の第1段階位置に運転者によって維持されている限りその位置を維持するが、運転者がウインカーレバーから手を離すと初期位置に自動的に戻るようになっている。ウインカーレバースイッチ53は、ウインカーレバーが右回り操作方向の第1段階位置にあるとき、ウインカーレバーが右回り操作方向の第1段階位置に維持されていることを示す信号をステアリングECU50に出力する。 The blinker lever is provided on the steering column. The winker lever has two positions: a first stage position that is rotated by a predetermined angle in the clockwise operation direction from the initial position, and a second stage position that is rotated in a clockwise operation direction by a predetermined rotation angle from the first stage position. It can be operated in one position. The turn signal lever maintains that position as long as it is maintained in the first stage position in the clockwise operation direction by the driver, but when the driver releases the turn signal lever, it automatically returns to the initial position. There is. The blinker lever switch 53 outputs a signal to the steering ECU 50 indicating that the blinker lever is maintained in the first stage position in the clockwise operation direction when the blinker lever is in the first stage position in the clockwise operation direction.

同様に、ウインカーレバーは、初期位置から左回り操作方向に所定角度回転された第1段階位置と、第1段階位置よりも更に所定回転角度だけ左回り操作方向に回転された第2段階位置と、の2つの位置に操作できるようになっている。ウインカーレバーは、左回り操作方向の第1段階位置に運転者によって維持されている限りその位置を維持するが、運転者がウインカーレバーから手を離すと初期位置に自動的に戻るようになっている。ウインカーレバースイッチ53は、ウインカーレバーが左回り操作方向の第1段階位置にあるとき、ウインカーレバーが左回り操作方向の第1段階位置に維持されていることを示す信号をステアリングECU50に出力する。尚、このようなウインカーレバーについては、例えば、特開2005−138647号公報に開示されている。 Similarly, the winker lever has a first stage position rotated counterclockwise from the initial position by a predetermined angle and a second stage position rotated counterclockwise by a predetermined rotation angle from the first stage position. It can be operated in two positions,, and. The blinker lever maintains its position as long as it is maintained in the first stage position in the counterclockwise operation direction by the driver, but when the driver releases the blinker lever, it automatically returns to the initial position. There is. The blinker lever switch 53 outputs a signal to the steering ECU 50 indicating that the blinker lever is maintained in the first stage position in the counterclockwise operation direction when the blinker lever is in the first stage position in the counterclockwise operation direction. It should be noted that such a blinker lever is disclosed in, for example, Japanese Patent Application Laid-Open No. 2005-138647.

DSECUは、ウインカーレバースイッチ53からの信号に基づいて、ウインカーレバーが右回り操作方向の第1段階位置に保持されている継続時間を計測するようになっている。更に、DSECUは、その計測した継続時間が予め設定した支援要求確定時間(例えば、0.8秒)以上であると判定したとき、運転者が右側車線への車線変更を行うために車線変更支援を受けたいという要求(以下、「車線変更支援要求」とも称呼される。)を発していると判定するようになっている。 Based on the signal from the blinker lever switch 53, the DSECU measures the duration of the blinker lever held in the first stage position in the clockwise operation direction. Further, when the DSPE determines that the measured duration is equal to or longer than the preset support request confirmation time (for example, 0.8 seconds), the lane change support is provided for the driver to change lanes to the right lane. It is determined that a request to receive the request (hereinafter, also referred to as a "lane change support request") has been issued.

更に、DSECUは、ウインカーレバースイッチ53からの信号に基づいて、ウインカーレバーが左回り操作方向の第1段階位置に保持されている継続時間を計測するようになっている。更に、DSECUは、その計測した継続時間が予め設定した支援要求確定時間以上であると判定したとき、運転者が左側車線への車線変更を行うために車線変更支援要求を発していると判定するようになっている。 Further, the DSECU measures the duration of the blinker lever held in the first stage position in the counterclockwise operation direction based on the signal from the blinker lever switch 53. Further, when the DSPE determines that the measured duration is equal to or longer than the preset support request confirmation time, it determines that the driver has issued a lane change support request in order to change the lane to the left lane. It has become like.

メータECU60は、左右のターンシグナルランプ61(ウインカーランプ)及び情報ディスプレイ62と接続されている。 The meter ECU 60 is connected to the left and right turn signal lamps 61 (turn signal lamps) and the information display 62.

メータECU60は、図示しないウインカー駆動回路を介して、ウインカーレバースイッチ53からの信号及びDSECUからの指示等に応じて左又は右のターンシグナルランプ61を点滅させるようになっている。例えば、メータECU60は、ウインカーレバーが左回り操作方向の第1段階位置に維持されていることを示す信号をウインカーレバースイッチ53が出力しているとき、左のターンシグナルランプ61を点滅させる。更に、メータECU60は、ウインカーレバーが右回り操作方向の第1段階位置に維持されていることを示す信号をウインカーレバースイッチ53が出力しているとき、右のターンシグナルランプ61を点滅させる。 The meter ECU 60 blinks the left or right turn signal lamp 61 in response to a signal from the blinker lever switch 53, an instruction from the DSP ECU, or the like via a blinker drive circuit (not shown). For example, the meter ECU 60 blinks the left turn signal lamp 61 when the blinker lever switch 53 outputs a signal indicating that the blinker lever is maintained at the first stage position in the counterclockwise operation direction. Further, the meter ECU 60 blinks the right turn signal lamp 61 when the blinker lever switch 53 outputs a signal indicating that the blinker lever is maintained at the first stage position in the clockwise operation direction.

情報ディスプレイ62は、運転席の正面に設けられたマルチインフォメーションディスプレイである。情報ディスプレイ62は、車速及びエンジン回転速度等の計測値に加えて、各種の情報を表示する。例えば、メータECU60は、DSECUからの運転支援状態に応じた表示指令を受信すると、その表示指令により指定された画面を情報ディスプレイ62に表示させる。 The information display 62 is a multi-information display provided in front of the driver's seat. The information display 62 displays various information in addition to measured values such as vehicle speed and engine speed. For example, when the meter ECU 60 receives a display command from the DSECU according to the driving support state, the meter ECU 60 displays the screen designated by the display command on the information display 62.

表示ECU70は、ブザー71及び表示器72に接続されている。表示ECU70は、DSECUからの指示に応じ、ブザー71を鳴動させて運転者への注意喚起を行うことができる。更に、表示ECU70は、DSECUからの指示に応じ、表示器72に注意喚起用のマーク(例えば、ウォーニングランプ)を点灯させたり、警報画像を表示したり、警告メッセージを表示したり、運転支援制御の作動状況を表示したりすることができる。尚、表示器72はヘッドアップディスプレイであるが、他のタイプのディプレイであってもよい。 The display ECU 70 is connected to the buzzer 71 and the display 72. The display ECU 70 can sound the buzzer 71 to alert the driver in response to an instruction from the DSECU. Further, the display ECU 70 lights a warning mark (for example, a warning lamp) on the display 72, displays an alarm image, displays a warning message, and controls driving support in response to an instruction from the DSECU. It is possible to display the operating status of. Although the display 72 is a head-up display, it may be another type of display.

(基本的な運転支援制御の概要)
前述したように、DSECUは、追従車間距離制御、車線維持制御及び車線変更支援制御を実行するようになっている。車線維持制御は、追従車間距離制御が実行されている場合に限り実行される。車線変更支援制御は、車線維持制御が実行されている場合に限り実行される。これらの制御の詳細については後述するが、以下、これらの制御について簡単に説明する。
(Overview of basic driving support control)
As described above, the DSECU is adapted to execute the following inter-vehicle distance control, the lane keeping control, and the lane change support control. The lane keeping control is executed only when the following inter-vehicle distance control is executed. The lane change support control is executed only when the lane keeping control is executed. Details of these controls will be described later, but these controls will be briefly described below.

追従車間距離制御は、自車両SVの直前を走行している先行車(即ち、追従対象車両)と自車両SVとの車間距離を所定の距離に維持しながら、自車両SVを先行車に追従させる制御である。 The following vehicle-to-vehicle distance control follows the own vehicle SV following the preceding vehicle while maintaining the distance between the preceding vehicle (that is, the vehicle to be followed) and the own vehicle SV traveling in front of the own vehicle SV at a predetermined distance. It is a control to make.

車線維持制御は、自車両SVの位置が「自車両SVが走行しているレーン(自車線)」内の目標走行ライン付近に維持されるように、操舵トルクをステアリング機構に付与して自車両SVの舵角を変更し、以て、運転者の操舵操作を支援する制御である。 The lane keeping control applies steering torque to the steering mechanism so that the position of the own vehicle SV is maintained near the target driving line in the "lane (own lane) in which the own vehicle SV is traveling". It is a control that changes the steering angle of the SV to support the steering operation of the driver.

車線変更支援制御は、自車両SVが、自車線(元車線)から「運転者が希望する、元車線に隣接する車線(目標隣接車線)」に移動するように、操舵トルクをステアリング機構に付与することにより自車両SVの舵角を変更し、以て、運転者の操舵操作(車線変更のためのハンドル操作)を支援する制御である。 The lane change support control applies steering torque to the steering mechanism so that the own vehicle SV moves from the own lane (former lane) to the "lane adjacent to the original lane (target adjacent lane) desired by the driver". By doing so, the steering angle of the own vehicle SV is changed, and thus the steering operation (steering operation for changing lanes) of the driver is supported.

<作動の概要>
ところで、DSECUは、車線変更支援制御を実行する際、自車両SVが安全に車線変更を行うことができるか否かを判定するため、自車両SVの周囲に存在する立体物の位置、相対速度及び大きさ(長さ、幅)等についての立体物情報を取得する必要がある。DSECUは、この立体物を前述した「フュージョン物標」を生成することによって認識し、且つ、前述した「フュージョン物標情報(例えば、フュージョン物標の「長さ、幅及び座標位置」)」を立体物情報として取得する。
<Outline of operation>
By the way, in order to determine whether or not the own vehicle SV can safely change lanes when executing the lane change support control, the DSECU determines the position and relative speed of a three-dimensional object existing around the own vehicle SV. And it is necessary to acquire three-dimensional object information about the size (length, width) and the like. The DESCU recognizes this three-dimensional object by generating the above-mentioned "fusion target", and also obtains the above-mentioned "fusion target information (for example," length, width and coordinate position "of the fusion target)". Acquired as three-dimensional object information.

DSECUは、所定の演算周期(Δt)が経過する毎に、周辺レーダセンサ16aが検知したセンサ物標を後述するグルーピング処理によってグルーピング(統合)してフュージョン物標を生成又は更新する。更に、DSECUは、生成又は更新されたフュージョン物標のフュージョン物標情報を、そのフュージョン物標に属するセンサ物標(即ち、グルーピングされたセンサ物標)のセンサ物標情報に基づいて生成する。 Every time a predetermined calculation cycle (Δt) elapses, the DSPE groups (integrates) the sensor targets detected by the peripheral radar sensor 16a by a grouping process described later to generate or update the fusion target. Further, the DSPE generates the fusion target information of the generated or updated fusion target based on the sensor target information of the sensor target (that is, the grouped sensor target) belonging to the fusion target.

(フュージョン物標の生成・更新及びロスト判定)
次に、DSECUが実行するフュージョン物標の生成・更新及びロスト判定の方法について説明する。
(Generation / update of fusion target and lost judgment)
Next, a method of generating / updating a fusion target and determining lost by executing the DSPE will be described.

DSECUは、所定時間(演算周期)Δtが経過する毎に、周辺レーダセンサ16aからセンサ物標情報を取得する。周辺レーダセンサ16aのそれぞれの物標検知範囲は、他の周辺レーダセンサ16aと部分的に重複している。更に、周辺レーダセンサ16aのそれぞれは、自車両SVの周辺に立体物が一つしか存在していない場合であっても、その立体物から複数のセンサ物標を認識する場合がある。従って、一つの立体物から複数のセンサ物標が取得される場合が発生する。 The DSPE acquires sensor target information from the peripheral radar sensor 16a every time the predetermined time (calculation cycle) Δt elapses. Each target detection range of the peripheral radar sensor 16a partially overlaps with the other peripheral radar sensors 16a. Further, each of the peripheral radar sensors 16a may recognize a plurality of sensor targets from the three-dimensional object even when only one three-dimensional object exists around the own vehicle SV. Therefore, there may be a case where a plurality of sensor targets are acquired from one three-dimensional object.

この場合、DSECUは、後述するグルーピング処理を行なって「一つの立体物nから得られている可能性が高い複数のセンサ物標」をグルーピング(統合、フュージョン)することにより、その一つの立体物nに対応するフュージョン物標FBnを生成する。換言すると、DSECUは、複数のセンサ物標のそれぞれのセンサ物標情報に基づいて、当該複数のセンサ物標を統合してフュージョン物標FBnを生成する。そして、DSECUは、そのフュージョン物標FBnのフュージョン物標情報を、当該フュージョン物標FBnに統合された(即ち、当該フュージョン物標FBnに属する)センサ物標のうちの高AGEセンサ物標のセンサ物標情報に基づいて生成する。以下、図4の(A)及び(B)に示した例を用いて、「グルーピング処理」について詳述する。 In this case, the DSECU performs a grouping process described later to group (integrate, fuse) "a plurality of sensor targets that are likely to be obtained from one three-dimensional object n", thereby forming the one three-dimensional object. A fusion target FBn corresponding to n is generated. In other words, the DSPE integrates the plurality of sensor targets to generate the fusion target FBn based on the sensor target information of each of the plurality of sensor targets. Then, the DSPE integrates the fusion target information of the fusion target FBn into the fusion target FBn (that is, belongs to the fusion target FBn), and the sensor of the high AGE sensor target among the sensor targets. Generated based on target information. Hereinafter, the "grouping process" will be described in detail with reference to the examples shown in FIGS. 4A and 4B.

いま、図4(A)に示したように、センサ物標B0,B1及びB2が検出されたと仮定する。この例において、センサ物標B0は右前方周辺センサ16FRによって検出されたセンサ物標であり、センサ物標B1及びセンサ物標B2は、中央前方周辺センサ16FCによって検出されたセンサ物標である。更に、この例では、現時点までに(換言すると、前回の演算時において)フュージョン物標が生成されていない。 Now, as shown in FIG. 4 (A), it is assumed that the sensor targets B0, B1 and B2 are detected. In this example, the sensor target B0 is a sensor target detected by the right front peripheral sensor 16FR, and the sensor target B1 and the sensor target B2 are sensor targets detected by the central front peripheral sensor 16FC. Furthermore, in this example, no fusion target has been generated so far (in other words, at the time of the previous calculation).

このように、今回の演算の開始時点においてフュージョン物標FBnが生成されていない場合、DSECUは、新規のフュージョン物標FBnを生成するためのグルーピング処理を次に述べるように行う。尚、このグルーピング処理は、「新規物標生成グルーピング処理」と称呼される。 As described above, when the fusion target FBn is not generated at the start of the current calculation, the DSPE performs the grouping process for generating the new fusion target FBn as described below. In addition, this grouping process is called "new target generation grouping process".

まず、DSECUは、複数のセンサ物標(例えば、センサ物標B0乃至B2)の中から、任意の一つのセンサ物標(例えば、センサ物標B0)をグルーピング基準物標Bsとして選択する。次に、DSECUは、グルーピング基準物標Bs(例えば、センサ物標B0)に対して、「グルーピング候補となる他のセンサ物標Bn(例えば、センサ物標Bn、n=1、2)」が、下記(条件G1)及び(条件G2)の両条件を満たしているか否かを判定する。グルーピング候補のセンサ物標Bnが下記(条件G1)及び(条件G2)の両条件を満たしている場合、センサ物標Bnはグルーピング条件を満たしていると判定される。 First, the DSPE selects any one sensor target (for example, sensor target B0) as the grouping reference target Bs from the plurality of sensor targets (for example, sensor targets B0 to B2). Next, the DESCU has "another sensor target Bn (for example, sensor target Bn, n = 1, 2) that is a grouping candidate" with respect to the grouping reference target Bs (for example, sensor target B0). , It is determined whether or not both of the following conditions (condition G1) and (condition G2) are satisfied. When the sensor target Bn of the grouping candidate satisfies both the following conditions (condition G1) and (condition G2), it is determined that the sensor target Bn satisfies the grouping condition.

(条件G1)位置を判定の基準とした条件
図4(B)の左側の図に示されるように、
「グルーピング候補のセンサ物標BnのX座標位置Xobj(=XBn)」と「グルーピング基準物標BsのX座標位置Xobj(=XBs)」との差分の絶対値(=|XBn−XBs|)が所定の閾値縦距離Xth以下であり、且つ
「グルーピング候補のセンサ物標BnのY座標位置Yobj(=YBn)」と「グルーピング基準物標BsのY座標位置Yobj(=YBs)」との差分の絶対値(=|YBn−YBs|)が所定の閾値横距離Yth以下であること。
尚、ここで、閾値縦距離Xthは、「物標長さL0×0.5+所定値α」である。閾値横距離Ythは、「物標幅W0×0.5+所定値β」である。物標長さL0及び物標幅W0には、判定に適した任意の固定値が使用される。例えば、物標長さL0には自動二輪車両の標準的長さが設定され、物標幅W0には自動二輪車両の標準的車幅が設定される。
(Condition G1) Condition using position as a criterion as shown in the figure on the left side of FIG. 4 (B).
The absolute value (= | XBn-XBs |) of the difference between the "X coordinate position Xobj (= XBn) of the sensor target Bn of the grouping candidate" and the "X coordinate position Xobj (= XBs) of the grouping reference target Bs" is The difference between the predetermined threshold vertical distance Xth or less and the "Y coordinate position Yobj (= YBn) of the grouping candidate sensor target Bn" and the "Y coordinate position Yobj (= YBs) of the grouping reference target Bs". The absolute value (= | YBn-YBs |) is equal to or less than the predetermined threshold lateral distance Yth.
Here, the threshold vertical distance Xth is “target length L0 × 0.5 + predetermined value α”. The threshold lateral distance Yth is “target width W0 × 0.5 + predetermined value β”. Arbitrary fixed values suitable for determination are used for the target length L0 and the target width W0. For example, the target length L0 is set to the standard length of the motorcycle, and the target width W0 is set to the standard width of the motorcycle.

(条件G2)速度を判定の基準とした条件
図4(B)の右側の図に示されるように、
「グルーピング候補のセンサ物標Bnの縦相対速度Vxobj(=VxBn)」と「グルーピング基準物標Bsの縦相対速度Vxobj(=VxBs)」との差分の絶対値(=|VxBn−VxBs|)が、所定の閾値縦速度差Vxth以下であり、且つ
「グルーピング候補のセンサ物標Bnの横相対速度Vyobj(=VyBn)」と「グルーピング基準物標Bsの横相対速度Vyobj(=VyBs)」との差分の絶対値(=|VyBn−VyBs|)が、所定の閾値横速度差Vyth以下であること。
(Condition G2) Condition using speed as a criterion as shown in the figure on the right side of Fig. 4 (B).
The absolute value (= | VxBn-VxBs |) of the difference between the "vertical relative velocity Vxobj (= VxBn) of the grouping candidate sensor target Bn" and the "vertical relative velocity Vxobj (= VxBs) of the grouping reference target Bs" is , A predetermined threshold vertical velocity difference Vxth or less, and "horizontal relative velocity Vyobj (= VyBn) of the grouping candidate sensor target Bn" and "horizontal relative velocity Vyobj (= VyBs) of the grouping reference target Bs". The absolute value of the difference (= | VyBn-VyBs |) is equal to or less than the predetermined threshold lateral velocity difference Vyth.

なお、条件G2が成立しているか否かは、絶対速度を用いて判定されてもよい。即ち、条件G2は以下のとおりであってもよい。
「グルーピング候補のセンサ物標Bnの縦絶対速度」と「グルーピング基準物標Bsの縦絶対速度」との差分の絶対値が、閾値縦速度差Vxth以下であり、且つ
「グルーピング候補のセンサ物標Bnの横絶対速度」と「グルーピング基準物標Bsの横絶対速度」との差分の絶対値が、閾値横速度差Vyth以下であること。
Whether or not the condition G2 is satisfied may be determined using the absolute velocity. That is, the condition G2 may be as follows.
The absolute value of the difference between the "vertical absolute velocity of the grouping candidate sensor target Bn" and the "vertical absolute velocity of the grouping reference target Bs" is equal to or less than the threshold longitudinal velocity difference Vxth, and the "grouping candidate sensor target" The absolute value of the difference between "the lateral absolute velocity of Bn" and "the lateral absolute velocity of the grouping reference target Bs" is equal to or less than the threshold lateral velocity difference Vyth.

グルーピング候補のセンサ物標Bnがグルーピング基準物標Bsに対して、(条件G1)及び(条件G2)の両条件からなるグルーピング条件を満たしている場合、DSECUは、センサ物標Bnとグルーピング基準物標Bsとを統合して、新規のフュージョン物標FBnを生成する。更に、DSECUは、新規のフュージョン物標FBnに対して、フュージョン物標FBnを他のフュージョン物標と区別(識別)するための識別情報(ID)を設定する。 When the grouping candidate sensor target Bn satisfies the grouping condition consisting of both (condition G1) and (condition G2) with respect to the grouping reference target Bs, the DSPE determines the sensor target Bn and the grouping standard. Integrate with the marker Bs to generate a new fusion target FBn. Further, the DSECU sets identification information (ID) for distinguishing (identifying) the fusion target FBn from other fusion targets with respect to the new fusion target FBn.

例えば、図4(A)において、グルーピング候補のセンサ物標B1がグルーピング基準物標B0に対して、(条件G1)及び(条件G2)の両条件を満たしていると仮定する。この場合、DSECUは、センサ物標B1とセンサ物標B0とを統合してフュージョン物標FB1を新たに生成する。この場合、フュージョン物標FB1の識別情報は、例えば「ID1」である。 For example, in FIG. 4A, it is assumed that the grouping candidate sensor target B1 satisfies both the conditions (condition G1) and (condition G2) with respect to the grouping reference target B0. In this case, the DSPE integrates the sensor target B1 and the sensor target B0 to newly generate the fusion target FB1. In this case, the identification information of the fusion target FB1 is, for example, "ID1".

更に、図4(A)において、グルーピング候補のセンサ物標B2もグルーピング基準物標B0に対して、(条件G1)及び(条件G2)の両条件を満たしている場合、DSECUは、センサ物標B2もセンサ物標B0と統合する。即ち、センサ物標B2は、フュージョン物標FB1に統合される。 Further, in FIG. 4A, when the grouping candidate sensor target B2 also satisfies both the conditions (condition G1) and (condition G2) with respect to the grouping reference target B0, the DESCU determines the sensor target. B2 is also integrated with the sensor target B0. That is, the sensor target B2 is integrated with the fusion target FB1.

これに対し、グルーピング候補のセンサ物標Bnがグルーピング基準物標Bsに対して、(条件G1)及び(条件G2)の少なくとも一方を満たしていない場合、DSECUは、そのセンサ物標Bnを別のグルーピング基準物標Bsとして選択する。そして、DSECUは、そのグルーピング基準物標Bsに対して、グルーピング候補となるセンサ物標(即ち、それまでにフュージョン物標として統合されていないセンサ物標)が(条件G1)及び(条件G2)のグルーピング条件の両方を満たしているか否かを判定する。以上の処理が新規物標生成グルーピング処理である。 On the other hand, when the grouping candidate sensor target Bn does not satisfy at least one of (condition G1) and (condition G2) with respect to the grouping reference target Bs, the DSPE uses another sensor target Bn. Select as the grouping reference target Bs. Then, in the DESCU, the sensor targets that are grouping candidates (that is, the sensor targets that have not been integrated as fusion targets by then) are (condition G1) and (condition G2) with respect to the grouping reference target Bs. It is determined whether or not both of the grouping conditions of are satisfied. The above process is a new target generation grouping process.

一方、前回の演算(演算周期Δt前の演算)においてフュージョン物標FBnが生成されていた場合(即ち、今回の演算の開始時点において既にフュージョン物標FBnが生成されている場合)、DSECUは、そのフュージョン物標FBnを次のように更新する。更に、DSECUは、更新したフュージョン物標FBnの存在確率を演算する。以下では、図5(A)に示されるように、今回の演算を開始するときに既に2つのフュージョン物標FB1及びFB2(即ち、FBn,n=1,2)が生成されている例を用いて、フュージョン物標の更新(生成)方法について説明する。以下、前回の演算において生成又は更新されたフュージョン物標を「前回フュージョン物標」と称呼し、前回フュージョン物標の物標情報を「前回フュージョン物標情報」と称呼する。 On the other hand, when the fusion target FBn is generated in the previous calculation (calculation before the calculation cycle Δt) (that is, when the fusion target FBn is already generated at the start of the current calculation), the DSPE is used. The fusion target FBn is updated as follows. Further, the DESCU calculates the existence probability of the updated fusion target FBn. In the following, as shown in FIG. 5A, an example is used in which two fusion targets FB1 and FB2 (that is, FBn, n = 1, 2) have already been generated when the current calculation is started. The method of updating (generating) the fusion target will be described. Hereinafter, the fusion target generated or updated in the previous calculation is referred to as "previous fusion target", and the target information of the previous fusion target is referred to as "previous fusion target information".

DSECUは、前回フュージョン物標FBnの前回フュージョン物標情報に基づいて、今回の演算におけるフュージョン物標FBnの位置及び相対速度を推定する。この推定されたフュージョン物標は「推定物標FBn’」と称呼される。例えば、図5(A)に示された例においては、前回フュージョン物標FB1及びFB2に基づいて推定物標FB1’及びFB2’がそれぞれ生成されている。 The DESCU estimates the position and relative velocity of the fusion target FBn in this calculation based on the previous fusion target information of the previous fusion target FBn. This estimated fusion target is referred to as the "estimated target FBn'". For example, in the example shown in FIG. 5A, estimated target targets FB1'and FB2'are generated based on the previous fusion targets FB1 and FB2, respectively.

より具体的に述べると、前回の演算時におけるX−Y座標(以下、「前回X−Y座標」と称呼する。)において、前回フュージョン物標FBnのX−Y座標位置を(Xfn、Yfn)、前回フュージョン物標FBnの縦相対速度をVxfn、前回フュージョン物標FBnの横相対速度をVyfnとする。このとき、DSECUは、前回X−Y座標における推定物標FBn’のX−Y座標位置(Xfn’、Yfn’)を、以下の式に従って算出する。

Xfn’=Xfn+Δt・Vxfn
Yfn’=Yfn+Δt・Vyfn
More specifically, in the XY coordinates at the time of the previous calculation (hereinafter, referred to as "previous XY coordinates"), the XY coordinate positions of the previous fusion target FBn are (Xfn, Yfn). Let Vxfn be the vertical relative velocity of the previous fusion target FBn, and Vyfn be the horizontal relative velocity of the previous fusion target FBn. At this time, the DSPE calculates the XY coordinate positions (Xfn', Yfn') of the estimated target FBn'in the previous XY coordinates according to the following formula.

Xfn'= Xfn + Δt · Vxfn
Yfn'= Yfn + Δt · Vyfn

その後、DSECUは、その求めた「前回X−Y座標における推定物標FBn’のX−Y座標位置(Xfn’、Yfn’)」を、今回の演算時におけるX−Y座標(以下、「今回X−Y座標」と称呼する。)におけるX−Y座標位置へと変換(座標変換)する。更に、DSECUは、前回X−Y座標における「前回フュージョン物標FBnの相対速度(Vxfn,Vyfn)」を今回X−Y座標における相対速度へと変換(座標変換)し、これを今回X−Y座標における推定物標FBn’の相対速度として設定する。尚、DSECUは、前回X−Y座標と今回X−Y座標との関係を、「自車両SVの車速V、横偏差Dy、及び、ヨー角θy」の単位時間当たりの変化量と、時間Δtと、から認識し、この関係からX−Y座標位置及び相対速度等の上記座標変換を行う。 After that, the DSECU sets the obtained "XY coordinate positions (Xfn', Yfn') of the estimated target FBn'in the previous XY coordinates" to the XY coordinates at the time of this calculation (hereinafter, "this time". It is converted (coordinate conversion) to the XY coordinate position in (referred to as "XY coordinates"). Further, the DSECU converts (coordinate conversion) the "relative velocity (Vxfn, Vyfn) of the previous fusion target FBn" in the previous XY coordinates into the relative velocity in the XY coordinates this time, and this time XY. It is set as the relative velocity of the estimated target FBn'in coordinates. The DESCU describes the relationship between the previous XY coordinates and the current XY coordinates as the amount of change per unit time of "vehicle speed V, lateral deviation Dy, and yaw angle θy of own vehicle SV" and time Δt. From this relationship, the above coordinate transformations such as the XY coordinate position and the relative velocity are performed.

更に、DSECUは、推定物標FBn’の「物標幅及び物標長さ」を、前回フュージョン物標FBnの「物標幅Wf及び物標長さLf」とそれぞれ同じ値に設定する。これにより、DSECUは、推定物標FBn’(即ち、FB1’及びFB2’)を生成する。 Further, the DSPE sets the "target width and target length" of the estimated target FBn'to the same values as the "target width Wf and target length Lf" of the previous fusion target FBn, respectively. As a result, the DSPE generates the estimated target FBn'(that is, FB1'and FB2').

推定物標FBn’は、今回の演算時において新たに検知されたセンサ物標(以下、「今回検知センサ物標」とも称呼する。)をグルーピング(統合)するための判定基準となる物標である。従って、推定物標FBn’の識別情報は、前回フュージョン物標FBnの識別情報と同一の情報に設定される。即ち、例えば、推定物標FB1’の識別情報は、前回フュージョン物標FB1の識別情報である「ID1」に維持される。推定物標FB2’の識別情報は、前回フュージョン物標FB2の識別情報である「ID2」に維持される。 The estimated target FBn'is a target for grouping (integrating) the sensor target newly detected at the time of this calculation (hereinafter, also referred to as "this detection sensor target"). is there. Therefore, the identification information of the estimated target FBn'is set to the same information as the identification information of the previous fusion target FBn. That is, for example, the identification information of the estimated target FB1'is maintained in "ID1" which is the identification information of the previous fusion target FB1. The identification information of the estimated target FB2'is maintained in "ID2" which is the identification information of the previous fusion target FB2.

次に、DSECUは、推定物標FBn’に対してグルーピング候補となる今回センサ物標を抽出する。この抽出は、推定物標FBn’の位置に基づいて行われる。より具体的に述べると、DSECUは、推定物標FBn’の位置に基づいて定められるグルーピング対象領域にある「今回検知センサ物標」をその推定物標FBn’のグルーピング対象として抽出する。 Next, the DSPE extracts the sensor target this time, which is a grouping candidate for the estimated target FBn'. This extraction is based on the position of the estimated target FBn'. More specifically, the DSPE extracts the "current detection sensor target" in the grouping target area determined based on the position of the estimated target FBn'as the grouping target of the estimated target FBn'.

図5(A)に示した例において、センサ物標BFC1は、中央前方周辺センサ16FCが今回検知した今回検知センサ物標である。センサ物標BFL1、BFL2及びBFL3は、左前方周辺センサ16FLが今回検知した今回検知センサ物標である。センサ物標BRL1は、左後方周辺センサ16RLが今回検知した今回検知センサ物標である。右前方周辺センサ16FL及び右後方周辺センサ16RRは、いずれも今回検知センサ物標を検知していない。推定物標FB1’に対するグルーピング候補は、点線R1で囲まれたグルーピング対象領域に存在する「センサ物標BFC1、センサ物標BFL1、BFL2及びBFL3、並びに、センサ物標BRL1」である。推定物標FB2’に対するグルーピング候補は、点線R2で囲まれたグルーピング対象領域に存在する「センサ物標BRL1」である。 In the example shown in FIG. 5A, the sensor target BFC1 is the current detection sensor target detected by the central front peripheral sensor 16FC. The sensor targets BFL1, BFL2, and BFL3 are the current detection sensor targets detected by the left front peripheral sensor 16FL this time. The sensor target BRL1 is the current detection sensor target detected this time by the left rear peripheral sensor 16RL. Neither the right front peripheral sensor 16FL nor the right rear peripheral sensor 16RR has detected the detection sensor target this time. The grouping candidates for the estimated target FB1'are "sensor target BFC1, sensor target BFL1, BFL2 and BFL3, and sensor target BRL1" existing in the grouping target area surrounded by the dotted line R1. The grouping candidate for the estimated target FB2'is the "sensor target BRL1" existing in the grouping target area surrounded by the dotted line R2.

DSECUは、推定物標FBn’に基づいて、今回検知センサ物標を前回フュージョン物標FBnに関連付けるためのグルーピング処理(以下、「第1グルーピング処理」と称呼される。)を実行する。 The DESCU executes a grouping process (hereinafter, referred to as "first grouping process") for associating the detection sensor target with the previous fusion target FBn based on the estimated target FBn'.

即ち、DSECUは、先ず、推定物標FBn’をグルーピング基準物標として選択する。次いで、DSECUは、そのグルーピング基準物標(即ち、推定物標FBn’)に対して、グルーピング候補である今回検知センサ物標が、上述の(条件G1)及び(条件G2)からなるグルーピング条件を満たしているか否かを判定する。このように、グルーピング基準物標が推定物標FBn’である場合、グルーピング基準物標の物標情報としては推定物標FBn’の物標情報(X−Y座標位置、縦相対速度及び横相対速度)が使用される。尚、第1グルーピング処理において、条件G1にて使用される閾値縦距離Xthは「物標長さL1×0.5+所定値α」であり、条件G2にて使用される閾値横距離Ythは「物標幅W1×0.5+所定値β」である。物標長さL1及び物標幅W1には、推定物標FBn’の「物標長さ及び物標幅」がそれぞれ使用される。 That is, the DSPE first selects the estimated target FBn'as the grouping reference target. Next, the DSPE sets a grouping condition in which the current detection sensor target, which is a grouping candidate, comprises the above-mentioned (condition G1) and (condition G2) with respect to the grouping reference target (that is, the estimated target FBn'). Determine if it is satisfied. In this way, when the grouping reference target is the estimated target FBn', the target information of the grouping reference target is the target information (XY coordinate position, vertical relative velocity, and horizontal relative) of the estimated target FBn'. Speed) is used. In the first grouping process, the threshold vertical distance Xth used in the condition G1 is "target length L1 x 0.5 + predetermined value α", and the threshold lateral distance Yth used in the condition G2 is ". The target width W1 × 0.5 + predetermined value β ”. The "target length and target width" of the estimated target FBn'are used for the target length L1 and the target width W1, respectively.

グルーピング候補の今回検知センサ物標がグルーピング基準物標として選択された推定物標FBn’に対して、(条件G1)及び(条件G2)の両条件を満たしている場合、DSECUは、推定物標FBn’とその今回検知センサ物標とを統合して、フュージョン物標FBnを更新(生成)する。DSECUは、この処理を、グルーピング候補の今回検知センサ物標の総てに対して行ってフュージョン物標FBnを更新する。このフュージョン物標FBnの識別情報は、推定物標FBn’の識別情報と同じ情報に維持される。尚、当然ではあるが、グルーピング候補の今回検知センサ物標がグルーピング基準物標として選択された推定物標FBn’に対して、(条件G1)及び(条件G2)の少なくとも一方の条件を満たしていない場合、DSECUは、推定物標FBn’とその今回検知センサ物標とを統合しない。 When the current detection sensor target of the grouping candidate satisfies both the conditions (condition G1) and (condition G2) with respect to the estimated target FBn'selected as the grouping reference target, the DSECU determines the estimated target. The fusion target FBn is updated (generated) by integrating the FBn'and the detection sensor target this time. The DSECU performs this process on all of the grouping candidate current detection sensor targets to update the fusion target FBn. The identification information of the fusion target FBn is maintained in the same information as the identification information of the estimated target FBn'. As a matter of course, the current detection sensor target of the grouping candidate satisfies at least one of (condition G1) and (condition G2) with respect to the estimated target FBn'selected as the grouping reference target. If not, the DSPE does not integrate the estimated target FBn'and its current detection sensor target.

図5(B)に示される例において、推定物標FB1’に対し、点線R1により囲まれたグルーピング候補の今回検知センサ物標のうち、センサ物標BFC2及びセンサ物標BFL1が(条件G1)及び(条件G2)の両条件(即ち、グルーピング条件)を満たしていると仮定する。この場合、図6に示されるように、DSECUは、推定物標FB1’と「センサ物標BFC2及びセンサ物標BFL1」とを統合することによりフュージョン物標FB1を更新(生成)する。従って、推定物標FB1’に統合できると判定されたセンサ物標の数(グルーピング物標数)は「2」である。更に、DSECUは、更新したフュージョン物標FB1の存在確率を演算する。尚、存在確率の演算方法の詳細については後述する。 In the example shown in FIG. 5B, among the currently detected sensor targets of the grouping candidates surrounded by the dotted line R1 with respect to the estimated target FB1', the sensor target BFC2 and the sensor target BFL1 are (condition G1). It is assumed that both the conditions (that is, the grouping condition) of (condition G2) are satisfied. In this case, as shown in FIG. 6, the DSPE updates (generates) the fusion target FB1 by integrating the estimated target FB1'and the "sensor target BFC2 and the sensor target BFL1". Therefore, the number of sensor targets (grouping characteristic) determined to be integrated into the estimated target FB1'is "2". Further, the DESCU calculates the existence probability of the updated fusion target FB1. The details of the calculation method of the existence probability will be described later.

更に、図5(B)に示される例において、推定物標FB2’に対し、グルーピング候補であるセンサ物標BRL1はグルーピング条件を満たしていないと仮定する。即ち、推定物標FB2’に対し、点線R2により囲まれたグルーピング候補の今回検知センサ物標のうちグルーピング条件を満たしているセンサ物標は存在しない。換言すると、推定物標FB2’に対して統合できると判定されたセンサ物標の数(グルーピング物標数)は「0」である。この場合、DSECUは、フュージョン物標FB2を外挿する。即ち、DSECUは、推定物標FB2’を、前回フュージョン物標FB2を外挿することにより得られた今回フュージョン物標FB2と見做し、今回フュージョン物標の物標情報を推定物標FB2’の物標情報によって置換する。この処理を、フュージョン物標の外挿又は外挿処理と称呼する。尚、外挿する場合、フュージョン物標FB2の存在確率は変化しないで維持される。即ち、DSECUは、それまでに演算された存在確率をそのままフュージョン物標FB2に適用する。 Further, in the example shown in FIG. 5B, it is assumed that the sensor target BRL1 which is a grouping candidate does not satisfy the grouping condition with respect to the estimated target FB2'. That is, there is no sensor target that satisfies the grouping condition among the currently detected sensor targets of the grouping candidates surrounded by the dotted line R2 with respect to the estimated target FB2'. In other words, the number of sensor targets (grouping characteristic) determined to be integrated with the estimated target FB2'is "0". In this case, the DESCU extrapolates the fusion target FB2. That is, the DSPE regards the estimated target FB2'as the current fusion target FB2 obtained by extrapolating the fusion target FB2 last time, and the target information of the current fusion target is the estimated target FB2'. Replace with the target information of. This process is referred to as extrapolation or extrapolation of the fusion target. When extrapolated, the existence probability of the fusion target FB2 is maintained unchanged. That is, the DSECU applies the existence probabilities calculated up to that point to the fusion target FB2 as it is.

更に、第1グルーピング処理により何れの推定物標とも統合されなかった今回検知センサ物標(以下、「残余センサ物標」とも称呼する。)が存在する場合、DSECUは、残余センサ物標同士のグルーピングを試みる。この処理は、第2グルーピング処理と称呼される。 Further, when there is a detection sensor target (hereinafter, also referred to as “residual sensor target”) that has not been integrated with any of the estimated targets by the first grouping process, the DSPE is used between the residual sensor targets. Try grouping. This process is called a second grouping process.

例えば、図6に示された例においては、点線R3により囲まれた「センサ物標BFL2及びBFL3、並びに、センサ物標BRL1」は、残余センサ物標である。DSECUは、これらの残余センサ物標に対し、前述した「新規物標生成グルーピング処理」と同様の処理を第2グルーピング処理として実行する。 For example, in the example shown in FIG. 6, the “sensor target BFL2 and BFL3 and the sensor target BRL1” surrounded by the dotted line R3 are residual sensor targets. The DSECU executes the same process as the above-mentioned "new target generation grouping process" for these residual sensor targets as the second grouping process.

即ち、DSECUは、残余センサ物標の一つをグルーピング基準物標として選択し、選択したグルーピング基準物標に対してグルーピング候補となる残余センサ物標を抽出する。次いで、DSECUは、抽出したグルーピング候補となる残余センサ物標が、グルーピング基準物標に対して、上述のグルーピング条件を満たしているか否かを判定する。そして、DSECUは、グルーピング基準物標とグルーピング条件を満たす残余センサ物標とを統合することにより、新規のフュージョン物標FBnを生成する。DSECUは、この新規のフュージョン物標FBnに対して、そのフュージョン物標FBnを他のフュージョン物標と区別(識別)するための識別情報(ID)を設定する。DSECUは、このような処理を、残余センサ物標の総てに対して行う。 That is, the DSPE selects one of the residual sensor targets as the grouping reference target, and extracts the residual sensor target that is a grouping candidate for the selected grouping reference target. Next, the DSPE determines whether or not the extracted residual sensor target, which is a grouping candidate, satisfies the above-mentioned grouping condition with respect to the grouping reference target. Then, the DSPE generates a new fusion target FBn by integrating the grouping reference target and the residual sensor target that satisfies the grouping condition. The DESCU sets identification information (ID) for the new fusion target FBn to distinguish (identify) the fusion target FBn from other fusion targets. The DSECU performs such processing on all of the residual sensor targets.

ところで、上述した前回フュージョン物標FB2のように、第1グルーピング処理において「前回フュージョン物標FBnに対応する推定物標FBn’」に統合できるセンサ物標(今回検知センサ物標)が一つも存在しなかった場合、その前回フュージョン物標FBnに対応する立体物は自車両SVの周囲に存在しなくなったと考えることができる。即ち、推定物標FBn’に対して統合できる今回検知センサ物標の数(グルーピング物標数)が「0」の場合、フュージョン物標FBnがロストしたと考えることができる。 By the way, like the previous fusion target FB2 described above, there is also one sensor target (this time detection sensor target) that can be integrated into the "estimated target FBn'corresponding to the previous fusion target FBn" in the first grouping process. If this is not done, it can be considered that the three-dimensional object corresponding to the previous fusion target FBn no longer exists around the own vehicle SV. That is, when the number of detection sensor targets (grouping characteristics) that can be integrated with the estimated target FBn'is "0", it can be considered that the fusion target FBn has been lost.

ところが、このような状況は、図7に示されるように、DSECUがフュージョン物標FB2として検出していた立体物150が、周辺レーダセンサ16aの何れからもミリ波が放射されない死角領域Rdr又はRdlに一時的に進入した場合にも発生し得る。即ち、このような状況は、今回の演算タイミングにおいて、フュージョン物標FB2に対応する立体物150が実際には自車両SVの周囲に存在しているが、その立体物150からセンサ物標が検出されていない状況である可能性がある。 However, in such a situation, as shown in FIG. 7, the three-dimensional object 150 detected by the DSPE as the fusion target FB2 does not emit millimeter waves from any of the peripheral radar sensors 16a, and the blind spot region Rdr or Rdl. It can also occur if you temporarily enter the area. That is, in such a situation, at the current calculation timing, the three-dimensional object 150 corresponding to the fusion target FB2 actually exists around the own vehicle SV, but the sensor target is detected from the three-dimensional object 150. It may be a situation that has not been done.

従って、推定物標FBn’に対するグルーピング物標数が「0」である場合、DSECUが「フュージョン物標FBnはロストした」と直ちに判定した場合、その判定は誤判定である可能性がある。 Therefore, when the grouping characteristic with respect to the estimated target FBn'is "0", if the DSPE immediately determines that "the fusion target FBn has been lost", the determination may be erroneous.

このような誤判定を回避するために、推定物標FBn’に対するグルーピング物標数が「0」の場合、DSECUは、推定物標FBn’に基づいて今回フュージョン物標FBnを外挿する。フュージョン物標の外挿を開始するときに、DSECUは最大外挿継続時間tgを演算する。尚、最大外挿継続時間tgの演算方法については後述する。そして、フュージョン物標の外挿は、その外挿を開始してからの継続時間(外挿継続時間)が所定の最大外挿継続時間tg以上になるまで継続され、外挿継続時間が最大外挿継続時間tgに到達すると終了する。但し、フュージョン物標の外挿は、外挿継続時間が最大外挿継続時間tgに到達する前に、その外挿によるフュージョン物標に対応した推定物標に対して統合されるセンサ物標が現れ、当該センサ物標がその推定物標に統合されたとき終了する。 In order to avoid such an erroneous determination, when the grouping characteristic number with respect to the estimated target FBn'is "0", the DSPE extrapolates the fusion target FBn this time based on the estimated target FBn'. When starting the extrapolation of the fusion target, the DESCU calculates the maximum extrapolation duration tg. The calculation method of the maximum extrapolation duration tg will be described later. Then, the extrapolation of the fusion target is continued until the duration (extrapolation duration) from the start of the extrapolation becomes the predetermined maximum extrapolation duration tg or more, and the extrapolation duration is outside the maximum. It ends when the insertion duration tg is reached. However, the extrapolation of the fusion target is a sensor target that is integrated with the estimated target corresponding to the fusion target by the extrapolation before the extrapolation duration reaches the maximum extrapolation duration tg. Appears and ends when the sensor target is integrated into the estimated target.

一時的に周辺レーダセンサ16aの死角領域Rdr又は死角領域Rdlに入った立体物が、死角領域Rdr又は死角領域Rdlから出てきた場合、外挿によるフュージョン物標に対応した推定物標に対してグルーピング条件を満たすセンサ物標が検出される。この場合、DSECUは、当該センサ物標及び当該推定物標を統合してフュージョン物標を生成し、フュージョン物標の外挿を終了する。これによって、上述した誤判定が発生する可能性を低減することができる。 When a three-dimensional object that temporarily enters the blind spot region Rdr or blind spot region Rdl of the peripheral radar sensor 16a comes out of the blind spot region Rdr or blind spot region Rdl, the estimated target corresponding to the fusion target by extrapolation is used. A sensor target that satisfies the grouping conditions is detected. In this case, the DSPE integrates the sensor target and the estimated target to generate a fusion target, and ends the extrapolation of the fusion target. This makes it possible to reduce the possibility of the above-mentioned erroneous determination occurring.

これに対し、外挿継続時間が最大外挿継続時間tg以上になるまで、外挿によるフュージョン物標に対応した推定物標に対してグルーピング条件を満たすセンサ物標が検出されない場合、そのフュージョン物標は死角領域に一時的に入っているのではなく、自車両SVの周囲に存在しなくなった可能性が高い。従って、この場合、DSECUは、フュージョン物標がロストしたと判定する。 On the other hand, if a sensor target that satisfies the grouping condition is not detected for the estimated target corresponding to the fusion target by extrapolation until the extrapolation duration reaches the maximum extrapolation duration tg or more, the fusion object is used. It is highly possible that the marker is not temporarily in the blind spot area, but no longer exists around the vehicle SV. Therefore, in this case, the DSECU determines that the fusion target has been lost.

(存在確率の演算)
後述するように、DSECUは、フュージョン物標の存在確率に基づいて、最大外挿継続時間を演算する。そのため、DSECUは、フュージョン物標を更新した場合、更新したフュージョン物標の存在確率を演算する。具体的に述べると、DSECUは、下記(A)式にて、前回フュージョン物標の存在確率に、所定の存在確率rup×Cyを加算して、今回の演算におけるフュージョン物標の存在確率Trstを算出する。

Trst=Trstpre+rup×Cy・・・(A)
(Trst:今回の演算におけるフュージョン物標の存在確率、Trstpr:前回フュージョン物標の存在確率、rup:存在確率の上昇率、Cy:演算サイクル数)
(Calculation of existence probability)
As will be described later, the DSECU calculates the maximum extrapolation duration based on the existence probability of the fusion target. Therefore, when the fusion target is updated, the DESCU calculates the existence probability of the updated fusion target. Specifically, the DSECU adds a predetermined existence probability rup × Cy to the existence probability of the previous fusion target by the following equation (A) to obtain the existence probability Trst of the fusion target in this calculation. calculate.

Trst = Trst pre + rup x Cy ... (A)
(Trst: Existence probability of fusion target in this calculation, Trst pr : Existence probability of previous fusion target, rup: Increase rate of existence probability, Cy: Number of calculation cycles)

従って、周辺レーダセンサ16aによって、統合できるセンサ物標が継続して検出され続けられ、フュージョン物標を更新できる演算サイクル数が多くなるほど(継続して生成し続ける時間が長くなるほど)、存在確率は大きくなるように演算される。このとき、DSECUは、図8に示されたように、存在確率の上昇率rupをフュージョン物標の縦相対速度Vxobjの大きさ(絶対値)が大きくなるほど、大きくなるように設定する。 Therefore, the peripheral radar sensor 16a continuously detects the sensor targets that can be integrated, and the larger the number of calculation cycles that can update the fusion target (the longer the continuous generation time), the higher the existence probability. It is calculated to be large. At this time, as shown in FIG. 8, the DSPE sets the increase rate rup of the existence probability so as to increase as the magnitude (absolute value) of the vertical relative velocity Vxobj of the fusion target increases.

これにより、下記のような縦相対速度Vxfの大きさが小さいフュージョン物標の存在確率は、大きくなりにくくなる。
・路面、壁及び路側物等を誤検知(誤検出)したときに生じる縦相対速度Vxfの大きさが小さいフュージョン物標及びセンサゴーストを検知(検出)したときに生じる縦相対速度Vxfの大きさが小さいフュージョン物標
・自車両と略等速の他車両を検知したときに生じる縦相対速度Vxobjの大きさが小さいフュージョン物標
As a result, the existence probability of the fusion target having a small vertical relative velocity Vxf as described below is less likely to increase.
-The magnitude of the vertical relative velocity Vxf generated when a road surface, wall, roadside object, etc. is falsely detected (false positive) is small. The magnitude of the vertical relative velocity Vxf generated when a fusion target or sensor ghost is detected (detected). Fusion target with a small vertical relative speed Vxobj generated when another vehicle with a substantially constant velocity is detected with the own vehicle.

一方で、大きな速度を有し、且つ、遠方から接近してくるようなフュージョン物標の存在確率は、大きくなりやすい。 On the other hand, the probability of existence of a fusion target having a large speed and approaching from a distance tends to be large.

(最大外挿継続時間の演算)
DSECUは、フュージョン物標の存在確率に基づいて、最大外挿継続時間を演算する。具体的に述べると、DSECUは、図9に示されたように、存在確率が大きくなるほど最大外挿継続時間が長くなり、且つ、縦相対速度Vxfの大きさが小さくなるほど最大外挿継続時間が長くなるように、最大外挿継続時間を演算する。
(Calculation of maximum extrapolation duration)
The DESCU calculates the maximum extrapolation duration based on the probability of existence of the fusion target. Specifically, as shown in FIG. 9, the maximum extrapolation duration increases as the existence probability increases, and the maximum extrapolation duration increases as the vertical relative velocity Vxf decreases. Calculate the maximum extrapolation duration so that it is longer.

(本実施装置の効果)
以上説明したように、本実施装置は、フュージョン物標が継続して更新される(生成される)演算回数(演算サイクル数)に比例して増加するパラメータである存在確率を、フュージョン物標に対して設定している。これにより、フュージョン物標が生成されて認識され続けている期間が長くなるほど大きくなる適切な存在確率を設定することができると共に、その存在確率が大きくなるほど長くなる適切な最大外挿継続時間を決定することができる。
(Effect of this implementation device)
As described above, the present implementation device uses the existence probability, which is a parameter that increases in proportion to the number of operations (number of operation cycles) for which the fusion target is continuously updated (generated), to the fusion target. It is set for. This makes it possible to set an appropriate probability of existence that increases as the period during which the fusion target is generated and continues to be recognized increases, and determines an appropriate maximum extrapolation duration that increases as the probability of existence increases. can do.

その結果、一つの立体物から得られるセンサ物標が、以下のように検出される場合において、一つの立体物に対応するフュージョン物標の認識が短期間且つ一時的に途切れてしまう可能性を低くすることができる。
・一つの立体物から得られる複数の異なるセンサ物標が、交互に検知を繰り返す場合
・一つの立体物から得られる一つのセンサ物標が、短期間且つ一時的に検知及びロストを繰り返す場合
As a result, when the sensor target obtained from one three-dimensional object is detected as follows, the recognition of the fusion target corresponding to one three-dimensional object may be interrupted for a short period of time and temporarily. Can be lowered.
-When multiple different sensor targets obtained from one three-dimensional object repeat detection alternately-When one sensor target obtained from one three-dimensional object repeatedly detects and loses temporarily for a short period of time

以下では、本実施装置の効果について図10及び図11を参照しながらより具体的に説明する。図10及び図11において、一つの立体物hから得られるセンサ物標Bfr1及びセンサ物標Bfc1が交互に検出されている。 Hereinafter, the effects of the present implementation device will be described more specifically with reference to FIGS. 10 and 11. In FIGS. 10 and 11, the sensor target Bfr1 and the sensor target Bfc1 obtained from one three-dimensional object h are alternately detected.

具体的に述べると、時刻t0から時刻t1の直前までの期間、右前方周辺センサ16FRによって立体物hから得られたセンサ物標Bfr1が検出されている。時刻t1から時刻t4の直前までの期間、センサ物標Bfr1が検出されていない。センサ物標Bfr1が一時的に検出されていない時刻t1から時刻t4の直前までの間の、時刻t2から時刻t3の直前までの期間、中央前方周辺センサ16FCによって立体物hから得られたセンサ物標Bfc1が検出されている。そして、時刻t3以降であって、時刻t4から時刻t5の直前までの期間、再び右前方周辺センサ16FRによってセンサ物標Bfr1が検出されている。 Specifically, the sensor target Bfr1 obtained from the three-dimensional object h is detected by the right front peripheral sensor 16FR during the period from the time t0 to immediately before the time t1. The sensor target Bfr1 was not detected during the period from time t1 to immediately before time t4. The sensor object obtained from the three-dimensional object h by the central front peripheral sensor 16FC during the period from time t2 to immediately before time t3 between time t1 and immediately before time t4 when the sensor target Bfr1 is not temporarily detected. Mark Bfc1 has been detected. Then, after time t3, the sensor target Bfr1 is detected again by the right front peripheral sensor 16FR during the period from time t4 to immediately before time t5.

このような状況下にて、フュージョン物標Fhに存在確率を設定して、その存在確率に基づいて最大外挿継続時間を決定する場合の例(以下、「実施例」と称呼される。)について、図10を参照しながら説明する。フュージョン物標Fhに存在確率を設定しないで、センサ物標に存在確率を設定して、その存在確率に基づいてセンサ物標の最大外挿継続時間を決定する場合の例(以下、「参考例」と称呼される。)について、図11を参照しながら説明する。尚、図11の参考例は、フュージョン物標の外挿を行わないで、センサ物標の外挿を行うようになっている。この場合、前回センサ物標のセンサ物標情報に基づいて推定したセンサ物標情報を、センサ物標の物標情報に置換することによって、センサ物標を外挿している。 Under such circumstances, an example in which the existence probability is set in the fusion target Fh and the maximum extrapolation duration is determined based on the existence probability (hereinafter, referred to as "Example"). Will be described with reference to FIG. An example in which the existence probability is set in the sensor target without setting the existence probability in the fusion target Fh, and the maximum extrapolation duration of the sensor target is determined based on the existence probability (hereinafter, "reference example"). ”) Will be described with reference to FIG. In the reference example of FIG. 11, the sensor target is extrapolated without extrapolating the fusion target. In this case, the sensor target is extrapolated by replacing the sensor target information estimated based on the sensor target information of the previous sensor target with the target information of the sensor target.

図10の実施例に示されるように、DSECUは、時刻t0にて、右前方周辺センサ16FRによって検出された一つの立体物hから得られたセンサ物標Bfr1によって、立体物hに対応するフュージョン物標Fhを生成する。時刻t0から時刻t1の直前までの期間、DSECUは、センサ物標Bfr1によってフュージョン物標Fhを生成し続ける。従って、この期間、フュージョン物標Fhの存在確率は上昇する。 As shown in the embodiment of FIG. 10, the DESCU has a fusion corresponding to the three-dimensional object h by the sensor target Bfr1 obtained from one three-dimensional object h detected by the right front peripheral sensor 16FR at time t0. Generate target Fh. During the period from time t0 to immediately before time t1, the DSPE continues to generate the fusion target Fh by the sensor target Bfr1. Therefore, during this period, the existence probability of the fusion target Fh increases.

時刻t1にて、右前方周辺センサ16FRによってセンサ物標Bfr1が検出されなくなり、且つ、周辺レーダセンサ16aよって立体物hから得られる他のセンサ物標も検出されなくなる。すると、DSECUは、フュージョン物標Fhの外挿を開始する。更に、このとき、DSECUは、最大外挿継続時間tg1を、時刻t1のフュージョン物標Fhの存在確率Trst1の大きさに基づいて最大外挿継続時間tg1を決定する。 At time t1, the sensor target Bfr1 is not detected by the right front peripheral sensor 16FR, and other sensor targets obtained from the three-dimensional object h are not detected by the peripheral radar sensor 16a. Then, the DESCU starts the extrapolation of the fusion target Fh. Further, at this time, the DSPE determines the maximum extrapolation duration tg1 and the maximum extrapolation duration tg1 based on the magnitude of the existence probability Trst1 of the fusion target Fh at time t1.

時刻t1から時刻t2の直前までの期間、右前方周辺センサ16FRによってセンサ物標Bfr1が検出されず、且つ、周辺レーダセンサ16aによって立体物hから得られる他のセンサ物標も検出されていない。従って、この期間、DSECUは、フュージョン物標Fhの外挿を継続する。尚、フュージョン物標の外挿を行っている期間、DSECUは、フュージョン物標の存在確率を変化させないで維持する。 During the period from time t1 to immediately before time t2, the sensor target Bfr1 is not detected by the right front peripheral sensor 16FR, and other sensor targets obtained from the three-dimensional object h are not detected by the peripheral radar sensor 16a. Therefore, during this period, the DSECU continues to extrapolate the fusion target Fh. During the period of extrapolation of the fusion target, the DSECU maintains the existence probability of the fusion target unchanged.

フュージョン物標Fhの外挿中の時刻t2にて、中央前方周辺センサ16FCによって立体物hから得られたセンサ物標Bfc1を検出する。すると、DSECUは、フュージョン物標Fhの外挿を終了するとともに、センサ物標Bfc1によってフュージョン物標Fhを生成する。 At time t2 during the extrapolation of the fusion target Fh, the sensor target Bfc1 obtained from the three-dimensional object h is detected by the center front peripheral sensor 16FC. Then, the DSPE finishes the extrapolation of the fusion target Fh and generates the fusion target Fh by the sensor target Bfc1.

時刻t2から時刻t3の直前までの期間、DSECUは、センサ物標Bfc1によってフュージョン物標Fhを生成し続ける。従って、この期間、フュージョン物標の存在確率は、維持されていた存在確率Trst1から再び上昇する。 During the period from time t2 to immediately before time t3, the DSPE continues to generate the fusion target Fh by the sensor target Bfc1. Therefore, during this period, the existence probability of the fusion target rises again from the maintained existence probability Trist1.

時刻t3にて、中央前方周辺センサ16FCによってセンサ物標Bfc1が検出されなくなり、且つ、周辺レーダセンサ16aによって立体物hから得られる他のセンサ物標も検出されなくなる。すると、DSECUは、フュージョン物標Fhの外挿を開始する。更に、DSECUは、最大外挿継続時間tg2を、時刻t3のフュージョン物標Fhの存在確率Trst2の大きさに基づいて決定する。このとき、時刻t3のフュージョン物標Fhの存在確率Trst2は、時刻t1のフュージョン物標の存在確率Trst1より大きくなっているので、最大外挿継続時間tg2は、最大外挿継続時間tg1より長い時間に決定される。 At time t3, the sensor target Bfc1 is not detected by the central front peripheral sensor 16FC, and other sensor targets obtained from the three-dimensional object h are not detected by the peripheral radar sensor 16a. Then, the DESCU starts the extrapolation of the fusion target Fh. Further, the DESCU determines the maximum extrapolation duration tg2 based on the magnitude of the existence probability Trst2 of the fusion target Fh at time t3. At this time, since the existence probability Trst2 of the fusion target Fh at time t3 is larger than the existence probability Trst1 of the fusion target at time t1, the maximum extrapolation duration tg2 is longer than the maximum extrapolation duration tg1. Will be decided.

時刻t3から時刻t4の直前までの期間、中央前方周辺センサ16FCによってセンサ物標Bfc1が検出されず、且つ、周辺レーダセンサ16aによって立体物hから得られる他のセンサ物標も検出されていない。従って、この期間、DSECUは、フュージョン物標Fhの外挿を継続する。 During the period from time t3 to immediately before time t4, the sensor target Bfc1 is not detected by the central front peripheral sensor 16FC, and other sensor targets obtained from the three-dimensional object h are not detected by the peripheral radar sensor 16a. Therefore, during this period, the DSECU continues to extrapolate the fusion target Fh.

フュージョン物標Fhの外挿中の時刻t4の直前にて、右前方周辺センサ16FRによって立体物hから得られたセンサ物標Bfr1が再び検出される。すると、DSECUは、フュージョン物標Fhの外挿を終了するとともに、センサ物標Bfr1によってフュージョン物標Fhを生成する。更に、DSECUは、時刻t4から時刻t5の直前まで検出され続けているセンサ物標Bfr1によってフュージョン物標Fhを生成し続ける。 Immediately before time t4 during the extrapolation of the fusion target Fh, the sensor target Bfr1 obtained from the three-dimensional object h is detected again by the right front peripheral sensor 16FR. Then, the DSPE finishes the extrapolation of the fusion target Fh and generates the fusion target Fh by the sensor target Bfr1. Further, the DSPE continues to generate the fusion target Fh by the sensor target Bfr1 which has been continuously detected from the time t4 to just before the time t5.

時刻t5にて、右前方周辺センサ16FRによってセンサ物標Bfr1が再び検出されなくなり、且つ、周辺レーダセンサ16aよって立体物hから得られる他のセンサ物標も検出されなくなる。すると、DSECUは、フュージョン物標Fhの外挿を開始する。更に、このとき、DSECUは、最大外挿継続時間tg3を、時刻t5のフュージョン物標の存在確率Trst3の大きさに基づいて決定する。このとき、時刻t5のフュージョン物標Fhの存在確率Trst3は、時刻t2のフュージョン物標の存在確率Trst2より大きくなっているので、最大外挿継続時間tg3は、最大外挿継続時間tg2より長い時間に決定される。 At time t5, the sensor target Bfr1 is not detected again by the right front peripheral sensor 16FR, and other sensor targets obtained from the three-dimensional object h are not detected by the peripheral radar sensor 16a. Then, the DESCU starts the extrapolation of the fusion target Fh. Further, at this time, the DSPE determines the maximum extrapolation duration tg3 based on the magnitude of the existence probability Trst3 of the fusion target at time t5. At this time, since the existence probability Trst3 of the fusion target Fh at time t5 is larger than the existence probability Trst2 of the fusion target at time t2, the maximum extrapolation duration tg3 is longer than the maximum extrapolation duration tg2. Will be decided.

時刻t5から最大外挿継続時間tg3が経過する時点である時刻t6まで、周辺レーダセンサ16aによって立体物hから得られるセンサ物標が検出されていない。すると、時刻t6にて、DSECUは、フュージョン物標をロストと判定する。 From the time t5 to the time t6, which is the time when the maximum extrapolation duration tg3 elapses, the sensor target obtained from the three-dimensional object h is not detected by the peripheral radar sensor 16a. Then, at time t6, the DSPE determines that the fusion target is lost.

これに対して、図11の参考例に示されるように、DSECUは、時刻t0にて、右前方周辺センサ16FRによって検出された一つの立体物hから得られたセンサ物標Bfr1によって、立体物hに対応するフュージョン物標Fhを生成する。 On the other hand, as shown in the reference example of FIG. 11, the DSECU uses the sensor target Bfr1 obtained from one three-dimensional object h detected by the right front peripheral sensor 16FR at time t0 to form a three-dimensional object. Generate a fusion target Fh corresponding to h.

時刻t0から時刻t1の直前までの期間、DSECUは、右前方周辺センサ16FRによって検出できているセンサ物標Bfr1によってフュージョン物標Fhを生成し続ける。この期間、右前方周辺センサ16FRによってセンサ物標Bfr1が検出され続けているので、センサ物標Bfr1の存在確率は上昇する。 During the period from time t0 to immediately before time t1, the DSPE continues to generate the fusion target Fh by the sensor target Bfr1 detected by the right front peripheral sensor 16FR. During this period, the sensor target Bfr1 continues to be detected by the right front peripheral sensor 16FR, so that the existence probability of the sensor target Bfr1 increases.

時刻t1にて、右前方周辺センサ16FRによってセンサ物標Bfr1が検出されなくなると、DSECUは、センサ物標Bfr1の外挿を開始する。更に、このとき、DSECUは、最大外挿継続時間tg1’を、時刻t1のセンサ物標Bfr1の存在確率Trst1’の大きさに基づいて決定する。 When the sensor target Bfr1 is no longer detected by the right front peripheral sensor 16FR at time t1, the DSPE starts extrapolation of the sensor target Bfr1. Further, at this time, the DSPE determines the maximum extrapolation duration tg1'based on the magnitude of the existence probability Trst1'of the sensor target Bfr1 at time t1.

時刻t1から時刻t2の直前までの期間、右前方周辺センサ16FRによってセンサ物標Bfr1が検出されていない。従って、この期間、DSECUは、センサ物標Bfr1の外挿を継続する。尚、センサ物標Bfr1の外挿を行っている期間、DSECUは、センサ物標Bfr1の存在確率を変化させないで維持する。更に、この期間、周辺レーダセンサ16aによって立体物hから得られる他のセンサ物標も検出されていない。従って、DSECUは、外挿中のセンサ物標Bfr1によってフュージョン物標Fhを生成する。 During the period from time t1 to immediately before time t2, the sensor target Bfr1 is not detected by the right front peripheral sensor 16FR. Therefore, during this period, the DSPE continues to extrapolate the sensor target Bfr1. During the period during which the sensor target Bfr1 is extrapolated, the DSECU maintains the existence probability of the sensor target Bfr1 unchanged. Furthermore, during this period, other sensor targets obtained from the three-dimensional object h are not detected by the peripheral radar sensor 16a. Therefore, the DESCU generates the fusion target Fh by the sensor target Bfr1 during extrapolation.

センサ物標Bfr1の外挿中の時刻t2にて、中央前方周辺センサ16FCによって立体物hから得られたセンサ物標Bfc1を検出する。すると、DSECUは、外挿中のセンサ物標fr1及びセンサ物標Bfc1によってフュージョン物標Fhを生成する。 At time t2 during extrapolation of the sensor target Bfr1, the sensor target Bfc1 obtained from the three-dimensional object h is detected by the center front peripheral sensor 16FC. Then, the DSPE generates the fusion target Fh by the sensor target fr1 and the sensor target Bfc1 during extrapolation.

時刻t2から時刻t2aの直前の時点までの期間、中央前方周辺センサ16FCによって立体物hから得られたセンサ物標Bfc1を検出しており、センサ物標Bfr1は依然として検出できていないままであるので、外挿中である。従って、DSECUは、外挿中のセンサ物標Bfr1、及び、中央前方周辺センサ16FCによって検出できているセンサ物標Bfc1によってフュージョン物標Fhを生成し続ける。 During the period from the time t2 to the time immediately before the time t2a, the sensor target Bfc1 obtained from the three-dimensional object h is detected by the central front peripheral sensor 16FC, and the sensor target Bfr1 is still undetectable. , Extrapolating. Therefore, the DSPE continues to generate the fusion target Fh by the sensor target Bfr1 being extrapolated and the sensor target Bfc1 detected by the center front peripheral sensor 16FC.

時刻t1から最大外挿継続時間tg1’が経過した時点である時刻t2aにて、中央前方周辺センサ16FCによって立体物hから得られたセンサ物標Bfc1を検出しており、外挿中のセンサ物標Bfr1は依然として検出できていないままである。従って、DSECUは、センサ物標Bfr1をロストと判定する。このとき、センサ物標Bfr1についての存在確率はリセット(初期値(例えば、「0」)に設定)される。更に、DSECは、中央前方周辺センサ16FCによって検出できているセンサ物標Bfc1によってフュージョン物標Fhを生成する。 At time t2a, which is the time when the maximum extrapolation duration tg1'elapses from time t1, the sensor target Bfc1 obtained from the three-dimensional object h is detected by the central front peripheral sensor 16FC, and the sensor object being extrapolated. Mark Bfr1 remains undetectable. Therefore, the DSPE determines that the sensor target Bfr1 is lost. At this time, the existence probability of the sensor target Bfr1 is reset (set to an initial value (for example, “0”)). Further, the DSEC generates the fusion target Fh by the sensor target Bfc1 detected by the center front peripheral sensor 16FC.

時刻t2aから時刻t3の直前の時点までの期間、DSECUは、中央前方周辺センサ16FCによって検出できているセンサ物標Bfc1によってフュージョン物標Fhを生成し続ける。尚、時刻t2aから時刻t3の直前までの期間、中央前方周辺センサ16FCによってセンサ物標Bfc1が検出され続けているので、センサ物標Bfc1の存在確率は、初期値から上昇する。 During the period from the time t2a to the time immediately before the time t3, the DSPE continues to generate the fusion target Fh by the sensor target Bfc1 detected by the center front peripheral sensor 16FC. Since the sensor target Bfc1 is continuously detected by the central front peripheral sensor 16FC during the period from the time t2a to immediately before the time t3, the existence probability of the sensor target Bfc1 increases from the initial value.

時刻t3にて、中央前方周辺センサ16FCによってセンサ物標Bfc1が検出されなくなると、DSECUは、センサ物標Bfc1の外挿を開始する。更に、このとき、DSECUは、最大外挿継続時間tg2’を、時刻t3のセンサ物標Bfc1の存在確率Trst2’の大きさに基づいて決定する。更に、このとき、周辺レーダセンサ16aによって立体物hから得られる他のセンサ物標も検出されていない。従って、DSECUは、外挿中のセンサ物標Bfc1によってフュージョン物標Fhを生成する。 When the sensor target Bfc1 is no longer detected by the center front peripheral sensor 16FC at time t3, the DSPE starts extrapolation of the sensor target Bfc1. Further, at this time, the DSPE determines the maximum extrapolation duration tg2'based on the magnitude of the existence probability Trst2'of the sensor target Bfc1 at time t3. Further, at this time, other sensor targets obtained from the three-dimensional object h are not detected by the peripheral radar sensor 16a. Therefore, the DESCU generates the fusion target Fh by the sensor target Bfc1 during extrapolation.

ここで、参考例によれば、存在確率が、センサ物標ごとに設定されているので、存在確率Trst2’は、センサ物標が検出されている時刻t2から時刻t3の期間に対応した大きさになる。フュージョン物標Fhとして認識できている期間t0から時刻t2の直前までの期間は、存在確率Trst2’には反映されていない。従って、存在確率Trst2’は、実施例の存在確率Trst2のように、時刻t2から時刻t3に加えて期間t0から時刻t2の期間も反映させた場合ほど大きくならずに、最大外挿継続時間tg2’も短くなってしまう。 Here, according to the reference example, since the existence probability is set for each sensor target, the existence probability Trst2'is a size corresponding to the period from the time t2 to the time t3 when the sensor target is detected. become. The period from the period t0 recognized as the fusion target Fh to immediately before the time t2 is not reflected in the existence probability Trst2'. Therefore, the existence probability Trst2'is not as large as the case where the period from time t2 to time t3 and the period from time t0 to time t2 are reflected as in the existence probability Trst2 of the embodiment, and the maximum extrapolation duration tg2 'Is also shortened.

従って、参考例によれば、次のセンサ物標Bfr1が検出される時刻t4より前のタイミングの時刻t3aにて、最大外挿継続時間tg2’が経過してしまう。従って、DSECUは、時刻t3aにてセンサ物標Bfc1をロストと判定する。更に、DSECUは、t3aから時刻t4の直前までの期間、周辺レーダセンサ16aによって立体物hから得られる他のセンサ物標も検出されていないので、この期間、フュージョン物標をロストと判定する。 Therefore, according to the reference example, the maximum extrapolation duration tg2'elapses at the time t3a at the timing before the time t4 when the next sensor target Bfr1 is detected. Therefore, the DSPE determines that the sensor target Bfc1 is lost at time t3a. Further, the DESCU determines that the fusion target is lost during the period from t3a to immediately before the time t4 because no other sensor target obtained from the three-dimensional object h is detected by the peripheral radar sensor 16a.

これに対して、実施例によれば、存在確率がフュージョン物標Fhに設定されているので、存在確率Trst2は、フュージョン物標Fhが認識されている時刻t0から時刻t3の期間に対応した大きさになる。即ち、フュージョン物標Fhとして認識できている期間t0から時刻t3までの期間が、フュージョン物標Fhの存在確率に正確に反映されている。従って、最大外挿継続時間tg2も、フュージョン物標Fhの存在確率に応じた適切な長さに設定される。 On the other hand, according to the embodiment, since the existence probability is set to the fusion target Fh, the existence probability Trst2 has a large value corresponding to the period from the time t0 to the time t3 when the fusion target Fh is recognized. It will be. That is, the period from the period t0 to the time t3, which can be recognized as the fusion target Fh, is accurately reflected in the existence probability of the fusion target Fh. Therefore, the maximum extrapolation duration tg2 is also set to an appropriate length according to the existence probability of the fusion target Fh.

その結果、一つの立体物から得られる複数の異なるセンサ物標が、交互に検知を繰り返す場合において、フュージョン物標の認識が短期間且つ一時的に途切れてしまう可能性を低くすることができる。同様に、一つの立体物から得られる一つのセンサ物標が、短期間且つ一時的に検知及びロストを繰り返す場合において、フュージョン物標の認識が短期間且つ一時的に途切れてしまう可能性を低くすることができる。 As a result, when a plurality of different sensor targets obtained from one three-dimensional object repeatedly detect each other, it is possible to reduce the possibility that the recognition of the fusion target is interrupted for a short period of time and temporarily. Similarly, when one sensor target obtained from one three-dimensional object repeatedly detects and loses temporarily for a short period of time, it is unlikely that the recognition of the fusion target will be interrupted for a short period of time and temporarily. can do.

(具体的作動)
次に、本実施装置の具体的な作動について説明する。DSECUのCPU(以下、単に「CPU」と称呼される。)は、所定のタイミングになると、所定時間(所定演算周期)Δtが経過する毎に、図12、図13及び図15に示したルーチンを実行する。
(Specific operation)
Next, the specific operation of the present implementation device will be described. The CPU of the DSPE (hereinafter, simply referred to as “CPU”) is a routine shown in FIGS. 12, 13 and 15 every time a predetermined time (predetermined calculation cycle) Δt elapses at a predetermined timing. To execute.

従って、CPUは、所定のタイミングになると図12の新規物標生成ルーチンのステップ1200から処理を開始してステップ1205に進み、前述した前回フュージョン物標が存在していないか否かを判定する。換言すると、CPUは、前回の演算時(一演算周期Δt前)においてフュージョン物標が生成も更新もされていなかったか否かを判定する。前回フュージョン物標が存在していない場合、CPUはステップ1205にて「Yes」と判定して、以下に述べるステップ1210乃至ステップ1220の処理を順に行った後、ステップ1295に進み、本ルーチンを一旦終了する。 Therefore, at a predetermined timing, the CPU starts the process from step 1200 of the new target generation routine of FIG. 12 and proceeds to step 1205 to determine whether or not the above-mentioned previous fusion target does not exist. In other words, the CPU determines whether or not the fusion target has been generated or updated at the time of the previous calculation (one calculation cycle Δt before). If the fusion target did not exist last time, the CPU determines "Yes" in step 1205, performs the processes of steps 1210 to 1220 described below in order, and then proceeds to step 1295 to temporarily execute this routine. finish.

ステップ1210:CPUは、今回の演算時において周辺レーダセンサ16aによって検知されているセンサ物標(即ち、今回検知センサ物標)を取得する。尚、図には示されていないが、CPUは、ステップ1210にてセンサ物標が一つも取得されなかった場合、ステップ1295に直接進んで本ルーチンを一旦終了する。
ステップ1215:CPUは、上述した新規物標生成グルーピング処理を行い、新規のフュージョン物標を生成する。
Step 1210: The CPU acquires the sensor target (that is, the current detection sensor target) detected by the peripheral radar sensor 16a at the time of the current calculation. Although not shown in the figure, if no sensor target is acquired in step 1210, the CPU directly proceeds to step 1295 and temporarily ends this routine.
Step 1215: The CPU performs the above-mentioned new target generation grouping process to generate a new fusion target.

ステップ1220:CPUは、フュージョン物標情報である「物標幅Wf、物標長さLf及びフュージョン物標の座標位置(Xf,Yf)、縦相対速度Vxf等」を演算する。なお、本例において、フュージョン物標の座標位置(Xf,Yf)は、フュージョン物標の中心位置の座標(Xfc,Yfc)である。フュージョン物標の縦相対速度Vxfは、例えば、フュージョン物標に属するセンサ物標の縦相対速度Vxobjの平均値を算出することにより求めることができる。このとき、CPUは、新規に生成されたフュージョン物標情報に、フュージョン物標情報の一つである識別情報(ID)を付与する。 Step 1220: The CPU calculates the fusion target information "target width Wf, target length Lf, coordinate position (Xf, Yf) of the fusion target, vertical relative velocity Vxf, etc.". In this example, the coordinate position (Xf, Yf) of the fusion target is the coordinate (Xfc, Yfc) of the center position of the fusion target. The vertical relative velocity Vxf of the fusion target can be obtained, for example, by calculating the average value of the vertical relative velocity Vxobj of the sensor target belonging to the fusion target. At this time, the CPU adds identification information (ID), which is one of the fusion target information, to the newly generated fusion target information.

尚、ステップ1205の処理の時点で前回フュージョン物標が存在している場合、CPUはステップ1205にて「No」と判定してステップ1295に直接進み、本ルーチンを一旦終了する。 If the fusion target exists last time at the time of the process of step 1205, the CPU determines "No" in step 1205, proceeds directly to step 1295, and temporarily ends this routine.

更に、CPUは、所定のタイミングになると、図13に示した既存フュージョン物標トラッキングルーチンのステップ1300から処理を開始してステップ1310に進み、前回フュージョン物標が存在しているか否かを判定する。換言すると、CPUは、前回の演算時(一演算周期Δt前)においてフュージョン物標が生成又は更新されていたか否かを判定する。前回フュージョン物標が存在していない場合、CPUはステップ1310にて「No」と判定し、ステップ1395に直接進んで本ルーチンを一旦終了する。 Further, at a predetermined timing, the CPU starts processing from step 1300 of the existing fusion target tracking routine shown in FIG. 13 and proceeds to step 1310 to determine whether or not the previous fusion target exists. .. In other words, the CPU determines whether or not the fusion target has been generated or updated at the time of the previous calculation (one calculation cycle Δt before). If the fusion target does not exist last time, the CPU determines "No" in step 1310, proceeds directly to step 1395, and temporarily ends this routine.

前回フュージョン物標が存在している場合、CPUはステップ1310にて「Yes」と判定してステップ1315に進み、今回の演算時において周辺レーダセンサ16aによって検知されているセンサ物標(即ち、今回検知センサ物標)を取得する。 If the fusion target exists last time, the CPU determines "Yes" in step 1310 and proceeds to step 1315, and the sensor target detected by the peripheral radar sensor 16a at the time of this calculation (that is, this time). Detect sensor target) is acquired.

その後、CPUはステップ1320に進み、前述した方法に則って、前回フュージョン物標情報に基づいて推定物標を生成する。このとき、推定物標の識別情報は、その推定物標が生成された元となった前回フュージョン物標情報の識別情報と同一に設定される。 After that, the CPU proceeds to step 1320 and generates an estimated target based on the previous fusion target information according to the method described above. At this time, the identification information of the estimated target is set to be the same as the identification information of the previous fusion target information from which the estimated target was generated.

その後、CPUはステップ1325に進み、ステップ1320にて生成した推定物標に基づいて、前述した第1グルーピング処理を実施する。即ち、CPUは、ステップ1315にて取得したセンサ物標を前回フュージョン物標に紐づける(関連付ける)ように、推定物標に対して上記グルーピング条件を満足するセンサ物標(今回検知センサ物標)同士を統合することによって今回フュージョン物標を更新(生成)する。 After that, the CPU proceeds to step 1325 and performs the first grouping process described above based on the estimated target generated in step 1320. That is, the CPU satisfies the above grouping conditions with respect to the estimated target so as to associate (associate) the sensor target acquired in step 1315 with the previous fusion target (this time detection sensor target). By integrating each other, the fusion target will be updated (generated) this time.

その後、CPUはステップ1330に進み、ステップ1315にて取得したセンサ物標のうち、推定物標に統合できないと判定されたセンサ物標が存在しているか否かを判定する。 After that, the CPU proceeds to step 1330 and determines whether or not there is a sensor target determined to be unable to be integrated with the estimated target among the sensor targets acquired in step 1315.

推定物標に統合できないと判定されたセンサ物標が存在している場合、CPUはステップ1330にて「Yes」と判定してステップ1335に進み、第2グルーピングフラグXg2の値を「1」に設定する。その後、CPUはステップ1340に進む。尚、第2グルーピングフラグXg2の値は、自車両SVのイグニッション・キー・スイッチがオフからオンに変更されたときに実行される図示しないイニシャルルーチンにおいて「0」に設定されるようになっている。 If there is a sensor target that is determined not to be integrated into the estimated target, the CPU determines "Yes" in step 1330, proceeds to step 1335, and sets the value of the second grouping flag Xg2 to "1". Set. The CPU then proceeds to step 1340. The value of the second grouping flag Xg2 is set to "0" in an initial routine (not shown) executed when the ignition key switch of the own vehicle SV is changed from off to on. ..

これに対し、推定物標に統合できないと判定されたセンサ物標が存在していない場合、CPUはステップ1330にて「No」と判定してステップ1340に直接進む。 On the other hand, if there is no sensor target determined to be unable to be integrated into the estimated target, the CPU determines "No" in step 1330 and proceeds directly to step 1340.

CPUは、ステップ1340に進むと、図14に示したルーチンの処理を行なうことにより、物標情報更新処理及びロスト判定処理を行なう。より具体的に述べると、CPUは、ステップ1340に進んだとき図14のステップ1400を介してステップ1405に進み、任意の推定物標を選択する。次いで、CPUはステップ1410に進み、ステップ1325の第1グルーピング処理において「推定物標に統合できると判定されたセンサ物標」の数(グルーピング物標数)が「1」以上であるか否かを判定する。 When the CPU proceeds to step 1340, the target information update process and the lost determination process are performed by performing the routine processing shown in FIG. More specifically, when the CPU proceeds to step 1340, it proceeds to step 1405 via step 1400 of FIG. 14 and selects an arbitrary estimated target. Next, the CPU proceeds to step 1410, and in the first grouping process of step 1325, whether or not the number of "sensor targets determined to be integrated into the estimated target" (grouping target) is "1" or more. To judge.

グルーピング物標数が「1」以上である場合、CPUは、ステップ1410にて「Yes」と判定する。そして、CPUはステップ1415に進み、フュージョン物標を構成するように統合したセンサ物標のセンサ物標情報に基づいて、そのフュージョン物標のフュージョン物標情報である「物標幅Wf、物標長さLf及び中心位置の座標(Xfc、Yfc)、縦相対速度Vxf等」を演算する。更に、CPUは、フュージョン物標情報に含まれる連続外挿フレーム数fの値を「0」に設定する。この連続外挿フレーム数fの値については後述する。 When the grouping characteristic is "1" or more, the CPU determines "Yes" in step 1410. Then, the CPU proceeds to step 1415, and based on the sensor target information of the sensor target integrated so as to form the fusion target, the fusion target information of the fusion target, "target width Wf, target". The length Lf, the coordinates of the center position (Xfc, Yfc), the vertical relative velocity Vxf, etc. ”are calculated. Further, the CPU sets the value of the number of continuous extrapolated frames f included in the fusion target information to “0”. The value of the number of continuous extrapolated frames f will be described later.

CPUは、ステップ1415の処理を終了するとステップ1420に進み、フュージョン物標情報を、ステップ1415にて演算したフュージョン物標情報へと更新する。次いで、CPUは、存在確率の上昇率rupを、ステップ1420にて更新したフュージョン物標のフュージョン物標情報のうちの縦相対速度Vxfの大きさ(絶対値)をブロックBK1に示したルックアップテーブルM1(以下、「マップ」とも称呼される。)に適用することにより演算する。CPUは、前回の存在確率Trstpre、存在確率の上昇率rup及び演算サイクル数Cyを(A)式に適用して今回の存在確率Trstを演算する。
Trst=Trstpre+rup×Cy・・・(A)
When the processing of step 1415 is completed, the CPU proceeds to step 1420 and updates the fusion target information with the fusion target information calculated in step 1415. Next, the CPU uses a look-up table in which the magnitude (absolute value) of the vertical relative velocity Vxf in the fusion target information of the fusion target updated in step 1420 is shown in the block BK1. It is calculated by applying it to M1 (hereinafter, also referred to as "map"). The CPU calculates the current existence probability Trst by applying the previous existence probability Trst pre , the increase rate rup of the existence probability, and the number of calculation cycles Cy to the equation (A).
Trst = Trst pre + rup x Cy ... (A)

次いで、CPUはステップ1425に進み、今回の演算時における推定物標の総てが選択されたか否かを判定する。推定物標の総てが選択されていない場合、CPUはステップ1425にて「No」と判定してステップ1405に戻り、未選択の推定物標を選択する。これに対し、推定物標の総てが選択されていた場合、CPUはステップ1425にて「Yes」と判定し、ステップ1495を経由して図13のステップ1395へと進む。 The CPU then proceeds to step 1425 to determine whether or not all of the estimated targets at the time of this calculation have been selected. If all of the estimated targets are not selected, the CPU determines "No" in step 1425, returns to step 1405, and selects an unselected estimated target. On the other hand, when all of the estimated targets are selected, the CPU determines "Yes" in step 1425, and proceeds to step 1395 in FIG. 13 via step 1495.

一方、CPUがステップ1410の処理を行う時点において、ステップ1405にて選択した推定物標に対して統合できると判定されたセンサ物標の数(グルーピング物標数)が「0」である場合、前述したフュージョン物標の外挿処理を行う。即ち、この場合、CPUはステップ1410にて「No」と判定してステップ1425に進み、「ステップ1405にて選択され且つ統合できるセンサ物標の数が「0」であった推定物標の元となった前回フュージョン物標」が既に外挿中でないか否かを判定する。実際には、CPUは、この判定を、この前回フュージョン物標に対する連続外挿フレーム数fの値が「0」であるか否か判定することによって実施する。 On the other hand, when the number of sensor targets (grouping target) determined to be integrated with the estimated target selected in step 1405 at the time when the CPU performs the process of step 1410 is "0". The above-mentioned extrapolation process of the fusion character is performed. That is, in this case, the CPU determines "No" in step 1410, proceeds to step 1425, and "is the source of the estimated target whose number of sensor targets that can be selected and integrated in step 1405 is" 0 ". It is determined whether or not the "previous fusion target that became" is already extrapolated. Actually, the CPU performs this determination by determining whether or not the value of the number of continuous extrapolated frames f with respect to the previous fusion target is "0".

連続外挿フレーム数fの値は、前回フュージョン物標が外挿中ではない場合に前述のステップ1415にて「0」に設定されている。よって、CPUがステップ1425の処理を行なう場合、連続外挿フレーム数fの値が「0」であれば、前回フュージョン物標は「既に外挿中」ではないと判定できる。この場合、CPUは、ステップ1425にて「Yes」と判定してステップ1430に進み、フュージョン物標の外挿処理を継続させる時間の最大値である最大外挿継続時間tgを決定する。具体的に述べると、CPUは、前回フュージョン物標の存在確率Trstpre及び推定物標の縦相対速度の大きさ(絶対値)をブロックBK2に示したマップM2に適用することによって、最大外挿継続時間tgを演算することにより、最大外挿継続時間tgを決定する。 The value of the number of continuous extrapolated frames f is set to "0" in step 1415 described above when the fusion target was not extrapolated last time. Therefore, when the CPU performs the process of step 1425, if the value of the number of continuous extrapolation frames f is "0", it can be determined that the previous fusion target is not "already extrapolated". In this case, the CPU determines "Yes" in step 1425, proceeds to step 1430, and determines the maximum extrapolation duration tg, which is the maximum value of the time for continuing the extrapolation processing of the fusion target. Specifically, the CPU applies the magnitude (absolute value) of the existence probability Trst pre of the previous fusion target and the vertical relative velocity of the estimated target to the map M2 shown in the block BK2, thereby maximizing extrapolation. The maximum extrapolation duration tg is determined by calculating the duration tg.

その後、CPUはステップ1435に進み、前述したフュージョン物標の外挿処理を実行し、今回の演算タイミングにおけるフュージョン物標のフュージョン物標情報(今回フュージョン物標情報)を、推定物標の物標情報に更新する。即ち、今回フュージョン物標情報は推定物標の物標情報により置換される。その後、CPUはステップ1440に進み、フュージョン物標の連続外挿フレーム数fの値を「+1」だけインクリメントする。尚、以下では、ステップ1435の処理を行った後であって、連続外挿フレーム数fが1以上のフュージョン物標は「外挿中のフュージョン物標」と称呼される。 After that, the CPU proceeds to step 1435, executes the extrapolation process of the fusion target described above, and uses the fusion target information (this time fusion target information) of the fusion target at the current calculation timing as the estimated target target. Update to information. That is, this time, the fusion target information is replaced with the target information of the estimated target. After that, the CPU proceeds to step 1440 and increments the value of the number of continuous extrapolated frames f of the fusion target by "+1". In the following, a fusion target having a continuous extrapolation frame number f of 1 or more after the processing of step 1435 is referred to as a “fusion target during extrapolation”.

一方、CPUがステップ1425の処理を行う時点において、「ステップ1405にて選択され且つ統合できるセンサ物標の数が「0」であった推定物標の元となった前回フュージョン物標」が「外挿中のフュージョン物標」である場合(即ち、連続外挿フレーム数fが「1」以上である場合)、CPUはステップ1425にて「No」と判定する。そして、CPUはステップ1445に進み、最大外挿継続時間tgから外挿継続時間(演算周期Δt×連続外挿フレーム数f)を減算することにより、残余外挿時間tg’を演算する。 On the other hand, at the time when the CPU performs the process of step 1425, the "previous fusion target which was the source of the estimated target whose number of sensor targets selected and integrated in step 1405 was" 0 "" is ". In the case of "a fusion target during extrapolation" (that is, when the number of continuous extrapolated frames f is "1" or more), the CPU determines "No" in step 1425. Then, the CPU proceeds to step 1445 and calculates the residual extrapolation time tg'by subtracting the extrapolation duration (calculation cycle Δt × number of continuous extrapolation frames f) from the maximum extrapolation duration tg.

その後、CPUはステップ1450に進み、ステップ1445にて演算した残余外挿時間tg’が0以下であるか否かを判定する。 After that, the CPU proceeds to step 1450 and determines whether or not the residual extrapolation time tg'calculated in step 1445 is 0 or less.

残余外挿時間tg’が0より大きい場合、CPUはステップ1450にて「No」と判定してステップ1435に進み、フュージョン物標の外挿処理を実施する。このように、「外挿中のフュージョン物標」は、ステップ1410にて推定物標に対してグルーピングできたセンサ物標の数が1以上にならない限り、演算周期Δtが経過する毎に繰り返し行われる。その後、CPUは、ステップ1440にて連続外挿フレーム数fの値を更新し、ステップ1425へと進む。 If the residual extrapolation time tg'is greater than 0, the CPU determines "No" in step 1450 and proceeds to step 1435 to perform extrapolation processing of the fusion target. In this way, the "fusion target during extrapolation" is repeated every time the calculation cycle Δt elapses, unless the number of sensor targets that can be grouped with respect to the estimated target in step 1410 is 1 or more. Will be After that, the CPU updates the value of the number of continuous extrapolated frames f in step 1440, and proceeds to step 1425.

これに対して、フュージョン物標の外挿処理が繰り返して行われて残余外挿時間tg’が0以下となった場合、CPUはステップ1450にて「Yes」と判定してステップ1455に進み、「外挿中のフュージョン物標」をロストしたと判定する。即ち、CPUは、外挿中のフュージョン物標が消失したと判定する。尚、このとき、CPUは、連続外挿フレーム数fの値を「0」に設定しておく。 On the other hand, when the extrapolation process of the fusion target is repeatedly performed and the residual extrapolation time tg'is 0 or less, the CPU determines "Yes" in step 1450 and proceeds to step 1455. It is determined that the "fusion target during extrapolation" has been lost. That is, the CPU determines that the fusion target during extrapolation has disappeared. At this time, the CPU sets the value of the number of continuous extrapolated frames f to "0".

ところで、前述したように、推定物標に統合できないと判定されたセンサ物標が存在している場合、図13のステップ1335にて第2グルーピングフラグXg2の値が「1」に設定される。第2グルーピングフラグXg2の値が「1」に設定されると、図15に示した第2グルーピングルーチンが以下に述べるように実行され、その結果、推定物標に統合できないと判定されたセンサ物標に基づいて新規のフュージョン物標が生成される。 By the way, as described above, when there is a sensor target that is determined not to be integrated with the estimated target, the value of the second grouping flag Xg2 is set to "1" in step 1335 of FIG. When the value of the second grouping flag Xg2 is set to "1", the second grouping routine shown in FIG. 15 is executed as described below, and as a result, the sensor object determined to be unable to be integrated into the estimated target. A new fusion target is generated based on the target.

CPUは、所定のタイミングになると図15のルーチンのステップ1500から処理を開始して、ステップ1510に進み、第2グルーピングフラグXg2の値が「1」であるか否かを判定する。 At a predetermined timing, the CPU starts processing from step 1500 of the routine of FIG. 15, proceeds to step 1510, and determines whether or not the value of the second grouping flag Xg2 is "1".

第2グルーピングフラグXg2の値が「1」である場合、CPUはステップ1510にて「Yes」と判定して、以下に述べるステップ1515乃至ステップ1525の処理を順に行った後、ステップ1595に進み、本ルーチンを一旦終了する。 When the value of the second grouping flag Xg2 is "1", the CPU determines "Yes" in step 1510, performs the processes of steps 1515 to 1525 described below in order, and then proceeds to step 1595. Terminate this routine once.

ステップ1515:CPUは、前述した第2グルーピング処理を実行する。
ステップ1520:CPUは、ステップ1515にて生成された新規のフュージョン物標のフュージョン物標情報を、決定する。
ステップ1525:第2グルーピングフラグXg2の値を「0」に設定する。
Step 1515: The CPU executes the second grouping process described above.
Step 1520: The CPU determines the fusion target information of the new fusion target generated in step 1515.
Step 1525: Set the value of the second grouping flag Xg2 to "0".

尚、ステップ1510の処理の時点で第2グルーピングフラグXg2の値が「0」である場合、CPUはステップ1510にて「No」と判定してステップ1595に直接進み、本ルーチンを一旦終了する。 If the value of the second grouping flag Xg2 is "0" at the time of processing in step 1510, the CPU determines "No" in step 1510, proceeds directly to step 1595, and temporarily ends this routine.

<変形例>
以上、本発明の実施形態について具体的に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的思想に基づく各種の変形が可能である。
<Modification example>
Although the embodiments of the present invention have been specifically described above, the present invention is not limited to the above-described embodiments, and various modifications based on the technical idea of the present invention are possible.

例えば、上述の実施形態においては、追従車間距離制御及び車線維持制御の実行中であることが、車線変更支援制御を実行するための前提となっているが、必ずしも、そのような前提は必要としない。 For example, in the above-described embodiment, it is a premise for executing the lane change support control that the following inter-vehicle distance control and the lane keeping control are being executed, but such a premise is not always necessary. do not do.

10…運転支援ECU、15…車速センサ、16a…周辺レーダセンサ、16FC…中央前方周辺センサ、16FR…右前方周辺センサ、16FL…左前方周辺センサ、16RR…右後方周辺センサ、16RL…左後方周辺センサ、16b…カメラセンサ、17…操作スイッチ、52…転舵用モータ、53…ウインカーレバースイッチ 10 ... Driving support ECU, 15 ... Vehicle speed sensor, 16a ... Peripheral radar sensor, 16FC ... Center front peripheral sensor, 16FR ... Right front peripheral sensor, 16FL ... Left front peripheral sensor, 16RR ... Right rear peripheral sensor, 16RL ... Left rear peripheral Sensor, 16b ... Camera sensor, 17 ... Operation switch, 52 ... Steering motor, 53 ... Winker lever switch

Claims (1)

それぞれが、自車両の周囲に送信するレーダ波の立体物による反射点をセンサ物標として検出し、前記検出したセンサ物標の前記自車両に対する縦距離、横位置及び相対速度を含むセンサ物標情報を取得するための位置速度情報を検出する複数のレーダセンサと、
所定時間が経過する毎に、前記センサ物標に基づいて前記自車両の周囲に存在する立体物を示すフュージョン物標を生成し、前記生成したフュージョン物標の前記自車両に対する位置及び速度を前記センサ物標情報に基づいて算出するフュージョン物標生成手段と、
前記フュージョン物標の存在確率を演算する存在確率演算手段と、
前記所定時間前に生成されていた前記フュージョン物標である特定フュージョン物標に対応するセンサ物標が検出されなくなった場合、当該特定フュージョン物標に対応する前記センサ物標が検出されない限り、前記特定フュージョン物標の前記自車両に対する位置及び速度に基づいて、当該特定フュージョン物標に対応する外挿フュージョン物標を生成する外挿処理を行う外挿処理手段と、
前記外挿処理を最大外挿継続時間以上行ったときに当該外挿処理を行った前記センサ物標が存在しないと判定するセンサ物標存在判定手段と、
前記存在確率及び前記特定フュージョン物標の縦相対速度に基づいて前記外挿処理を行う時間の最大値である最大外挿継続時間を演算する最大外挿継続時間演算手段と
を備え、
前記存在確率演算手段は、
前記フュージョン物標が生成されている場合に当該フュージョン物標の縦相対速度の大きさが大きくなるほど前記存在確率の上昇率が大きくなるように当該フュージョン物標の縦相対速度に基づいて当該存在確率の上昇率を求めるとともに、前記フュージョン物標が継続して生成されている時間に対応する値と前記存在確率の上昇率とに基づいて決定される前記存在確率の増大量を積算することによって前記存在確率を算出するように構成され、
前記最大外挿継続時間演算手段は、
前記存在確率が大きくなるほど前記最大外挿継続時間が長くなり、且つ、前記縦相対速度の大きさが小さくなるほど前記最大外挿継続時間が長くなるように、前記最大外挿継続時間を演算するように構成された、
物標検出装置。
Each detects the reflection point of the radar wave transmitted around the own vehicle by a three-dimensional object as a sensor target, and the sensor target including the vertical distance, the lateral position, and the relative speed of the detected sensor target with respect to the own vehicle. Multiple radar sensors that detect position and velocity information to acquire information,
Every time a predetermined time elapses, a fusion target indicating a three-dimensional object existing around the own vehicle is generated based on the sensor target, and the position and speed of the generated fusion target with respect to the own vehicle are determined. Fusion target generation means calculated based on sensor target information,
Existence probability calculation means for calculating the existence probability of the fusion target, and
When the sensor target corresponding to the specific fusion target, which is the fusion target generated before the predetermined time, is no longer detected, the sensor target corresponding to the specific fusion target is not detected. An extrapolation processing means that performs extrapolation processing to generate an extrapolation fusion target corresponding to the specific fusion target based on the position and speed of the specific fusion target with respect to the own vehicle.
When the extrapolation process is performed for the maximum extrapolation duration or longer, the sensor target presence determination means for determining that the sensor target for which the extrapolation process has been performed does not exist, and
It is provided with a maximum extrapolation duration calculation means for calculating the maximum extrapolation duration, which is the maximum value of the time for performing the extrapolation process based on the existence probability and the vertical relative velocity of the specific fusion target.
The existence probability calculation means
The existence probability on the basis of the longitudinal relative velocity of the fusion object to longitudinal relative velocity magnitude is larger the increase rate of the existence probability of the fusion object is increased when the fusion objects is generated The increase rate of the existence probability is obtained, and the increase amount of the existence probability determined based on the value corresponding to the time during which the fusion target is continuously generated and the increase rate of the existence probability is integrated. It is configured to calculate the probability of existence,
The maximum extrapolation duration calculation means is
The maximum extrapolation duration is calculated so that the maximum extrapolation duration becomes longer as the existence probability increases and the maximum extrapolation duration becomes longer as the magnitude of the longitudinal relative velocity decreases. Consists of,
Target detection device.
JP2017114777A 2017-06-09 2017-06-09 Target detection device Active JP6828603B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017114777A JP6828603B2 (en) 2017-06-09 2017-06-09 Target detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017114777A JP6828603B2 (en) 2017-06-09 2017-06-09 Target detection device

Publications (2)

Publication Number Publication Date
JP2019002690A JP2019002690A (en) 2019-01-10
JP6828603B2 true JP6828603B2 (en) 2021-02-10

Family

ID=65004930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017114777A Active JP6828603B2 (en) 2017-06-09 2017-06-09 Target detection device

Country Status (1)

Country Link
JP (1) JP6828603B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7263996B2 (en) * 2019-09-19 2023-04-25 株式会社デンソー Wall shape measuring device
JP7414025B2 (en) 2021-01-21 2024-01-16 トヨタ自動車株式会社 Collision avoidance support device

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4075624B2 (en) * 2003-01-28 2008-04-16 株式会社デンソー In-vehicle radar system, program
US7369941B2 (en) * 2004-02-18 2008-05-06 Delphi Technologies, Inc. Collision detection system and method of estimating target crossing location
JP4779704B2 (en) * 2006-02-27 2011-09-28 トヨタ自動車株式会社 Target detection apparatus and target detection method
JP4928896B2 (en) * 2006-10-17 2012-05-09 本田技研工業株式会社 Vehicle control device
JP4944535B2 (en) * 2006-08-03 2012-06-06 本田技研工業株式会社 Vehicle control device
JP4757146B2 (en) * 2006-08-24 2011-08-24 本田技研工業株式会社 Object detection device
JP4385064B2 (en) * 2007-09-06 2009-12-16 本田技研工業株式会社 Control object recognition device
JP2009210337A (en) * 2008-03-03 2009-09-17 Toyota Motor Corp Radar device
JP5093020B2 (en) * 2008-09-18 2012-12-05 トヨタ自動車株式会社 Radar equipment
JP4680294B2 (en) * 2008-12-26 2011-05-11 トヨタ自動車株式会社 Object detection apparatus and object detection method
JP2011048641A (en) * 2009-08-27 2011-03-10 Toyota Motor Corp Object detection device and driving support device
WO2011036803A1 (en) * 2009-09-28 2011-03-31 トヨタ自動車株式会社 Object detecting device
JP5576727B2 (en) * 2010-06-30 2014-08-20 富士通テン株式会社 Signal processing device, radar device, vehicle control system, and signal processing method
JP2014145731A (en) * 2013-01-30 2014-08-14 Toyota Motor Corp Target detection apparatus and target detection method
JP5732098B2 (en) * 2013-04-08 2015-06-10 本田技研工業株式会社 Object detection device
JP6338871B2 (en) * 2014-01-31 2018-06-06 株式会社デンソーテン Radar apparatus, vehicle control system, and signal processing method
JP2015155807A (en) * 2014-02-20 2015-08-27 富士通テン株式会社 Radar device, vehicle control system, and signal processing method
JP6443011B2 (en) * 2014-12-01 2018-12-26 株式会社デンソー Target detection device

Also Published As

Publication number Publication date
JP2019002690A (en) 2019-01-10

Similar Documents

Publication Publication Date Title
JP6958001B2 (en) Lane change support device
JP6816658B2 (en) Target information acquisition device
US10515278B2 (en) Driving assistance device
JP6572880B2 (en) Driving assistance device
JP6897349B2 (en) Driving support device
JP6828602B2 (en) Target detection device
US10864913B2 (en) Vehicle driving support apparatus
JP2019003234A (en) Driving support device
JP6805965B2 (en) Collision avoidance control device
JP4983564B2 (en) Vehicle tracking device
JP6805970B2 (en) Target information acquisition device
JP6825528B2 (en) Vehicle driving support device
JP2016218996A (en) Collision avoidance support apparatus and collision avoidance support method
CN109720343B (en) Vehicle control apparatus
US10723349B2 (en) Vehicle control device and control method
JP7147648B2 (en) Driving support device
JP7091956B2 (en) Vehicle lane change support device
JP2019188941A (en) Vehicle control device
CN111688687B (en) Vehicle travel control device
JP7067379B2 (en) Vehicle lane change support device
JP6828603B2 (en) Target detection device
JP6361572B2 (en) Alarm control device
JP7468375B2 (en) Vehicle control device
KR20220106875A (en) Driver assistance system and method therof
JP6082293B2 (en) Vehicle white line recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210104

R151 Written notification of patent or utility model registration

Ref document number: 6828603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151