JP7211145B2 - vehicle controller - Google Patents

vehicle controller Download PDF

Info

Publication number
JP7211145B2
JP7211145B2 JP2019028206A JP2019028206A JP7211145B2 JP 7211145 B2 JP7211145 B2 JP 7211145B2 JP 2019028206 A JP2019028206 A JP 2019028206A JP 2019028206 A JP2019028206 A JP 2019028206A JP 7211145 B2 JP7211145 B2 JP 7211145B2
Authority
JP
Japan
Prior art keywords
target
information
vehicle
fusion
target information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019028206A
Other languages
Japanese (ja)
Other versions
JP2020131940A (en
Inventor
了太 村上
佑磨 星川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019028206A priority Critical patent/JP7211145B2/en
Publication of JP2020131940A publication Critical patent/JP2020131940A/en
Application granted granted Critical
Publication of JP7211145B2 publication Critical patent/JP7211145B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明は、車両に備えられた複数のセンサによりそれぞれ検出された車両周辺の物標情報を統合することにより物標を特定するとともに、当該特定された物標の情報を記憶部に記録し、この記録された物標の情報に基づいて車両を制御する車両の制御装置に関する。 The present invention identifies a target by integrating target information around the vehicle detected by a plurality of sensors provided on the vehicle, and records information about the identified target in a storage unit, The present invention relates to a vehicle control device that controls a vehicle based on the recorded target information.

従来から、車両に備えられたレーダセンサ又は超音波センサにより検出された物標についての物標情報と、車両に備えられたカメラセンサにより取得された物標についての物標情報と、を組み合わせることにより、より正確な物標情報を取得する「センサフュージョン技術」が知られている。 Conventionally, target information about a target detected by a radar sensor or an ultrasonic sensor provided in a vehicle and target information about a target obtained by a camera sensor provided in the vehicle are combined. "Sensor fusion technology" is known for obtaining more accurate target information.

従来の車両の制御装置の一つ(以下、「従来装置」と称呼する。)は、車両の走行時にカメラセンサにより撮影された画像に基づいて車両の前方に存在する物標(障害物)の有無を判定する。更に、従来装置は、超音波センサによる検出状態及びカメラセンサにより撮影された画像の検出状態と、判定された車両の前方に存在する物標の有無の情報と、に基づいて車両の駆動力を制御するようになっている(例えば、特許文献1を参照。)。 One of the conventional vehicle control devices (hereinafter referred to as "conventional device") detects a target (obstacle) existing in front of the vehicle based on an image captured by a camera sensor while the vehicle is running. Determine presence/absence. Further, the conventional device adjusts the driving force of the vehicle based on the detection state of the ultrasonic sensor, the detection state of the image captured by the camera sensor, and the determined information on the presence or absence of a target existing in front of the vehicle. (See, for example, Patent Document 1.).

特開2017-43173号公報JP 2017-43173 A

ところで、レーダセンサ又は超音波センサにより検出された物標と、カメラセンサにより取得された物標が、同一の物標であると認識(特定)される場合、この特定された物標は、実際に存在する可能性が高く且つ物標の位置情報及び速度情報はより正確に求められる。この同一の物標であると認識された物標は、以下、「フュージョン物標」と称呼される。従って、例えば、ある物標がフュージョン物標と特定された場合に、フュージョン物標に関する情報(識別ID、識別時刻、位置情報及び速度情報等)に基づいて車両を制御することにより、車両と物標との接触を回避する制御装置が考えられる。 By the way, when a target detected by a radar sensor or an ultrasonic sensor and a target acquired by a camera sensor are recognized (identified) as the same target, the identified target is actually and the position information and velocity information of the target can be obtained more accurately. Targets recognized to be the same target are hereinafter referred to as "fusion targets". Therefore, for example, when a certain target is identified as a fusion target, the vehicle and the object can be identified by controlling the vehicle based on information (identification ID, identification time, position information, speed information, etc.) related to the fusion target. A control device is conceivable that avoids contact with the target.

しかし、フュージョン物標と特定された物標が、レーダセンサ又は超音波センサ(以下、「第1センサ」とも称呼する。)、及び、カメラセンサ(以下、「第2センサ」とも称呼する。)の何れか一方の検出可能領域から離脱した場合、フュージョン物標情報は取得されなくなる。そのため、他方のセンサによって物標が検出されているにもかかわらず、車両と物標との接触を回避するための制御(接触回避制御)が中止されてしまう場合がある。 However, the target specified as the fusion target is a radar sensor or an ultrasonic sensor (hereinafter also referred to as "first sensor") and a camera sensor (hereinafter also referred to as "second sensor"). , the fusion target information is no longer acquired. Therefore, although the target is detected by the other sensor, the control for avoiding contact between the vehicle and the target (contact avoidance control) may be stopped.

本発明は上記問題に対処するために為されたものである。即ち、本発明の目的の一つは、信頼度の高いフュージョン物標情報を得ることにより物標が第1センサ及び第2センサの何れか一方の検出可能領域から離脱した場合であっても、接触回避制御を継続できる車両の制御装置を提供することにある。 The present invention has been made to address the above problems. That is, one of the objects of the present invention is to obtain fusion target information with high reliability so that even if the target leaves the detectable area of either one of the first sensor and the second sensor, To provide a vehicle control device capable of continuing contact avoidance control.

このような課題を解決するため、本発明の一実施形態に係る車両の制御装置(以下、「本発明装置」とも称呼する。)(10)は、第1センサ部(20)と、第2センサ部(30)と、フュージョン物標情報取得部(41)と、記憶部(43)と、フュージョン物標情報管理部(42)と、車両運動状態制御部(50)を備える。
In order to solve such problems, a control device for a vehicle according to one embodiment of the present invention (hereinafter also referred to as "the device of the present invention") (10) includes a first sensor section (20) and a first sensor section (20). It comprises a 2-sensor section (30), a fusion target information acquisition section (41), a storage section (43), a fusion target information management section (42), and a vehicle motion state control section (50).

前記第1センサ部は、車両(SV)の周囲の所定の検出領域に存在する物標を電磁波又は超音波を用いて検出するとともに、当該検出された物標に関する情報である第1検出情報を取得する。例えば、第1センサ部は、ミリ波レーダ、レーザレーダ及び超音波レーダ等である。 The first sensor unit detects a target existing in a predetermined detection area around the vehicle (SV) using electromagnetic waves or ultrasonic waves, and transmits first detection information that is information about the detected target. get. For example, the first sensor unit is a millimeter wave radar, a laser radar, an ultrasonic radar, or the like.

前記第2センサ部は、前記車両の周囲の所定範囲を撮影して取得された画像データを用いて前記車両の周囲に存在する物標を検出するとともに、当該検出された物標に関する情報である第2検出情報を取得する。例えば、第2センサ部は、カメラセンサである。 The second sensor unit detects a target existing around the vehicle using image data acquired by photographing a predetermined range around the vehicle, and provides information about the detected target. Acquire second detection information. For example, the second sensor unit is a camera sensor.

前記フュージョン物標情報取得部は、前記第1センサ部及び前記第2センサ部の何れもが検出している物標である「両センサ検出物標」についての前記第1検出情報及び前記第2検出情報を統合したフュージョン物標情報を取得する(ステップ610、ステップ710)。 The fusion target information acquisition unit obtains the first detection information and the second Fusion target information obtained by integrating detection information is obtained (steps 610 and 710).

前記記憶部は、前記フュージョン物標情報を格納する。 The storage unit stores the fusion target information.

前記フュージョン物標情報管理部は、少なくとも前記フュージョン物標情報取得部が前記フュージョン物標情報を取得しているとの条件を含む特定条件が所定時間に亘って成立したとき(ステップ640:Yes)、前記フュージョン物標情報を前記記憶部に記録する(ステップ650)。更に、前記フュージョン物標情報管理部は、前記フュージョン物標情報が記録された後、前記第1検出情報から取得される前記車両に対する前記物標の速度と、前記第2検出情報から取得される前記車両に対する前記物標の速度と、の差が所定値以上となったとき(ステップ740:No又はステップ750:No)、前記記録されたフュージョン物標情報を前記記憶部から削除する(ステップ760)。 When the fusion target information management unit satisfies a specific condition including at least the condition that the fusion target information acquisition unit has acquired the fusion target information for a predetermined period of time (step 640: Yes) , the fusion target information is recorded in the storage unit (step 650). Further, after the fusion target information is recorded, the fusion target information management unit controls the speed of the target relative to the vehicle obtained from the first detection information and the speed obtained from the second detection information. When the difference between the speed of the target relative to the vehicle and the speed of the target becomes equal to or greater than a predetermined value (step 740: No or step 750: No), the recorded fusion target information is deleted from the storage unit (step 760). ).

前記車両運動状態制御部は、前記記憶部に前記フュージョン物標情報が記録されている間は、当該フュージョン物標に対応する物標と前記車両との接触を回避するために前記車両の運動状態を変更する(ステップ870)ように構成される。 The vehicle motion state control unit controls the motion state of the vehicle to avoid contact between the target corresponding to the fusion target and the vehicle while the fusion target information is recorded in the storage unit. (step 870).

例えば、仮に第1センサ部により検出されている物標と第2センサ部により検出されている物標とが異なる物標であるにもかかわらず、「両センサ検出物標」として認識され、フュージョン物標情報が取得される場合も考えられる。この場合、その後、所定時間毎に繰り返される検出過程において、継続してフュージョン物標情報が取得される可能性は高くない。言い換えると、第1検出情報及び第2検出情報を統合したフュージョン物標情報が継続して(繰り返し)取得される期間が長いほど、当該フュージョン物標情報の信頼度は高い。そこで、本発明装置は、少なくともフュージョン物標情報取得部がフュージョン物標情報を取得しているとの条件を含む特定条件が所定時間に亘って成立したとき、フュージョン物標情報を記憶部(例えば、RAM)に記録する。従って、このようにして記録されたフュージョン物標情報は信頼度の高い情報であると言える。 For example, even if the target detected by the first sensor unit and the target detected by the second sensor unit are different targets, they are recognized as "targets detected by both sensors", and fusion It is conceivable that target information may be acquired. In this case, it is not highly likely that fusion target information will continue to be acquired in the detection process that is repeated at predetermined time intervals thereafter. In other words, the longer the period in which the fusion target information obtained by integrating the first detection information and the second detection information is continuously (repeatedly) acquired, the higher the reliability of the fusion target information. Therefore, the apparatus of the present invention stores the fusion target information in the storage unit (for example, , RAM). Therefore, it can be said that the fusion target information recorded in this way is highly reliable information.

一方、上記のようにフュージョン物標情報が記憶部に記録された場合であっても、2つの異なる物標が同一の物標であると誤認識されている可能性はゼロではない(ないとは言えない)。この場合には、その後、2つの異なる物標がそれぞれ異なる方向に移動すれば、両者の車両に対する速度が異なって認識されるはずである。そこで、本発明装置は、第1検出情報から取得される物標の速度と第2検出情報から取得される物標の速度との差が所定値以上となったとき、記憶部に記録されたフュージョン物標情報を削除する。このように、本発明装置によれば、信頼度の高くない記録は削除されるので、記録されているフュージョン物標情報の信頼度をより向上させることができる。 On the other hand, even if the fusion target information is recorded in the storage unit as described above, there is a non-zero possibility that two different targets are erroneously recognized as the same target. cannot say). In this case, if two different targets move in different directions after that, the velocities of the two vehicles should be recognized differently. Therefore, in the device of the present invention, when the difference between the speed of the target acquired from the first detection information and the speed of the target acquired from the second detection information becomes equal to or greater than a predetermined value, the Delete fusion target information. In this way, according to the apparatus of the present invention, since records with low reliability are deleted, the reliability of the recorded fusion target information can be further improved.

更に、本発明装置によれば、フュージョン物標情報が取得され、記憶部に記録された物標に対しては、接触を回避するために車両状態が変更可能に構成されている。従って、仮に第1センサ部の検出可能領域及び第2センサ部の検出可能領域の何れか一方から物標が離脱した場合であっても、引き続き、車両の運動状態を変更する制御(接触を回避する)が可能となる。 Furthermore, according to the device of the present invention, the fusion target information is acquired, and the vehicle state can be changed to avoid contact with the target recorded in the storage unit. Therefore, even if the target leaves either the detectable area of the first sensor unit or the detectable area of the second sensor unit, the control to change the motion state of the vehicle (contact avoidance control) is continued. to) becomes possible.

つまり、本発明装置によれば、信頼度の高いフュージョン物標情報を取得することにより、物標が第1センサ部の検出可能領域及び第2センサ部の検出可能領域の何れか一方から離脱した場合であっても、接触回避制御を継続可能な車両の制御装置を提供することができる。 In other words, according to the device of the present invention, by acquiring fusion target information with high reliability, the target leaves either the detectable area of the first sensor unit or the detectable area of the second sensor unit. Even in such a case, it is possible to provide a vehicle control device capable of continuing contact avoidance control.

上記説明においては、発明の理解を助けるために、実施形態に対応する発明の構成に対して、実施形態で用いた符号を括弧書きで添えているが、発明の各構成要件は、前記符号によって規定される実施形態に限定されるものではない。本発明の目的、他の特徴及び付随する利点は、以下の図面を参照しつつ記述される本発明の実施形態についての説明から容易に理解されるであろう。 In the above description, in order to facilitate understanding of the invention, the reference numerals used in the embodiments are attached to the configurations of the invention corresponding to the embodiments in parentheses. It is not intended to be limited to the defined embodiments. Objects, other features and attendant advantages of the present invention will be readily understood from the description of embodiments of the present invention described with reference to the following drawings.

図1は、本発明の実施形態に係る車両の制御装置の概略システム構成図である。FIG. 1 is a schematic system configuration diagram of a vehicle control device according to an embodiment of the present invention. 図2は、図1に示したレーダセンサ及びカメラセンサの取付位置及び各センサのx-y平面上の検出可能領域の説明図である。FIG. 2 is an explanatory diagram of the mounting positions of the radar sensor and camera sensor shown in FIG. 1 and the detectable area of each sensor on the xy plane. 図3は、図1に示したレーダセンサ及びカメラセンサのx-z平面上の検出可能領域の説明図である。FIG. 3 is an explanatory diagram of detectable areas on the xz plane of the radar sensor and camera sensor shown in FIG. 図4は、図1に示した車両と物標とのx-y平面における位置関係を示した図である。FIG. 4 is a diagram showing the positional relationship on the xy plane between the vehicle and the target shown in FIG. 図5は、図1に示した記憶部に記録されるフュージョン物標情報を説明するための図である。FIG. 5 is a diagram for explaining fusion target information recorded in the storage unit shown in FIG. 図6は、図1に示した物標検出ECUのCPUが実行する「フュージョン物標情報記録ルーチン」を示したフローチャートである。FIG. 6 is a flow chart showing a "fusion target information recording routine" executed by the CPU of the target detection ECU shown in FIG. 図7は、図1に示した物標検出ECUのCPUが実行する「フュージョン物標情報削除ルーチン」を示したフローチャートである。FIG. 7 is a flow chart showing a "fusion target information deletion routine" executed by the CPU of the target detection ECU shown in FIG. 図8は、図1に示した車両運動状態制御ECUのCPUが実行する「衝突前制御ルーチン」を示したフローチャートである。FIG. 8 is a flow chart showing a "pre-collision control routine" executed by the CPU of the vehicle motion state control ECU shown in FIG. 図9は、図1に示した物標検出ECUのCPUが実行する「フュージョン物標情報記録ルーチン」を示したフローチャートである。FIG. 9 is a flow chart showing a "fusion target information recording routine" executed by the CPU of the target detection ECU shown in FIG.

(構成)
図1は、本発明の実施形態に係る車両の制御装置(以下、「第1装置」とも称呼される。)10の概略システム構成図である。第1装置10は、車両SVに搭載され、当該車両SVの少なくとも前方に存在する立体物(以下、「物標」と称呼する。)を少なくとも2つのセンサにて検出するとともに、少なくとも2つのセンサにてそれぞれ検出された物標が同一の物標であるか否かを判定する。更に、第1装置10は、少なくとも2つのセンサにてそれぞれ検出された物標が同一の物標であると判定すると、それぞれの物標に関する情報(例えば、車両SVに対する位置(相対位置)及び車両SVに対する速度(相対速度))を統合して、記憶部にこの統合された情報(以下、「フュージョン物標情報」と称呼する。)を記録する。加えて、第1装置10は、フュージョン物標情報が記憶部に記録されているときは、車両と物標(障害物)との接触を回避するため、車両SVの運転状態を変更する。
(Constitution)
FIG. 1 is a schematic system configuration diagram of a vehicle control device (hereinafter also referred to as "first device") 10 according to an embodiment of the present invention. The first device 10 is mounted on a vehicle SV and detects a three-dimensional object (hereinafter referred to as a "target") existing at least in front of the vehicle SV with at least two sensors, It is determined whether or not the targets detected in are the same target. Furthermore, when the first device 10 determines that the targets detected by at least two sensors are the same target, the first device 10 determines information about each target (for example, the position (relative position) with respect to the vehicle SV and the position of the vehicle The velocities (relative velocities) with respect to the SV are integrated, and this integrated information (hereinafter referred to as "fusion target information") is recorded in the storage unit. In addition, when the fusion target information is recorded in the storage unit, the first device 10 changes the driving state of the vehicle SV to avoid contact between the vehicle and the target (obstacle).

第1装置10は、レーダセンサ20、カメラセンサ30、物標検出ECU40、衝突前制御ECU50、エンジンECU60、ブレーキECU70、ステアリングECU80及び警報ECU90を備える。 The first device 10 includes a radar sensor 20, a camera sensor 30, a target detection ECU 40, a pre-collision control ECU 50, an engine ECU 60, a brake ECU 70, a steering ECU 80 and an alarm ECU 90.

レーダセンサ20は、レーダ波送受信部21及び情報処理部22を備えている。レーダ波送受信部21は、ミリ波帯の電磁波(以下、「ミリ波」とも称呼される。)を放射し、放射範囲内に存在する立体物によって反射されたミリ波(反射波)を受信する。なお、レーダ波送受信部21は、ミリ波帯以外の周波数帯の電磁波を用いるレーダ波送受信部(レーザレーダを含む。)であってもよい。 The radar sensor 20 has a radar wave transmitting/receiving section 21 and an information processing section 22 . The radar wave transmitting/receiving unit 21 radiates millimeter wave band electromagnetic waves (hereinafter also referred to as “millimeter waves”), and receives millimeter waves (reflected waves) reflected by three-dimensional objects existing within the radiation range. . The radar wave transmitting/receiving unit 21 may be a radar wave transmitting/receiving unit (including laser radar) that uses electromagnetic waves in frequency bands other than the millimeter wave band.

情報処理部22は、放射(送信)したミリ波と受信した反射波との位相差、反射波の減衰レベル及びミリ波を送信してから受信するまでの時間を含む反射点情報に基づいて、車両SVと物標(概ね、物標の中心位置)との間の距離、物標の車両SVに対する方向(方位)及び物標の車両SVに対する速度等を検出する。情報処理部22は、互いに近接している「複数の反射点」をグルーピングし、グルーピングできた反射点の群(以下、「反射点群」と称呼する。)を一つの物標として認識する。情報処理部22は、認識された物標に対して物標を特定/識別するための識別情報として物標IDを付与する。情報処理部22は、反射点群の中の任意の一点(特定反射点)を利用して、レーダセンサ検出情報を演算する。レーダセンサ検出情報は、物標の縦距離Dfx、車両SVに対する物標の方位θp及び車両SVと物標との相対速度Vfx等を含む。 Based on the reflection point information including the phase difference between the radiated (transmitted) millimeter wave and the received reflected wave, the attenuation level of the reflected wave, and the time from transmission to reception of the millimeter wave, The distance between the vehicle SV and the target (approximately the center position of the target), the direction (azimuth) of the target with respect to the vehicle SV, the speed of the target with respect to the vehicle SV, and the like are detected. The information processing unit 22 groups the "plurality of reflection points" that are close to each other, and recognizes the group of the grouped reflection points (hereinafter referred to as "reflection point group") as one target. The information processing unit 22 assigns a target ID to the recognized target as identification information for specifying/identifying the target. The information processing unit 22 uses an arbitrary point (specific reflection point) in the reflection point group to calculate radar sensor detection information. The radar sensor detection information includes the longitudinal distance Dfx of the target, the azimuth θp of the target with respect to the vehicle SV, the relative velocity Vfx between the vehicle SV and the target, and the like.

レーダセンサ20は、車両SVの主として前方の領域に存在する立体物に関する情報を取得するために車両SVの前方に備えられる。より具体的に述べると、図2に示したように、レーダセンサ20は、車両SVのフロントバンパFBの車幅方向中心位置に配設される。レーダセンサ20が物標を検出できる領域(検出可能領域)は、図2に示したように、「車両SVの前端部の車幅方向中心位置から前方へ延びる検出軸CL1」を中心として右方向に右境界線RBL1まで、左方向に左境界線LBL1までの扇形の領域である。 The radar sensor 20 is provided in front of the vehicle SV in order to obtain information on three-dimensional objects that exist mainly in front of the vehicle SV. More specifically, as shown in FIG. 2, the radar sensor 20 is arranged at the vehicle width direction center position of the front bumper FB of the vehicle SV. The area where the radar sensor 20 can detect a target (detectable area) is, as shown in FIG. It is a fan-shaped area extending to the right boundary line RBL1 in the direction to the left and to the left boundary line LBL1 in the left direction.

検出軸CL1は車両前後軸FRと一致する。「検出軸CL1と右境界線RBL1とのなす角の大きさ」及び「検出軸CL1と左境界線LBL1とのなす角の大きさ」はそれぞれθ1である。従って、レーダセンサ20の検出可能領域である扇形の中心角は(2・θ1)である。なお、レーダセンサ20は、車両SVのそれぞれ異なる位置(例えば、車両SVの前方、右前方及び左前方)に配設される複数のレーダセンサにより構成されていてもよい。レーダセンサ20は、「第1センサ部20」と称呼される場合がある。レーダセンサ検出情報は「第1検出情報」と称呼される場合がある。 The detection axis CL1 coincides with the vehicle front-rear axis FR. The "magnitude of the angle formed between the detection axis CL1 and the right boundary line RBL1" and the "magnitude of the angle formed between the detection axis CL1 and the left boundary line LBL1" are each θ1. Therefore, the central angle of the sector, which is the detectable area of the radar sensor 20, is (2·θ1). Note that the radar sensor 20 may be composed of a plurality of radar sensors arranged at different positions of the vehicle SV (for example, front, right front, and left front of the vehicle SV). The radar sensor 20 may be referred to as "first sensor unit 20". Radar sensor detection information may be referred to as "first detection information".

カメラセンサ30は、車両SVの前方を撮影するステレオカメラ31及びステレオカメラ31によって撮影された画像を処理する画像処理装置32を備えている。ステレオカメラ31は、図2に示したように、フロントウィンドウの車室内側に配設される。カメラセンサ30の検出可能領域は、「車両SVのフロントウィンドウの車幅方向中心位置から前方へ延びる検出軸CSL」を中心として右方向に右境界線RCBLまで、左方向に左境界線LCBLまでの扇形の領域である。検出軸CSLは車両SVの車両前後軸FRと一致する。「検出軸CSLと右境界線RCBLとのなす角の大きさ」及び「検出軸CSLと左境界線LCBLとのなす角の大きさ」はそれぞれθ2である。よって、カメラセンサ30の画角は(2・θ2)である。 The camera sensor 30 includes a stereo camera 31 that captures an image of the front of the vehicle SV and an image processing device 32 that processes the image captured by the stereo camera 31 . As shown in FIG. 2, the stereo camera 31 is arranged inside the passenger compartment of the front window. The detectable area of the camera sensor 30 extends from the "detection axis CSL extending forward from the center position of the front window of the vehicle SV in the vehicle width direction" to the right to the right boundary line RCBL and to the left to the left boundary line LCBL. It is a fan-shaped area. The detection axis CSL coincides with the vehicle longitudinal axis FR of the vehicle SV. The "magnitude of the angle formed between the detection axis CSL and the right boundary line RCBL" and the "magnitude of the angle formed between the detection axis CSL and the left boundary line LCBL" are each θ2. Therefore, the angle of view of the camera sensor 30 is (2·θ2).

図3に示したように、レーダセンサ20の上下方向の検出可能領域は、上境界線UBL1から下境界線DBL1までの扇形の領域である。更に、カメラセンサ30の上下方向の検出可能領域は、上境界線UCBLから下境界線DCBLまでの扇形の領域である。図3から理解されるように、レーダセンサ20の上下方向の検出可能領域と、カメラセンサ30の上下方向の検出可能領域と、は車両SVの前方且つ遠方においては略一致する(重なっている)。しかし、レーダセンサ20の上下方向の検出可能領域と、カメラセンサ30の上下方向の検出可能領域と、が重なる割合は車両SVに近いほど小さくなる。 As shown in FIG. 3, the vertical detectable area of the radar sensor 20 is a fan-shaped area from the upper boundary line UBL1 to the lower boundary line DBL1. Furthermore, the vertical detectable area of the camera sensor 30 is a fan-shaped area from the upper boundary line UCBL to the lower boundary line DCBL. As can be understood from FIG. 3, the vertical detectable area of the radar sensor 20 and the vertical detectable area of the camera sensor 30 substantially match (overlap) in front of and far from the vehicle SV. . However, the ratio of overlap between the vertical detectable area of the radar sensor 20 and the vertical detectable area of the camera sensor 30 decreases as the vehicle is closer to the vehicle SV.

ステレオカメラ31は、一定時間が経過する毎に撮影した画像を表す画像信号を画像処理装置32に送信する。画像処理装置32は、受信した画像信号に基づき、撮影領域(検出可能領域)に存在する物標の有無を判定する。画像処理装置32は、物標が撮影領域に存在すると判定した場合、その物標の位置を算出するとともに、物標の種類(自動車、二輪車及び歩行者等)を周知のパターンマッチングにより識別する。なお、物標の位置は、物標の車両SVに対する方向(方位)及び物標と車両SVとの間の距離によって特定される。更に、画像処理装置32は、物標の左側の端点(左端点)と、右端点とを抽出(特定)し、これら端点の車両SVに対する位置についての情報を取得する。 The stereo camera 31 transmits an image signal representing a photographed image to the image processing device 32 every time a certain period of time elapses. The image processing device 32 determines whether or not there is a target in the imaging area (detectable area) based on the received image signal. When the image processing device 32 determines that a target exists in the imaging area, it calculates the position of the target and identifies the type of the target (automobile, motorcycle, pedestrian, etc.) by well-known pattern matching. The position of the target is specified by the direction (azimuth) of the target with respect to the vehicle SV and the distance between the target and the vehicle SV. Further, the image processing device 32 extracts (specifies) the left end point (left end point) and the right end point of the target, and obtains information about the positions of these end points with respect to the vehicle SV.

カメラセンサ30は、物標の位置(概ね、物標の中心位置であり、例えば、物標の左端点と右端点との中心)を示す情報及び物標の種類を示す情報を一定時間が経過する毎にECU40に出力する。更に、カメラセンサ30は、物標の左端点及び右端点の車両SVに対する位置(相対位置)についての情報を一定時間が経過する毎にECU40に出力する。ECU40は、カメラセンサ30から受け取った物標の位置を示す情報に基づいて物標の位置の推移を特定する。そして、ECU40は、特定した物標の位置の推移に基づいて物標の車両SVに対する速度(相対速度)及び移動軌跡を把握する。 The camera sensor 30 receives information indicating the position of the target (generally the center position of the target, for example, the center between the left end point and the right end point of the target) and information indicating the type of target after a certain period of time. It is output to the ECU 40 each time. Furthermore, the camera sensor 30 outputs information about the positions (relative positions) of the left end point and the right end point of the target with respect to the vehicle SV to the ECU 40 every time a certain period of time elapses. The ECU 40 identifies transition of the position of the target based on the information indicating the position of the target received from the camera sensor 30 . Then, the ECU 40 grasps the speed (relative speed) of the target with respect to the vehicle SV and the movement trajectory based on the transition of the position of the identified target.

なお、カメラセンサ30は、ステレオカメラ31の代わりに単眼カメラが用いられてもよい。カメラセンサ30は、「第2センサ部30」と称呼される場合がある。カメラセンサ検出情報は「第2検出情報」と称呼される場合がある。 A monocular camera may be used as the camera sensor 30 instead of the stereo camera 31 . The camera sensor 30 may be referred to as a "second sensor unit 30". Camera sensor detection information may be referred to as "second detection information".

物標検出ECU40は、レーダセンサ20及びカメラセンサ30と電気的に接続されている。ECUは、エレクトロニックコントロールユニットの略称であり、CPU、ROM、RAM、バックアップRAM(又は不揮発性メモリ)及びインタフェースI/F等を含むマイクロコンピュータを主要構成部品として有する電子制御回路である。CPUは、メモリ(ROM)に格納されたインストラクション(ルーチン)を実行することにより後述する各種機能を実現する。 The target detection ECU 40 is electrically connected to the radar sensor 20 and camera sensor 30 . ECU is an abbreviation of electronic control unit, and is an electronic control circuit having a microcomputer including CPU, ROM, RAM, backup RAM (or non-volatile memory), interface I/F, etc. as main components. The CPU implements various functions described later by executing instructions (routines) stored in a memory (ROM).

衝突前制御ECU(以下、「PCSECU」とも称呼する。)50は、物標検出ECU40、エンジンECU60、ブレーキECU70、ステアリングECU80及び警報ECU90とCAN(Controller Area Network) 通信により相互にデータ交換可能に電気的に接続されている。従って、PCSECU50は、物標検出ECU40の記憶部43に記録されたフュージョン物標情報を参照しながらエンジンECU60、ブレーキECU70及びステアリングECU80と連携して車両SVの運動状態を制御することができる。 A pre-collision control ECU (hereinafter also referred to as "PCSECU") 50 is electrically connected to a target detection ECU 40, an engine ECU 60, a brake ECU 70, a steering ECU 80, and an alarm ECU 90 so that data can be exchanged with each other through CAN (Controller Area Network) communication. properly connected. Therefore, the PCSECU 50 can control the motion state of the vehicle SV in cooperation with the engine ECU 60, the brake ECU 70 and the steering ECU 80 while referring to the fusion target information recorded in the storage unit 43 of the target detection ECU 40.

PCSECU50は、以下のセンサとそれぞれ電気的に接続され、それらのセンサの検出信号又は出力信号を受信するようになっている。なお、各センサは、PCSECU50以外のECUに接続されていてもよい。その場合、PCSECU50は、センサが接続されたECUからCANを介してそのセンサの検出信号又は出力信号を受信する。 The PCSECU 50 is electrically connected to the following sensors and receives detection signals or output signals from these sensors. Note that each sensor may be connected to an ECU other than the PCSECU 50 . In that case, the PCSECU 50 receives the detection signal or the output signal of the sensor via CAN from the ECU to which the sensor is connected.

アクセルペダル操作量センサ51は、車両SVのアクセルペダル51aの操作量(アクセル開度)を検出し、アクセルペダル操作量APを表す信号を出力するようになっている。ブレーキペダル操作量センサ52は、車両SVのブレーキペダル52aの操作量を検出し、ブレーキペダル操作量BPを表す信号を出力するようになっている。車速センサ53は、車両SVの走行速度(車速)を検出し、車速SPDを表す信号を出力するようになっている。ヨーレートセンサ54は、車両SVのヨーレートを検出し、実ヨーレートYrtを出力するようになっている。 The accelerator pedal operation amount sensor 51 detects the operation amount (accelerator opening) of an accelerator pedal 51a of the vehicle SV, and outputs a signal representing the accelerator pedal operation amount AP. A brake pedal operation amount sensor 52 detects an operation amount of a brake pedal 52a of the vehicle SV and outputs a signal representing the brake pedal operation amount BP. The vehicle speed sensor 53 detects the traveling speed (vehicle speed) of the vehicle SV and outputs a signal representing the vehicle speed SPD. The yaw rate sensor 54 detects the yaw rate of the vehicle SV and outputs the actual yaw rate Yrt.

エンジンECU60は、エンジンアクチュエータ61に接続されている。エンジンアクチュエータ61は、火花点火・ガソリン燃料噴射式内燃機関(E/G)62のスロットル弁の開度を変更するスロットル弁アクチュエータを含む。エンジンECU60は、エンジンアクチュエータ61を駆動することにより内燃機関62が発生する駆動トルクを変更することができる。内燃機関62が発生する駆動トルクは、図示しない変速機を介して図示しない車輪に伝達されるようになっている。従って、エンジンECU60は、エンジンアクチュエータ61を制御することにより車両SVの駆動力を制御し、加速状態(加速度)を変更することができる。なお、車両SVがハイブリッド車両である場合、エンジンECU60は、駆動源としての「内燃機関及び電動機」の何れか一方又は両方によって発生する駆動力を制御することができる。更に、車両SVが電気自動車である場合、エンジンECU60は、駆動源としての電動機によって発生する駆動力を制御することができる。 The engine ECU 60 is connected to the engine actuator 61 . The engine actuator 61 includes a throttle valve actuator that changes the opening of a throttle valve of a spark ignition/gasoline fuel injection internal combustion engine (E/G) 62 . The engine ECU 60 can change the drive torque generated by the internal combustion engine 62 by driving the engine actuator 61 . A drive torque generated by the internal combustion engine 62 is transmitted to wheels (not shown) via a transmission (not shown). Therefore, the engine ECU 60 can control the driving force of the vehicle SV by controlling the engine actuator 61 to change the acceleration state (acceleration). If the vehicle SV is a hybrid vehicle, the engine ECU 60 can control the driving force generated by one or both of the "internal combustion engine and electric motor" as the driving source. Furthermore, when the vehicle SV is an electric vehicle, the engine ECU 60 can control the driving force generated by the electric motor as the driving source.

ブレーキECU70は、ブレーキアクチュエータ71に電気的に接続されている。ブレーキアクチュエータ71は、ブレーキペダル52aの踏力によって作動油を加圧する図示しないマスタシリンダと、車輪(左前輪、右前輪、左後輪及び右後輪)に設けられる摩擦ブレーキ機構72との間の油圧回路に設けられている。ブレーキアクチュエータ71は、ブレーキECU70からの指示に応じて、摩擦ブレーキ機構72のブレーキキャリパ72bに内蔵されたホイールシリンダに供給する油圧を調整する。その油圧によってホイールシリンダが作動することによりブレーキパッドがブレーキディスク72aに押し付けられる。その結果、摩擦制動力が発生する。従って、ブレーキECU70は、ブレーキアクチュエータ71を制御することにより車両SVの制動力を制御し、加速状態(減速度、即ち、負の加速度)を変更することができる。 The brake ECU 70 is electrically connected to the brake actuator 71 . The brake actuator 71 controls the hydraulic pressure between a master cylinder (not shown) that pressurizes hydraulic oil by the force applied to the brake pedal 52a and a friction brake mechanism 72 provided on the wheels (left front wheel, right front wheel, left rear wheel, and right rear wheel). provided in the circuit. The brake actuator 71 adjusts the hydraulic pressure supplied to the wheel cylinder built in the brake caliper 72b of the friction brake mechanism 72 according to the instruction from the brake ECU 70. The brake pad is pressed against the brake disc 72a by operating the wheel cylinder with the hydraulic pressure. As a result, a frictional braking force is generated. Therefore, the brake ECU 70 can control the braking force of the vehicle SV by controlling the brake actuator 71 to change the acceleration state (deceleration, that is, negative acceleration).

ステアリングECU80は、モータドライバ81を介してアシストモータ(M)82に電気的に接続されている。アシストモータ82は、図示しない車両SVの「操舵ハンドル、操舵ハンドルに連結されたステアリングシャフト及び操舵用ギア機構等を含むステアリング機構」に組み込まれている。ステアリングECU80は、ステアリングシャフトに設けられた操舵トルクセンサ(図示せず)によって、運転者が操舵ハンドルに入力した操舵トルクを検出し、この操舵トルクに基づいてモータドライバ81を用いてアシストモータ82を駆動する。ステアリングECU80は、このアシストモータ82の駆動によってステアリング機構に操舵トルクを付与し、これにより、運転者の操舵操作をアシストすることができる。 The steering ECU 80 is electrically connected to an assist motor (M) 82 via a motor driver 81 . The assist motor 82 is incorporated in a "steering mechanism including a steering wheel, a steering shaft connected to the steering wheel, a steering gear mechanism, etc." of the vehicle SV (not shown). The steering ECU 80 detects the steering torque input to the steering wheel by the driver using a steering torque sensor (not shown) provided on the steering shaft, and operates the assist motor 82 using the motor driver 81 based on this steering torque. drive. The steering ECU 80 applies a steering torque to the steering mechanism by driving the assist motor 82, thereby assisting the driver's steering operation.

警報ECU90は、ブザー91及び表示器92に電気的に接続されている。警報ECU90は、PCSECU50からの指示に応じて、ブザー91に「車両SVと衝突する可能性が高い物標に対する運転者の注意を喚起する警報音」を出力させる。更に、警報ECU90は、PCSECU50からの指示に応じて、表示器92に注意喚起のマーク(例えば、ウォーニングランプ)を表示させる。 The alarm ECU 90 is electrically connected to the buzzer 91 and the indicator 92 . The alarm ECU 90 causes the buzzer 91 to output "an alarm sound for drawing the driver's attention to a target that is likely to collide with the vehicle SV" in response to an instruction from the PCSECU 50. FIG. Furthermore, the alarm ECU 90 causes the display 92 to display a mark (for example, a warning lamp) to call attention in response to an instruction from the PCSECU 50 .

(作動の概要)
第1装置10は、レーダセンサ20及びカメラセンサ30を用いて車両SVの前方の立体物(物標)をそれぞれ検出し、後述する手法を用いて、レーダセンサ20により検出された物標情報と、カメラセンサ30により検出された物標情報と、を統合(フュージョン)する。統合された物標情報(フュージョン物標情報)には、立体物(物標)の車両SVに対する距離及び速度が含まれる。
(Outline of operation)
The first device 10 uses the radar sensor 20 and the camera sensor 30 to detect a three-dimensional object (target) in front of the vehicle SV, and uses a method described later to detect target information detected by the radar sensor 20 and , and target information detected by the camera sensor 30 are integrated (fused). The integrated target information (fusion target information) includes the distance and speed of the three-dimensional object (target) with respect to the vehicle SV.

更に、第1装置10は、統合された物標の物標情報が所定時間継続して取得された場合に、フュージョン物標情報を記憶部43に記録する。加えて、第1装置10は、フュージョン物標情報が記憶部43に記録されている場合において、レーダセンサ20を用いて検出された立体物の物標情報から算出される相対速度と、カメラセンサ30を用いて検出された立体物の物標情報から算出される相対速度と、の差が所定値以上となった場合、記憶部に記録されている当該物標情報を削除する。 Furthermore, the first device 10 records the fusion target information in the storage unit 43 when the target information of the integrated target is continuously acquired for a predetermined period of time. In addition, when the fusion target information is recorded in the storage unit 43, the first device 10 calculates the relative velocity calculated from the target information of the three-dimensional object detected using the radar sensor 20, the camera sensor When the difference between the relative velocity calculated from the target information of the three-dimensional object detected using 30 and the difference is equal to or greater than a predetermined value, the target information recorded in the storage unit is deleted.

加えて、第1装置10は、フュージョン物標情報が記憶部43に記録されている間は、物標がレーダセンサ20の検出可能領域及びカメラセンサ30の検出可能領域の何れか一方から離脱した場合であっても、他方のセンサにて検出された情報に基づいて衝突前制御(接触回避制御)を実行する。以下、その手順について説明する。 In addition, while the fusion target information is being recorded in the storage unit 43, the first device 10 detects that the target has left either the detectable area of the radar sensor 20 or the detectable area of the camera sensor 30. Even in this case, pre-collision control (contact avoidance control) is executed based on the information detected by the other sensor. The procedure will be described below.

レーダセンサ検出情報及びカメラセンサ検出情報の何れもが取得されている場合、物標検出ECU40のフュージョン物標情報取得部41は、図4に示したように、カメラセンサ検出情報により特定される物標(c)が存在する領域を示す物標領域201を定義する。物標領域201は、上述したx-y座標上の領域であって物標(c)の周囲を囲う領域である。次に、フュージョン物標情報取得部41は、レーダセンサ検出情報により特定される物標(r)に対応する反射点群の少なくとも一部が物標領域201に含まれる場合、カメラセンサ検出情報に基づく物標(c)及びレーダセンサ検出情報に基づく物標(r)を同一の物標(n)として取り扱う。より具体的に述べると、フュージョン物標情報取得部41は、「レーダセンサ検出情報」及び「カメラセンサ検出情報」を以下に述べる手法を用いて統合(フュージョン)する。 When both the radar sensor detection information and the camera sensor detection information have been acquired, the fusion target information acquisition unit 41 of the target object detection ECU 40 detects the object specified by the camera sensor detection information as shown in FIG. A target area 201 is defined to indicate the area where the target (c) is present. A target area 201 is an area on the xy coordinates described above and is an area surrounding the target (c). Next, when at least part of the reflection point group corresponding to the target (r) specified by the radar sensor detection information is included in the target region 201, the fusion target information acquisition unit 41 determines that the camera sensor detection information includes A target (c) based on radar sensor detection information and a target (r) based on radar sensor detection information are treated as the same target (n). More specifically, the fusion target information acquisition unit 41 integrates (fuses) the "radar sensor detection information" and the "camera sensor detection information" using the method described below.

図4に示したように、フュージョン物標情報取得部41は、物標(n)の最終的な縦距離Dfx(n)として、レーダセンサ検出情報に含まれる縦距離Dfxを採用する。一方、フュージョン物標情報取得部41は、レーダセンサ検出情報に含まれる縦距離Dfxと、カメラセンサ検出情報に含まれる物標(n)の方位θpの正接tanθp との積を計算することにより物標(n)の最終的な横位置Dfy(n)を決定する(Dfy(n)=Dfx・tanθp)。 As shown in FIG. 4, the fusion target information acquisition unit 41 employs the longitudinal distance Dfx included in the radar sensor detection information as the final longitudinal distance Dfx(n) of the target (n). On the other hand, the fusion target information acquisition unit 41 calculates the product of the vertical distance Dfx included in the radar sensor detection information and the tangent tan θp of the azimuth θp of the target (n) included in the camera sensor detection information, thereby determining the target. Determine the final lateral position Dfy(n) of target (n) (Dfy(n)=Dfx·tan θp).

なお、レーダセンサ20及びカメラセンサ30の何れもが検出している物標は、以下、「両センサ検出物標」とも称呼される。 A target detected by both the radar sensor 20 and the camera sensor 30 is hereinafter also referred to as a "target detected by both sensors".

更に、フュージョン物標情報取得部41は、物標(n)の最終的な相対速度Vfx(n)として、レーダセンサ検出情報に含まれる相対速度Vfxを採用する。更に、フュージョン物標情報取得部41は、レーダセンサ検出情報に基づいて検出された物標(n)と、カメラセンサ検出情報に基づいて検出された物標(n)と、に対して同じ物標IDを付与する。このように「レーダセンサ20及びカメラセンサ30双方の検出結果を用いて決定される物標情報」は、以下、「フュージョン物標情報」と称呼される。 Furthermore, the fusion target information acquisition unit 41 employs the relative velocity Vfx included in the radar sensor detection information as the final relative velocity Vfx(n) of the target (n). Furthermore, the fusion target information acquisition unit 41 determines whether the target (n) detected based on the radar sensor detection information and the target (n) detected based on the camera sensor detection information are the same target. Give a target ID. Such "target information determined using the detection results of both the radar sensor 20 and the camera sensor 30" is hereinafter referred to as "fusion target information".

従って、フュージョン物標情報取得部41は、物標(n)が「レーダセンサ検出情報」及び「カメラセンサ検出情報」の両方に基づいて検出されたとき、フュージョン物標情報を物標(n)の物標情報として決定する。 Therefore, when the target (n) is detected based on both the "radar sensor detection information" and the "camera sensor detection information", the fusion target information acquisition unit 41 obtains the fusion target information from the target (n). is determined as target information.

これに対し、物標(n)が「レーダセンサ検出情報」及び「カメラセンサ検出情報」の何れか一方のみに基づいて検出された場合、フュージョン物標情報取得部41は、その検出できている情報のみに基づいて物標(n)の最終的な物標情報を取得する(決定する)。この場合、フュージョン物標情報取得部41は、既存の物標IDと重複しないように物標(n)に対して物標IDを付与する。なお、このように「レーダセンサ検出情報」及び「カメラセンサ検出情報」の何れか一方のみの情報に基づいて決定される物標情報は、「単独センサ物標情報」と称呼される場合がある。 On the other hand, if the target (n) is detected based on only one of the "radar sensor detection information" and the "camera sensor detection information", the fusion target information acquisition unit 41 detects it. Obtain (determine) final target information for target (n) based on information only. In this case, the fusion target information acquisition unit 41 assigns a target ID to the target (n) so as not to duplicate an existing target ID. Target information determined based on only one of the "radar sensor detection information" and "camera sensor detection information" is sometimes referred to as "single sensor target information". .

フュージョン物標情報取得部41はフュージョン物標情報に基づいて物標が認識されたとき、このフュージョン物標情報に基づいて認識(特定)された物標(以下、「フュージョン物標」と称呼される。)に関する情報(フュージョン物標情報)をメモリ(例えば、ECU40内のRAM)に格納する。 When a target is recognized based on the fusion target information, the fusion target information acquisition unit 41 obtains a target recognized (specified) based on the fusion target information (hereinafter referred to as a "fusion target"). ) (fusion target information) is stored in a memory (for example, a RAM in the ECU 40).

<フュージョン物標情報の詳細>
図5に示したように、フュージョン物標情報400は、物標ID401、検出(認識)時刻402、X方向の相対距離403、Y方向の相対距離404、X方向の相対速度405及びY方向の相対速度406等を構成項目として含んでいる。
<Fusion target information details>
As shown in FIG. 5, the fusion target information 400 includes a target ID 401, a detection (recognition) time 402, an X-direction relative distance 403, a Y-direction relative distance 404, an X-direction relative speed 405, and a Y-direction relative speed 405. The relative velocity 406 and the like are included as configuration items.

物標ID401は、前述したように、物標を特定/識別するための識別情報である。検出時刻402は、物標ID401に対応する物標が初めて認識された時刻である。つまり、検出時刻402とは、物標検出ECU40が、2つの物標を同一の物標と認識し、物標IDを付与した時刻である。X方向の相対距離403は、前述したように、車両SVに対する物標のX方向の距離(縦距離)Dfx(n)である。 The target ID 401 is identification information for specifying/identifying the target, as described above. The detection time 402 is the time when the target corresponding to the target ID 401 was recognized for the first time. In other words, the detection time 402 is the time when the target detection ECU 40 recognizes two targets as the same target and assigns the target ID. The X-direction relative distance 403 is the X-direction distance (longitudinal distance) Dfx(n) of the target relative to the vehicle SV, as described above.

Y方向の相対距離404は、車両SVに対する物標のY方向の距離(横距離)Dfy(n)である。X方向の相対速度405は、車両SVに対する物標のX方向の速度Vfx(n)である。Y方向の相対速度406は、車両SVに対する物標のY方向の速度Vfy(n)である。 The Y-direction relative distance 404 is the Y-direction distance (lateral distance) Dfy(n) of the target relative to the vehicle SV. The X-direction relative velocity 405 is the X-direction velocity Vfx(n) of the target relative to the vehicle SV. The Y-direction relative velocity 406 is the Y-direction velocity Vfy(n) of the target relative to the vehicle SV.

<フュージョン物標情報の記憶部への記録>
ところで、前述したように、レーダセンサ20の上下方向の検出可能領域とカメラセンサ30の上下方向の検出可能領域とは、車両SVに近いほど重なる割合が小さい。従って、特に、図3に破線L1にて示した領域に物標が存在する場合、その物標はレーダセンサ20によっては検出可能であるが、カメラセンサ30によっては検出が困難である。
<Recording of Fusion Target Information in Storage Unit>
By the way, as described above, the vertical detectable area of the radar sensor 20 and the vertical detectable area of the camera sensor 30 overlap less as the vehicle SV is closer. Therefore, in particular, when a target exists in the area indicated by the dashed line L1 in FIG.

このように、レーダセンサ20及びカメラセンサ30は車両SVに配設される位置がそれぞれ異なるので、物標の位置によっては、一方のセンサでは検出可能であるが、他方のセンサでは検出困難となる場合がある。 As described above, the positions of the radar sensor 20 and the camera sensor 30 are different from each other on the vehicle SV. Therefore, depending on the position of the target, one sensor can detect it, but the other sensor cannot detect it. Sometimes.

ところで、例えば、物標が誤検出された場合、フュージョン物標情報が繰り返し取得される確率は低い。よって、フュージョン物標情報が取得された後、所定時間の間、フュージョン物標情報の取得が継続した場合、そのフュージョン物標情報の確からしさ(信頼度)は高いと言える。 By the way, for example, when a target is erroneously detected, the probability of repeatedly acquiring fusion target information is low. Therefore, if the fusion target information continues to be acquired for a predetermined time after the fusion target information is acquired, the certainty (reliability) of the fusion target information can be said to be high.

そこで、第1装置10は、フュージョン物標情報取得部41によりフュージョン物標情報が初めて取得された後、所定時間の間、フュージョン物標情報が一定時間毎に連続して取得されたときに限り、記憶部43にフュージョン物標情報を記録する。これにより、PCSECU50はフュージョン物標情報を利用可能となる。 Therefore, the first device 10 is limited to when the fusion target information is continuously acquired at regular time intervals for a predetermined time after the fusion target information acquisition unit 41 acquires the fusion target information for the first time. , the fusion target information is recorded in the storage unit 43 . This enables the PCSECU 50 to use the fusion target information.

これによれば、記憶部43に記録されたフュージョン物標情報の信頼度は極めて高い。従って、その後、対応する物標が仮に、一方のセンサの検出可能領域から離脱した場合であっても、フュージョン物標情報が記憶部43に記録されている間は、PCSECU50は、他方のセンサのみによる物標の検出結果に基づいて、衝突前制御を実行する。 According to this, the reliability of the fusion target information recorded in the storage unit 43 is extremely high. Therefore, after that, even if the corresponding target leaves the detectable area of one of the sensors, while the fusion target information is recorded in the storage unit 43, the PCSECU 50 detects only the other sensor. Pre-collision control is executed based on the detection result of the target.

物標検出ECU40のフュージョン物標情報管理部42(図1を参照。)は、フュージョン物標情報取得部41によってフュージョン物標情報が取得されると、フュージョン物標情報が取得されてからの経過時間を計測するため、タイマを起動する。例えば、フュージョン物標情報管理部42は、フュージョン物標情報が取得されると、カウンタの値Cを「1」だけインクリメントする。 When the fusion target information acquisition unit 41 acquires the fusion target information, the fusion target information management unit 42 (see FIG. 1) of the target detection ECU 40 keeps track of the progress since the fusion target information was acquired. Start a timer to measure time. For example, the fusion target information management unit 42 increments the value C of the counter by "1" when the fusion target information is acquired.

タイマの起動から所定時間経過後(カウンタの値Cが所定の閾値Cthとなったとき)まで「フュージョン物標情報」が取得され続けたと判定すると、フュージョン物標情報管理部42は、フュージョン物標情報をPCSECU50が参照できるデータとして、物標検出ECU40内の記憶部(例えば、RAM)43に記録する。 When it is determined that the "fusion target information" continues to be acquired until a predetermined time has elapsed since the timer was activated (when the counter value C reaches a predetermined threshold value Cth), the fusion target information management unit 42 determines that the fusion target information The information is recorded in the storage unit (for example, RAM) 43 in the target detection ECU 40 as data that the PCSECU 50 can refer to.

<フュージョン物標情報の削除>
このように、記憶部43に記録されるフュージョン物標情報は、信頼度が高い情報であるが、異なる2つの物標が近接していたために同一の物標であると誤認識されている可能性も考えられる。そこで、物標検出ECU40は、フュージョン物標情報が記憶部43に記録された後、レーダセンサ20によって検出された物標の移動する方向とカメラセンサ30によって検出された物標の移動する方向とが異なることが検出されると、フュージョン物標情報管理部42は、この物標に対応するフュージョン物標情報を記憶部43から削除する。
<Delete fusion target information>
In this way, the fusion target information recorded in the storage unit 43 is highly reliable information, but two different targets may be erroneously recognized as the same target because they are close to each other. Gender is also considered. Therefore, after the fusion target information is recorded in the storage unit 43, the target detection ECU 40 determines the moving direction of the target detected by the radar sensor 20 and the moving direction of the target detected by the camera sensor 30. are different, the fusion target information management unit 42 deletes the fusion target information corresponding to this target from the storage unit 43 .

(実際の作動)
次に、本支援装置の実際の作動について説明する。
(Actual operation)
Next, the actual operation of this support device will be described.

<フュージョン物標情報記録ルーチン>
物標検出ECU40のCPU(以下、単に「CPU」とも称呼される。)は、一定時間(例えば、20ms)が経過する毎に図6にフローチャートにより示した「フュージョン物標情報記録ルーチン」を実行するようになっている。以下、場合分けをして説明する。なお、カウンタの値Cは、別途実行される図示しないイニシャルルーチンにおいて「0」に設定されている。
<Fusion Target Information Recording Routine>
The CPU of the target detection ECU 40 (hereinafter also simply referred to as "CPU") executes a "fusion target information recording routine" shown in the flowchart of FIG. It is designed to In the following, explanation will be made by classifying cases. Note that the value C of the counter is set to "0" in an initial routine (not shown) which is executed separately.

(1)フュージョン物標情報が継続して取得されている場合
CPUは所定のタイミングにてステップ600から処理を開始してステップ610に進み、レーダセンサ20及びカメラセンサ30により「物標情報」を取得する。次いで、CPUは、ステップ620に進み、レーダセンサ20及びカメラセンサ30がそれぞれ検出した物標が同一の物標であるか否かを判定する。言い換えると、CPUは、ステップ620にてフュージョン物標情報が取得されたか否かを判定する。
(1) When fusion target information is continuously acquired The CPU starts processing from step 600 at a predetermined timing, proceeds to step 610, and acquires "target information" from the radar sensor 20 and camera sensor 30. get. Next, the CPU proceeds to step 620 and determines whether or not the targets detected by the radar sensor 20 and the camera sensor 30 are the same target. In other words, the CPU determines in step 620 whether fusion target information has been acquired.

上記仮定によれば、複数センサがそれぞれ検出した物標は同一の物標であるので、フュージョン物標情報が取得される。従って、CPUはステップ620にて「Yes」と判定してステップ630に進み、カウンタの値Cを「1」だけインクリメントする。次いで、CPUはステップ640に進み、カウンタの値Cが所定の閾値Cth以上となったか否かを判定する。なお、所定の閾値Cthは、例えば、50程度の大きさである。現時点において、カウンタの値Cは「1」である。従って、CPUはステップ640にて「No」と判定し、ステップ695に直接進んで本ルーチンを一旦終了する。 According to the above assumption, the target detected by each of the multiple sensors is the same target, so fusion target information is obtained. Therefore, the CPU makes a "Yes" determination in step 620, proceeds to step 630, and increments the value C of the counter by "1". Next, the CPU proceeds to step 640 and determines whether or not the counter value C is equal to or greater than a predetermined threshold value Cth. Note that the predetermined threshold Cth is, for example, about 50. At present, the value C of the counter is "1". Therefore, the CPU makes a "No" determination at step 640, proceeds directly to step 695, and temporarily terminates this routine.

次に、一定時間が経過した時点において、CPUは再びステップ600から処理を開始する。そして、CPUはステップ610乃至ステップ630を順に実行してステップ640に進む。現時点において、カウンタの値Cは2であり、所定の閾値Cthよりも小さい。従って、CPUはステップ640にて「No」と判定してステップ695に直接進んで本ルーチンを一旦終了する。このように、フュージョン物標情報が継続して取得されている場合、CPUはカウンタの値Cが所定の閾値Cth以上となるまで、ステップ610乃至ステップ640を一定時間毎に繰り返す。 Next, the CPU starts the process from step 600 again after a certain period of time has passed. Then, the CPU sequentially executes steps 610 to 630 and proceeds to step 640 . At present, the counter value C is 2, which is less than the predetermined threshold Cth. Therefore, the CPU makes a "No" determination in step 640, directly proceeds to step 695, and terminates this routine. In this way, when the fusion target information is continuously acquired, the CPU repeats steps 610 to 640 at fixed time intervals until the counter value C becomes equal to or greater than the predetermined threshold value Cth.

その後、カウンタの値Cが所定の閾値Cth以上となったとき、CPUはステップ640にて「Yes」と判定してステップ650に進み、フュージョン物標情報を記憶部43に記録するとともにカウンタの値Cを「0」に設定する(リセットする)。次いで、CPUはステップ695に進んで本ルーチンを一旦終了する。 After that, when the counter value C becomes equal to or greater than the predetermined threshold value Cth, the CPU determines "Yes" in step 640 and advances to step 650 to record the fusion target information in the storage unit 43 and to record the counter value. Set C to "0" (reset). Next, the CPU proceeds to step 695 and once terminates this routine.

(2)フュージョン物標情報が取得された後、フュージョン物標情報が記憶部に記録される前に物標が同一物標であると認識されなくなった場合
CPUは一定時間が経過する毎にステップ610乃至ステップ650のルーチンを繰り返し、カウンタの値Cがインクリメントされる。その後、カウンタの値Cが所定の閾値Cthに達する前に2つのセンサがそれぞれ検出した物標が同一物標であると認識できなくなると(例えば、レーダセンサ20により検出された物標の位置とカメラセンサ30により検出された物標の位置が異なると)、CPUはステップ620にて「No」と判定してステップ660に進む。CPUはそのステップ660にてカウンタの値Cを「0」に設定してステップ695に進んで本ルーチンを一旦終了する。即ち、カウンタはリセットされ、再び初めからフュージョン物標情報記録ルーチンを実行する。
(2) When the target is no longer recognized as the same target after the fusion target information is acquired and before the fusion target information is recorded in the storage unit. The routine from 610 to step 650 is repeated and the counter value C is incremented. After that, if the targets detected by the two sensors cannot be recognized as the same target before the value C of the counter reaches a predetermined threshold value Cth (for example, the position of the target detected by the radar sensor 20 and the If the position of the target detected by the camera sensor 30 is different), the CPU determines “No” in step 620 and proceeds to step 660 . At step 660, the CPU sets the counter value C to "0", proceeds to step 695, and terminates this routine. That is, the counter is reset and the fusion target information recording routine is executed again from the beginning.

<フュージョン物標情報削除ルーチン>
CPUは、一定時間(例えば、20ms)が経過する毎に図7にフローチャートにより示した「フュージョン物標情報削除ルーチン」を実行するようになっている。
<Fusion Target Information Deletion Routine>
The CPU executes a "fusion target information deletion routine" shown in the flow chart of FIG.

CPUは、所定のタイミングにてステップ700から処理を開始してステップ710に進み、レーダセンサ20及びカメラセンサ30を用いて物標情報を取得する。 The CPU starts processing from step 700 at a predetermined timing, proceeds to step 710 , and acquires target information using the radar sensor 20 and camera sensor 30 .

次いで、CPUは、レーダセンサ20及びカメラセンサ30の双方にて物標情報が取得されたか否かを判定する。レーダセンサ20及びカメラセンサ30の何れか一方でのみ物標情報が取得された場合(例えば、物標が一方のセンサの検出可能領域から離脱した場合)、CPUは、ステップ720にて「No」と判定してステップ795に直接進んで本ルーチンを一旦終了する。つまり、記憶部43にフュージョン物標情報が記録されている場合、その記録されたフュージョン物標情報は保持される。 Next, the CPU determines whether target information has been acquired by both the radar sensor 20 and the camera sensor 30 . If the target information is obtained only from one of the radar sensor 20 and the camera sensor 30 (for example, if the target has left the detectable area of one of the sensors), the CPU outputs "No" at step 720. Then, the routine proceeds directly to step 795 and terminates the present routine. That is, when the fusion target information is recorded in the storage unit 43, the recorded fusion target information is held.

一方、レーダセンサ20及びカメラセンサ30の双方で物標情報が取得された場合、CPUは、ステップ720にて「Yes」と判定してステップ730に進み、記憶部43にフュージョン物標情報が記録されているか否かを判定する。フュージョン物標情報が記憶部43に記録されていない場合、CPUはステップ730にて「No」と判定してステップ795に直接進んで本ルーチンを一旦終了する。 On the other hand, when the target information is acquired by both the radar sensor 20 and the camera sensor 30, the CPU determines "Yes" in step 720 and proceeds to step 730 to record the fusion target information in the storage section 43. Determine whether or not If the fusion target information is not recorded in the storage unit 43, the CPU makes a "No" determination in step 730, proceeds directly to step 795, and once terminates this routine.

フュージョン物標情報が記憶部43に記録されている場合、CPUはステップ730にて「Yes」と判定してステップ740に進み、各センサがそれぞれ検出した物標のX方向速度差が所定値Vxth未満であるか否かを判定する。各センサがそれぞれ検出した物標のX方向速度差が所定値Vxth未満である場合、CPUはステップ740にて「Yes」と判定してステップ750に進み、各センサがそれぞれ検出した物標のY方向速度差が所定値Vyth」未満であるか否かを判定する。各センサがそれぞれ検出した物標のY方向速度差が所定値Vyth未満である場合、CPUはステップ750にて「Yes」と判定してステップ795に進み、本ルーチンを一旦終了する。 When fusion target information is recorded in the storage unit 43, the CPU determines "Yes" in step 730 and proceeds to step 740, where the X direction velocity difference of the target detected by each sensor reaches the predetermined value Vxth. Determine whether it is less than If the X-direction velocity difference of the target detected by each sensor is less than the predetermined value Vxth, the CPU determines "Yes" in step 740 and proceeds to step 750 to determine the Y velocity of the target detected by each sensor. It is determined whether or not the directional velocity difference is less than a predetermined value Vyth. If the Y-direction velocity difference of the target detected by each sensor is less than the predetermined value Vyth, the CPU determines "Yes" in step 750, proceeds to step 795, and terminates this routine.

一方、各センサがそれぞれ検出した物標のX方向速度差ΔVxが所定値Vxth以上である場合、CPUはステップ740にて「No」と判定してステップ760に進み、記憶部43からフュージョン物標情報を削除する。更に、各センサがそれぞれ検出した物標のY方向速度差ΔVyが所定値Vyth以上である場合、CPUはステップ750にて「No」と判定してステップ760に進み、記憶部43からフュージョン物標情報を削除する。 On the other hand, if the X-direction velocity difference ΔVx of the target detected by each sensor is equal to or greater than the predetermined value Vxth, the CPU determines “No” in step 740 and proceeds to step 760 to store the fusion target from the storage unit 43 . Delete information. Further, when the Y-direction speed difference ΔVy of the target detected by each sensor is equal to or greater than the predetermined value Vyth, the CPU determines “No” in step 750 and proceeds to step 760 to store the fusion target from the storage unit 43 . Delete information.

<衝突前制御>
PCSECU50のCPU(以下、単に「CPU」とも称呼される。)は、一定時間(例えば、20ms)が経過する毎に図8にフローチャートにより示した「衝突前制御ルーチン」を実行するようになっている。
<Pre-collision control>
The CPU of the PCSECU 50 (hereinafter also simply referred to as "CPU") executes a "pre-collision control routine" shown in the flow chart of FIG. there is

CPUは所定のタイミングにてステップ800から処理を開始してステップ810に進み、衝突余裕時間TTCが所定の閾値Tth以下であるか否かを判定する。衝突余裕時間TTCは、車両SVと物標とが衝突するまでの余裕度を時間で表した指標であり、車両SVと物標との相対距離を車両SVと物標との相対速度にて除した値である。従って、衝突余裕時間TTCが小さいほど衝突までの余裕度が小さい。衝突余裕時間TTCが所定の閾値Tthより大きい場合、CPUはステップ810にて「No」と判定してステップ895に直接進んで本ルーチンを一旦終了する。即ち、この場合、衝突前制御は実施されない。 The CPU starts the process from step 800 at a predetermined timing, proceeds to step 810, and determines whether or not the time to collision TTC is equal to or less than a predetermined threshold value Tth. The collision margin time TTC is an index representing the degree of margin until collision between the vehicle SV and the target in terms of time, and is obtained by dividing the relative distance between the vehicle SV and the target by the relative speed between the vehicle SV and the target. is the value Therefore, the smaller the time to collision TTC, the smaller the margin to collision. If the time to collision TTC is greater than the predetermined threshold value Tth, the CPU makes a "No" determination in step 810, proceeds directly to step 895, and temporarily terminates this routine. That is, in this case, pre-collision control is not performed.

一方、衝突余裕時間TTCが所定の閾値Tth以下である場合、CPUはステップ810にて「Yes」と判定してステップ820に進み、車速SPDが所定の速度閾値SPth以上であるか否かを判定する。例えば、所定の速度閾値SPthは7km/hに設定される。車速SPDが所定の速度閾値SPth以上である場合、CPUはステップ820にて「Yes」と判定してステップ830に進み、アクセルペダル操作量APが所定の操作量閾値APth未満であるか否かを判定する。 On the other hand, if the time to collision TTC is less than or equal to the predetermined threshold value Tth, the CPU determines "Yes" in step 810 and proceeds to step 820 to determine whether the vehicle speed SPD is greater than or equal to the predetermined speed threshold value SPth. do. For example, the predetermined speed threshold SPth is set to 7 km/h. If the vehicle speed SPD is equal to or greater than the predetermined speed threshold SPth, the CPU determines "Yes" in step 820 and proceeds to step 830 to determine whether the accelerator pedal operation amount AP is less than the predetermined operation amount threshold APth. judge.

アクセルペダル操作量APが所定の操作量閾値APth未満である場合、CPUはステップ830にて「Yes」と判定してステップ840に進み、警報ECU90を用いて警報の発報のみを行う。その後、CPUはステップ895に進み、本ルーチンを一旦終了する。 If the accelerator pedal operation amount AP is less than the predetermined operation amount threshold value APth, the CPU determines "Yes" in step 830 and proceeds to step 840 to issue an alarm using the alarm ECU 90 only. After that, the CPU proceeds to step 895 and temporarily terminates this routine.

これに対し、アクセルペダル操作量APが所定の操作量閾値APth以上である場合、CPUはステップ830にて「No」と判定してステップ895に直接進んで本ルーチンを一旦終了する。つまり、この場合、衝突前制御は実施されない。 On the other hand, if the accelerator pedal actuation amount AP is equal to or greater than the predetermined actuation amount threshold value APth, the CPU makes a "No" determination in step 830, directly proceeds to step 895, and once terminates this routine. That is, in this case, pre-collision control is not performed.

なお、CPUがステップ820に進んだ時点において車速SPDが所定の速度閾値SPth未満である場合、CPUはそのステップ820にて「No」と判定してステップ850に進み、アクセルペダル操作量APが所定の操作量閾値APth以上であるか否かを判定する。アクセルペダル操作量APが所定の操作量閾値APth未満である場合、CPUはステップ850にて「No」と判定してステップ895に直接進み、本ルーチンを一旦終了する。つまり、この場合、衝突前制御は実施されない。 If the vehicle speed SPD is less than the predetermined speed threshold SPth when the CPU proceeds to step 820, the CPU determines "No" in step 820 and proceeds to step 850, where the accelerator pedal operation amount AP is reduced to a predetermined value. is greater than or equal to the manipulated variable threshold value APth. If the accelerator pedal actuation amount AP is less than the predetermined actuation amount threshold value APth, the CPU makes a "No" determination in step 850, proceeds directly to step 895, and temporarily terminates this routine. That is, in this case, pre-collision control is not performed.

一方、アクセルペダル操作量APが所定の操作量閾値APth以上である場合、CPUはステップ850にて「Yes」と判定してステップ860に進み、選択物標のフュージョン物標情報が記憶部43に記録されているか否かを判定する。選択物標のフュージョン物標情報が記憶部43に記録されている場合、CPUはステップ860にて「Yes」と判定する。次いで、CPUはステップ870に進み、警報ECU90を用いて警報を発報する(ブザー91から警報音を出力させ、表示器92にウォーニングランプを点灯させる)とともにエンジンECU60及び/又はブレーキECU70を用いて車両SVの制駆動力を制御する。その後、CPUはステップ895に進み、本ルーチンを一旦終了する。 On the other hand, when the accelerator pedal operation amount AP is equal to or greater than the predetermined operation amount threshold value APth, the CPU determines "Yes" in step 850 to proceed to step 860, and the fusion target information of the selected target is stored in the storage unit 43. Determine whether or not it is recorded. If the fusion target information of the selected target is recorded in the storage unit 43, the CPU determines “Yes” in step 860. FIG. Next, the CPU proceeds to step 870 and issues an alarm using the alarm ECU 90 (outputs an alarm sound from the buzzer 91 and lights the warning lamp on the display 92), and uses the engine ECU 60 and/or the brake ECU 70 to issue an alarm. It controls the braking/driving force of the vehicle SV. After that, the CPU proceeds to step 895 and temporarily terminates this routine.

これに対し、選択物標のフュージョン物標情報が記憶部43に記録されていない場合、CPUは、ステップ860にて「No」と判定してステップ840に進み、警報ECU90を用いて警報の発報のみを実行する。その後、CPUはステップ895に進み、本ルーチンを一旦終了する。 On the other hand, if the fusion target information of the selected target is not recorded in the storage unit 43, the CPU determines "No" in step 860, proceeds to step 840, and issues an alarm using the alarm ECU 90. information only. After that, the CPU proceeds to step 895 and temporarily terminates this routine.

このように、ステップ820にて「No」と判定し(SPD<SPth)且つステップ850にて「Yes」と判定する(AP≧APth)状況においては、運転者がブレーキペダル52aの代わりに、誤ってアクセルペダル51aを踏んでいる可能性が高い。従って、衝突前制御を実行することが好ましい。しかし、選択物標が単独センサ物標情報により認識された物標である場合、選択物標が誤認識された物標である可能性も否定できない。 Thus, in a situation where "No" is determined at step 820 (SPD<SPth) and "Yes" is determined at step 850 (AP≧APth), the driver presses the brake pedal 52a instead of the brake pedal 52a. There is a high possibility that the accelerator pedal 51a is stepped on. Therefore, it is preferable to perform pre-collision control. However, if the selected target is a target recognized by the single-sensor target information, the possibility that the selected target is erroneously recognized cannot be denied.

ところで、選択物標のフュージョン物標情報が記憶部43に記録されている場合、その選択物標は車両SVの周囲に実際に存在している可能性が高いと推定できる。従って、選択物標のフュージョン物標情報が記憶部43に記録されている場合、第1装置10は、警報の発報及び制駆動力の制御)を実行する。これにより、車両SVと選択物標との衝突(接触)回避性を向上させることができる。 By the way, when the fusion target information of the selected target is recorded in the storage unit 43, it can be estimated that the selected target is likely to actually exist around the vehicle SV. Therefore, when the fusion target information of the selected target is recorded in the storage unit 43, the first device 10 issues an alarm and controls the braking/driving force. As a result, it is possible to improve the avoidance of collision (contact) between the vehicle SV and the selected target.

一方、選択物標のフュージョン物標情報が記憶部43に記録されていない場合、その選択物標は車両SVの周囲に実際に存在している可能性が低いと推定できる。従って、選択物標のフュージョン物標情報が記憶部43に記録されていない場合、第1装置10は、警報ECU90を用いて警報を発報させる。これにより、車両SVの不要な制駆動力制御が実行されることを回避できる。 On the other hand, if the fusion target information of the selected target is not recorded in the storage unit 43, it can be estimated that the selected target is unlikely to actually exist around the vehicle SV. Therefore, when the fusion target information of the selected target is not recorded in the storage unit 43, the first device 10 uses the warning ECU 90 to generate an alarm. This makes it possible to avoid unnecessary braking/driving force control of the vehicle SV.

言い換えると、第1装置10は、選択物標が単独センサ物標情報により認識された物標であっても、当該物標についてのフュージョン物標情報が記憶部43に記録されている場合、その物標が車両SVの周囲に実際に存在している可能性が高いと推定する。 In other words, even if the selected target is a target recognized by the single-sensor target information, if the fusion target information for the target is recorded in the storage unit 43, the first device 10 It is estimated that there is a high probability that the target actually exists around the vehicle SV.

以上、説明したように、第1装置10は、2つの周囲センサ(レーダセンサ20及びカメラセンサ30)と、フュージョン物標情報取得部41と、記憶部43と、フュージョン物標情報管理部42と、車両運動状態制御部50と、を備える。 As described above, the first device 10 includes two surrounding sensors (the radar sensor 20 and the camera sensor 30), the fusion target information acquisition unit 41, the storage unit 43, and the fusion target information management unit 42. , and a vehicle motion state control unit 50 .

フュージョン物標情報取得部41は、第1センサ部20及び第2センサ部30の何れもが検出している物標である両センサ検出物標についての第1検出情報及び第2検出情報を統合したフュージョン物標情報を取得する。フュージョン物標情報管理部42は、少なくともフュージョン物標情報取得部41がフュージョン物標情報を取得しているとの条件(特定条件)が所定時間に亘って成立したとき、フュージョン物標情報を記憶部43に記録する。フュージョン物標情報管理部42は、フュージョン物標情報が記録された後、第1検出情報から取得される車両SVに対する物標の速度と、第2検出情報から取得される車両SVに対する物標の速度と、の差が所定値以上となったとき、記録されたフュージョン物標情報を記憶部43から削除する。車両運動状態制御部50は、記憶部43にフュージョン物標情報が記録されている間は、当該フュージョン物標に対応する物標と車両SVとの接触を回避するために車両SVの運動状態を変更する。 The fusion target information acquisition unit 41 integrates the first detection information and the second detection information regarding the targets detected by both the first sensor unit 20 and the second sensor unit 30, which are targets detected by both sensors. Get the fusion target information. The fusion target information management unit 42 stores the fusion target information when at least the condition (specific condition) that the fusion target information acquisition unit 41 has acquired the fusion target information is satisfied for a predetermined time. Record in section 43 . After the fusion target information is recorded, the fusion target information management unit 42 calculates the speed of the target with respect to the vehicle SV obtained from the first detection information and the speed of the target with respect to the vehicle SV obtained from the second detection information. The recorded fusion target information is deleted from the storage unit 43 when the difference between the speed and the speed becomes equal to or greater than a predetermined value. While the fusion target information is recorded in the storage unit 43, the vehicle motion state control unit 50 controls the motion state of the vehicle SV to avoid contact between the target corresponding to the fusion target and the vehicle SV. change.

このような構成により、信頼度の高いフュージョン物標情報が記憶部43に記録される。更に、第1検出情報から取得される物標の速度と第2検出情報から取得される物標の速度との差が所定値以上となったとき、記憶部43に記録されたフュージョン物標情報を削除する。このようにして、記憶部43に記録されるフュージョン物標情報の信頼度をより向上させることができる。 With such a configuration, highly reliable fusion target information is recorded in the storage unit 43 . Further, when the difference between the speed of the target acquired from the first detection information and the speed of the target acquired from the second detection information becomes equal to or greater than a predetermined value, the fusion target information recorded in the storage unit 43 delete. In this manner, the reliability of the fusion target information recorded in the storage unit 43 can be further improved.

更に、第1装置10は、フュージョン物標情報が記憶部43に記録されている間は、車両SVと物標との接触を回避するために車両SVの運動状態を制御することができる。従って、仮に物標がレーダセンサ20及びカメラセンサ30の何れか一方の検出可能領域から離脱した場合であっても、車両SVと物標との接触を回避するために車両の運動状態(制駆動力)を制御することができる。 Furthermore, while the fusion target information is recorded in the storage unit 43, the first device 10 can control the motion state of the vehicle SV to avoid contact between the vehicle SV and the target. Therefore, even if the target leaves the detectable area of either one of the radar sensor 20 and the camera sensor 30, the motion state of the vehicle (braking/driving) is used to avoid contact between the vehicle SV and the target. force) can be controlled.

<他の実施形態>
他の実施形態に係る車両の制御装置(以下、「第2装置」とも称呼する。)10Aは、特定条件の一つとして車両SVと物標との相対距離が所定距離以下であるという条件が加わっている点において、第1装置10と異なっている。従って、以下、上記相違点を中心に説明する。
<Other embodiments>
A vehicle control device (hereinafter also referred to as a "second device") 10A according to another embodiment satisfies, as one of the specific conditions, a condition that the relative distance between the vehicle SV and the target is equal to or less than a predetermined distance. It differs from the first device 10 in that it is added. Therefore, the following description will focus on the above differences.

レーダセンサ20は物標により反射する反射波がセンサに到達する時間から相対距離を算出するので、車両SVと物標との相対距離を比較的正確に検出できる。これに対し、カメラセンサ30は、画像情報に基づき距離を算出しているので、物標が車両SVに対して遠隔であるほど相対距離を正確に検出できない傾向がある。そこで、第2装置10Aは、「フュージョン物標情報管理部42がフュージョン物標情報を記憶部43に記録している」との条件(第1条件)に加え、「車両SVと物標との相対距離が所定の距離閾値Dth以下である」との条件(第2条件)を設定する。例えば、所定の距離閾値Dthは60mに設定される。 Since the radar sensor 20 calculates the relative distance from the time at which the reflected wave reflected by the target reaches the sensor, the relative distance between the vehicle SV and the target can be detected relatively accurately. On the other hand, since the camera sensor 30 calculates the distance based on the image information, there is a tendency that the farther the target is from the vehicle SV, the less accurately the relative distance can be detected. Therefore, in addition to the condition (first condition) that "the fusion target information management unit 42 records the fusion target information in the storage unit 43", the second device 10A adds "the relationship between the vehicle SV and the target. A condition (second condition) that the relative distance is equal to or less than a predetermined distance threshold value Dth is set. For example, the predetermined distance threshold Dth is set to 60m.

(具体的作動)
物標検出ECU40のCPUは、一定時間が経過する毎に図9にフローチャートにより示した「フュージョン物標情報記録ルーチン」を実行するようになっている。なお、図9において、図6に示したステップと同じステップには同一のステップ番号が付されている。
(Specific operation)
The CPU of the target detection ECU 40 executes the "fusion target information recording routine" shown in the flow chart of FIG. 9 every time a certain period of time elapses. In FIG. 9, the same step numbers are given to the same steps as those shown in FIG.

CPUは所定のタイミングにてステップ900から処理を開始してステップ610に進み、2つのセンサ(レーダセンサ20及びカメラセンサ30)を用いて物標情報を取得してステップ620に進む。2つのセンサが同一の物標を認識した場合、CPUはステップ620にて「Yes」と判定してステップ910に進み、車両SVと物標との相対距離が所定の距離閾値Dth以下であるか否かを判定する。 The CPU starts processing from step 900 at a predetermined timing, advances to step 610 , obtains target information using two sensors (radar sensor 20 and camera sensor 30 ), and advances to step 620 . If the two sensors recognize the same target, the CPU determines "Yes" in step 620 and proceeds to step 910 to determine whether the relative distance between the vehicle SV and the target is equal to or less than a predetermined distance threshold value Dth. determine whether or not

車両SVと物標との相対距離が所定の距離閾値Dth以下である場合、CPUはステップ910にて「Yes」と判定してステップ630に進み、カウンタの値Cを「1」だけインクリメントする。その後、CPUは、カウンタの値Cが所定の閾値Cth以上となるまでステップ610乃至ステップ640の処理を繰り返し、カウンタの値Cの値が所定の閾値Cth以上となると、フュージョン物標情報を記憶部43に記録する。その後、CPUは、ステップ995に進んで本ルーチンを一旦終了する。 If the relative distance between the vehicle SV and the target is equal to or less than the predetermined distance threshold value Dth, the CPU determines "Yes" in step 910, proceeds to step 630, and increments the counter value C by "1". After that, the CPU repeats the processing from step 610 to step 640 until the counter value C reaches or exceeds a predetermined threshold value Cth. Record at 43. After that, the CPU proceeds to step 995 and once terminates this routine.

一方、車両SVと物標との相対距離が所定の距離閾値Dthより大きい場合、CPUはステップ910にて「No」と判定してステップ660に進み、カウンタの値Cを「0」に設定する(つまり、カウンタをリセットする)。その後、CPUは、ステップ995に直接進んで本ルーチンを一旦終了する。 On the other hand, if the relative distance between the vehicle SV and the target is greater than the predetermined distance threshold value Dth, the CPU determines "No" in step 910, proceeds to step 660, and sets the counter value C to "0". (i.e. reset the counter). After that, the CPU directly proceeds to step 995 and once terminates this routine.

このような構成により、第2装置10Aは、異なる物標を同一の物標と誤認識する確率を小さくすることができる。 With such a configuration, the second device 10A can reduce the probability of erroneously recognizing different targets as the same target.

<変形例>
なお、本発明は上記実施形態に限定されることはなく、本発明の範囲内において種々の変形例を採用することができる。
<Modification>
It should be noted that the present invention is not limited to the above embodiments, and various modifications can be adopted within the scope of the present invention.

上記実施形態においては、第1センサ部20には、レーダセンサ20が用いられていたが、これに代えて超音波センサが用いられてもよい。 In the above embodiment, the radar sensor 20 is used as the first sensor unit 20, but an ultrasonic sensor may be used instead.

上記実施形態においては、衝突前制御として、エンジンECU60による駆動力制御及びブレーキECU70による制動力制御が実行されていたが、これらの制駆動力制御に加え、ステアリングECU80によるステアリング制御が実行されてもよい。 In the above embodiment, the driving force control by the engine ECU 60 and the braking force control by the brake ECU 70 are executed as the pre-collision control. good.

10…車両の制御装置、20…レーダセンサ(第1センサ部)、30…カメラセンサ(第2センサ部)、40…物標検出ECU、41…フュージョン物標情報取得部、43…記憶部、42…フュージョン物標情報管理部、50…衝突前制御ECU、60…エンジンECU、70…ブレーキECU、80…警報ECU、SV…車両。 Reference Signs List 10 Vehicle control device 20 Radar sensor (first sensor unit) 30 Camera sensor (second sensor unit) 40 Target detection ECU 41 Fusion target information acquisition unit 43 Storage unit 42... fusion target object information management unit, 50... pre-collision control ECU, 60... engine ECU, 70... brake ECU, 80... alarm ECU, SV... vehicle.

Claims (1)

車両の周囲の所定の検出領域に存在する物標を電磁波又は超音波を用いて検出するとともに、当該検出された物標に関する情報である第1検出情報を取得する第1センサ部と、
前記車両の周囲の所定範囲を撮影して取得された画像データを用いて前記車両の周囲に存在する物標を検出するとともに、当該検出された物標に関する情報である第2検出情報を取得する第2センサ部と、
前記第1センサ部及び前記第2センサ部の何れもが同一の物標を検出している場合には当該同一の物標に関する最終的な情報であるフュージョン物標情報を前記第1検出情報及び前記第2検出情報の双方を用いて取得し、前記第1センサ部及び前記第2センサ部の何れか一方のみが物標を検出している場合には当該物標に関する最終的な情報である単独センサ物標情報を当該物標を検出している前記第1センサ部及び前記第2センサ部の何れか一方により取得された前記第1検出情報及び前記第2検出情報の何れか一方のみに基いて取得する、フュージョン物標情報取得部と、
前記フュージョン物標情報を格納する記憶部と、
前記第1センサ部及び前記第2センサ部の何れもが前記同一の物標を検出していて前記フュージョン物標情報取得部が前記フュージョン物標情報を取得しているとの条件、及び、前記車両と前記第1センサ部及び前記第2センサ部の何れもが検出している前記同一の物標との相対距離が所定の距離閾値以下であるとの条件、を含む特定条件が所定時間に亘って成立したとき、前記フュージョン物標情報を前記記憶部に記録するとともに、前記フュージョン物標情報が前記記憶部に記録された後、前記第1検出情報から取得される前記車両に対する前記記録されたフュージョン物標に対応する物標の速度と、前記第2検出情報から取得される前記車両に対する前記記録されたフュージョン物標に対応する物標の速度と、の差が所定値以上となったとき、前記記録されたフュージョン物標情報を前記記憶部から削除する、ように構成されたフュージョン物標情報管理部と、
前記記憶部に前記フュージョン物標情報が記録されている、当該記録されているフュージョン物標情報に対応する物標と前記車両との接触を回避するために前記車両の運動状態を変更する制御を、前記第1センサ部及び前記第2センサ部の何れもが当該記録されているフュージョン物標情報に対応する物標を検出している場合には当該記録されているフュージョン物標情報に対応する物標に関して前記フュージョン物標情報取得部が取得した前記フュージョン物標情報に基いて実行し、前記第1センサ部及び前記第2センサ部の何れか一方のみが当該記録されているフュージョン物標情報に対応する物標を検出している場合には当該記録されているフュージョン物標情報に対応する物標に関して前記フュージョン物標情報取得部が取得した前記単独センサ物標情報に基いて実行し、前記記憶部に前記フュージョン物標情報が記録されていない場合、前記車両の運動状態を変更する前記制御を実行しない、ように構成された車両運動状態制御部と、
を備えた、車両の制御装置。
a first sensor unit that detects a target existing in a predetermined detection area around the vehicle using electromagnetic waves or ultrasonic waves and acquires first detection information that is information about the detected target;
A target existing around the vehicle is detected using image data acquired by photographing a predetermined range around the vehicle, and second detection information, which is information about the detected target, is acquired. a second sensor unit;
When both the first sensor section and the second sensor section detect the same target, the fusion target information, which is the final information regarding the same target, is used as the first detection information. and the second detection information, and when only one of the first sensor unit and the second sensor unit detects the target, the final information about the target Any one of the first detection information and the second detection information obtained by either the first sensor unit or the second sensor unit that detects the single sensor target information is a fusion target information acquisition unit that acquires only based on
a storage unit that stores the fusion target information;
a condition that both the first sensor unit and the second sensor unit detect the same target and the fusion target information acquisition unit acquires the fusion target information ; , a relative distance between the vehicle and the same target detected by both the first sensor unit and the second sensor unit is equal to or less than a predetermined distance threshold. When established over time, the fusion target information is recorded in the storage unit, and after the fusion target information is recorded in the storage unit, the vehicle is acquired from the first detection information. a predetermined difference between the velocity of the target corresponding to the recorded fusion target and the velocity of the target corresponding to the recorded fusion target relative to the vehicle obtained from the second detection information; a fusion target information management unit configured to delete the recorded fusion target information from the storage unit when the value is equal to or greater than the value;
While the fusion target information is being recorded in the storage unit, the motion state of the vehicle is changed in order to avoid contact between the target corresponding to the recorded fusion target information and the vehicle. When both of the first sensor unit and the second sensor unit detect a target corresponding to the recorded fusion target information, control is performed on the recorded fusion target information. Execution is performed based on the fusion target information acquired by the fusion target information acquisition unit with respect to the corresponding target, and only one of the first sensor unit and the second sensor unit detects the recorded fusion object. When the target corresponding to the target information is detected, the target corresponding to the recorded fusion target information is executed based on the single sensor target information acquired by the fusion target information acquisition unit. a vehicle motion state control unit configured to not execute the control for changing the motion state of the vehicle when the fusion target information is not recorded in the storage unit ;
A control device for a vehicle, comprising:
JP2019028206A 2019-02-20 2019-02-20 vehicle controller Active JP7211145B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019028206A JP7211145B2 (en) 2019-02-20 2019-02-20 vehicle controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019028206A JP7211145B2 (en) 2019-02-20 2019-02-20 vehicle controller

Publications (2)

Publication Number Publication Date
JP2020131940A JP2020131940A (en) 2020-08-31
JP7211145B2 true JP7211145B2 (en) 2023-01-24

Family

ID=72277522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019028206A Active JP7211145B2 (en) 2019-02-20 2019-02-20 vehicle controller

Country Status (1)

Country Link
JP (1) JP7211145B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003252147A (en) 2002-02-26 2003-09-10 Toyota Motor Corp Obstacle detector for vehicle
JP2004117071A (en) 2002-09-24 2004-04-15 Fuji Heavy Ind Ltd Vehicle surroundings monitoring apparatus and traveling control system incorporating the same
JP2010501952A (en) 2007-04-19 2010-01-21 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Driver assistance system and method for determining the validity of an object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003252147A (en) 2002-02-26 2003-09-10 Toyota Motor Corp Obstacle detector for vehicle
JP2004117071A (en) 2002-09-24 2004-04-15 Fuji Heavy Ind Ltd Vehicle surroundings monitoring apparatus and traveling control system incorporating the same
JP2010501952A (en) 2007-04-19 2010-01-21 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Driver assistance system and method for determining the validity of an object

Also Published As

Publication number Publication date
JP2020131940A (en) 2020-08-31

Similar Documents

Publication Publication Date Title
US10515278B2 (en) Driving assistance device
US20200231152A1 (en) Vehicle driving support apparatus
JP6572880B2 (en) Driving assistance device
JP7176415B2 (en) Pre-collision control device
JP6520858B2 (en) Vehicle travel control device
JP7470588B2 (en) Collision avoidance support device
US20180339670A1 (en) Collision preventing control device
US11117618B2 (en) Vehicle lane change assist apparatus
US11267473B2 (en) Vehicle lane change assist apparatus
CN113942499A (en) Collision avoidance aid
US20220176982A1 (en) Vehicle control apparatus
JP2019002689A (en) Target detection device
US20180120858A1 (en) Pedestrian face detection
EP4036869B1 (en) Collision avoidance support apparatus
US11890939B2 (en) Driver assistance system
US20210323550A1 (en) Driver assistance apparatus
JP7135908B2 (en) Pre-collision control device
JP7211145B2 (en) vehicle controller
US20180141492A1 (en) Collision avoidance apparatus for notification of collision avoidance direction
JP7218626B2 (en) Vehicle travel control device
US20210323545A1 (en) Driver assistance apparatus
CN110065492B (en) Vehicle control system
US20220396266A1 (en) Driver assistance system and method of controlling the same
US11840220B2 (en) Driver assistance system and control method thereof
JP2024057232A (en) Driver monitoring device and driver monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R151 Written notification of patent or utility model registration

Ref document number: 7211145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151