JP2018097765A - Object detection device and object detection method - Google Patents

Object detection device and object detection method Download PDF

Info

Publication number
JP2018097765A
JP2018097765A JP2016244040A JP2016244040A JP2018097765A JP 2018097765 A JP2018097765 A JP 2018097765A JP 2016244040 A JP2016244040 A JP 2016244040A JP 2016244040 A JP2016244040 A JP 2016244040A JP 2018097765 A JP2018097765 A JP 2018097765A
Authority
JP
Japan
Prior art keywords
target
image
fusion
fusion target
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016244040A
Other languages
Japanese (ja)
Other versions
JP6855776B2 (en
Inventor
崇治 小栗
Takaharu Oguri
崇治 小栗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016244040A priority Critical patent/JP6855776B2/en
Publication of JP2018097765A publication Critical patent/JP2018097765A/en
Application granted granted Critical
Publication of JP6855776B2 publication Critical patent/JP6855776B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an object detection device and an object detection method which can continue to accurately detect the position of an object determined by a fusion target even after the fusion target is no longer generated due to image loss.SOLUTION: When a radar target indicating an object detected by a radar 22 and an image target indicating an object detected by an imaging device 21 are formed by the same object, the radar target and the image target are integrated to form a fusion target. A position, on a vehicle in a width direction, of the image target used for forming the fusion target is calculated as a lateral position, and a moving speed in the width direction of the vehicle is calculated as a lateral speed. When the radar target is acquired while the fusion target is no longer generated due to no acquisition of the image target, a temporal fusion target is formed by using the lateral position and the lateral speed of the image target used for forming the fusion target, and the radar target acquired by a radar target acquisition unit.SELECTED DRAWING: Figure 1

Description

本発明は、自車両前方の物体を物標として検出する物体検出装置、及び物体検出方法に関する。   The present invention relates to an object detection device and an object detection method for detecting an object in front of a host vehicle as a target.

レーダ及びカメラを用いることで自車両の周囲に存在する物体の検出精度を高める技術が知られている。詳しくは、レーダによって検出された物体を示すレーダ物標を取得し、カメラによって検出された物体を示す画像物標を取得する。そして、レーダ物標及び画像物標が同一の物体から生成されたものであると判定されたことを条件に、レーダ物標及び画像物標を統合して新たな物標(以下、フュージョン物標と称する)を生成し、このフュージョン物標によって物体の位置を検出している。   A technique for increasing the detection accuracy of an object existing around the host vehicle by using a radar and a camera is known. Specifically, a radar target indicating an object detected by the radar is acquired, and an image target indicating the object detected by the camera is acquired. Then, on the condition that the radar target and the image target are determined to be generated from the same object, the radar target and the image target are integrated to form a new target (hereinafter, fusion target). The position of the object is detected by this fusion target.

しかし、自車両の走行環境によっては、カメラによる物体の検出精度が低下することがあり、物体を画像物標として一時的に検出できなくなる画像ロストの状態となることがあった。画像ロストの状態となると、本来は検出対象となる自車両前方の物体に対してフュージョン物標が生成されなくなり、物体に対する車両制御を行えなくなる等の不都合が生じてしまうおそれがある。   However, depending on the traveling environment of the host vehicle, the detection accuracy of the object by the camera may be reduced, and the image may be in a lost state where the object cannot be temporarily detected as an image target. When the image is lost, there is a possibility that a fusion target is not generated for an object in front of the subject vehicle, which is a detection target, and that the vehicle cannot be controlled with respect to the object.

そこで、特許文献1では、画像ロストした場合には、過去に取得したフュージョン物標の大きさ情報に対して1よりも小さい係数を掛けることで、過去に取得したフュージョン物標の大きさ情報よりも小さい大きさ情報を有する仮フュージョン物標を生成する。そしてこの仮フュージョン物標を用いて物体の位置の検出結果を更新している。   Therefore, in Patent Document 1, when the image is lost, the size information of the fusion target acquired in the past is multiplied by a coefficient smaller than 1 to obtain the size information of the fusion target acquired in the past. A temporary fusion target having a small size information is generated. And the detection result of the position of an object is updated using this temporary fusion target.

特開2007−226680号公報JP 2007-226680 A

しかし、特許文献1では、物体の自車両の幅方向への移動が考慮されていない。そのため、例えば物体が先行車であり、先行車の方向転換に伴って画像ロストした状態となった場合には、仮フュージョン物標の位置と実際の物体の位置との間にずれが生じるおそれがあった。   However, Patent Document 1 does not consider the movement of the object in the width direction of the host vehicle. Therefore, for example, if the object is a preceding vehicle and the image is lost due to the direction change of the preceding vehicle, there is a possibility that a deviation may occur between the position of the temporary fusion target and the position of the actual object. there were.

本発明は上記に鑑みてなされたものであり、画像ロストした状態となることで、フュージョン物標が生成されなくなったとしても、フュージョン物標で特定されていた物体の位置の検出を精度よく継続できる物体検出装置、及び物体検出方法を提供することを主たる目的とする。   The present invention has been made in view of the above, and even when the fusion target is no longer generated due to the image lost state, the detection of the position of the object specified by the fusion target is accurately continued. An object of the present invention is to provide an object detection device and an object detection method.

本発明は、自車両の前方に取り付けられたレーダ(22)によって検出された前記自車両の前方の物体を示すレーダ物標を取得するレーダ物標取得部(12)と、前記自車両の前方に取り付けられた撮影装置(21)によって検出された前記物体を示す画像物標を取得する画像物標取得部(11)と、前記レーダ物標と前記画像物標とが同一の前記物体から生成されたものである場合に、前記レーダ物標と前記画像物標とを統合してフュージョン物標を生成するフュージョン物標生成部(13)と、前記フュージョン物標の生成に使用した前記画像物標の前記自車両の幅方向の位置を横位置として取得する横位置取得部(14a)と、前記フュージョン物標の生成に使用した前記画像物標の前記自車両の幅方向への移動速度を横速度として算出する横速度算出部(14b)と、前記レーダ物標が取得される一方で前記画像物標が取得されなくなることで前記フュージョン物標が生成されなくなった場合に、前記フュージョン物標の生成に使用した前記画像物標の前記横位置及び横速度と、前記レーダ物標取得部が取得した前記レーダ物標とを用いて仮フュージョン物標を生成する仮フュージョン物標生成部(15)と、前記フュージョン物標又は前記仮フュージョン物標を用いて前記物体の位置を検出する位置検出部(19)と、を備えることを特徴とする。   The present invention includes a radar target acquisition unit (12) that acquires a radar target indicating an object in front of the host vehicle detected by a radar (22) attached in front of the host vehicle, and a front side of the host vehicle. An image target acquisition unit (11) for acquiring an image target indicating the object detected by the imaging device (21) attached to the image sensor, and the radar target and the image target are generated from the same object. A fusion target generation unit (13) for generating a fusion target by integrating the radar target and the image target, and the image target used for generating the fusion target. A horizontal position acquisition unit (14a) that acquires a position of the target in the width direction of the host vehicle as a horizontal position, and a moving speed of the image target used for generating the fusion target in the width direction of the host vehicle. Calculate as lateral speed And a lateral velocity calculation unit (14b) that is used to generate the fusion target when the radar target is acquired and the image target is not acquired and the fusion target is not generated. A temporary fusion target generator (15) that generates a temporary fusion target using the lateral position and velocity of the image target and the radar target acquired by the radar target acquisition unit; A position detection unit (19) for detecting the position of the object using a fusion target or the provisional fusion target.

本発明によれば、レーダ物標が取得される一方で画像物標が取得されなくなることでフュージョン物標が生成されなくなる画像ロストの状態になった場合には、フュージョン物標の生成に使用した画像物標の横位置及び横速度と、レーダ物標取得部が取得したレーダ物標とを用いて仮フュージョン物標を生成し、仮フュージョン物標を用いて物体の位置を検出することとした。この場合、画像ロストによりフュージョン物標が生成されなくなったとしても、物体の横方向への移動を考慮しつつ、物体の位置の検出を精度よく継続することが可能となる。   According to the present invention, the radar target is acquired, but when the image target is not acquired, the fusion target is not generated. A temporary fusion target is generated using the lateral position and velocity of the image target and the radar target acquired by the radar target acquisition unit, and the position of the object is detected using the temporary fusion target. . In this case, even if the fusion target is no longer generated due to the image lost, it is possible to continue the detection of the position of the object with high accuracy while considering the movement of the object in the lateral direction.

車両制御システムの構成図。The block diagram of a vehicle control system. ECUの構成図。The block diagram of ECU. フュージョン物標の生成に関する説明図。Explanatory drawing regarding the production | generation of a fusion target. 車両制御システムが行う処理のフローチャート。The flowchart of the process which a vehicle control system performs. 車両制御システムが行う処理の実行例を示す図。The figure which shows the execution example of the process which a vehicle control system performs.

以下、各実施形態を図面に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。   Hereinafter, each embodiment will be described with reference to the drawings. In the following embodiments, parts that are the same or equivalent to each other are denoted by the same reference numerals in the drawings, and the description of the same reference numerals is used.

本実施形態に係る車両制御システム100は、自車両に搭載され、自車両の周囲に存在する物体を物標として検出し、自車両と物体との衝突を回避又は軽減すべく各種制御を行うPCS(Pre-crash safety system)として機能する。   The vehicle control system 100 according to the present embodiment is a PCS that is mounted on the host vehicle, detects an object existing around the host vehicle as a target, and performs various controls to avoid or reduce collision between the host vehicle and the object. Functions as a (Pre-crash safety system).

図1において、車両制御システム100は、ECU10、各種センサ20、被制御対象30を備えて構成されている。本実施形態では各種センサ20として、カメラ21、レーダ22、車速センサ23を備えている。また、被制御対象30として、スピーカ、シートベルト、ブレーキ等の周知の安全装置を備えている。   In FIG. 1, the vehicle control system 100 includes an ECU 10, various sensors 20, and a controlled object 30. In the present embodiment, the various sensors 20 include a camera 21, a radar 22, and a vehicle speed sensor 23. The controlled object 30 includes a known safety device such as a speaker, a seat belt, and a brake.

カメラ21は、CCDやCMOS等の撮像素子を備えており、フロントガラスの上端付近等、自車両の前方に設置されており、自車両の前方を所定の画角で撮像する。カメラ21が取得した撮像画像は画像信号としてECU10に出力される。   The camera 21 includes an image sensor such as a CCD or a CMOS, is installed in front of the host vehicle, such as near the upper end of the windshield, and images the front of the host vehicle at a predetermined angle of view. The captured image acquired by the camera 21 is output to the ECU 10 as an image signal.

レーダ22は、ミリ波レーダ、レーザレーダ、超音波レーダ等の周知のレーダであり、自車両のフロントバンパ又はフロントグリルにおいてその光軸が車両前方を向くように取り付けられている。レーダ22は、レーダ波を水平面内でスキャンしながら自車両から前方に向けて送信する。そして、物体によって反射されたレーダ波を受信することによって、レーダ波を反射した物体との距離、方位および相対速度等をレーダ信号として取得する。そして、取得したレーダ信号をECU10に出力する。   The radar 22 is a well-known radar such as a millimeter wave radar, a laser radar, or an ultrasonic radar, and is attached to the front bumper or front grill of the host vehicle so that the optical axis thereof faces the front of the vehicle. The radar 22 transmits radar waves forward from the host vehicle while scanning in a horizontal plane. Then, by receiving the radar wave reflected by the object, the distance, azimuth, relative velocity, etc. with respect to the object reflecting the radar wave are acquired as a radar signal. Then, the acquired radar signal is output to the ECU 10.

車速センサ23は、自車両の車輪に動力を伝達する回転軸に設けられており、その回転軸の回転速度に基づいて、自車両の速度である自車速を求める。   The vehicle speed sensor 23 is provided on a rotary shaft that transmits power to the wheels of the host vehicle, and determines the host vehicle speed that is the speed of the host vehicle based on the rotation speed of the rotary shaft.

ECU10は、車両制御システム100全体の制御を行う電子制御ユニットであり、CPUを主体として構成され、ROM、RAM、入出力インターフェース等を備えている。ECU10のこれから述べる各種機能は、CPUが、ROMに格納されているプログラムを実行することで実現される。また、ECU10が取得した各種データの履歴は、RAMに記憶される。   The ECU 10 is an electronic control unit that controls the entire vehicle control system 100. The ECU 10 is mainly composed of a CPU, and includes a ROM, a RAM, an input / output interface, and the like. Various functions to be described below of the ECU 10 are realized by the CPU executing a program stored in the ROM. The history of various data acquired by the ECU 10 is stored in the RAM.

図2に示すように、ECU10は、画像物標取得部11、レーダ物標取得部12、フュージョン物標生成部13、横位置取得部14a、横速度算出部14b、仮フュージョン物標生成部15、信頼度判定部16、横断判定部17、検出状態判定部18、位置検出部19、衝突判定部40の各機能を備えている。   As shown in FIG. 2, the ECU 10 includes an image target acquisition unit 11, a radar target acquisition unit 12, a fusion target generation unit 13, a lateral position acquisition unit 14 a, a lateral velocity calculation unit 14 b, and a temporary fusion target generation unit 15. , Reliability determination unit 16, crossing determination unit 17, detection state determination unit 18, position detection unit 19, and collision determination unit 40.

画像物標取得部11は、画像信号の表す撮影画像を画像解析することで検出される物体を、画像物標GTとして取得する。例えば、予め登録されている物標モデルを用いたマッチング処理で画像物標GTを取得する。物標モデルは、画像物標GTの種類ごとに用意されており、これにより画像物標GTの種類も特定される。画像物標GTの種類としては、四輪車両、二輪車、歩行者、ガードレール等の障害物等が挙げられる。   The image target acquisition unit 11 acquires, as an image target GT, an object detected by performing image analysis on the captured image represented by the image signal. For example, the image target GT is acquired by matching processing using a pre-registered target model. The target model is prepared for each type of the image target GT, and the type of the image target GT is specified by this. Examples of the image target GT include obstacles such as a four-wheeled vehicle, a two-wheeled vehicle, a pedestrian, and a guardrail.

また、画像物標取得部11は、撮影画像を解析することで、画像物標GTの自車両の幅方向の位置である横位置、画像物標GTの大きさ(横幅)画像物標GTの自車両に対する方位を取得する。更には、画像物標取得部11は、取得した画像物標GTの位置情報を、図3に示す座標(XY平面)に当てはめることにより、自車両に対する画像物標GTの位置(検出点Pi)を特定する。図3のXY平面は、自車両の幅方向(横方向)をX軸、自車両の車長方向(前方方向)をY軸、として設定されたものであり、このXY平面では、自車両の先端位置(レーダ22が設けられた位置)が基準点Poとして設定されている。   In addition, the image target acquisition unit 11 analyzes the captured image, so that the horizontal position of the image target GT in the width direction of the host vehicle, the size of the image target GT (horizontal width), and the image target GT. Get the direction to the vehicle. Furthermore, the image target acquisition unit 11 applies the position information of the acquired image target GT to the coordinates (XY plane) shown in FIG. 3 to thereby position the image target GT with respect to the host vehicle (detection point Pi). Is identified. The XY plane of FIG. 3 is set with the width direction (lateral direction) of the host vehicle as the X axis and the vehicle length direction (forward direction) of the host vehicle as the Y axis. The tip position (position where the radar 22 is provided) is set as the reference point Po.

また図3に示すように、画像物標取得部11は、画像物標GTの検出位置に含まれる誤差に対応するために、画像物標GTの検出誤差領域Riを設定している。詳しくは、画像物標GTの検出点Pi(Xi,Yi)を中心として、車長方向(Y方向)及び横方向(X方向)に所定の誤差分の幅を持たせた領域を、画像物標GTの検出誤差領域Riとして設定している。   As shown in FIG. 3, the image target acquisition unit 11 sets a detection error region Ri of the image target GT in order to cope with an error included in the detection position of the image target GT. Specifically, an area having a predetermined error width in the vehicle length direction (Y direction) and the lateral direction (X direction) around the detection point Pi (Xi, Yi) of the image target GT is defined as an image object. It is set as the detection error area Ri of the mark GT.

レーダ物標取得部12は、レーダ信号に基づき検出される物体をレーダ物標LTとして取得する。また、レーダ物標取得部12は、レーダ信号を解析することで、レーダ物標LTの距離に関する情報を取得する。距離に関する情報としては、レーダ物標LTの相対距離、相対速度、相対加速度等がある。更には、レーダ物標取得部12は、取得したレーダ物標LTの位置情報を、図3に示す座標(XY平面)に当てはめることにより、自車両に対するレーダ物標LTの位置(検出点Pr)を特定する。   The radar target acquisition unit 12 acquires an object detected based on the radar signal as a radar target LT. Further, the radar target acquisition unit 12 acquires information on the distance of the radar target LT by analyzing the radar signal. Information on the distance includes a relative distance, a relative speed, a relative acceleration, and the like of the radar target LT. Further, the radar target acquisition unit 12 applies the position information of the acquired radar target LT to the coordinates (XY plane) shown in FIG. 3 to thereby detect the position (detection point Pr) of the radar target LT with respect to the host vehicle. Is identified.

また図3に示すように、レーダ物標取得部12は、レーダ物標LTの検出位置に含まれる誤差に対応するために、レーダ物標LTの検出誤差領域Rrを設定している。詳しくは、レーダ物標LTの検出点Pr(Xr,Yr)を中心として、車長方向(Y方向)及び横方向(X方向)に所定の誤差分の幅を持たせた領域を、レーダ物標LTの検出誤差領域Rrとして設定している。   Further, as shown in FIG. 3, the radar target acquisition unit 12 sets a detection error region Rr of the radar target LT in order to cope with an error included in the detection position of the radar target LT. Specifically, an area having a predetermined error width in the vehicle length direction (Y direction) and the lateral direction (X direction) around the detection point Pr (Xr, Yr) of the radar target LT is set as a radar object. It is set as the detection error region Rr of the mark LT.

フュージョン物標生成部13は、画像物標取得部11が取得した画像物標GTと、レーダ物標取得部12が取得したレーダ物標LTとが同一の物体から生成されたものであるか否か、すなわちフュージョン条件が成立しているか否かを判定する。本実施形態では、図3の検出誤差領域Riと検出誤差領域Rrとに重複部分がある場合に、フュージョン条件が成立していると判定する。一方、検出誤差領域Riと検出誤差領域Rrとに重複部分が無い場合には、フュージョン条件が不成立であると判定する。   The fusion target generation unit 13 determines whether the image target GT acquired by the image target acquisition unit 11 and the radar target LT acquired by the radar target acquisition unit 12 are generated from the same object. That is, it is determined whether or not the fusion condition is satisfied. In the present embodiment, it is determined that the fusion condition is satisfied when the detection error region Ri and the detection error region Rr in FIG. On the other hand, if there is no overlapping portion between the detection error region Ri and the detection error region Rr, it is determined that the fusion condition is not satisfied.

フュージョン物標生成部13は、フュージョン条件が成立している場合には、画像物標GT及びレーダ物標LTを統合して新たにフュージョン物標FT1を生成し、このフュージョン物標FT1によって物体の位置を検出する。この際、画像物標GTとレーダ物標LTとが備える位置情報のうち、精度の高い方の情報を用いてフュージョン物標FT1が生成されるとよい。すなわち、自車両の車長方向における物体の位置は、レーダ物標LTまでの距離や、レーダ物標LTとの相対速度を用いて特定する。自車両の横方向における物体の位置は、画像物標GTの大きさ(横幅)や横位置、方位を用いて特定する。以上により、図3の例では、画像物標GTの横方向の位置(Xi)及びレーダ物標LTの車長方向の位置(Yr)によって、フュージョン物標FT1の座標(Xi、Yr)が特定されることとなる。   When the fusion condition is satisfied, the fusion target generation unit 13 integrates the image target GT and the radar target LT to newly generate a fusion target FT1, and the fusion target FT1 Detect position. At this time, the fusion target FT1 may be generated using information with higher accuracy among the position information included in the image target GT and the radar target LT. That is, the position of the object in the vehicle length direction of the host vehicle is specified using the distance to the radar target LT and the relative speed with respect to the radar target LT. The position of the object in the lateral direction of the host vehicle is specified using the size (lateral width), lateral position, and orientation of the image target GT. As described above, in the example of FIG. 3, the coordinates (Xi, Yr) of the fusion target FT1 are specified by the horizontal position (Xi) of the image target GT and the position (Yr) of the radar target LT in the vehicle length direction. Will be.

このように、レーダ物標LTに関する情報と、画像物標GTに関する情報とのうちで、精度が高い方の情報を利用してフュージョン物標FT1を生成することで、フュージョン物標FT1を用いた物体の位置の検出精度を高めることができる。   As described above, the fusion target FT1 is used by generating the fusion target FT1 using the information with higher accuracy among the information regarding the radar target LT and the information regarding the image target GT. The detection accuracy of the position of the object can be increased.

ところで、物体が先行車であって、先行車が方向転換(車線変更や右左折等)をする場合には、カメラ21が捉える車両後部の形態が次第に変化するため、マッチング処理で画像物標GTが検出されなくなってしまう。なお、以下の説明において、このようにフュージョン物標FT1が検出されている状態(フュージョン状態FSN)から、画像物標GTが検出されずレーダ物標LTのみで物体が検出される状態となることを、「画像ロスト」した状態と称する。   By the way, when the object is a preceding vehicle and the preceding vehicle changes its direction (lane change, right / left turn, etc.), the shape of the rear part of the vehicle captured by the camera 21 changes gradually. Will not be detected. In the following description, from the state in which the fusion target FT1 is detected in this way (fusion state FSN), the image target GT is not detected and the object is detected only by the radar target LT. Is referred to as an “image lost” state.

しかし、フュージョン物標FT1として検出されていた物体は、画像ロストした状態になった後も、自車両前方に存在している可能性が高い。そこで、画像ロストした状態になることでフュージョン物標FT1が生成されなくなった物体に対しては、その物体の位置情報を更新することが考えられる。   However, it is highly possible that the object detected as the fusion target FT1 exists in front of the host vehicle even after the image is lost. Thus, for an object for which the fusion target FT1 is no longer generated due to the image being lost, it is conceivable to update the position information of the object.

しかし、画像ロストした状態では、画像物標GTを用いて物体の横方向の位置を特定できなくなるため、方向転換に伴う物体の横方向への移動を検出できなくなってしまう。そこで、レーダ物標LTから物体の横方向の位置を特定することが考えられる。しかし、レーダ22の反射位置は、物体の横幅の範囲内で変化する可能性が高く、レーダ物標LTを用いて物体の横方向の位置を精度よく取得することは難しい。特に、物体が方向転換をしている場合には、物体に対するレーダ波の反射位置も変化しやすくなる。   However, in the image lost state, the position of the object in the horizontal direction cannot be specified using the image target GT, and thus the movement of the object in the horizontal direction accompanying the change of direction cannot be detected. Therefore, it is conceivable to specify the position of the object in the lateral direction from the radar target LT. However, the reflection position of the radar 22 is likely to change within the range of the horizontal width of the object, and it is difficult to accurately acquire the horizontal position of the object using the radar target LT. In particular, when the object is changing direction, the reflection position of the radar wave with respect to the object is likely to change.

そこで本実施形態では、横位置取得部14aはフュージョン物標FT1の生成に使用した画像物標GTの横位置の座標(Xi)を取得する。また横速度算出部14bは、横位置取得部14aが取得した画像物標GTの横位置(Xi)の履歴を用いて、画像物標の自車両の幅方向への移動速度を横速度として算出する。例えば横位置の単位時間当たりの変化量から横速度を算出する。   Therefore, in the present embodiment, the horizontal position acquisition unit 14a acquires the coordinates (Xi) of the horizontal position of the image target GT used for generating the fusion target FT1. Further, the lateral speed calculation unit 14b calculates the moving speed of the image target in the width direction of the host vehicle as the lateral speed using the history of the lateral position (Xi) of the image target GT acquired by the lateral position acquisition unit 14a. To do. For example, the lateral velocity is calculated from the amount of change per unit time of the lateral position.

そして、仮フュージョン物標生成部15は、画像ロストした状態となる直前に、横位置取得部14aが取得した横位置と、横速度算出部14bが求めた画像物標GTの横速度と、画像ロスト後にレーダ物標取得部12が取得したレーダ物標LTとを用いて仮フュージョン物標FT2を生成する。なお画像ロストした状態となる直前とは、例えば、画像ロストしたと判定された周期よりも一つ前の周期である。これ以外にも、画像ロストしたと判定された周期よりも所定時間前(例えば数秒前)までの期間が含まれていてもよい。このように画像ロスト直前の情報を用いることで、画像ロスト後の物体の位置の検出精度を高めることができる。そして、画像ロスト後は、仮フュージョン物標FT2を用いて物体の位置を検出する。   Then, the temporary fusion target generation unit 15 immediately before the image is lost, the lateral position acquired by the lateral position acquisition unit 14a, the lateral speed of the image target GT obtained by the lateral speed calculation unit 14b, and the image The temporary fusion target FT2 is generated using the radar target LT acquired by the radar target acquisition unit 12 after the lost. Note that “immediately before the image is lost” is, for example, a cycle immediately before the cycle in which it is determined that the image has been lost. In addition to this, a period up to a predetermined time (for example, several seconds) before the cycle in which it is determined that the image is lost may be included. As described above, by using the information immediately before the image lost, the detection accuracy of the position of the object after the image lost can be improved. Then, after the image is lost, the position of the object is detected using the temporary fusion target FT2.

なお、フュージョン物標FT1による物体の検出結果の信頼度が高いほど、画像ロスト後も自車両前方に物体が存在する可能性が高くなる。そこでECU10は、信頼度判定部16によって物体の検出結果の信頼度を判定する。   Note that the higher the reliability of the detection result of the object by the fusion target FT1, the higher the possibility that the object exists in front of the host vehicle even after the image is lost. Therefore, the ECU 10 determines the reliability of the detection result of the object by the reliability determination unit 16.

本実施形態の信頼度判定部16は、画像ロストした状態となる前にフュージョン物標FT1が検出された回数が所定回数以上となる際に、物体の検出結果の信頼度が高いと判定する。仮フュージョン物標生成部15は、信頼度判定部16によって、物体の検出結果の信頼度が高いと判定されたことを条件に、仮フュージョン物標FT2を生成する。   The reliability determination unit 16 of the present embodiment determines that the reliability of the detection result of the object is high when the number of times the fusion target FT1 is detected before the image is lost is greater than or equal to a predetermined number. The provisional fusion target generation unit 15 generates the provisional fusion target FT2 on the condition that the reliability determination unit 16 determines that the reliability of the object detection result is high.

更には、物体が自車両の幅方向に移動している場合において、その移動方向が自車両から離れる方向であれば、自車両に対して物体が衝突する可能性はなくなる。一方で、物体が自車両の幅方向に移動している場合において、その移動方向が自車両に接近する方向であれば、自車両に対して物体が衝突する可能性が生じる。しかし、物体が自車両に対して接近する方向に移動していたとしても、物体が自車両の前方を横断する(横切る)場合には、自車両に物体が衝突する可能性はなくなる。   Furthermore, when the object is moving in the width direction of the host vehicle, if the moving direction is a direction away from the host vehicle, there is no possibility of the object colliding with the host vehicle. On the other hand, when the object is moving in the width direction of the host vehicle, the object may collide with the host vehicle if the moving direction is a direction approaching the host vehicle. However, even if the object moves in a direction approaching the host vehicle, there is no possibility of the object colliding with the host vehicle when the object crosses (crosses) the front of the host vehicle.

そこで横断判定部17を用いて、画像ロストした状態で、物体が自車両の前方を横切るか否かを判定する。例えば、レーダ物標LTで特定される物体との車長方向の距離及び相対速度と、フュージョン状態FSNの際に画像物標GTから算出した物体の車幅方向の横速度とを用いて、物体が自車両の前方を横切るか否かを判定する。そして仮フュージョン物標生成部15は、横断判定部17によって、物体が自車両の前方を横切らないと判定されていることを条件に、仮フュージョン物標FT2を生成する。   Therefore, the crossing determination unit 17 is used to determine whether or not the object crosses the front of the host vehicle with the image lost. For example, using the distance and relative speed in the vehicle length direction with respect to the object specified by the radar target LT, and the lateral speed in the vehicle width direction of the object calculated from the image target GT in the fusion state FSN, Determines whether or not the vehicle crosses the front of the host vehicle. Then, the provisional fusion target generation unit 15 generates the provisional fusion target FT2 on the condition that the crossing determination unit 17 determines that the object does not cross the front of the host vehicle.

更には、画像物標GTの検出状態が不安定であると、画像物標GTから取得される物体の横位置や横速度の精度が低下するおそれがある。例えば自車両と物体との車間距離が短い場合(接近状態の場合)には、カメラ21の撮影範囲から物体の下端が外れる下端外れが生じるおそれがある。下端外れが生じると、画像物標GTの検出状態が不安定となり、画像物標GTから取得される物体の横位置及び横速度の精度が低下してしまう。また、物体の一部が障害物(他の物体)に隠れている等のように、カメラ21で物体を撮影しにくくなっている状況では、画像物標GTの検出と非検出とが繰り返される等、画像物標GTの検出状態が不安定になることがある。この場合にも、画像物標GTから取得される横位置及び横速度の精度が低下してしまう。   Furthermore, if the detection state of the image target GT is unstable, the accuracy of the lateral position and lateral speed of the object acquired from the image target GT may be reduced. For example, when the inter-vehicle distance between the host vehicle and the object is short (in an approaching state), there is a possibility that the lower end of the object will be off from the shooting range of the camera 21. When the lower end is deviated, the detection state of the image target GT becomes unstable, and the accuracy of the lateral position and the lateral speed of the object acquired from the image target GT is lowered. Further, in a situation where it is difficult to photograph the object with the camera 21 such as when a part of the object is hidden behind an obstacle (another object), detection and non-detection of the image target GT are repeated. For example, the detection state of the image target GT may become unstable. Even in this case, the accuracy of the lateral position and the lateral speed acquired from the image target GT is lowered.

そこで検出状態判定部18は、フュージョン物標FT1の生成に使用した画像物標GTの検出状態が安定しているか否かを判定する。そして仮フュージョン物標生成部15は、検出状態判定部18によって、画像物標GTの検出状態が安定していると判定されていることを条件に、画像物標GTから取得した横位置及び横速度の情報を用いて、仮フュージョン物標FT2を生成する。例えば、撮影範囲から物体の下端が外れていない場合に、画像物標GTが安定して検出されていると判定できる。また、同一の物体から画像物標GTを継続して(連続して)検出している場合にも、画像物標が安定して検出されていると判定できる。一方、下端外れが生じている場合や、同一の物体から画像物標GTが断続的に検出される場合などには、画像物標GTの検出状態が不安定であると判定する。   Therefore, the detection state determination unit 18 determines whether or not the detection state of the image target GT used to generate the fusion target FT1 is stable. The provisional fusion target generation unit 15 then acquires the horizontal position and the horizontal position acquired from the image target GT on the condition that the detection state determination unit 18 determines that the detection state of the image target GT is stable. The temporary fusion target FT2 is generated using the speed information. For example, when the lower end of the object is not deviated from the shooting range, it can be determined that the image target GT is stably detected. Further, even when the image target GT is continuously (continuously) detected from the same object, it can be determined that the image target is stably detected. On the other hand, when the lower end is off or when the image target GT is detected intermittently from the same object, it is determined that the detection state of the image target GT is unstable.

位置検出部19は、フュージョン物標FT1又は仮フュージョン物標FT2を用いて物体の位置を検出する。衝突判定部40は、位置検出部19によって検出された物体の位置情報を用いて、物体と自車両との衝突可能性を判定する。   The position detection unit 19 detects the position of the object using the fusion target FT1 or the temporary fusion target FT2. The collision determination unit 40 uses the position information of the object detected by the position detection unit 19 to determine the possibility of collision between the object and the host vehicle.

そしてECU10は、衝突判定部40によって衝突可能性があると判定された場合には、衝突予測時間と各被制御対象30の作動タイミングとを比較する。ここで衝突予測時間とは、現在の自車速度で走行した場合に、何秒後に物体に衝突するかを示す評価値である。例えば、衝突予測時間としては、自車両と物体との相対距離を相対速度で除算して算出されるTTC(Time to Collision)がある。また、衝突予測時間としては、相対距離及び相対速度に加えて、相対加速度を考慮して算出されるETTC(Enhanced Time to Collision)等がある。   When the collision determination unit 40 determines that there is a possibility of a collision, the ECU 10 compares the predicted collision time with the operation timing of each controlled object 30. Here, the collision prediction time is an evaluation value indicating how many seconds later the vehicle collides with an object when traveling at the current host vehicle speed. For example, as the collision prediction time, there is TTC (Time to Collation) calculated by dividing the relative distance between the host vehicle and the object by the relative speed. Further, the collision prediction time includes ETTC (Enhanced Time to Collation) calculated in consideration of relative acceleration in addition to the relative distance and relative speed.

そして衝突予測時間が作動タイミング以下であれば、該当する被制御対象30を作動させる。例えば、衝突予測時間がスピーカの作動タイミング以下となれば、スピーカの作動で運転者に警報を発信する。衝突予測時間がシートベルトの作動タイミング以下となれば、シートベルトを巻き上げる制御を行う。衝突予測時間がブレーキの作動タイミング以下となれば、自動ブレーキを作動させて衝突速度を低減する制御を行う。以上により、自車両と物体との衝突を回避したり緩和したりする。   If the predicted collision time is less than or equal to the operation timing, the corresponding controlled object 30 is operated. For example, if the predicted collision time is less than or equal to the operation timing of the speaker, an alarm is sent to the driver by the operation of the speaker. When the predicted collision time is less than or equal to the seat belt operation timing, control is performed to wind up the seat belt. If the predicted collision time is less than or equal to the brake operation timing, control is performed to reduce the collision speed by operating the automatic brake. As described above, the collision between the host vehicle and the object is avoided or alleviated.

次にECU10による上記処理の実行例を図4のフローチャートを用いて説明する。なお以下の処理は、ECU10が所定周期で繰り返し実施する。   Next, an execution example of the above process by the ECU 10 will be described with reference to the flowchart of FIG. The following processing is repeatedly performed by the ECU 10 at a predetermined cycle.

まず、レーダ物標LTを取得し(S11)、画像物標GTを取得する(S12)。次に、レーダ物標LTと画像物標GTとがフュージョン状態FSNであるか否かを判定する(S13)。フュージョン状態FSNの場合には(S13:YES)、フュージョン物標FT1を生成し(S14)、フュージョン物標FT1の生成に使用した画像物標GTの車幅方向に関する情報(横位置、横速度等)を取得する(S15)。次に、フュージョン物標FT1を用いて物体の位置を検出し(S16)、自車両と物体との衝突可能性があるか否かを判定する(S17)。   First, the radar target LT is acquired (S11), and the image target GT is acquired (S12). Next, it is determined whether the radar target LT and the image target GT are in the fusion state FSN (S13). In the case of the fusion state FSN (S13: YES), a fusion target FT1 is generated (S14), and information on the vehicle width direction of the image target GT used to generate the fusion target FT1 (lateral position, lateral speed, etc.) ) Is acquired (S15). Next, the position of the object is detected using the fusion target FT1 (S16), and it is determined whether or not there is a possibility of collision between the host vehicle and the object (S17).

S17で衝突可能性があると判定した場合には(S17:YES)、衝突予測時間TTCが被制御対象30の作動タイミングTh1よりも小さいか否かを判定する(S18)。衝突予測時間TTCが作動タイミングTh1よりも小さければ(S18:YES)、被制御対象30を作動させる(S19)。衝突可能性が無いと判定した場合と(S17:NO)、衝突予測時間TTCが被制御対象30の作動タイミングTh1よりも大きいと判定した場合は(S18:NO)、被制御対象30を作動させない。   If it is determined in S17 that there is a possibility of collision (S17: YES), it is determined whether or not the predicted collision time TTC is smaller than the operation timing Th1 of the controlled object 30 (S18). If the collision prediction time TTC is smaller than the operation timing Th1 (S18: YES), the controlled object 30 is operated (S19). When it is determined that there is no possibility of collision (S17: NO), and when it is determined that the collision prediction time TTC is longer than the operation timing Th1 of the controlled object 30 (S18: NO), the controlled object 30 is not operated. .

一方、フュージョン状態FSNではないと判定した場合には(S13:NO)、画像ロストした状態であるか否かを判定する(S20)。画像ロストした状態である場合には(S20:YES)、画像ロスト前に取得したフュージョン物標FT1の信頼度が高いか否かを判定する(S21)。フュージョン物標FT1の信頼度が高い場合には(S21:YES)、画像ロストしてからの経過時間Tpが所定の閾値Th2よりも短いか否かを判定する(S22)。経過時間Tpが閾値Th2よりも短い場合には(S22:YES)、物体が自車両の前方を横断するか否かを判定する(S23)。物体が自車両の前方を横断しないと判定した場合には(S23:NO)、画像物標GTの検出状態が安定しているか否かを判定する(S24)。画像物標GTが安定して検出されていれば(S24:YES)、仮フュージョン物標FT2を生成し(S25)、S16の処理に進む。   On the other hand, when it is determined that it is not the fusion state FSN (S13: NO), it is determined whether or not the image is lost (S20). If the image is lost (S20: YES), it is determined whether the reliability of the fusion target FT1 acquired before the image loss is high (S21). When the reliability of the fusion target FT1 is high (S21: YES), it is determined whether or not an elapsed time Tp after the image is lost is shorter than a predetermined threshold Th2 (S22). When the elapsed time Tp is shorter than the threshold Th2 (S22: YES), it is determined whether or not the object crosses the front of the host vehicle (S23). If it is determined that the object does not cross the front of the host vehicle (S23: NO), it is determined whether the detection state of the image target GT is stable (S24). If the image target GT is detected stably (S24: YES), a temporary fusion target FT2 is generated (S25), and the process proceeds to S16.

このように、S25からS16の処理に進んだ場合には、仮フュージョン物標FT2を用いて物体の位置を検出する。その後、S17で、自車両と物体との衝突判定を行う。なお、仮フュージョン物標FT2が生成される以前には、同じ物体に対してフュージョン物標FT1も生成されている。そこでS17では、フュージョン物標FT1及び仮フュージョン物標FT2の移動軌跡から算出した位置情報を用いて、衝突判定を行うようにしてもよい。   As described above, when the process proceeds from S25 to S16, the position of the object is detected using the temporary fusion target FT2. Thereafter, in S17, the collision determination between the host vehicle and the object is performed. Before the provisional fusion target FT2 is generated, the fusion target FT1 is also generated for the same object. Therefore, in S17, the collision determination may be performed using the position information calculated from the movement trajectories of the fusion target FT1 and the temporary fusion target FT2.

なお、画像ロストではないと判定した場合(S20:NO)、画像ロスト前に取得したフュージョン物標FT1の信頼度が低いと判定した場合(S21:NO)、経過時間Tpが閾値Th2よりも長い場合(S22:NO)、物体が自車両の前方を横断すると判定した場合(S23:YES)、画像ロストした状態となる前に取得した画像物標GTの検出状態が不安定である場合(S24:NO)には、処理を終了する。これらの場合には、仮フュージョン物標FT2は生成されず、物体の位置の検出は終了する。   When it is determined that the image is not lost (S20: NO), when it is determined that the reliability of the fusion target FT1 acquired before the image lost is low (S21: NO), the elapsed time Tp is longer than the threshold Th2. In the case (S22: NO), when it is determined that the object crosses the front of the host vehicle (S23: YES), the detection state of the image target GT acquired before the image is lost is unstable (S24). : NO), the process is terminated. In these cases, the provisional fusion target FT2 is not generated, and the detection of the position of the object ends.

次に上記処理の実行例を図5を用いて説明する。図5では、自車両M1、先行車M2が共に車両前方に進行しており、先行車M2が右折をしている状態が示されている。   Next, an execution example of the above process will be described with reference to FIG. FIG. 5 shows a state where the host vehicle M1 and the preceding vehicle M2 are both traveling forward of the vehicle, and the preceding vehicle M2 is making a right turn.

まず、期間P1において、先行車M2がレーダ22及びカメラ21の両方で検出されている状態では、フュージョン物標FT1によって先行車M2の位置が検出される。そしてこの期間P1の間に、画像物標GTを用いて先行車M2の車幅方向に関する情報(横位置、横速度等)が取得される。またフュージョン物標FT1を用いて、自車両M1との衝突判定が行われる。   First, in the period P1, when the preceding vehicle M2 is detected by both the radar 22 and the camera 21, the position of the preceding vehicle M2 is detected by the fusion target FT1. During this period P1, information (lateral position, lateral speed, etc.) regarding the vehicle width direction of the preceding vehicle M2 is acquired using the image target GT. Further, a collision determination with the host vehicle M1 is performed using the fusion target FT1.

その後、先行車M2が減速しつつ右折をすると、自車両M1に対する相対位置が図示の如く時系列で変化する。そして、先行車M2の右折に伴って、カメラ21が先行車M2の後端部を捉えられなくなるタイミングAで画像ロストの状態となる。画像ロストの状態となると、フュージョン物標FT1の生成に使用した画像物標GTの横位置の履歴に基づき先行車M2の横速度が算出される。   Thereafter, when the preceding vehicle M2 decelerates and makes a right turn, the relative position with respect to the host vehicle M1 changes in time series as illustrated. Then, with the right turn of the preceding vehicle M2, the camera 21 is in an image lost state at a timing A at which the camera 21 cannot catch the rear end portion of the preceding vehicle M2. When the image is lost, the lateral speed of the preceding vehicle M2 is calculated based on the history of the lateral position of the image target GT used to generate the fusion target FT1.

その後、画像ロストしている状態の期間P2では、その期間P2においてレーダ22で検出されたレーダ物標LTと、期間P1において画像物標GTの履歴から求めた先行車M2の横速度と、期間P1において画像ロストの直前に取得した画像物標GTから求めた先行車M2の横位置とを用いて、仮フュージョン物標FT2が生成される。そして、この仮フュージョン物標FT2によって現在の先行車M2の位置が検出され、仮フュージョン物標FT2を用いて衝突判定が行われることとなる。   Thereafter, in the period P2 in the image lost state, the radar target LT detected by the radar 22 in the period P2, the lateral speed of the preceding vehicle M2 obtained from the history of the image target GT in the period P1, and the period The temporary fusion target FT2 is generated using the lateral position of the preceding vehicle M2 obtained from the image target GT acquired immediately before the image lost in P1. Then, the current position of the preceding vehicle M2 is detected by the temporary fusion target FT2, and the collision determination is performed using the temporary fusion target FT2.

上記によれば以下の優れた効果を奏することができる。   According to the above, the following excellent effects can be achieved.

・フュージョン物標FT1で検出されていた自車両前方の物体は、画像物標GTが検出されず、レーダ物標LTのみが検出される画像ロストした状態になったとしても、自車両前方に存在している可能性が高いため、その物体の位置の検出が継続されることが好ましい。しかし、画像ロストした状態では、物体の自車両の幅方向の位置を精度よく特定することができなくなる。そこで、フュージョン物標FT1の生成に使用した画像物標GTの自車両の幅方向の位置を横位置として取得する。また、フュージョン物標FT1の生成に使用した画像物標GTの自車両の幅方向への移動速度を横速度として取得する。そして画像ロストした状態では、前記フュージョン物標の生成に使用した画像物標GTの横位置及び横速度と、フュージョン物標FT1が生成されなくなった後に(画像ロスト後)レーダ22が取得したレーダ物標LTとを用いて仮フュージョン物標FT2を生成し、仮フュージョン物標FT2を用いて物体の位置を検出することとした。この場合、フュージョン物標FT1が生成されなくなったとしても、仮フュージョン物標FT2を用いて、物体の横方向への移動を考慮しつつ、物体の位置の検出を精度よく継続して行うことが可能となる。   The object in front of the host vehicle detected by the fusion target FT1 exists in front of the host vehicle even if the image target GT is not detected and only the radar target LT is detected. Therefore, it is preferable that the detection of the position of the object is continued. However, in the image lost state, the position of the object in the width direction of the host vehicle cannot be specified with high accuracy. Therefore, the position in the width direction of the host vehicle of the image target GT used for generating the fusion target FT1 is acquired as the lateral position. Further, the moving speed of the image target GT used for generating the fusion target FT1 in the width direction of the host vehicle is acquired as the lateral speed. In the image lost state, the radar object acquired by the radar 22 after the lateral position and velocity of the image target GT used for generating the fusion target and the fusion target FT1 are not generated (after the image lost). The temporary fusion target FT2 is generated using the target LT, and the position of the object is detected using the temporary fusion target FT2. In this case, even if the fusion target FT1 is no longer generated, the position of the object can be detected accurately and continuously using the temporary fusion target FT2 in consideration of the lateral movement of the object. It becomes possible.

・フュージョン物標FT1による物体の検出結果の信頼度が高いことを条件に、仮フュージョン物標FT2を生成するようにしたため、画像ロストした状態では、自車両前方に存在する確度の高い物体に限定して、物体の位置の検出を継続することができる。   -Since the provisional fusion target FT2 is generated on the condition that the reliability of the detection result of the object by the fusion target FT1 is high, in the state where the image is lost, it is limited to the object with high accuracy existing in front of the host vehicle. Thus, the detection of the position of the object can be continued.

・フュージョン物標FT1の検出回数が多くなるほど、自車両の前方に物体が存在している確度が高くなることを利用して、物体の検出結果の信頼度を判定することができる。   The reliability of the detection result of the object can be determined by utilizing the fact that the probability that the object exists ahead of the host vehicle increases as the number of detections of the fusion target FT1 increases.

・フュージョン物標FT1として検出された物体の自車両の幅方向への移動が、自車両に接近する方向であり、且つ自車両の前方を横断する場合には、仮フュージョン物標FT2を生成しないことにした。以上により、画像ロストした後に、自車両との衝突可能性のない物体に対して、仮フュージョン物標FT2が生成されることで、不要な制御が行われる等の不都合が発生することを抑えることができる。   If the movement of the object detected as the fusion target FT1 in the width direction of the host vehicle is a direction approaching the host vehicle and crosses the front of the host vehicle, the temporary fusion target FT2 is not generated. It was to be. As described above, after the image is lost, the provisional fusion target FT2 is generated for an object that is not likely to collide with the host vehicle, thereby suppressing the occurrence of inconvenience such as unnecessary control. Can do.

・フュージョン物標FT1が生成されていたとしても、画像物標GTの検出状態(認識)が不安定であると、物体の横位置、横速度等の演算結果の信頼度が低下するおそれがある。そこで、画像物標GTの検出状態が安定していることを条件に、仮フュージョン物標FT2を生成すること。以上により、画像物標GTの検出状態が不安定であることに起因して仮フュージョン物標FT2による物体の位置の検出精度が低下することを抑えることができる。   Even if the fusion target FT1 has been generated, if the detection state (recognition) of the image target GT is unstable, the reliability of the calculation results such as the lateral position and the lateral speed of the object may be reduced. . Therefore, the provisional fusion target FT2 is generated on the condition that the detection state of the image target GT is stable. As described above, it can be suppressed that the detection accuracy of the position of the object by the temporary fusion target FT2 is lowered due to the unstable detection state of the image target GT.

・画像物標GTの横位置の履歴を用いて、物体の横速度を求めることができる。   The lateral velocity of the object can be obtained using the history of the lateral position of the image target GT.

上記の実施形態は例えば次のように変更してもよい。なお以下の説明において上述の構成と同様の構成については同じ図番号を付し、詳述は省略する。   The above embodiment may be modified as follows, for example. In the following description, the same components as those described above are denoted by the same reference numerals, and detailed description thereof is omitted.

・上記の図2において、ECU10の信頼度判定部16、横断判定部17、検出状態判定部18の各処理は省略してもよい。例えば、ECU10は、画像ロスト状態となった際には、これら各処理16〜18に関わらず、仮フュージョン物標FT2を生成してもよい。   -In above-mentioned FIG. 2, you may abbreviate | omit each process of the reliability determination part 16, the crossing determination part 17, and the detection state determination part 18 of ECU10. For example, the ECU 10 may generate the temporary fusion target FT2 regardless of the processes 16 to 18 when the image lost state is entered.

・上記の図2において、各判定部16〜18に関わらず、画像ロストしてからの経過時間が所定時間を超える場合には、物体が存在している確度が低くなるため、仮フュージョン物標FT2を生成しないようにするとよい。この場合、物体が存在している確度が低くなる状況下で、仮フュージョン物標FT2が生成されることにより、不要な制御が行われる等の不都合が生じることを抑えることができる。   In FIG. 2, regardless of each of the determination units 16 to 18, if the elapsed time after the image lost exceeds a predetermined time, the accuracy of the presence of the object is lowered, and therefore the provisional fusion target It is preferable not to generate FT2. In this case, it is possible to suppress the occurrence of inconvenience such as unnecessary control by generating the temporary fusion target FT2 in a situation where the accuracy of the existence of the object is low.

・上記の図2において、信頼度判定部16は、画像ロストした状態となる前に、フュージョン物標FT1の検出回数に応じて、仮フュージョン物標FT2を生成する期間P2を可変設定するものであってもよい。すなわちフュージョン物標FT1の検出回数が多いほど、仮フュージョン物標FT2を生成する期間を長く設定する。以上により、画像ロスト後は、物体が存在する確度に応じて、物体の検出を継続して行うことができる。   In FIG. 2, the reliability determination unit 16 variably sets the period P2 for generating the temporary fusion target FT2 according to the number of detections of the fusion target FT1 before the image is lost. There may be. That is, as the number of detections of the fusion target FT1 increases, the period for generating the temporary fusion target FT2 is set longer. As described above, after the image is lost, the detection of the object can be continuously performed according to the accuracy with which the object exists.

・上記の図2において、信頼度判定部16は、フュージョン物標FT1が検出された期間に応じて信頼度を判定するものであってもよい。すなわちフュージョン物標FT1の検出期間が長いほど、物体の検出結果の信頼度が高いと判定する。この場合にも、画像ロスト状態となった際に、物体が存在する確度に応じて、物体の検出を継続して行うことができる。   -In above-mentioned FIG. 2, the reliability determination part 16 may determine a reliability according to the period when the fusion target FT1 was detected. That is, it is determined that the reliability of the detection result of the object is higher as the detection period of the fusion target FT1 is longer. Also in this case, when the image is lost, the detection of the object can be continuously performed according to the accuracy with which the object exists.

・上記の図2において、信頼度判定部16は、画像ロストしてからの経過時間が所定時間を超える場合には、信頼度が低いと判定してもよい。この場合、物体が存在する確度が低くなる状況下で仮フュージョン物標FT2が継続して生成されることにより、不要な制御が行われる等の不都合が発生することを抑えることができる。   In FIG. 2 described above, the reliability determination unit 16 may determine that the reliability is low when the elapsed time after image loss exceeds a predetermined time. In this case, it is possible to suppress the occurrence of inconveniences such as unnecessary control by continuously generating the temporary fusion target FT2 in a situation where the probability that an object exists is low.

・上記の図2において、信頼度判定部16は、フュージョン条件が成立している際のレーダ物標LTと画像物標GTとの一致度合に基づいて、物体の検出結果の信頼度を判定してもよい。例えば図3において、画像物標GTの検出誤差領域Riと、レーダ物標LTの検出誤差領域Rrとの重複部分が多くなるほど、レーダ物標LTと画像物標GTの一致度合が高いと判定する。そして、レーダ物標LTと画像物標GTとの一致度合が高くなるほど、仮フュージョン物標FT2を生成する期間を長く設定する。この場合、レーダ物標LTと画像物標GTとの一致度合が高いほど物体が存在している確度が高くなることを利用して、物体の検出結果の信頼度を判定することができる。   In FIG. 2, the reliability determination unit 16 determines the reliability of the detection result of the object based on the degree of coincidence between the radar target LT and the image target GT when the fusion condition is satisfied. May be. For example, in FIG. 3, it is determined that the degree of coincidence between the radar target LT and the image target GT increases as the overlapping portion between the detection error region Ri of the image target GT and the detection error region Rr of the radar target LT increases. . Then, as the degree of coincidence between the radar target LT and the image target GT increases, the period for generating the temporary fusion target FT2 is set longer. In this case, the reliability of the detection result of the object can be determined using the fact that the higher the degree of coincidence between the radar target LT and the image target GT, the higher the probability that the object exists.

・ECU10は、フュージョン物標FT1の生成に使用した画像物標GTを用いて、物体の車幅方向(横方向)への加速度(横加速度)を算出する横加速度算出部を備えており、仮フュージョン物標生成部15は、横加速度算出部が算出した横加速度を考慮して仮フュージョン物標FT2を生成するものであってもよい。なお横加速度は、横速度算出部14bが算出した横速度の変化量として算出できる。   The ECU 10 includes a lateral acceleration calculation unit that calculates acceleration (lateral acceleration) in the vehicle width direction (lateral direction) of the object using the image target GT used to generate the fusion target FT1. The fusion target generation unit 15 may generate the temporary fusion target FT2 in consideration of the lateral acceleration calculated by the lateral acceleration calculation unit. The lateral acceleration can be calculated as a change amount of the lateral velocity calculated by the lateral velocity calculation unit 14b.

画像物標GTの横加速度を考慮することで、自車両と物体との接近状態を加味して仮フュージョン物標FT2を生成することができ、仮フュージョン物標FT2による物体の横方向の位置の算出精度を高めることができる。ただしこの場合には、横速度と横加速度の方向(ベクトル)が不一致であると、物体の横位置を正しく求めることができなくなる可能性ある。そこで仮フュージョン物標生成部15は、横速度と横加速度の方向が一致していることを条件に、横速度及び横加速度を用いて仮フュージョン物標FT2を生成するとよい。自車両と物体とが接近状態であり、且つ物標の横速度及び横加速度が一致することを条件に、仮フュージョン物標FT2を生成することで、自車両と物体との衝突可能性が高い場合に仮フュージョン物標FT2を用いて物体の位置を継続して検出することができる。   By considering the lateral acceleration of the image target GT, the temporary fusion target FT2 can be generated in consideration of the approach state between the host vehicle and the object, and the lateral position of the object by the temporary fusion target FT2 can be generated. Calculation accuracy can be increased. However, in this case, if the direction (vector) of the lateral velocity and the lateral acceleration do not match, the lateral position of the object may not be obtained correctly. Therefore, the provisional fusion target generation unit 15 may generate the provisional fusion target FT2 using the lateral velocity and the lateral acceleration on the condition that the direction of the lateral velocity and the lateral acceleration coincide with each other. By generating the temporary fusion target FT2 on the condition that the own vehicle and the object are in an approaching state and the lateral velocity and the lateral acceleration of the target coincide with each other, the possibility of collision between the own vehicle and the object is high. In this case, the position of the object can be continuously detected using the temporary fusion target FT2.

・上記の図2において、仮フュージョン物標生成部15は、横断判定部17によって、物体が自車両の前方を横切ると判定される場合には、仮フュージョン物標FT2を生成しないとした。しかし、物体が自車両の前方を横切るタイミングで、物体と自車両との進行方向の距離が短くなる場合には、物体に対する何等かの警告が行われてもよい。そこで仮フュージョン物標生成部15は、横断判定部17によって、物体が自車両の前方を横切ると判定された場合、物体が自車両の前方を横切る際の物体と自車両との距離が所定未満となる場合には、横断判定部17の判定結果を無効にする。すなわち、物体が自車両の前方を横切ると判定されていたとしても、仮フュージョン物標FT2の生成が許可されてもよい。またこの場合には、自車両と物体との接近状態(相対速度)に応じて、物体が自車両の前方を横切る際の物体と自車両との距離の閾値が可変設定されてもよい。   In FIG. 2 described above, the provisional fusion target generation unit 15 does not generate the provisional fusion target FT2 when the crossing determination unit 17 determines that the object crosses the front of the host vehicle. However, if the distance in the traveling direction between the object and the host vehicle becomes shorter at the timing when the object crosses the front of the host vehicle, some warning may be given to the object. Therefore, when the crossing determination unit 17 determines that the object crosses the front of the host vehicle, the temporary fusion target generation unit 15 determines that the distance between the object and the host vehicle when the object crosses the front of the host vehicle is less than a predetermined value. In such a case, the determination result of the crossing determination unit 17 is invalidated. That is, even if it is determined that the object crosses the front of the host vehicle, the generation of the temporary fusion target FT2 may be permitted. In this case, the threshold value of the distance between the object and the host vehicle when the object crosses the front of the host vehicle may be variably set according to the approach state (relative speed) between the host vehicle and the object.

・上記において、自車両が前方の停止車両を操舵で避ける場合にも、画像ロストの状態となる可能性がある。そこでECU10は、自車両の操舵角又はヨーレートセンサ出力から推定される自車両のカーブ半径を推定し、画像ロストの状態での物体の横位置を補正してもよい。   -In the above, even when the host vehicle avoids a stopped vehicle ahead by steering, there is a possibility that the image is lost. Therefore, the ECU 10 may estimate the curve radius of the host vehicle estimated from the steering angle of the host vehicle or the yaw rate sensor output, and correct the lateral position of the object in the image lost state.

11…画像物標取得部、12…レーダ物標取得部、13…フュージョン物標生成部、14a…横位置取得部、16…信頼度判定部、19…位置検出部、21…カメラ。   DESCRIPTION OF SYMBOLS 11 ... Image target acquisition part, 12 ... Radar target acquisition part, 13 ... Fusion target production | generation part, 14a ... Lateral position acquisition part, 16 ... Reliability determination part, 19 ... Position detection part, 21 ... Camera.

Claims (12)

自車両の前方に取り付けられたレーダ(22)によって検出された前記自車両の前方の物体を示すレーダ物標を取得するレーダ物標取得部(12)と、
前記自車両の前方に取り付けられた撮影装置(21)によって検出された前記物体を示す画像物標を取得する画像物標取得部(11)と、
前記レーダ物標と前記画像物標とが同一の前記物体から生成されたものである場合に、前記レーダ物標と前記画像物標とを統合してフュージョン物標を生成するフュージョン物標生成部(13)と、
前記フュージョン物標の生成に使用した前記画像物標の前記自車両の幅方向の位置を横位置として取得する横位置取得部(14a)と、
前記フュージョン物標の生成に使用した前記画像物標の前記自車両の幅方向への移動速度を横速度として算出する横速度算出部(14b)と、
前記レーダ物標が取得される一方で前記画像物標が取得されなくなることで前記フュージョン物標が生成されなくなった場合に、前記フュージョン物標の生成に使用した前記画像物標の前記横位置及び前記横速度と、前記レーダ物標取得部が取得した前記レーダ物標とを用いて仮フュージョン物標を生成する仮フュージョン物標生成部(15)と、
前記フュージョン物標又は前記仮フュージョン物標を用いて前記物体の位置を検出する位置検出部(19)と、
を備えることを特徴とする物体検出装置。
A radar target acquisition unit (12) for acquiring a radar target indicating an object in front of the host vehicle detected by a radar (22) mounted in front of the host vehicle;
An image target acquisition unit (11) for acquiring an image target indicating the object detected by the imaging device (21) attached in front of the host vehicle;
A fusion target generation unit that generates a fusion target by integrating the radar target and the image target when the radar target and the image target are generated from the same object. (13)
A lateral position acquisition unit (14a) that acquires a position in the width direction of the host vehicle of the image target used for generating the fusion target as a lateral position;
A lateral speed calculation unit (14b) that calculates, as a lateral speed, a moving speed of the image target used for generating the fusion target in the width direction of the host vehicle;
When the radar target is acquired and the image target is not acquired, and thus the fusion target is not generated, the lateral position of the image target used for generating the fusion target and A temporary fusion target generating unit (15) that generates a temporary fusion target using the lateral velocity and the radar target acquired by the radar target acquiring unit;
A position detector (19) for detecting the position of the object using the fusion target or the temporary fusion target;
An object detection apparatus comprising:
前記フュージョン物標による前記物体の検出結果の信頼度を判定する信頼度判定部(16)を備え、
前記仮フュージョン物標生成部は、前記信頼度が高いと判定されたことを条件に、前記仮フュージョン物標を生成する請求項1に記載の物体検出装置。
A reliability determination unit (16) for determining the reliability of the detection result of the object by the fusion target;
The object detection device according to claim 1, wherein the temporary fusion target generation unit generates the temporary fusion target on the condition that the reliability is determined to be high.
前記信頼度判定部は、前記フュージョン物標の検出回数が多いほど前記信頼度が高いと判定する請求項2に記載の物体検出装置。   The object detection apparatus according to claim 2, wherein the reliability determination unit determines that the reliability is higher as the number of detections of the fusion target is larger. 前記信頼度判定部は、前記フュージョン物標の生成に用いた前記レーダ物標により特定される前記物体の位置と、同一の前記フュージョン物標の生成に用いた前記画像物標により特定される前記物体の位置との一致度合いが高いほど前記信頼度が高いと判定する請求項2又は3に記載の物体検出装置。   The reliability determination unit is specified by the position of the object specified by the radar target used for generating the fusion target and the image target used for generating the same fusion target. The object detection apparatus according to claim 2, wherein the higher the degree of coincidence with the position of the object, the higher the reliability is determined. 前記仮フュージョン物標生成部は、前記信頼度が高くなるほど前記仮フュージョン物標を生成する期間を長く設定する請求項2〜4のいずれか1項に記載の物体検出装置。   The object detection device according to claim 2, wherein the temporary fusion target generation unit sets a period for generating the temporary fusion target to be longer as the reliability is higher. 前記仮フュージョン物標生成部は、前記フュージョン物標が生成されなくなってからの経過時間が所定時間を超える場合には、前記仮フュージョン物標を生成しない請求項1〜5のいずれか1項に記載の物体検出装置。   The temporary fusion target generation unit does not generate the temporary fusion target when the elapsed time since the fusion target is no longer generated exceeds a predetermined time. The object detection apparatus described. 前記フュージョン物標として検出された前記物体の自車両の幅方向への移動が前記自車両に接近する方向である場合に、前記物体が前記自車両の前方を横断するか否かを判定する横断判定部(17)を備え、
前記仮フュージョン物標生成部は、前記物体が前記自車両の前方を横断すると判定される場合には、前記仮フュージョン物標を生成しない請求項1〜6のいずれか1項に記載の物体検出装置。
Crossing for determining whether or not the object crosses the front of the host vehicle when the movement of the object detected as the fusion target in the width direction of the host vehicle is a direction approaching the host vehicle. A determination unit (17);
The object detection according to claim 1, wherein the provisional fusion target generation unit does not generate the provisional fusion target when it is determined that the object crosses the front of the host vehicle. apparatus.
前記画像物標の検出状態が安定しているか否かを判定する検出状態判定部(18)を備え、
前記仮フュージョン物標生成部は、前記画像物標の検出状態が安定していると判定されたことを条件に、前記仮フュージョン物標を生成する請求項1〜7のいずれか1項に記載の物体検出装置。
A detection state determination unit (18) for determining whether or not the detection state of the image target is stable;
The said temporary fusion target production | generation part produces | generates the said temporary fusion target on the conditions that it determined with the detection state of the said image target being stable. Object detection device.
前記横速度算出部は、前記横位置取得部によって前記横位置が取得された履歴に基づいて、前記物体の横速度を取得する請求項1〜8のいずれか1項に記載の物体検出装置。   9. The object detection device according to claim 1, wherein the lateral velocity calculation unit acquires a lateral velocity of the object based on a history of acquisition of the lateral position by the lateral position acquisition unit. 前記フュージョン物標の生成に使用した前記画像物標が前記自車両の幅方向へ移動する際の加速度である横加速度を求める横加速度算出部(10)を備え、
前記仮フュージョン物標生成部は、前記画像物標の前記横加速度を用いて前記仮フュージョン物標を生成する請求項1〜9のいずれか1項に記載の物体検出装置。
A lateral acceleration calculation unit (10) for obtaining a lateral acceleration which is an acceleration when the image target used for generating the fusion target moves in the width direction of the host vehicle;
The object detection device according to claim 1, wherein the temporary fusion target generation unit generates the temporary fusion target using the lateral acceleration of the image target.
前記仮フュージョン物標生成部は、前記横速度及び前記横加速度の方向が一致しており、かつ前記物体と前記自車両とが接近状態であることを条件に、前記仮フュージョン物標を生成する請求項10に記載の物体検出装置。   The temporary fusion target generation unit generates the temporary fusion target on the condition that the directions of the lateral velocity and the lateral acceleration coincide and the object and the host vehicle are in an approaching state. The object detection apparatus according to claim 10. 自車両の前方に取り付けられたレーダ(22)によって検出された前記自車両の前方の物体を示すレーダ物標を取得するステップと、
前記自車両の前方に取り付けられた撮影装置(21)によって検出された前記物体を示す画像物標を取得するステップと、
前記レーダ物標と前記画像物標とが同一の前記物体から生成されたものである場合に、前記レーダ物標と前記画像物標とを統合してフュージョン物標を生成するステップと、
前記フュージョン物標の生成に使用した前記画像物標の前記自車両の幅方向の位置を横位置として取得するステップと、
前記フュージョン物標の生成に使用した前記画像物標の前記自車両の幅方向への移動速度を横速度として取得するステップと、
前記レーダ物標が取得される一方で前記画像物標が取得されなくなることで前記フュージョン物標が生成されなくなった場合に、前記フュージョン物標の生成に使用した前記画像物標の前記横位置及び前記横速度と、前記フュージョン物標が生成されなくなった後に取得された前記レーダ物標とを用いて仮フュージョン物標を生成するステップと、
前記フュージョン物標又は前記仮フュージョン物標を用いて前記物体の位置を検出するステップと、
を備えることを特徴とする物体検出方法。
Obtaining a radar target indicative of an object ahead of the host vehicle detected by a radar (22) mounted in front of the host vehicle;
Obtaining an image target indicating the object detected by the photographing device (21) attached in front of the host vehicle;
When the radar target and the image target are generated from the same object, the step of integrating the radar target and the image target to generate a fusion target;
Obtaining a position in the width direction of the host vehicle of the image target used for generating the fusion target as a lateral position;
Acquiring a moving speed of the image target used for generating the fusion target in the width direction of the host vehicle as a lateral speed;
When the radar target is acquired and the image target is not acquired, and thus the fusion target is not generated, the lateral position of the image target used for generating the fusion target and Generating a temporary fusion target using the lateral velocity and the radar target acquired after the fusion target is no longer generated;
Detecting the position of the object using the fusion target or the temporary fusion target;
An object detection method comprising:
JP2016244040A 2016-12-16 2016-12-16 Object detection device and object detection method Active JP6855776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016244040A JP6855776B2 (en) 2016-12-16 2016-12-16 Object detection device and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016244040A JP6855776B2 (en) 2016-12-16 2016-12-16 Object detection device and object detection method

Publications (2)

Publication Number Publication Date
JP2018097765A true JP2018097765A (en) 2018-06-21
JP6855776B2 JP6855776B2 (en) 2021-04-07

Family

ID=62633737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016244040A Active JP6855776B2 (en) 2016-12-16 2016-12-16 Object detection device and object detection method

Country Status (1)

Country Link
JP (1) JP6855776B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109946661A (en) * 2019-04-26 2019-06-28 陕西师范大学 A kind of trailer-mounted radar data processing algorithm verifying system
JP2020027415A (en) * 2018-08-10 2020-02-20 トヨタ自動車株式会社 Object recognition device
KR20200040149A (en) * 2018-10-08 2020-04-17 주식회사 만도 Apparatus and method for detecting target and, apparatus and method for controlling vehicle
JPWO2020235466A1 (en) * 2019-05-23 2020-11-26
JP2021064158A (en) * 2019-10-14 2021-04-22 株式会社デンソー Object detection device, object detection method, and object detection program
CN112924960A (en) * 2021-01-29 2021-06-08 重庆长安汽车股份有限公司 Target size real-time detection method, system, vehicle and storage medium
CN114475517A (en) * 2020-11-11 2022-05-13 郑州宇通客车股份有限公司 Vehicle safety control method and device
CN115421136A (en) * 2022-07-28 2022-12-02 广西北投信创科技投资集团有限公司 Vehicle detection system and detection method thereof
KR20230052704A (en) * 2021-10-13 2023-04-20 한국자동차연구원 Adaptive intervention determination method of vehicle accident avoidance system
WO2023114409A1 (en) * 2021-12-17 2023-06-22 Zoox, Inc. Track confidence model

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006292621A (en) * 2005-04-13 2006-10-26 Toyota Motor Corp Object detection apparatus
JP2007226680A (en) * 2006-02-24 2007-09-06 Toyota Motor Corp Object detection system
JP2007310741A (en) * 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd Solid object recognition device
JP2011053139A (en) * 2009-09-03 2011-03-17 Toyota Motor Corp Object detection device
JP2014006123A (en) * 2012-06-22 2014-01-16 Toyota Motor Corp Object detection device, information processing device, and object detection method
JP2014139756A (en) * 2013-01-21 2014-07-31 Toyota Motor Corp Drive assist device
JP2014222462A (en) * 2013-05-14 2014-11-27 株式会社デンソー Crash mitigation device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006292621A (en) * 2005-04-13 2006-10-26 Toyota Motor Corp Object detection apparatus
JP2007226680A (en) * 2006-02-24 2007-09-06 Toyota Motor Corp Object detection system
JP2007310741A (en) * 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd Solid object recognition device
JP2011053139A (en) * 2009-09-03 2011-03-17 Toyota Motor Corp Object detection device
JP2014006123A (en) * 2012-06-22 2014-01-16 Toyota Motor Corp Object detection device, information processing device, and object detection method
JP2014139756A (en) * 2013-01-21 2014-07-31 Toyota Motor Corp Drive assist device
JP2014222462A (en) * 2013-05-14 2014-11-27 株式会社デンソー Crash mitigation device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020027415A (en) * 2018-08-10 2020-02-20 トヨタ自動車株式会社 Object recognition device
US11247671B2 (en) 2018-08-10 2022-02-15 Toyota Jidosha Kabushiki Kaisha Object recognition device
JP7063184B2 (en) 2018-08-10 2022-05-09 トヨタ自動車株式会社 Object recognition device
KR20200040149A (en) * 2018-10-08 2020-04-17 주식회사 만도 Apparatus and method for detecting target and, apparatus and method for controlling vehicle
KR102612335B1 (en) * 2018-10-08 2023-12-12 주식회사 에이치엘클레무브 Apparatus and method for detecting target and, apparatus and method for controlling vehicle
CN109946661A (en) * 2019-04-26 2019-06-28 陕西师范大学 A kind of trailer-mounted radar data processing algorithm verifying system
JPWO2020235466A1 (en) * 2019-05-23 2020-11-26
WO2020235466A1 (en) * 2019-05-23 2020-11-26 日立オートモティブシステムズ株式会社 Vehicle control system and vehicle control method
DE112020002037T5 (en) 2019-05-23 2022-03-24 Hitachi Astemo, Ltd. Vehicle control system and vehicle control method
JP7181997B2 (en) 2019-05-23 2022-12-01 日立Astemo株式会社 Vehicle control system and vehicle control method
JP7334572B2 (en) 2019-10-14 2023-08-29 株式会社デンソー Object detection device and object detection program
JP2021064158A (en) * 2019-10-14 2021-04-22 株式会社デンソー Object detection device, object detection method, and object detection program
CN114475517A (en) * 2020-11-11 2022-05-13 郑州宇通客车股份有限公司 Vehicle safety control method and device
CN112924960B (en) * 2021-01-29 2023-07-18 重庆长安汽车股份有限公司 Target size real-time detection method, system, vehicle and storage medium
CN112924960A (en) * 2021-01-29 2021-06-08 重庆长安汽车股份有限公司 Target size real-time detection method, system, vehicle and storage medium
KR20230052704A (en) * 2021-10-13 2023-04-20 한국자동차연구원 Adaptive intervention determination method of vehicle accident avoidance system
KR102643361B1 (en) * 2021-10-13 2024-03-07 한국자동차연구원 Adaptive intervention determination method of vehicle accident avoidance system
WO2023114409A1 (en) * 2021-12-17 2023-06-22 Zoox, Inc. Track confidence model
US11814084B2 (en) 2021-12-17 2023-11-14 Zoox, Inc. Track confidence model
CN115421136A (en) * 2022-07-28 2022-12-02 广西北投信创科技投资集团有限公司 Vehicle detection system and detection method thereof

Also Published As

Publication number Publication date
JP6855776B2 (en) 2021-04-07

Similar Documents

Publication Publication Date Title
JP6855776B2 (en) Object detection device and object detection method
CN107408345B (en) Method and device for determining presence of target object
JP5862785B2 (en) Collision determination device and collision determination method
US9460627B2 (en) Collision determination device and collision mitigation device
JP6493196B2 (en) Control device and control method
EP3141926A1 (en) Automated detection of hazardous drifting vehicles by vehicle sensors
JP5884912B2 (en) Collision determination device and collision determination method
WO2016158944A1 (en) Vehicle control device and vehicle control method
JP7018277B2 (en) Object detection device, object detection method and vehicle control system
JP2018097687A (en) Vehicle control device, vehicle control method
JP6477453B2 (en) Object detection device and object detection method
JP2017010539A (en) Vehicle control device and vehicle control method
US10787170B2 (en) Vehicle control method and apparatus
WO2016186124A1 (en) Device and method for controlling vehicle
JP2017111684A (en) Controller, and control method
JP2016224563A (en) Vehicle control device and vehicle control method
US10839232B2 (en) Vehicle control method and apparatus
US10996317B2 (en) Object detection apparatus and object detection method
JP6601362B2 (en) Movement detector
WO2017138329A1 (en) Collision prediction device
JP2020134981A (en) Driving assistance device
US11420624B2 (en) Vehicle control apparatus and vehicle control method
JP2006004188A (en) Obstacle recognition method and obstacle recognition device
US11407390B2 (en) Vehicle control apparatus and vehicle control method
JP7328863B2 (en) Control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210301

R151 Written notification of patent or utility model registration

Ref document number: 6855776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250