JP2018097765A - Object detection device and object detection method - Google Patents
Object detection device and object detection method Download PDFInfo
- Publication number
- JP2018097765A JP2018097765A JP2016244040A JP2016244040A JP2018097765A JP 2018097765 A JP2018097765 A JP 2018097765A JP 2016244040 A JP2016244040 A JP 2016244040A JP 2016244040 A JP2016244040 A JP 2016244040A JP 2018097765 A JP2018097765 A JP 2018097765A
- Authority
- JP
- Japan
- Prior art keywords
- target
- image
- fusion
- fusion target
- radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 90
- 230000004927 fusion Effects 0.000 claims abstract description 172
- 238000003384 imaging method Methods 0.000 claims abstract description 3
- 230000001133 acceleration Effects 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、自車両前方の物体を物標として検出する物体検出装置、及び物体検出方法に関する。 The present invention relates to an object detection device and an object detection method for detecting an object in front of a host vehicle as a target.
レーダ及びカメラを用いることで自車両の周囲に存在する物体の検出精度を高める技術が知られている。詳しくは、レーダによって検出された物体を示すレーダ物標を取得し、カメラによって検出された物体を示す画像物標を取得する。そして、レーダ物標及び画像物標が同一の物体から生成されたものであると判定されたことを条件に、レーダ物標及び画像物標を統合して新たな物標(以下、フュージョン物標と称する)を生成し、このフュージョン物標によって物体の位置を検出している。 A technique for increasing the detection accuracy of an object existing around the host vehicle by using a radar and a camera is known. Specifically, a radar target indicating an object detected by the radar is acquired, and an image target indicating the object detected by the camera is acquired. Then, on the condition that the radar target and the image target are determined to be generated from the same object, the radar target and the image target are integrated to form a new target (hereinafter, fusion target). The position of the object is detected by this fusion target.
しかし、自車両の走行環境によっては、カメラによる物体の検出精度が低下することがあり、物体を画像物標として一時的に検出できなくなる画像ロストの状態となることがあった。画像ロストの状態となると、本来は検出対象となる自車両前方の物体に対してフュージョン物標が生成されなくなり、物体に対する車両制御を行えなくなる等の不都合が生じてしまうおそれがある。 However, depending on the traveling environment of the host vehicle, the detection accuracy of the object by the camera may be reduced, and the image may be in a lost state where the object cannot be temporarily detected as an image target. When the image is lost, there is a possibility that a fusion target is not generated for an object in front of the subject vehicle, which is a detection target, and that the vehicle cannot be controlled with respect to the object.
そこで、特許文献1では、画像ロストした場合には、過去に取得したフュージョン物標の大きさ情報に対して1よりも小さい係数を掛けることで、過去に取得したフュージョン物標の大きさ情報よりも小さい大きさ情報を有する仮フュージョン物標を生成する。そしてこの仮フュージョン物標を用いて物体の位置の検出結果を更新している。 Therefore, in Patent Document 1, when the image is lost, the size information of the fusion target acquired in the past is multiplied by a coefficient smaller than 1 to obtain the size information of the fusion target acquired in the past. A temporary fusion target having a small size information is generated. And the detection result of the position of an object is updated using this temporary fusion target.
しかし、特許文献1では、物体の自車両の幅方向への移動が考慮されていない。そのため、例えば物体が先行車であり、先行車の方向転換に伴って画像ロストした状態となった場合には、仮フュージョン物標の位置と実際の物体の位置との間にずれが生じるおそれがあった。 However, Patent Document 1 does not consider the movement of the object in the width direction of the host vehicle. Therefore, for example, if the object is a preceding vehicle and the image is lost due to the direction change of the preceding vehicle, there is a possibility that a deviation may occur between the position of the temporary fusion target and the position of the actual object. there were.
本発明は上記に鑑みてなされたものであり、画像ロストした状態となることで、フュージョン物標が生成されなくなったとしても、フュージョン物標で特定されていた物体の位置の検出を精度よく継続できる物体検出装置、及び物体検出方法を提供することを主たる目的とする。 The present invention has been made in view of the above, and even when the fusion target is no longer generated due to the image lost state, the detection of the position of the object specified by the fusion target is accurately continued. An object of the present invention is to provide an object detection device and an object detection method.
本発明は、自車両の前方に取り付けられたレーダ(22)によって検出された前記自車両の前方の物体を示すレーダ物標を取得するレーダ物標取得部(12)と、前記自車両の前方に取り付けられた撮影装置(21)によって検出された前記物体を示す画像物標を取得する画像物標取得部(11)と、前記レーダ物標と前記画像物標とが同一の前記物体から生成されたものである場合に、前記レーダ物標と前記画像物標とを統合してフュージョン物標を生成するフュージョン物標生成部(13)と、前記フュージョン物標の生成に使用した前記画像物標の前記自車両の幅方向の位置を横位置として取得する横位置取得部(14a)と、前記フュージョン物標の生成に使用した前記画像物標の前記自車両の幅方向への移動速度を横速度として算出する横速度算出部(14b)と、前記レーダ物標が取得される一方で前記画像物標が取得されなくなることで前記フュージョン物標が生成されなくなった場合に、前記フュージョン物標の生成に使用した前記画像物標の前記横位置及び横速度と、前記レーダ物標取得部が取得した前記レーダ物標とを用いて仮フュージョン物標を生成する仮フュージョン物標生成部(15)と、前記フュージョン物標又は前記仮フュージョン物標を用いて前記物体の位置を検出する位置検出部(19)と、を備えることを特徴とする。 The present invention includes a radar target acquisition unit (12) that acquires a radar target indicating an object in front of the host vehicle detected by a radar (22) attached in front of the host vehicle, and a front side of the host vehicle. An image target acquisition unit (11) for acquiring an image target indicating the object detected by the imaging device (21) attached to the image sensor, and the radar target and the image target are generated from the same object. A fusion target generation unit (13) for generating a fusion target by integrating the radar target and the image target, and the image target used for generating the fusion target. A horizontal position acquisition unit (14a) that acquires a position of the target in the width direction of the host vehicle as a horizontal position, and a moving speed of the image target used for generating the fusion target in the width direction of the host vehicle. Calculate as lateral speed And a lateral velocity calculation unit (14b) that is used to generate the fusion target when the radar target is acquired and the image target is not acquired and the fusion target is not generated. A temporary fusion target generator (15) that generates a temporary fusion target using the lateral position and velocity of the image target and the radar target acquired by the radar target acquisition unit; A position detection unit (19) for detecting the position of the object using a fusion target or the provisional fusion target.
本発明によれば、レーダ物標が取得される一方で画像物標が取得されなくなることでフュージョン物標が生成されなくなる画像ロストの状態になった場合には、フュージョン物標の生成に使用した画像物標の横位置及び横速度と、レーダ物標取得部が取得したレーダ物標とを用いて仮フュージョン物標を生成し、仮フュージョン物標を用いて物体の位置を検出することとした。この場合、画像ロストによりフュージョン物標が生成されなくなったとしても、物体の横方向への移動を考慮しつつ、物体の位置の検出を精度よく継続することが可能となる。 According to the present invention, the radar target is acquired, but when the image target is not acquired, the fusion target is not generated. A temporary fusion target is generated using the lateral position and velocity of the image target and the radar target acquired by the radar target acquisition unit, and the position of the object is detected using the temporary fusion target. . In this case, even if the fusion target is no longer generated due to the image lost, it is possible to continue the detection of the position of the object with high accuracy while considering the movement of the object in the lateral direction.
以下、各実施形態を図面に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。 Hereinafter, each embodiment will be described with reference to the drawings. In the following embodiments, parts that are the same or equivalent to each other are denoted by the same reference numerals in the drawings, and the description of the same reference numerals is used.
本実施形態に係る車両制御システム100は、自車両に搭載され、自車両の周囲に存在する物体を物標として検出し、自車両と物体との衝突を回避又は軽減すべく各種制御を行うPCS(Pre-crash safety system)として機能する。
The
図1において、車両制御システム100は、ECU10、各種センサ20、被制御対象30を備えて構成されている。本実施形態では各種センサ20として、カメラ21、レーダ22、車速センサ23を備えている。また、被制御対象30として、スピーカ、シートベルト、ブレーキ等の周知の安全装置を備えている。
In FIG. 1, the
カメラ21は、CCDやCMOS等の撮像素子を備えており、フロントガラスの上端付近等、自車両の前方に設置されており、自車両の前方を所定の画角で撮像する。カメラ21が取得した撮像画像は画像信号としてECU10に出力される。
The
レーダ22は、ミリ波レーダ、レーザレーダ、超音波レーダ等の周知のレーダであり、自車両のフロントバンパ又はフロントグリルにおいてその光軸が車両前方を向くように取り付けられている。レーダ22は、レーダ波を水平面内でスキャンしながら自車両から前方に向けて送信する。そして、物体によって反射されたレーダ波を受信することによって、レーダ波を反射した物体との距離、方位および相対速度等をレーダ信号として取得する。そして、取得したレーダ信号をECU10に出力する。
The
車速センサ23は、自車両の車輪に動力を伝達する回転軸に設けられており、その回転軸の回転速度に基づいて、自車両の速度である自車速を求める。
The
ECU10は、車両制御システム100全体の制御を行う電子制御ユニットであり、CPUを主体として構成され、ROM、RAM、入出力インターフェース等を備えている。ECU10のこれから述べる各種機能は、CPUが、ROMに格納されているプログラムを実行することで実現される。また、ECU10が取得した各種データの履歴は、RAMに記憶される。
The ECU 10 is an electronic control unit that controls the entire
図2に示すように、ECU10は、画像物標取得部11、レーダ物標取得部12、フュージョン物標生成部13、横位置取得部14a、横速度算出部14b、仮フュージョン物標生成部15、信頼度判定部16、横断判定部17、検出状態判定部18、位置検出部19、衝突判定部40の各機能を備えている。
As shown in FIG. 2, the ECU 10 includes an image
画像物標取得部11は、画像信号の表す撮影画像を画像解析することで検出される物体を、画像物標GTとして取得する。例えば、予め登録されている物標モデルを用いたマッチング処理で画像物標GTを取得する。物標モデルは、画像物標GTの種類ごとに用意されており、これにより画像物標GTの種類も特定される。画像物標GTの種類としては、四輪車両、二輪車、歩行者、ガードレール等の障害物等が挙げられる。
The image
また、画像物標取得部11は、撮影画像を解析することで、画像物標GTの自車両の幅方向の位置である横位置、画像物標GTの大きさ(横幅)画像物標GTの自車両に対する方位を取得する。更には、画像物標取得部11は、取得した画像物標GTの位置情報を、図3に示す座標(XY平面)に当てはめることにより、自車両に対する画像物標GTの位置(検出点Pi)を特定する。図3のXY平面は、自車両の幅方向(横方向)をX軸、自車両の車長方向(前方方向)をY軸、として設定されたものであり、このXY平面では、自車両の先端位置(レーダ22が設けられた位置)が基準点Poとして設定されている。
In addition, the image
また図3に示すように、画像物標取得部11は、画像物標GTの検出位置に含まれる誤差に対応するために、画像物標GTの検出誤差領域Riを設定している。詳しくは、画像物標GTの検出点Pi(Xi,Yi)を中心として、車長方向(Y方向)及び横方向(X方向)に所定の誤差分の幅を持たせた領域を、画像物標GTの検出誤差領域Riとして設定している。
As shown in FIG. 3, the image
レーダ物標取得部12は、レーダ信号に基づき検出される物体をレーダ物標LTとして取得する。また、レーダ物標取得部12は、レーダ信号を解析することで、レーダ物標LTの距離に関する情報を取得する。距離に関する情報としては、レーダ物標LTの相対距離、相対速度、相対加速度等がある。更には、レーダ物標取得部12は、取得したレーダ物標LTの位置情報を、図3に示す座標(XY平面)に当てはめることにより、自車両に対するレーダ物標LTの位置(検出点Pr)を特定する。
The radar
また図3に示すように、レーダ物標取得部12は、レーダ物標LTの検出位置に含まれる誤差に対応するために、レーダ物標LTの検出誤差領域Rrを設定している。詳しくは、レーダ物標LTの検出点Pr(Xr,Yr)を中心として、車長方向(Y方向)及び横方向(X方向)に所定の誤差分の幅を持たせた領域を、レーダ物標LTの検出誤差領域Rrとして設定している。
Further, as shown in FIG. 3, the radar
フュージョン物標生成部13は、画像物標取得部11が取得した画像物標GTと、レーダ物標取得部12が取得したレーダ物標LTとが同一の物体から生成されたものであるか否か、すなわちフュージョン条件が成立しているか否かを判定する。本実施形態では、図3の検出誤差領域Riと検出誤差領域Rrとに重複部分がある場合に、フュージョン条件が成立していると判定する。一方、検出誤差領域Riと検出誤差領域Rrとに重複部分が無い場合には、フュージョン条件が不成立であると判定する。
The fusion
フュージョン物標生成部13は、フュージョン条件が成立している場合には、画像物標GT及びレーダ物標LTを統合して新たにフュージョン物標FT1を生成し、このフュージョン物標FT1によって物体の位置を検出する。この際、画像物標GTとレーダ物標LTとが備える位置情報のうち、精度の高い方の情報を用いてフュージョン物標FT1が生成されるとよい。すなわち、自車両の車長方向における物体の位置は、レーダ物標LTまでの距離や、レーダ物標LTとの相対速度を用いて特定する。自車両の横方向における物体の位置は、画像物標GTの大きさ(横幅)や横位置、方位を用いて特定する。以上により、図3の例では、画像物標GTの横方向の位置(Xi)及びレーダ物標LTの車長方向の位置(Yr)によって、フュージョン物標FT1の座標(Xi、Yr)が特定されることとなる。
When the fusion condition is satisfied, the fusion
このように、レーダ物標LTに関する情報と、画像物標GTに関する情報とのうちで、精度が高い方の情報を利用してフュージョン物標FT1を生成することで、フュージョン物標FT1を用いた物体の位置の検出精度を高めることができる。 As described above, the fusion target FT1 is used by generating the fusion target FT1 using the information with higher accuracy among the information regarding the radar target LT and the information regarding the image target GT. The detection accuracy of the position of the object can be increased.
ところで、物体が先行車であって、先行車が方向転換(車線変更や右左折等)をする場合には、カメラ21が捉える車両後部の形態が次第に変化するため、マッチング処理で画像物標GTが検出されなくなってしまう。なお、以下の説明において、このようにフュージョン物標FT1が検出されている状態(フュージョン状態FSN)から、画像物標GTが検出されずレーダ物標LTのみで物体が検出される状態となることを、「画像ロスト」した状態と称する。
By the way, when the object is a preceding vehicle and the preceding vehicle changes its direction (lane change, right / left turn, etc.), the shape of the rear part of the vehicle captured by the
しかし、フュージョン物標FT1として検出されていた物体は、画像ロストした状態になった後も、自車両前方に存在している可能性が高い。そこで、画像ロストした状態になることでフュージョン物標FT1が生成されなくなった物体に対しては、その物体の位置情報を更新することが考えられる。 However, it is highly possible that the object detected as the fusion target FT1 exists in front of the host vehicle even after the image is lost. Thus, for an object for which the fusion target FT1 is no longer generated due to the image being lost, it is conceivable to update the position information of the object.
しかし、画像ロストした状態では、画像物標GTを用いて物体の横方向の位置を特定できなくなるため、方向転換に伴う物体の横方向への移動を検出できなくなってしまう。そこで、レーダ物標LTから物体の横方向の位置を特定することが考えられる。しかし、レーダ22の反射位置は、物体の横幅の範囲内で変化する可能性が高く、レーダ物標LTを用いて物体の横方向の位置を精度よく取得することは難しい。特に、物体が方向転換をしている場合には、物体に対するレーダ波の反射位置も変化しやすくなる。
However, in the image lost state, the position of the object in the horizontal direction cannot be specified using the image target GT, and thus the movement of the object in the horizontal direction accompanying the change of direction cannot be detected. Therefore, it is conceivable to specify the position of the object in the lateral direction from the radar target LT. However, the reflection position of the
そこで本実施形態では、横位置取得部14aはフュージョン物標FT1の生成に使用した画像物標GTの横位置の座標(Xi)を取得する。また横速度算出部14bは、横位置取得部14aが取得した画像物標GTの横位置(Xi)の履歴を用いて、画像物標の自車両の幅方向への移動速度を横速度として算出する。例えば横位置の単位時間当たりの変化量から横速度を算出する。
Therefore, in the present embodiment, the horizontal position acquisition unit 14a acquires the coordinates (Xi) of the horizontal position of the image target GT used for generating the fusion target FT1. Further, the lateral
そして、仮フュージョン物標生成部15は、画像ロストした状態となる直前に、横位置取得部14aが取得した横位置と、横速度算出部14bが求めた画像物標GTの横速度と、画像ロスト後にレーダ物標取得部12が取得したレーダ物標LTとを用いて仮フュージョン物標FT2を生成する。なお画像ロストした状態となる直前とは、例えば、画像ロストしたと判定された周期よりも一つ前の周期である。これ以外にも、画像ロストしたと判定された周期よりも所定時間前(例えば数秒前)までの期間が含まれていてもよい。このように画像ロスト直前の情報を用いることで、画像ロスト後の物体の位置の検出精度を高めることができる。そして、画像ロスト後は、仮フュージョン物標FT2を用いて物体の位置を検出する。
Then, the temporary fusion target generation unit 15 immediately before the image is lost, the lateral position acquired by the lateral position acquisition unit 14a, the lateral speed of the image target GT obtained by the lateral
なお、フュージョン物標FT1による物体の検出結果の信頼度が高いほど、画像ロスト後も自車両前方に物体が存在する可能性が高くなる。そこでECU10は、信頼度判定部16によって物体の検出結果の信頼度を判定する。
Note that the higher the reliability of the detection result of the object by the fusion target FT1, the higher the possibility that the object exists in front of the host vehicle even after the image is lost. Therefore, the
本実施形態の信頼度判定部16は、画像ロストした状態となる前にフュージョン物標FT1が検出された回数が所定回数以上となる際に、物体の検出結果の信頼度が高いと判定する。仮フュージョン物標生成部15は、信頼度判定部16によって、物体の検出結果の信頼度が高いと判定されたことを条件に、仮フュージョン物標FT2を生成する。
The
更には、物体が自車両の幅方向に移動している場合において、その移動方向が自車両から離れる方向であれば、自車両に対して物体が衝突する可能性はなくなる。一方で、物体が自車両の幅方向に移動している場合において、その移動方向が自車両に接近する方向であれば、自車両に対して物体が衝突する可能性が生じる。しかし、物体が自車両に対して接近する方向に移動していたとしても、物体が自車両の前方を横断する(横切る)場合には、自車両に物体が衝突する可能性はなくなる。 Furthermore, when the object is moving in the width direction of the host vehicle, if the moving direction is a direction away from the host vehicle, there is no possibility of the object colliding with the host vehicle. On the other hand, when the object is moving in the width direction of the host vehicle, the object may collide with the host vehicle if the moving direction is a direction approaching the host vehicle. However, even if the object moves in a direction approaching the host vehicle, there is no possibility of the object colliding with the host vehicle when the object crosses (crosses) the front of the host vehicle.
そこで横断判定部17を用いて、画像ロストした状態で、物体が自車両の前方を横切るか否かを判定する。例えば、レーダ物標LTで特定される物体との車長方向の距離及び相対速度と、フュージョン状態FSNの際に画像物標GTから算出した物体の車幅方向の横速度とを用いて、物体が自車両の前方を横切るか否かを判定する。そして仮フュージョン物標生成部15は、横断判定部17によって、物体が自車両の前方を横切らないと判定されていることを条件に、仮フュージョン物標FT2を生成する。
Therefore, the crossing
更には、画像物標GTの検出状態が不安定であると、画像物標GTから取得される物体の横位置や横速度の精度が低下するおそれがある。例えば自車両と物体との車間距離が短い場合(接近状態の場合)には、カメラ21の撮影範囲から物体の下端が外れる下端外れが生じるおそれがある。下端外れが生じると、画像物標GTの検出状態が不安定となり、画像物標GTから取得される物体の横位置及び横速度の精度が低下してしまう。また、物体の一部が障害物(他の物体)に隠れている等のように、カメラ21で物体を撮影しにくくなっている状況では、画像物標GTの検出と非検出とが繰り返される等、画像物標GTの検出状態が不安定になることがある。この場合にも、画像物標GTから取得される横位置及び横速度の精度が低下してしまう。
Furthermore, if the detection state of the image target GT is unstable, the accuracy of the lateral position and lateral speed of the object acquired from the image target GT may be reduced. For example, when the inter-vehicle distance between the host vehicle and the object is short (in an approaching state), there is a possibility that the lower end of the object will be off from the shooting range of the
そこで検出状態判定部18は、フュージョン物標FT1の生成に使用した画像物標GTの検出状態が安定しているか否かを判定する。そして仮フュージョン物標生成部15は、検出状態判定部18によって、画像物標GTの検出状態が安定していると判定されていることを条件に、画像物標GTから取得した横位置及び横速度の情報を用いて、仮フュージョン物標FT2を生成する。例えば、撮影範囲から物体の下端が外れていない場合に、画像物標GTが安定して検出されていると判定できる。また、同一の物体から画像物標GTを継続して(連続して)検出している場合にも、画像物標が安定して検出されていると判定できる。一方、下端外れが生じている場合や、同一の物体から画像物標GTが断続的に検出される場合などには、画像物標GTの検出状態が不安定であると判定する。
Therefore, the detection
位置検出部19は、フュージョン物標FT1又は仮フュージョン物標FT2を用いて物体の位置を検出する。衝突判定部40は、位置検出部19によって検出された物体の位置情報を用いて、物体と自車両との衝突可能性を判定する。
The
そしてECU10は、衝突判定部40によって衝突可能性があると判定された場合には、衝突予測時間と各被制御対象30の作動タイミングとを比較する。ここで衝突予測時間とは、現在の自車速度で走行した場合に、何秒後に物体に衝突するかを示す評価値である。例えば、衝突予測時間としては、自車両と物体との相対距離を相対速度で除算して算出されるTTC(Time to Collision)がある。また、衝突予測時間としては、相対距離及び相対速度に加えて、相対加速度を考慮して算出されるETTC(Enhanced Time to Collision)等がある。
When the
そして衝突予測時間が作動タイミング以下であれば、該当する被制御対象30を作動させる。例えば、衝突予測時間がスピーカの作動タイミング以下となれば、スピーカの作動で運転者に警報を発信する。衝突予測時間がシートベルトの作動タイミング以下となれば、シートベルトを巻き上げる制御を行う。衝突予測時間がブレーキの作動タイミング以下となれば、自動ブレーキを作動させて衝突速度を低減する制御を行う。以上により、自車両と物体との衝突を回避したり緩和したりする。 If the predicted collision time is less than or equal to the operation timing, the corresponding controlled object 30 is operated. For example, if the predicted collision time is less than or equal to the operation timing of the speaker, an alarm is sent to the driver by the operation of the speaker. When the predicted collision time is less than or equal to the seat belt operation timing, control is performed to wind up the seat belt. If the predicted collision time is less than or equal to the brake operation timing, control is performed to reduce the collision speed by operating the automatic brake. As described above, the collision between the host vehicle and the object is avoided or alleviated.
次にECU10による上記処理の実行例を図4のフローチャートを用いて説明する。なお以下の処理は、ECU10が所定周期で繰り返し実施する。
Next, an execution example of the above process by the
まず、レーダ物標LTを取得し(S11)、画像物標GTを取得する(S12)。次に、レーダ物標LTと画像物標GTとがフュージョン状態FSNであるか否かを判定する(S13)。フュージョン状態FSNの場合には(S13:YES)、フュージョン物標FT1を生成し(S14)、フュージョン物標FT1の生成に使用した画像物標GTの車幅方向に関する情報(横位置、横速度等)を取得する(S15)。次に、フュージョン物標FT1を用いて物体の位置を検出し(S16)、自車両と物体との衝突可能性があるか否かを判定する(S17)。 First, the radar target LT is acquired (S11), and the image target GT is acquired (S12). Next, it is determined whether the radar target LT and the image target GT are in the fusion state FSN (S13). In the case of the fusion state FSN (S13: YES), a fusion target FT1 is generated (S14), and information on the vehicle width direction of the image target GT used to generate the fusion target FT1 (lateral position, lateral speed, etc.) ) Is acquired (S15). Next, the position of the object is detected using the fusion target FT1 (S16), and it is determined whether or not there is a possibility of collision between the host vehicle and the object (S17).
S17で衝突可能性があると判定した場合には(S17:YES)、衝突予測時間TTCが被制御対象30の作動タイミングTh1よりも小さいか否かを判定する(S18)。衝突予測時間TTCが作動タイミングTh1よりも小さければ(S18:YES)、被制御対象30を作動させる(S19)。衝突可能性が無いと判定した場合と(S17:NO)、衝突予測時間TTCが被制御対象30の作動タイミングTh1よりも大きいと判定した場合は(S18:NO)、被制御対象30を作動させない。 If it is determined in S17 that there is a possibility of collision (S17: YES), it is determined whether or not the predicted collision time TTC is smaller than the operation timing Th1 of the controlled object 30 (S18). If the collision prediction time TTC is smaller than the operation timing Th1 (S18: YES), the controlled object 30 is operated (S19). When it is determined that there is no possibility of collision (S17: NO), and when it is determined that the collision prediction time TTC is longer than the operation timing Th1 of the controlled object 30 (S18: NO), the controlled object 30 is not operated. .
一方、フュージョン状態FSNではないと判定した場合には(S13:NO)、画像ロストした状態であるか否かを判定する(S20)。画像ロストした状態である場合には(S20:YES)、画像ロスト前に取得したフュージョン物標FT1の信頼度が高いか否かを判定する(S21)。フュージョン物標FT1の信頼度が高い場合には(S21:YES)、画像ロストしてからの経過時間Tpが所定の閾値Th2よりも短いか否かを判定する(S22)。経過時間Tpが閾値Th2よりも短い場合には(S22:YES)、物体が自車両の前方を横断するか否かを判定する(S23)。物体が自車両の前方を横断しないと判定した場合には(S23:NO)、画像物標GTの検出状態が安定しているか否かを判定する(S24)。画像物標GTが安定して検出されていれば(S24:YES)、仮フュージョン物標FT2を生成し(S25)、S16の処理に進む。 On the other hand, when it is determined that it is not the fusion state FSN (S13: NO), it is determined whether or not the image is lost (S20). If the image is lost (S20: YES), it is determined whether the reliability of the fusion target FT1 acquired before the image loss is high (S21). When the reliability of the fusion target FT1 is high (S21: YES), it is determined whether or not an elapsed time Tp after the image is lost is shorter than a predetermined threshold Th2 (S22). When the elapsed time Tp is shorter than the threshold Th2 (S22: YES), it is determined whether or not the object crosses the front of the host vehicle (S23). If it is determined that the object does not cross the front of the host vehicle (S23: NO), it is determined whether the detection state of the image target GT is stable (S24). If the image target GT is detected stably (S24: YES), a temporary fusion target FT2 is generated (S25), and the process proceeds to S16.
このように、S25からS16の処理に進んだ場合には、仮フュージョン物標FT2を用いて物体の位置を検出する。その後、S17で、自車両と物体との衝突判定を行う。なお、仮フュージョン物標FT2が生成される以前には、同じ物体に対してフュージョン物標FT1も生成されている。そこでS17では、フュージョン物標FT1及び仮フュージョン物標FT2の移動軌跡から算出した位置情報を用いて、衝突判定を行うようにしてもよい。 As described above, when the process proceeds from S25 to S16, the position of the object is detected using the temporary fusion target FT2. Thereafter, in S17, the collision determination between the host vehicle and the object is performed. Before the provisional fusion target FT2 is generated, the fusion target FT1 is also generated for the same object. Therefore, in S17, the collision determination may be performed using the position information calculated from the movement trajectories of the fusion target FT1 and the temporary fusion target FT2.
なお、画像ロストではないと判定した場合(S20:NO)、画像ロスト前に取得したフュージョン物標FT1の信頼度が低いと判定した場合(S21:NO)、経過時間Tpが閾値Th2よりも長い場合(S22:NO)、物体が自車両の前方を横断すると判定した場合(S23:YES)、画像ロストした状態となる前に取得した画像物標GTの検出状態が不安定である場合(S24:NO)には、処理を終了する。これらの場合には、仮フュージョン物標FT2は生成されず、物体の位置の検出は終了する。 When it is determined that the image is not lost (S20: NO), when it is determined that the reliability of the fusion target FT1 acquired before the image lost is low (S21: NO), the elapsed time Tp is longer than the threshold Th2. In the case (S22: NO), when it is determined that the object crosses the front of the host vehicle (S23: YES), the detection state of the image target GT acquired before the image is lost is unstable (S24). : NO), the process is terminated. In these cases, the provisional fusion target FT2 is not generated, and the detection of the position of the object ends.
次に上記処理の実行例を図5を用いて説明する。図5では、自車両M1、先行車M2が共に車両前方に進行しており、先行車M2が右折をしている状態が示されている。 Next, an execution example of the above process will be described with reference to FIG. FIG. 5 shows a state where the host vehicle M1 and the preceding vehicle M2 are both traveling forward of the vehicle, and the preceding vehicle M2 is making a right turn.
まず、期間P1において、先行車M2がレーダ22及びカメラ21の両方で検出されている状態では、フュージョン物標FT1によって先行車M2の位置が検出される。そしてこの期間P1の間に、画像物標GTを用いて先行車M2の車幅方向に関する情報(横位置、横速度等)が取得される。またフュージョン物標FT1を用いて、自車両M1との衝突判定が行われる。
First, in the period P1, when the preceding vehicle M2 is detected by both the
その後、先行車M2が減速しつつ右折をすると、自車両M1に対する相対位置が図示の如く時系列で変化する。そして、先行車M2の右折に伴って、カメラ21が先行車M2の後端部を捉えられなくなるタイミングAで画像ロストの状態となる。画像ロストの状態となると、フュージョン物標FT1の生成に使用した画像物標GTの横位置の履歴に基づき先行車M2の横速度が算出される。
Thereafter, when the preceding vehicle M2 decelerates and makes a right turn, the relative position with respect to the host vehicle M1 changes in time series as illustrated. Then, with the right turn of the preceding vehicle M2, the
その後、画像ロストしている状態の期間P2では、その期間P2においてレーダ22で検出されたレーダ物標LTと、期間P1において画像物標GTの履歴から求めた先行車M2の横速度と、期間P1において画像ロストの直前に取得した画像物標GTから求めた先行車M2の横位置とを用いて、仮フュージョン物標FT2が生成される。そして、この仮フュージョン物標FT2によって現在の先行車M2の位置が検出され、仮フュージョン物標FT2を用いて衝突判定が行われることとなる。
Thereafter, in the period P2 in the image lost state, the radar target LT detected by the
上記によれば以下の優れた効果を奏することができる。 According to the above, the following excellent effects can be achieved.
・フュージョン物標FT1で検出されていた自車両前方の物体は、画像物標GTが検出されず、レーダ物標LTのみが検出される画像ロストした状態になったとしても、自車両前方に存在している可能性が高いため、その物体の位置の検出が継続されることが好ましい。しかし、画像ロストした状態では、物体の自車両の幅方向の位置を精度よく特定することができなくなる。そこで、フュージョン物標FT1の生成に使用した画像物標GTの自車両の幅方向の位置を横位置として取得する。また、フュージョン物標FT1の生成に使用した画像物標GTの自車両の幅方向への移動速度を横速度として取得する。そして画像ロストした状態では、前記フュージョン物標の生成に使用した画像物標GTの横位置及び横速度と、フュージョン物標FT1が生成されなくなった後に(画像ロスト後)レーダ22が取得したレーダ物標LTとを用いて仮フュージョン物標FT2を生成し、仮フュージョン物標FT2を用いて物体の位置を検出することとした。この場合、フュージョン物標FT1が生成されなくなったとしても、仮フュージョン物標FT2を用いて、物体の横方向への移動を考慮しつつ、物体の位置の検出を精度よく継続して行うことが可能となる。
The object in front of the host vehicle detected by the fusion target FT1 exists in front of the host vehicle even if the image target GT is not detected and only the radar target LT is detected. Therefore, it is preferable that the detection of the position of the object is continued. However, in the image lost state, the position of the object in the width direction of the host vehicle cannot be specified with high accuracy. Therefore, the position in the width direction of the host vehicle of the image target GT used for generating the fusion target FT1 is acquired as the lateral position. Further, the moving speed of the image target GT used for generating the fusion target FT1 in the width direction of the host vehicle is acquired as the lateral speed. In the image lost state, the radar object acquired by the
・フュージョン物標FT1による物体の検出結果の信頼度が高いことを条件に、仮フュージョン物標FT2を生成するようにしたため、画像ロストした状態では、自車両前方に存在する確度の高い物体に限定して、物体の位置の検出を継続することができる。 -Since the provisional fusion target FT2 is generated on the condition that the reliability of the detection result of the object by the fusion target FT1 is high, in the state where the image is lost, it is limited to the object with high accuracy existing in front of the host vehicle. Thus, the detection of the position of the object can be continued.
・フュージョン物標FT1の検出回数が多くなるほど、自車両の前方に物体が存在している確度が高くなることを利用して、物体の検出結果の信頼度を判定することができる。 The reliability of the detection result of the object can be determined by utilizing the fact that the probability that the object exists ahead of the host vehicle increases as the number of detections of the fusion target FT1 increases.
・フュージョン物標FT1として検出された物体の自車両の幅方向への移動が、自車両に接近する方向であり、且つ自車両の前方を横断する場合には、仮フュージョン物標FT2を生成しないことにした。以上により、画像ロストした後に、自車両との衝突可能性のない物体に対して、仮フュージョン物標FT2が生成されることで、不要な制御が行われる等の不都合が発生することを抑えることができる。 If the movement of the object detected as the fusion target FT1 in the width direction of the host vehicle is a direction approaching the host vehicle and crosses the front of the host vehicle, the temporary fusion target FT2 is not generated. It was to be. As described above, after the image is lost, the provisional fusion target FT2 is generated for an object that is not likely to collide with the host vehicle, thereby suppressing the occurrence of inconvenience such as unnecessary control. Can do.
・フュージョン物標FT1が生成されていたとしても、画像物標GTの検出状態(認識)が不安定であると、物体の横位置、横速度等の演算結果の信頼度が低下するおそれがある。そこで、画像物標GTの検出状態が安定していることを条件に、仮フュージョン物標FT2を生成すること。以上により、画像物標GTの検出状態が不安定であることに起因して仮フュージョン物標FT2による物体の位置の検出精度が低下することを抑えることができる。 Even if the fusion target FT1 has been generated, if the detection state (recognition) of the image target GT is unstable, the reliability of the calculation results such as the lateral position and the lateral speed of the object may be reduced. . Therefore, the provisional fusion target FT2 is generated on the condition that the detection state of the image target GT is stable. As described above, it can be suppressed that the detection accuracy of the position of the object by the temporary fusion target FT2 is lowered due to the unstable detection state of the image target GT.
・画像物標GTの横位置の履歴を用いて、物体の横速度を求めることができる。 The lateral velocity of the object can be obtained using the history of the lateral position of the image target GT.
上記の実施形態は例えば次のように変更してもよい。なお以下の説明において上述の構成と同様の構成については同じ図番号を付し、詳述は省略する。 The above embodiment may be modified as follows, for example. In the following description, the same components as those described above are denoted by the same reference numerals, and detailed description thereof is omitted.
・上記の図2において、ECU10の信頼度判定部16、横断判定部17、検出状態判定部18の各処理は省略してもよい。例えば、ECU10は、画像ロスト状態となった際には、これら各処理16〜18に関わらず、仮フュージョン物標FT2を生成してもよい。
-In above-mentioned FIG. 2, you may abbreviate | omit each process of the
・上記の図2において、各判定部16〜18に関わらず、画像ロストしてからの経過時間が所定時間を超える場合には、物体が存在している確度が低くなるため、仮フュージョン物標FT2を生成しないようにするとよい。この場合、物体が存在している確度が低くなる状況下で、仮フュージョン物標FT2が生成されることにより、不要な制御が行われる等の不都合が生じることを抑えることができる。
In FIG. 2, regardless of each of the
・上記の図2において、信頼度判定部16は、画像ロストした状態となる前に、フュージョン物標FT1の検出回数に応じて、仮フュージョン物標FT2を生成する期間P2を可変設定するものであってもよい。すなわちフュージョン物標FT1の検出回数が多いほど、仮フュージョン物標FT2を生成する期間を長く設定する。以上により、画像ロスト後は、物体が存在する確度に応じて、物体の検出を継続して行うことができる。
In FIG. 2, the
・上記の図2において、信頼度判定部16は、フュージョン物標FT1が検出された期間に応じて信頼度を判定するものであってもよい。すなわちフュージョン物標FT1の検出期間が長いほど、物体の検出結果の信頼度が高いと判定する。この場合にも、画像ロスト状態となった際に、物体が存在する確度に応じて、物体の検出を継続して行うことができる。
-In above-mentioned FIG. 2, the
・上記の図2において、信頼度判定部16は、画像ロストしてからの経過時間が所定時間を超える場合には、信頼度が低いと判定してもよい。この場合、物体が存在する確度が低くなる状況下で仮フュージョン物標FT2が継続して生成されることにより、不要な制御が行われる等の不都合が発生することを抑えることができる。
In FIG. 2 described above, the
・上記の図2において、信頼度判定部16は、フュージョン条件が成立している際のレーダ物標LTと画像物標GTとの一致度合に基づいて、物体の検出結果の信頼度を判定してもよい。例えば図3において、画像物標GTの検出誤差領域Riと、レーダ物標LTの検出誤差領域Rrとの重複部分が多くなるほど、レーダ物標LTと画像物標GTの一致度合が高いと判定する。そして、レーダ物標LTと画像物標GTとの一致度合が高くなるほど、仮フュージョン物標FT2を生成する期間を長く設定する。この場合、レーダ物標LTと画像物標GTとの一致度合が高いほど物体が存在している確度が高くなることを利用して、物体の検出結果の信頼度を判定することができる。
In FIG. 2, the
・ECU10は、フュージョン物標FT1の生成に使用した画像物標GTを用いて、物体の車幅方向(横方向)への加速度(横加速度)を算出する横加速度算出部を備えており、仮フュージョン物標生成部15は、横加速度算出部が算出した横加速度を考慮して仮フュージョン物標FT2を生成するものであってもよい。なお横加速度は、横速度算出部14bが算出した横速度の変化量として算出できる。
The
画像物標GTの横加速度を考慮することで、自車両と物体との接近状態を加味して仮フュージョン物標FT2を生成することができ、仮フュージョン物標FT2による物体の横方向の位置の算出精度を高めることができる。ただしこの場合には、横速度と横加速度の方向(ベクトル)が不一致であると、物体の横位置を正しく求めることができなくなる可能性ある。そこで仮フュージョン物標生成部15は、横速度と横加速度の方向が一致していることを条件に、横速度及び横加速度を用いて仮フュージョン物標FT2を生成するとよい。自車両と物体とが接近状態であり、且つ物標の横速度及び横加速度が一致することを条件に、仮フュージョン物標FT2を生成することで、自車両と物体との衝突可能性が高い場合に仮フュージョン物標FT2を用いて物体の位置を継続して検出することができる。 By considering the lateral acceleration of the image target GT, the temporary fusion target FT2 can be generated in consideration of the approach state between the host vehicle and the object, and the lateral position of the object by the temporary fusion target FT2 can be generated. Calculation accuracy can be increased. However, in this case, if the direction (vector) of the lateral velocity and the lateral acceleration do not match, the lateral position of the object may not be obtained correctly. Therefore, the provisional fusion target generation unit 15 may generate the provisional fusion target FT2 using the lateral velocity and the lateral acceleration on the condition that the direction of the lateral velocity and the lateral acceleration coincide with each other. By generating the temporary fusion target FT2 on the condition that the own vehicle and the object are in an approaching state and the lateral velocity and the lateral acceleration of the target coincide with each other, the possibility of collision between the own vehicle and the object is high. In this case, the position of the object can be continuously detected using the temporary fusion target FT2.
・上記の図2において、仮フュージョン物標生成部15は、横断判定部17によって、物体が自車両の前方を横切ると判定される場合には、仮フュージョン物標FT2を生成しないとした。しかし、物体が自車両の前方を横切るタイミングで、物体と自車両との進行方向の距離が短くなる場合には、物体に対する何等かの警告が行われてもよい。そこで仮フュージョン物標生成部15は、横断判定部17によって、物体が自車両の前方を横切ると判定された場合、物体が自車両の前方を横切る際の物体と自車両との距離が所定未満となる場合には、横断判定部17の判定結果を無効にする。すなわち、物体が自車両の前方を横切ると判定されていたとしても、仮フュージョン物標FT2の生成が許可されてもよい。またこの場合には、自車両と物体との接近状態(相対速度)に応じて、物体が自車両の前方を横切る際の物体と自車両との距離の閾値が可変設定されてもよい。
In FIG. 2 described above, the provisional fusion target generation unit 15 does not generate the provisional fusion target FT2 when the
・上記において、自車両が前方の停止車両を操舵で避ける場合にも、画像ロストの状態となる可能性がある。そこでECU10は、自車両の操舵角又はヨーレートセンサ出力から推定される自車両のカーブ半径を推定し、画像ロストの状態での物体の横位置を補正してもよい。
-In the above, even when the host vehicle avoids a stopped vehicle ahead by steering, there is a possibility that the image is lost. Therefore, the
11…画像物標取得部、12…レーダ物標取得部、13…フュージョン物標生成部、14a…横位置取得部、16…信頼度判定部、19…位置検出部、21…カメラ。
DESCRIPTION OF
Claims (12)
前記自車両の前方に取り付けられた撮影装置(21)によって検出された前記物体を示す画像物標を取得する画像物標取得部(11)と、
前記レーダ物標と前記画像物標とが同一の前記物体から生成されたものである場合に、前記レーダ物標と前記画像物標とを統合してフュージョン物標を生成するフュージョン物標生成部(13)と、
前記フュージョン物標の生成に使用した前記画像物標の前記自車両の幅方向の位置を横位置として取得する横位置取得部(14a)と、
前記フュージョン物標の生成に使用した前記画像物標の前記自車両の幅方向への移動速度を横速度として算出する横速度算出部(14b)と、
前記レーダ物標が取得される一方で前記画像物標が取得されなくなることで前記フュージョン物標が生成されなくなった場合に、前記フュージョン物標の生成に使用した前記画像物標の前記横位置及び前記横速度と、前記レーダ物標取得部が取得した前記レーダ物標とを用いて仮フュージョン物標を生成する仮フュージョン物標生成部(15)と、
前記フュージョン物標又は前記仮フュージョン物標を用いて前記物体の位置を検出する位置検出部(19)と、
を備えることを特徴とする物体検出装置。 A radar target acquisition unit (12) for acquiring a radar target indicating an object in front of the host vehicle detected by a radar (22) mounted in front of the host vehicle;
An image target acquisition unit (11) for acquiring an image target indicating the object detected by the imaging device (21) attached in front of the host vehicle;
A fusion target generation unit that generates a fusion target by integrating the radar target and the image target when the radar target and the image target are generated from the same object. (13)
A lateral position acquisition unit (14a) that acquires a position in the width direction of the host vehicle of the image target used for generating the fusion target as a lateral position;
A lateral speed calculation unit (14b) that calculates, as a lateral speed, a moving speed of the image target used for generating the fusion target in the width direction of the host vehicle;
When the radar target is acquired and the image target is not acquired, and thus the fusion target is not generated, the lateral position of the image target used for generating the fusion target and A temporary fusion target generating unit (15) that generates a temporary fusion target using the lateral velocity and the radar target acquired by the radar target acquiring unit;
A position detector (19) for detecting the position of the object using the fusion target or the temporary fusion target;
An object detection apparatus comprising:
前記仮フュージョン物標生成部は、前記信頼度が高いと判定されたことを条件に、前記仮フュージョン物標を生成する請求項1に記載の物体検出装置。 A reliability determination unit (16) for determining the reliability of the detection result of the object by the fusion target;
The object detection device according to claim 1, wherein the temporary fusion target generation unit generates the temporary fusion target on the condition that the reliability is determined to be high.
前記仮フュージョン物標生成部は、前記物体が前記自車両の前方を横断すると判定される場合には、前記仮フュージョン物標を生成しない請求項1〜6のいずれか1項に記載の物体検出装置。 Crossing for determining whether or not the object crosses the front of the host vehicle when the movement of the object detected as the fusion target in the width direction of the host vehicle is a direction approaching the host vehicle. A determination unit (17);
The object detection according to claim 1, wherein the provisional fusion target generation unit does not generate the provisional fusion target when it is determined that the object crosses the front of the host vehicle. apparatus.
前記仮フュージョン物標生成部は、前記画像物標の検出状態が安定していると判定されたことを条件に、前記仮フュージョン物標を生成する請求項1〜7のいずれか1項に記載の物体検出装置。 A detection state determination unit (18) for determining whether or not the detection state of the image target is stable;
The said temporary fusion target production | generation part produces | generates the said temporary fusion target on the conditions that it determined with the detection state of the said image target being stable. Object detection device.
前記仮フュージョン物標生成部は、前記画像物標の前記横加速度を用いて前記仮フュージョン物標を生成する請求項1〜9のいずれか1項に記載の物体検出装置。 A lateral acceleration calculation unit (10) for obtaining a lateral acceleration which is an acceleration when the image target used for generating the fusion target moves in the width direction of the host vehicle;
The object detection device according to claim 1, wherein the temporary fusion target generation unit generates the temporary fusion target using the lateral acceleration of the image target.
前記自車両の前方に取り付けられた撮影装置(21)によって検出された前記物体を示す画像物標を取得するステップと、
前記レーダ物標と前記画像物標とが同一の前記物体から生成されたものである場合に、前記レーダ物標と前記画像物標とを統合してフュージョン物標を生成するステップと、
前記フュージョン物標の生成に使用した前記画像物標の前記自車両の幅方向の位置を横位置として取得するステップと、
前記フュージョン物標の生成に使用した前記画像物標の前記自車両の幅方向への移動速度を横速度として取得するステップと、
前記レーダ物標が取得される一方で前記画像物標が取得されなくなることで前記フュージョン物標が生成されなくなった場合に、前記フュージョン物標の生成に使用した前記画像物標の前記横位置及び前記横速度と、前記フュージョン物標が生成されなくなった後に取得された前記レーダ物標とを用いて仮フュージョン物標を生成するステップと、
前記フュージョン物標又は前記仮フュージョン物標を用いて前記物体の位置を検出するステップと、
を備えることを特徴とする物体検出方法。 Obtaining a radar target indicative of an object ahead of the host vehicle detected by a radar (22) mounted in front of the host vehicle;
Obtaining an image target indicating the object detected by the photographing device (21) attached in front of the host vehicle;
When the radar target and the image target are generated from the same object, the step of integrating the radar target and the image target to generate a fusion target;
Obtaining a position in the width direction of the host vehicle of the image target used for generating the fusion target as a lateral position;
Acquiring a moving speed of the image target used for generating the fusion target in the width direction of the host vehicle as a lateral speed;
When the radar target is acquired and the image target is not acquired, and thus the fusion target is not generated, the lateral position of the image target used for generating the fusion target and Generating a temporary fusion target using the lateral velocity and the radar target acquired after the fusion target is no longer generated;
Detecting the position of the object using the fusion target or the temporary fusion target;
An object detection method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016244040A JP6855776B2 (en) | 2016-12-16 | 2016-12-16 | Object detection device and object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016244040A JP6855776B2 (en) | 2016-12-16 | 2016-12-16 | Object detection device and object detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018097765A true JP2018097765A (en) | 2018-06-21 |
JP6855776B2 JP6855776B2 (en) | 2021-04-07 |
Family
ID=62633737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016244040A Active JP6855776B2 (en) | 2016-12-16 | 2016-12-16 | Object detection device and object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6855776B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109946661A (en) * | 2019-04-26 | 2019-06-28 | 陕西师范大学 | A kind of trailer-mounted radar data processing algorithm verifying system |
JP2020027415A (en) * | 2018-08-10 | 2020-02-20 | トヨタ自動車株式会社 | Object recognition device |
KR20200040149A (en) * | 2018-10-08 | 2020-04-17 | 주식회사 만도 | Apparatus and method for detecting target and, apparatus and method for controlling vehicle |
JPWO2020235466A1 (en) * | 2019-05-23 | 2020-11-26 | ||
JP2021064158A (en) * | 2019-10-14 | 2021-04-22 | 株式会社デンソー | Object detection device, object detection method, and object detection program |
CN112924960A (en) * | 2021-01-29 | 2021-06-08 | 重庆长安汽车股份有限公司 | Target size real-time detection method, system, vehicle and storage medium |
CN114475517A (en) * | 2020-11-11 | 2022-05-13 | 郑州宇通客车股份有限公司 | Vehicle safety control method and device |
CN115421136A (en) * | 2022-07-28 | 2022-12-02 | 广西北投信创科技投资集团有限公司 | Vehicle detection system and detection method thereof |
KR20230052704A (en) * | 2021-10-13 | 2023-04-20 | 한국자동차연구원 | Adaptive intervention determination method of vehicle accident avoidance system |
WO2023114409A1 (en) * | 2021-12-17 | 2023-06-22 | Zoox, Inc. | Track confidence model |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006292621A (en) * | 2005-04-13 | 2006-10-26 | Toyota Motor Corp | Object detection apparatus |
JP2007226680A (en) * | 2006-02-24 | 2007-09-06 | Toyota Motor Corp | Object detection system |
JP2007310741A (en) * | 2006-05-19 | 2007-11-29 | Fuji Heavy Ind Ltd | Solid object recognition device |
JP2011053139A (en) * | 2009-09-03 | 2011-03-17 | Toyota Motor Corp | Object detection device |
JP2014006123A (en) * | 2012-06-22 | 2014-01-16 | Toyota Motor Corp | Object detection device, information processing device, and object detection method |
JP2014139756A (en) * | 2013-01-21 | 2014-07-31 | Toyota Motor Corp | Drive assist device |
JP2014222462A (en) * | 2013-05-14 | 2014-11-27 | 株式会社デンソー | Crash mitigation device |
-
2016
- 2016-12-16 JP JP2016244040A patent/JP6855776B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006292621A (en) * | 2005-04-13 | 2006-10-26 | Toyota Motor Corp | Object detection apparatus |
JP2007226680A (en) * | 2006-02-24 | 2007-09-06 | Toyota Motor Corp | Object detection system |
JP2007310741A (en) * | 2006-05-19 | 2007-11-29 | Fuji Heavy Ind Ltd | Solid object recognition device |
JP2011053139A (en) * | 2009-09-03 | 2011-03-17 | Toyota Motor Corp | Object detection device |
JP2014006123A (en) * | 2012-06-22 | 2014-01-16 | Toyota Motor Corp | Object detection device, information processing device, and object detection method |
JP2014139756A (en) * | 2013-01-21 | 2014-07-31 | Toyota Motor Corp | Drive assist device |
JP2014222462A (en) * | 2013-05-14 | 2014-11-27 | 株式会社デンソー | Crash mitigation device |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020027415A (en) * | 2018-08-10 | 2020-02-20 | トヨタ自動車株式会社 | Object recognition device |
US11247671B2 (en) | 2018-08-10 | 2022-02-15 | Toyota Jidosha Kabushiki Kaisha | Object recognition device |
JP7063184B2 (en) | 2018-08-10 | 2022-05-09 | トヨタ自動車株式会社 | Object recognition device |
KR20200040149A (en) * | 2018-10-08 | 2020-04-17 | 주식회사 만도 | Apparatus and method for detecting target and, apparatus and method for controlling vehicle |
KR102612335B1 (en) * | 2018-10-08 | 2023-12-12 | 주식회사 에이치엘클레무브 | Apparatus and method for detecting target and, apparatus and method for controlling vehicle |
CN109946661A (en) * | 2019-04-26 | 2019-06-28 | 陕西师范大学 | A kind of trailer-mounted radar data processing algorithm verifying system |
JPWO2020235466A1 (en) * | 2019-05-23 | 2020-11-26 | ||
WO2020235466A1 (en) * | 2019-05-23 | 2020-11-26 | 日立オートモティブシステムズ株式会社 | Vehicle control system and vehicle control method |
DE112020002037T5 (en) | 2019-05-23 | 2022-03-24 | Hitachi Astemo, Ltd. | Vehicle control system and vehicle control method |
JP7181997B2 (en) | 2019-05-23 | 2022-12-01 | 日立Astemo株式会社 | Vehicle control system and vehicle control method |
JP7334572B2 (en) | 2019-10-14 | 2023-08-29 | 株式会社デンソー | Object detection device and object detection program |
JP2021064158A (en) * | 2019-10-14 | 2021-04-22 | 株式会社デンソー | Object detection device, object detection method, and object detection program |
CN114475517A (en) * | 2020-11-11 | 2022-05-13 | 郑州宇通客车股份有限公司 | Vehicle safety control method and device |
CN112924960B (en) * | 2021-01-29 | 2023-07-18 | 重庆长安汽车股份有限公司 | Target size real-time detection method, system, vehicle and storage medium |
CN112924960A (en) * | 2021-01-29 | 2021-06-08 | 重庆长安汽车股份有限公司 | Target size real-time detection method, system, vehicle and storage medium |
KR20230052704A (en) * | 2021-10-13 | 2023-04-20 | 한국자동차연구원 | Adaptive intervention determination method of vehicle accident avoidance system |
KR102643361B1 (en) * | 2021-10-13 | 2024-03-07 | 한국자동차연구원 | Adaptive intervention determination method of vehicle accident avoidance system |
WO2023114409A1 (en) * | 2021-12-17 | 2023-06-22 | Zoox, Inc. | Track confidence model |
US11814084B2 (en) | 2021-12-17 | 2023-11-14 | Zoox, Inc. | Track confidence model |
CN115421136A (en) * | 2022-07-28 | 2022-12-02 | 广西北投信创科技投资集团有限公司 | Vehicle detection system and detection method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP6855776B2 (en) | 2021-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6855776B2 (en) | Object detection device and object detection method | |
CN107408345B (en) | Method and device for determining presence of target object | |
JP5862785B2 (en) | Collision determination device and collision determination method | |
US9460627B2 (en) | Collision determination device and collision mitigation device | |
JP6493196B2 (en) | Control device and control method | |
EP3141926A1 (en) | Automated detection of hazardous drifting vehicles by vehicle sensors | |
JP5884912B2 (en) | Collision determination device and collision determination method | |
WO2016158944A1 (en) | Vehicle control device and vehicle control method | |
JP7018277B2 (en) | Object detection device, object detection method and vehicle control system | |
JP2018097687A (en) | Vehicle control device, vehicle control method | |
JP6477453B2 (en) | Object detection device and object detection method | |
JP2017010539A (en) | Vehicle control device and vehicle control method | |
US10787170B2 (en) | Vehicle control method and apparatus | |
WO2016186124A1 (en) | Device and method for controlling vehicle | |
JP2017111684A (en) | Controller, and control method | |
JP2016224563A (en) | Vehicle control device and vehicle control method | |
US10839232B2 (en) | Vehicle control method and apparatus | |
US10996317B2 (en) | Object detection apparatus and object detection method | |
JP6601362B2 (en) | Movement detector | |
WO2017138329A1 (en) | Collision prediction device | |
JP2020134981A (en) | Driving assistance device | |
US11420624B2 (en) | Vehicle control apparatus and vehicle control method | |
JP2006004188A (en) | Obstacle recognition method and obstacle recognition device | |
US11407390B2 (en) | Vehicle control apparatus and vehicle control method | |
JP7328863B2 (en) | Control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190306 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210301 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6855776 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |