JP6193177B2 - Motion support system and object recognition device - Google Patents

Motion support system and object recognition device Download PDF

Info

Publication number
JP6193177B2
JP6193177B2 JP2014102781A JP2014102781A JP6193177B2 JP 6193177 B2 JP6193177 B2 JP 6193177B2 JP 2014102781 A JP2014102781 A JP 2014102781A JP 2014102781 A JP2014102781 A JP 2014102781A JP 6193177 B2 JP6193177 B2 JP 6193177B2
Authority
JP
Japan
Prior art keywords
overlap time
course
time
support system
route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014102781A
Other languages
Japanese (ja)
Other versions
JP2015219721A (en
Inventor
洋治 笹渕
洋治 笹渕
芳洋 浦井
芳洋 浦井
廉士 栗山
廉士 栗山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2014102781A priority Critical patent/JP6193177B2/en
Publication of JP2015219721A publication Critical patent/JP2015219721A/en
Application granted granted Critical
Publication of JP6193177B2 publication Critical patent/JP6193177B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両等の移動物体の動作支援を行う動作支援システム及び当該動作支援システムで利用可能な物体認識装置に関する。   The present invention relates to a motion support system that supports motion of a moving object such as a vehicle, and an object recognition device that can be used in the motion support system.

特許文献1では、不必要な回避支援を削減することができる運転支援装置を提供することを目的としている([0006]、要約)。当該目的を達成するため、特許文献1の運転支援装置1は、障害物に関する情報を検出する障害物検出手段と、自車両が障害物の現在位置に最接近するまでの余裕時間(TTC)を算出する余裕時間算出手段と、余裕時間が経過したときの障害物の将来位置を推定する将来位置推定手段と、自車両が回避すべき回避対象領域を設定する回避対象領域設定手段と、回避対象領域を回避する走行経路を設定する走行経路設定手段とを備える(要約)。回避対象領域設定手段は、将来位置及びその周辺位置における障害物との衝突リスクポテンシャルを評価し、衝突リスクポテンシャルに基づいて回避対象領域を設定する(要約)。   In patent document 1, it aims at providing the driving assistance device which can reduce unnecessary avoidance assistance ([0006], summary). In order to achieve the object, the driving support device 1 of Patent Document 1 includes an obstacle detection unit that detects information about an obstacle, and an allowance time (TTC) until the host vehicle approaches the current position of the obstacle. Margin time calculating means for calculating, future position estimating means for estimating the future position of the obstacle when the margin time has elapsed, avoidance target area setting means for setting the avoidance target area to be avoided by the host vehicle, and avoidance target Travel route setting means for setting a travel route that avoids the area (summary). The avoidance target area setting means evaluates a collision risk potential with an obstacle at a future position and its surrounding positions, and sets an avoidance target area based on the collision risk potential (summary).

衝突リスクポテンシャルの評価では、将来位置を基準に、その周辺位置の衝突リスクポテンシャルの分布を生成する(図2のS5、[0028])。すなわち、リスクパターンDB4に記憶されたパターンのうち、障害物の種類に対応するパターンを取得し、そのパターンの基準位置を前記将来位置に合わせ、そのパターンの向きを障害物の向きに合わせる。これにより、前記将来位置の周辺位置における衝突リスクポテンシャルの分布を生成する([0028])。回避対象領域は、例えば、衝突リスクポテンシャルがある閾値以上となる範囲とされる([0031])。   In the evaluation of the collision risk potential, the distribution of the collision risk potential at the peripheral position is generated based on the future position (S5 in FIG. 2, [0028]). That is, a pattern corresponding to the type of obstacle is acquired from the patterns stored in the risk pattern DB 4, the reference position of the pattern is matched with the future position, and the direction of the pattern is matched with the direction of the obstacle. As a result, a collision risk potential distribution around the future position is generated ([0028]). The avoidance target area is, for example, a range in which the collision risk potential is a certain threshold value or more ([0031]).

特許文献1における障害物検出手段(障害物検出装置2)は、例えば、車外カメラ、レーダ等により、障害物に関する情報を検出する装置であるとされている([0018])。   The obstacle detection means (obstacle detection device 2) in Patent Document 1 is assumed to be a device that detects information about an obstacle using, for example, an outside camera, a radar, or the like ([0018]).

特許文献2では、レーダ(ミリ波)による障害物検出結果と、画像認識による障害物検出結果を照合して、両者で検出した場合とそれぞれのみで検出した場合に分岐する(要約)。そして、分岐結果に応じて走行支援制御の開始条件を変更することで、運転者の注意に応じた支援制御を実行する(要約)。レーダ(ミリ波)及び画像認識それぞれで障害物が検出できた場合に関し、特許文献2では、ミリ波レーダ21でも画像認識手段22でも障害物を検出している場合には、障害物を正しく検知している可能性が高いため、通常のタイミングで支援制御を実行すると説明されている([0075])。   In Patent Document 2, the obstacle detection result by radar (millimeter wave) and the obstacle detection result by image recognition are collated, and branching occurs when both are detected and only one is detected (summary). Then, by changing the start condition of the driving support control according to the branch result, the support control according to the driver's attention is executed (summary). In the case where an obstacle can be detected by each of the radar (millimeter wave) and image recognition, in Patent Document 2, if the obstacle is detected by both the millimeter wave radar 21 and the image recognition means 22, the obstacle is correctly detected. Therefore, it is described that the assist control is executed at a normal timing ([0075]).

特開2012−173786号公報JP 2012-173786 A 特開2005−239114号公報JP-A-2005-239114

上記のような特許文献1では、主として、余裕時間(TTC)に基づく障害物の将来位置と障害物の種類及び向きを用いて回避対象領域が設定される([0028])。特許文献1では、特許文献2のようなレーダ(ミリ波)及び画像認識による障害物検出結果を組み合わせる構成における処理が検討されていない。加えて、特許文献1では、障害物検出手段(障害物検出装置2)の検出結果の信頼性に着目した制御については考慮されていない。   In Patent Document 1 as described above, an avoidance target area is set mainly using the future position of the obstacle based on the margin time (TTC) and the type and direction of the obstacle ([0028]). In Patent Literature 1, processing in a configuration combining radar (millimeter wave) and obstacle detection results by image recognition as in Patent Literature 2 is not studied. In addition, Patent Document 1 does not consider control focusing on the reliability of the detection result of the obstacle detection means (obstacle detection device 2).

また、特許文献2では、レーダ及び画像認識それぞれによる障害物検出結果に基づき走行支援制御の開始条件を変更するものの、レーダ及び画像認識それぞれにより障害物が検出された場合における信頼性の相違又は変化については検討されていない。このため、特許文献2では、レーダ及び画像認識それぞれによる障害物検出結果が得られた場合、信頼性があることを前提として制御が行われると言える。従って、特許文献2では、レーダ及び画像認識それぞれによる障害物検出結果が得られた場合の信頼性の相違については検討されていない。   In Patent Document 2, although the start condition of the driving support control is changed based on the obstacle detection result by each of the radar and the image recognition, the difference or change in reliability when the obstacle is detected by each of the radar and the image recognition. Has not been studied. For this reason, in Patent Document 2, it can be said that the control is performed on the premise that there is reliability when the obstacle detection result by each of the radar and the image recognition is obtained. Therefore, Patent Document 2 does not discuss the difference in reliability when the obstacle detection results obtained by the radar and the image recognition are obtained.

本発明は上記のような課題を考慮してなされたものであり、検出結果の信頼性を制御に反映することが可能な動作支援システム及び物体認識装置を提供することを目的とする。   The present invention has been made in consideration of the above-described problems, and an object thereof is to provide an operation support system and an object recognition apparatus that can reflect the reliability of detection results in control.

本発明に係る動作支援システムは、
移動物体の周辺に存在する周辺物体に対して電磁波を出射し、前記周辺物体からの反射波に対応する反射波信号を出力するレーダと、
前記周辺物体を含む周辺画像を撮像し、前記周辺画像に対応する画像信号を出力するカメラと、
前記反射波信号に含まれる前記周辺物体を第1物体として認識し、前記画像信号に含まれる前記周辺物体を第2物体として認識し、前記第1物体及び前記第2物体をマッチングさせて対象物体として特定し、前記対象物体に対する前記移動物体の衝突可能性を判定する衝突可能性判定装置と、
前記衝突可能性に応じて前記移動物体の動作支援を行う動作支援装置と
を備えるものであって、
前記動作支援システムの一部又は全部は前記移動物体内又は前記移動物体外に設けられ、
前記第2物体の認識が継続している画像認識継続時間と、前記第2物体の横方向速度と、前記レーダ及び前記カメラのいずれで前記横方向速度を検知できているか否かの情報とに基づいて前記衝突可能性又は前記動作支援を変更することを特徴とする。
本発明に係る動作支援システムは、
移動物体の周辺に存在する周辺物体に対して電磁波を出射し、前記周辺物体からの反射波に対応する反射波信号を出力するレーダと、
前記周辺物体を含む周辺画像を撮像し、前記周辺画像に対応する画像信号を出力するカメラと、
前記反射波信号に含まれる前記周辺物体を第1物体として認識し、前記画像信号に含まれる前記周辺物体を第2物体として認識し、前記第1物体及び前記第2物体をマッチングさせて対象物体として特定し、前記対象物体に対する前記移動物体の衝突可能性を判定する衝突可能性判定装置と、
前記衝突可能性に応じて前記移動物体の動作支援を行う動作支援装置と
を備えるものであって、
前記動作支援システムの一部又は全部は前記移動物体内又は前記移動物体外に設けられ、
前記第2物体の認識が継続している画像認識継続時間と、前記第1物体及び前記第2物体についての横方向速度自体又は前記横方向速度の算出の可否とに基づいて前記衝突可能性又は前記動作支援を変更することを特徴とする。
The operation support system according to the present invention includes:
A radar that emits an electromagnetic wave to a peripheral object existing around a moving object and outputs a reflected wave signal corresponding to a reflected wave from the peripheral object;
A camera that captures a peripheral image including the peripheral object and outputs an image signal corresponding to the peripheral image;
Recognizing the peripheral object included in the reflected wave signal as a first object, recognizing the peripheral object included in the image signal as a second object, and matching the first object and the second object, the target object A collision possibility determination device that specifies the collision possibility of the moving object with respect to the target object, and
An operation support apparatus for supporting the operation of the moving object according to the collision possibility;
Comprising:
A part or all of the motion support system is provided inside or outside the moving object,
The image recognition continuation time during which the recognition of the second object is continued, the lateral velocity of the second object, and information on whether the lateral velocity can be detected by either the radar or the camera. Based on the above, the possibility of collision or the motion support is changed.
The operation support system according to the present invention includes:
A radar that emits an electromagnetic wave to a peripheral object existing around a moving object and outputs a reflected wave signal corresponding to a reflected wave from the peripheral object;
A camera that captures a peripheral image including the peripheral object and outputs an image signal corresponding to the peripheral image;
Recognizing the peripheral object included in the reflected wave signal as a first object, recognizing the peripheral object included in the image signal as a second object, and matching the first object and the second object, the target object A collision possibility determination device that specifies the collision possibility of the moving object with respect to the target object, and
An operation support device for supporting the movement of the moving object according to the collision possibility,
A part or all of the motion support system is provided inside or outside the moving object,
Based on the image recognition continuation time during which the recognition of the second object continues and the lateral velocity itself or the possibility of calculation of the lateral velocity for the first object and the second object, The operation support is changed.

レーダの検出結果(反射波信号)及びカメラの検出結果(画像信号)を組み合わせて対象物体を特定する場合、対象物体までの距離は、レーダの検出値を用いることで精度良く検出することが可能となる場合が多い。また、レーダの検出値により算出した対象物体までの距離を用いる場合、レーダの検出値よりも周辺画像の方が、周辺物体の横方向速度を精度良く算出することができる場合が多い。   When the target object is specified by combining the radar detection result (reflected wave signal) and the camera detection result (image signal), the distance to the target object can be accurately detected using the radar detection value. In many cases. In addition, when the distance to the target object calculated using the detection value of the radar is used, the peripheral image can often calculate the lateral speed of the peripheral object with higher accuracy than the detection value of the radar.

本発明によれば、周辺画像に基づく第2物体の認識が継続している画像認識継続時間と、第1物体及び第2物体についての横方向速度自体又は横方向速度の算出の可否とに基づいて衝突可能性又は動作支援を変更する。   According to the present invention, based on the image recognition continuation time during which the recognition of the second object based on the peripheral image is continued, and whether or not the lateral speed itself or the lateral speed can be calculated for the first object and the second object. Change the collision probability or motion support.

これにより、画像認識継続時間を用いることで、周辺画像に基づく横方向位置又は横方向速度の信頼性を衝突可能性又は動作支援に反映することが可能となる。加えて、第1物体及び第2物体についての横方向速度自体又は横方向速度の算出の可否を用いることで、レーダ及びカメラの検出結果の信頼性をより正確に反映した動作支援を行うことが可能となる。   Accordingly, by using the image recognition duration time, it is possible to reflect the reliability of the lateral position or the lateral speed based on the peripheral image in the collision possibility or the motion support. In addition, it is possible to perform operation support that more accurately reflects the reliability of the detection results of the radar and the camera by using whether or not the lateral speed itself or the lateral speed of the first object and the second object can be calculated. It becomes possible.

前記衝突可能性判定装置は、前記対象物体が前記移動物体の進路上に存在する時間である進路オーバーラップ時間を算出する進路オーバーラップ時間算出部を備え、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置又は将来位置の少なくとも一方が、前記移動物体の進路上に存在する場合、前記進路オーバーラップ時間に所定値を加算し、前記画像認識継続時間に基づいて、又は前記第1物体及び前記第2物体についての横方向速度自体若しくは前記横方向速度の算出の可否に基づいて前記進路オーバーラップ時間に前記所定値を加算する条件を変更してもよい。
The collision possibility determination device includes a route overlap time calculation unit that calculates a route overlap time that is a time during which the target object is present on the route of the moving object, and the route overlap time calculation unit includes: When at least one of the current position or the future position of the target object is on the path of the moving object , a predetermined value is added to the path overlap time, and the first object is based on the image recognition duration time or In addition, the condition for adding the predetermined value to the course overlap time may be changed based on the lateral speed itself of the second object or whether the lateral speed can be calculated.

本発明によれば、第2物体の認識が継続している画像認識継続時間に基づいて、又は周辺物体についての横方向速度自体若しくは横方向速度の算出の可否に基づいて進路オーバーラップ時間に所定値を加算する条件を変更する。
According to the present invention, the course overlap time is determined based on the image recognition duration time during which the second object is continuously recognized, or based on whether or not the lateral speed of the surrounding object itself or the lateral speed can be calculated. Change the condition for adding values .

これにより、画像認識継続時間を用いることで、画像認識の信頼性を進路オーバーラップ時間に反映することが可能となる。或いは、周辺物体についての横方向速度又は横方向速度の算出の可否を用いることで、画像認識の信頼性をより正確に反映した進路オーバーラップ時間を算出することが可能となる。   Thus, by using the image recognition continuation time, it is possible to reflect the reliability of the image recognition in the course overlap time. Alternatively, it is possible to calculate the course overlap time more accurately reflecting the reliability of the image recognition by using the lateral velocity of the surrounding objects or the possibility of calculating the lateral velocity.

前記衝突可能性判定装置は、前記進路オーバーラップ時間に応じて前記衝突可能性を判定してもよい。これにより、画像認識の信頼性を衝突可能性に反映することが可能となる。   The collision possibility determination device may determine the collision possibility according to the course overlap time. As a result, the reliability of image recognition can be reflected in the possibility of collision.

前記移動物体に対して動作支援を行うに当たり、前記動作支援装置は、前記進路オーバーラップ時間に応じて前記動作支援を変更してもよい。これにより、画像認識の信頼性を動作支援に反映することが可能となる。   In performing motion support for the moving object, the motion support device may change the motion support in accordance with the course overlap time. As a result, the reliability of image recognition can be reflected in the operation support.

前記画像認識継続時間が所定の時間閾値を超えて継続して認識されている場合、前記進路オーバーラップ時間算出部は、少なくとも前記対象物体の将来位置が前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算してもよい。これにより、画像認識の信頼性が高い状態において、進路オーバーラップ時間を適切に反映することが可能となる。
When the image recognition duration time is continuously recognized exceeding a predetermined time threshold, the course overlap time calculation unit, if at least the future position of the target object exists on the course of the moving object, The predetermined value may be added to the course overlap time. This makes it possible to appropriately reflect the course overlap time in a state where the reliability of image recognition is high.

前記画像認識継続時間が前記所定の時間閾値を超えて継続して認識されていない場合、前記進路オーバーラップ時間算出部は、前記第2物体の横方向速度が所定の速度閾値以上であり且つ少なくとも前記対象物体の将来位置が前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算してもよい。これにより、横方向速度が比較的大きいという緊急度合いの高い状況において、進路オーバーラップ時間を適切に算出することが可能となる。
When the image recognition duration time is not continuously recognized beyond the predetermined time threshold, the course overlap time calculation unit is configured such that the lateral speed of the second object is equal to or higher than a predetermined speed threshold and If the future position of the target object exists on the path of the moving object, the predetermined value may be added to the path overlap time. This makes it possible to appropriately calculate the course overlap time in a situation of high urgency where the lateral speed is relatively large.

前記対象物体の現在位置及び将来位置の両方が、前記移動物体の進路上に存在しない場合、前記進路オーバーラップ時間算出部は、前記進路オーバーラップ時間から前記所定値を減算してもよい。これにより、衝突可能性が低い場合、進路オーバーラップ時間を適切に算出することが可能となる。
When both the current position and the future position of the target object do not exist on the path of the moving object, the path overlap time calculation unit may subtract the predetermined value from the path overlap time. Thereby, when the possibility of collision is low, it is possible to appropriately calculate the course overlap time.

前記進路オーバーラップ時間算出部は、前記対象物体の現在位置が前記移動物体の進路上に存在し且つ前記対象物体の将来位置が前記移動物体の進路上に存在しない場合、前記進路オーバーラップ時間の前回値を保持してもよい。これにより、衝突可能性が相対的に低い場合、進路オーバーラップ時間を適切に算出することが可能となる。   The route overlap time calculation unit calculates the route overlap time when the current position of the target object exists on the route of the moving object and the future position of the target object does not exist on the route of the movable object. The previous value may be held. Thereby, when the possibility of collision is relatively low, it is possible to appropriately calculate the course overlap time.

前記第1物体及び前記第2物体の両方の横方向移動が検出されている場合、前記進路オーバーラップ時間算出部は、少なくとも前記対象物体の将来位置が、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算してもよい。これにより、衝突可能性が相対的に高い場合、進路オーバーラップ時間を適切に算出することが可能となる。
When the lateral movement of both the first object and the second object is detected, the course overlap time calculation unit determines that at least the future position of the target object exists on the course of the moving object. The predetermined value may be added to the course overlap time. Thereby, when the possibility of collision is relatively high, it is possible to appropriately calculate the course overlap time.

前記第1物体が認識され且つ前記第2物体が認識されていない場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置の両方が、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算してもよい。これにより、第2物体が認識されていない場合でも、進路オーバーラップ時間を適切に算出することが可能となる。
When the first object is recognized and the second object is not recognized, the course overlap time calculation unit determines that both the current position and the future position of the target object exist on the path of the moving object. For example, the predetermined value may be added to the course overlap time. Thereby, even when the second object is not recognized, it is possible to appropriately calculate the course overlap time.

前記第1物体が認識され且つ前記第2物体が認識されていない場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置の一方のみが、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間の前回値を保持してもよい。これにより、第2物体が認識されていない場合でも、進路オーバーラップ時間を適切に算出することが可能となる。   When the first object is recognized and the second object is not recognized, the course overlap time calculation unit has only one of the current position and the future position of the target object on the course of the moving object. If so, the previous value of the course overlap time may be held. Thereby, even when the second object is not recognized, it is possible to appropriately calculate the course overlap time.

前記第2物体の横方向移動が検出され且つ前記第1物体の横方向移動が検出されず、且つ前記第2物体の横方向速度が所定の速度閾値を下回る場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置が、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算してもよい。これにより、第1物体の横方向移動が検出されない場合でも、進路オーバーラップ時間を適切に算出することが可能となる。
When the lateral movement of the second object is detected, the lateral movement of the first object is not detected, and the lateral speed of the second object is below a predetermined speed threshold, the path overlap time calculation unit If the current position and future position of the target object exist on the path of the moving object, the predetermined value may be added to the path overlap time. Thereby, even when the lateral movement of the first object is not detected, it is possible to appropriately calculate the course overlap time.

前記第2物体の横方向移動が検出され且つ前記第1物体の横方向移動が検出されず、且つ前記第2物体の横方向速度が前記所定の速度閾値を下回る場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置の一方のみが、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間の前回値を保持してもよい。これにより、第1物体の横方向移動が検出されない場合でも、進路オーバーラップ時間を適切に算出することが可能となる。   When the lateral movement of the second object is detected, the lateral movement of the first object is not detected, and the lateral speed of the second object is below the predetermined speed threshold, the course overlap time calculation The unit may hold the previous value of the course overlap time if only one of the current position and the future position of the target object is present on the course of the moving object. Thereby, even when the lateral movement of the first object is not detected, it is possible to appropriately calculate the course overlap time.

本発明に係る物体認識装置は、移動物体の周辺に存在する周辺物体の位置に関する位置情報を取得する位置情報取得装置と、前記位置情報に基づく前記周辺物体の現在位置又は将来位置が前記移動物体の進路上に存在する時間である進路オーバーラップ時間を算出する進路オーバーラップ時間算出部とを備えるものであって、前記周辺物体の現在位置又は将来位置の少なくとも一方が、前記移動物体の進路上に存在する場合、前記進路オーバーラップ時間に所定値を加算し、前記位置情報取得装置による前記周辺物体の位置情報の取得が継続している位置情報取得継続時間に基づいて、又は前記周辺物体についての速度自体若しくは前記速度の算出の可否に基づいて前記進路オーバーラップ時間に前記所定値を加算する条件を変更することを特徴とする。
An object recognition apparatus according to the present invention includes a position information acquisition apparatus that acquires position information related to positions of surrounding objects existing around a moving object, and a current position or a future position of the surrounding object based on the position information is the moving object. A route overlap time calculating unit that calculates a route overlap time that is a time existing on the route of the moving object, wherein at least one of a current position or a future position of the peripheral object is on the route of the moving object. A predetermined value is added to the route overlap time , and the position information acquisition device continues to acquire the position information of the peripheral object by the position information acquisition device, or the peripheral object changing the conditions for adding the predetermined value to the path overlap time based on whether the rate itself or calculating the speed And butterflies.

本発明によれば、周辺物体の位置情報の取得が継続している位置情報取得継続時間に基づいて、又は周辺物体についての横方向速度自体若しくは横方向速度の算出の可否に基づいて進路オーバーラップ時間に所定値を加算する条件を変更する。
According to the present invention, the route overlap is based on the position information acquisition continuation time during which the acquisition of the position information of the peripheral object is continued, or based on whether or not the lateral speed of the peripheral object itself or the calculation of the lateral speed can be calculated. The condition for adding a predetermined value to the time is changed.

これにより、位置情報取得継続時間を用いることで、位置情報の信頼性を進路オーバーラップ時間に反映することが可能となる。或いは、周辺物体についての速度自体又は速度の算出の可否を用いることで、位置情報の信頼性をより正確に反映した進路オーバーラップ時間を算出することが可能となる。   Thus, by using the position information acquisition continuation time, the reliability of the position information can be reflected in the course overlap time. Alternatively, it is possible to calculate the course overlap time that more accurately reflects the reliability of the position information by using the speed of the surrounding object itself or whether the speed can be calculated.

本発明によれば、検出結果の信頼性を制御に反映することが可能となる。   According to the present invention, the reliability of the detection result can be reflected in the control.

本発明の一実施形態に係る運転支援システムとしての車両の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle as a driving assistance system which concerns on one Embodiment of this invention. 前記実施形態における運転支援制御のフローチャートである。It is a flowchart of the driving assistance control in the said embodiment. 対象物体の現在位置に基づく進路オーバーラップ量を説明するための第1図である。FIG. 6 is a first diagram for explaining a route overlap amount based on a current position of a target object. 前記対象物体の前記現在位置に基づく前記進路オーバーラップ量を説明するための第2図である。FIG. 6 is a second diagram for explaining the course overlap amount based on the current position of the target object. 前記対象物体の将来位置に基づく前記進路オーバーラップ量を説明するための図である。It is a figure for demonstrating the said course overlap amount based on the future position of the said target object. 進路オーバーラップ時間の算出モードを選択するフローチャート(図2のS5の詳細)である。It is a flowchart (detail of S5 of FIG. 2) which selects the calculation mode of course overlap time. 前記進路オーバーラップ時間の前記算出モードの選択方法の説明図である。It is explanatory drawing of the selection method of the said calculation mode of the said course overlap time. 前記進路オーバーラップ時間を算出するフローチャート(図2のS6の詳細)である。It is a flowchart (detail of S6 of FIG. 2) which calculates the course overlap time. 前記進路オーバーラップ時間の算出方法の説明図である。It is explanatory drawing of the calculation method of the said course overlap time.

A.一実施形態
A1.構成
[A1−1.全体構成]
図1は、本発明の一実施形態に係る運転支援システムとしての車両10(以下「自車10」ともいう。)の構成を示すブロック図である。車両10は、物体認識装置12、車両挙動安定システム14(以下「VSAシステム14」という。)、電動パワーステアリングシステム16(以下「EPSシステム16」という。)、ポップアップフードシステム18(以下「PUHシステム18」という。)、車速センサ20及び警報装置22を有する。
A. Embodiment A1. Configuration [A1-1. overall structure]
FIG. 1 is a block diagram showing a configuration of a vehicle 10 (hereinafter also referred to as “own vehicle 10”) as a driving support system according to an embodiment of the present invention. The vehicle 10 includes an object recognition device 12, a vehicle behavior stabilization system 14 (hereinafter referred to as “VSA system 14”), an electric power steering system 16 (hereinafter referred to as “EPS system 16”), and a pop-up hood system 18 (hereinafter referred to as “PUH system”). 18 ”), and includes a vehicle speed sensor 20 and an alarm device 22.

物体認識装置12は、自車10の周囲に現れる各種の周辺物体100(例えば、歩行者102(図3、図5)、他車104(図4)及び壁)を検出する。そして、物体認識装置12は、周辺物体100(以下「検出物体100」ともいう。)のうち自車10の制御に関連するものを対象物体100tarとして選択又は特定する。物体認識装置12は、自車10から対象物体100tarまでの距離Lを算出すると共に、対象物体100tarの属性Prtarを判別する。ここでの属性Prtarには、例えば、対象物体100tarの種類Ca(例えば、車両、歩行者(ヒト)又は壁)等が含まれる。   The object recognition device 12 detects various peripheral objects 100 (for example, a pedestrian 102 (FIGS. 3 and 5), another vehicle 104 (FIG. 4), and a wall) appearing around the host vehicle 10. Then, the object recognition device 12 selects or specifies a target object 100tar that is related to the control of the host vehicle 10 among the peripheral objects 100 (hereinafter also referred to as “detected object 100”). The object recognition device 12 calculates the distance L from the host vehicle 10 to the target object 100tar, and determines the attribute Prtar of the target object 100tar. The attribute Prtar here includes, for example, the type Ca (for example, vehicle, pedestrian (human) or wall) of the target object 100tar.

VSAシステム14の電子制御装置30(以下「VSA ECU30」という。)は、車両挙動安定化制御を実行するものであり、図示しないブレーキシステム等の制御を介してカーブ路の旋回時、自車10に対する他車104の接近時等における車両10の挙動を安定化させる。   An electronic control unit 30 (hereinafter referred to as “VSA ECU 30”) of the VSA system 14 performs vehicle behavior stabilization control, and the vehicle 10 is turned when turning on a curved road through control of a brake system (not shown). The behavior of the vehicle 10 is stabilized when the other vehicle 104 approaches the vehicle.

EPSシステム16の電子制御装置32(以下「EPS ECU32」という。)は、操舵アシスト制御を実行するものであり、電動パワーステアリング装置の構成要素{電動モータ、トルクセンサ及び舵角センサ(いずれも図示せず)等}の制御を介して運転者による操舵をアシストする。   An electronic control device 32 (hereinafter referred to as “EPS ECU 32”) of the EPS system 16 executes steering assist control, and is a constituent element of an electric power steering device {an electric motor, a torque sensor, and a steering angle sensor (all shown in FIG. Etc.) assists the steering by the driver.

PUHシステム18の電子制御装置34(以下「PUH ECU34」という。)は、車両10が歩行者102(図3及び図5)との衝突事故に遭った場合、車両10のポップアップフード(図示せず)を跳ね上げ、歩行者102の頭部が車体に当たったときの衝撃を和らげる。   The electronic control unit 34 (hereinafter referred to as “PUH ECU 34”) of the PUH system 18 is a pop-up hood (not shown) of the vehicle 10 when the vehicle 10 encounters a collision with the pedestrian 102 (FIGS. 3 and 5). ) And the impact when the head of the pedestrian 102 hits the vehicle body is reduced.

車速センサ20は、車両10の車速V[km/h]を検出して物体認識装置12等に出力する。警報装置22は、物体認識装置12等からの指令に基づき、運転者に対する警報を行う。警報装置22は、例えば、図示しない表示装置及びスピーカを有する。   The vehicle speed sensor 20 detects the vehicle speed V [km / h] of the vehicle 10 and outputs it to the object recognition device 12 or the like. The warning device 22 issues a warning to the driver based on a command from the object recognition device 12 or the like. The alarm device 22 includes, for example, a display device and a speaker (not shown).

[A1−2.物体認識装置12]
図1に示すように、物体認識装置12は、レーダ40、カメラ42及び物体認識電子制御装置44(以下「物体認識ECU44」又は「ECU44」という。)を有する。
[A1-2. Object recognition device 12]
As shown in FIG. 1, the object recognition device 12 includes a radar 40, a camera 42, and an object recognition electronic control device 44 (hereinafter referred to as “object recognition ECU 44” or “ECU 44”).

(A1−2−1.レーダ40)
レーダ40は、電磁波(ここではミリ波)である送信波Wtを車両10の外部に出力し、送信波Wtのうち検出物体100(例えば、歩行者102、他車104)に反射して戻って来る反射波Wrを受信する。そして、反射波Wrに対応する検出信号(以下「反射波信号Swr」又は「信号Swr」という。)をECU44に出力する。以下では、レーダ40が検出した検出物体100を「第1物体100r」又は「レーダ物標100r」ともいう。
(A1-2-1. Radar 40)
The radar 40 outputs a transmission wave Wt, which is an electromagnetic wave (here, a millimeter wave), to the outside of the vehicle 10, and reflects back to the detection object 100 (for example, a pedestrian 102, another vehicle 104) out of the transmission wave Wt. The incoming reflected wave Wr is received. Then, a detection signal corresponding to the reflected wave Wr (hereinafter referred to as “reflected wave signal Swr” or “signal Swr”) is output to the ECU 44. Hereinafter, the detected object 100 detected by the radar 40 is also referred to as “first object 100r” or “radar target 100r”.

レーダ40は、車両10の前側(例えば、フロントバンパ及び/又はフロントグリル)に配置される。前側に加えて又は前側に代えて、車両10の後ろ側(例えば、リアバンパ及び/又はリアグリル)又は側方(例えば、フロントバンパの側方)に配置してもよい。   The radar 40 is disposed on the front side of the vehicle 10 (for example, a front bumper and / or a front grill). In addition to the front side or instead of the front side, the vehicle 10 may be arranged on the rear side (for example, the rear bumper and / or the rear grille) or the side (for example, the side of the front bumper).

また、後述するように、ミリ波を出力するレーダ40の代わりに、レーザレーダ、超音波センサ等のセンサを用いることもできる。   As will be described later, a sensor such as a laser radar or an ultrasonic sensor can be used instead of the radar 40 that outputs millimeter waves.

(A1−2−2.カメラ42)
カメラ42(撮像手段)は、車両10の周囲(対象物体100tarを含む。)の画像Imc(以下「周辺画像Imc」又は「撮像画像Imc」ともいう。)を取得する。そして、画像Imcに対応する信号(以下「画像信号Sic」又は「信号Sic」という。)をECU44に出力する。以下では、カメラ42が検出した検出物体100を「第2物体100c」又は「カメラ物標100c」ともいう。
(A1-2-2. Camera 42)
The camera 42 (imaging means) acquires an image Imc (hereinafter also referred to as “peripheral image Imc” or “captured image Imc”) around the vehicle 10 (including the target object 100 tar). Then, a signal corresponding to the image Imc (hereinafter referred to as “image signal Sic” or “signal Sic”) is output to the ECU 44. Hereinafter, the detected object 100 detected by the camera 42 is also referred to as a “second object 100c” or a “camera target 100c”.

本実施形態では、1つのカメラ42を用いるが、2つのカメラ42を左右対称に配置させてステレオカメラを構成してもよい。カメラ42は、1秒間に15フレーム以上(例えば30フレーム)で画像Imcを取得する。カメラ42は、主に可視光領域の波長を有する光を利用するモノクロカメラであるが、カラーカメラ又は赤外線カメラであってもよい。カメラ42は、例えば、車両10の車室内の前方部分における車幅方向中心部(例えば、バックミラー周辺)に配置されている。或いは、カメラ42は、車両10の前部バンパー部における車幅方向中心部に配置されてもよい。   In the present embodiment, one camera 42 is used, but a stereo camera may be configured by arranging two cameras 42 symmetrically. The camera 42 acquires the image Imc at 15 frames or more (for example, 30 frames) per second. The camera 42 is a monochrome camera that mainly uses light having a wavelength in the visible light region, but may be a color camera or an infrared camera. The camera 42 is disposed, for example, at the center in the vehicle width direction (for example, around the rearview mirror) in the front portion of the vehicle interior of the vehicle 10. Alternatively, the camera 42 may be disposed at the center in the vehicle width direction in the front bumper portion of the vehicle 10.

(A1−2−3.物体認識ECU44)
物体認識ECU44は、物体認識装置12の全体を制御するものであり、図1に示すように、入出力部50、演算部52及び記憶部54を有する。
(A1-2-3. Object recognition ECU 44)
The object recognition ECU 44 controls the entire object recognition device 12, and includes an input / output unit 50, a calculation unit 52, and a storage unit 54 as shown in FIG.

レーダ40からの反射波信号Swr及びカメラ42からの画像信号Sicは、入出力部50を介して物体認識ECU44に供給される。また、物体認識ECU44と、VSA ECU30、EPS ECU32及びPUH ECU34との間の通信は、入出力部50及び通信線56を介して行われる。入出力部50は、入力されたアナログ信号をデジタル信号に変換する図示しないA/D変換回路を備える。   The reflected wave signal Swr from the radar 40 and the image signal Sic from the camera 42 are supplied to the object recognition ECU 44 via the input / output unit 50. Communication between the object recognition ECU 44 and the VSA ECU 30, EPS ECU 32, and PUH ECU 34 is performed via the input / output unit 50 and the communication line 56. The input / output unit 50 includes an A / D conversion circuit (not shown) that converts an input analog signal into a digital signal.

演算部52は、レーダ40及びカメラ42からの各信号Swr、Sicに基づく演算を行い、演算結果に基づき、VSA ECU30、EPS ECU32及びPUH ECU34に対する信号を生成する。   The calculation unit 52 performs calculations based on the signals Swr and Sic from the radar 40 and the camera 42, and generates signals for the VSA ECU 30, EPS ECU 32, and PUH ECU 34 based on the calculation results.

図1に示すように、演算部52は、レーダ情報処理部60、カメラ情報処理部62及び対象物体情報処理部64を有する。各処理部60、62、64は、記憶部54に記憶されているプログラムを実行することにより実現される。前記プログラムは、図示しない無線通信装置(携帯電話機、スマートフォン等)を介して外部から供給されてもよい。前記プログラムの一部をハードウェア(回路部品)で構成することもできる。   As illustrated in FIG. 1, the calculation unit 52 includes a radar information processing unit 60, a camera information processing unit 62, and a target object information processing unit 64. Each processing unit 60, 62, 64 is realized by executing a program stored in the storage unit 54. The program may be supplied from the outside via a wireless communication device (mobile phone, smartphone, etc.) not shown. A part of the program can be configured by hardware (circuit parts).

レーダ情報処理部60は、レーダ40が検出した反射波Wr(反射波信号Swr)に基づいて検出物体100(第1物体100r)の情報(以下「レーダ情報Ir」、「第1物体情報Ir」又は「情報Ir」という。)を算出する。カメラ情報処理部62は、カメラ42が取得した周辺画像Imcを用いて検出物体100(第2物体100c)の情報(以下「カメラ情報Ic」、「第2物体情報Ic」又は「情報Ic」という。)を算出する。   The radar information processing unit 60 detects information (hereinafter “radar information Ir” and “first object information Ir”) of the detected object 100 (first object 100r) based on the reflected wave Wr (reflected wave signal Swr) detected by the radar 40. Or “information Ir”). The camera information processing unit 62 uses the peripheral image Imc acquired by the camera 42 to provide information on the detected object 100 (second object 100c) (hereinafter referred to as “camera information Ic”, “second object information Ic”, or “information Ic”). .) Is calculated.

対象物体情報処理部64(以下、「処理部64」ともいう。)は、レーダ情報処理部60が算出したレーダ情報Irと、カメラ情報処理部62が算出したカメラ情報Icとを組み合わせた情報(以下「対象物体情報It」又は「情報It」という。)を算出する。換言すると、処理部64は、いわゆるフュージョン処理を行う。情報Itは、レーダ40が検出した検出物体100(第1物体100r)と、カメラ42が検出した検出物体100(第2物体100c)とに基づいて特定する対象物体100tarの情報である。   The target object information processing unit 64 (hereinafter also referred to as “processing unit 64”) is information (a combination of the radar information Ir calculated by the radar information processing unit 60 and the camera information Ic calculated by the camera information processing unit 62). Hereinafter, “target object information It” or “information It” is calculated. In other words, the processing unit 64 performs so-called fusion processing. The information It is information on the target object 100tar specified based on the detected object 100 (first object 100r) detected by the radar 40 and the detected object 100 (second object 100c) detected by the camera 42.

処理部64は、TTC算出部70(以下「算出部70」ともいう。)と、進路オーバーラップ時間算出部72(以下「Tolp算出部72」又は「算出部72」ともいう。)と、衝突可能性算出部74(以下「Pc算出部74」又は「算出部74」ともいう。)とを備える。   The processing unit 64 collides with a TTC calculation unit 70 (hereinafter also referred to as “calculation unit 70”) and a course overlap time calculation unit 72 (hereinafter also referred to as “Tolp calculation unit 72” or “calculation unit 72”). Possibility calculation unit 74 (hereinafter also referred to as “Pc calculation unit 74” or “calculation unit 74”).

TTC算出部70は、自車10が対象物体100tarに接触(又は衝突)するまでの時間を示すTTC(Time to Collision)を算出する。進路オーバーラップ時間算出部72は、進路オーバーラップ時間Tolpを算出する。時間Tolpは、対象物体100tarが車両10の進路106(図3〜図5)上に存在する時間である。時間Tolpの詳細については、図2、図8、図9等を用いて後述する。   The TTC calculation unit 70 calculates TTC (Time to Collision) indicating the time until the host vehicle 10 contacts (or collides) with the target object 100tar. The course overlap time calculation unit 72 calculates a course overlap time Tolp. The time Tolp is a time during which the target object 100tar is present on the route 106 (FIGS. 3 to 5) of the vehicle 10. Details of the time Tolp will be described later with reference to FIGS.

衝突可能性算出部74は、衝突可能性Pcを算出する。衝突可能性Pcは、対象物体100tar(歩行者102等)が自車10に接触(又は衝突)する可能性である。   The collision possibility calculation unit 74 calculates the collision possibility Pc. The collision possibility Pc is a possibility that the target object 100tar (pedestrian 102 or the like) contacts (or collides) with the own vehicle 10.

記憶部54は、デジタル信号に変換された撮像信号、各種演算処理に供される一時データ等を記憶するRAM(Random Access Memory)、及び実行プログラム、テーブル又はマップ等を記憶するROM(Read Only Memory)等で構成される。   The storage unit 54 includes an imaging signal converted into a digital signal, a RAM (Random Access Memory) that stores temporary data used for various arithmetic processes, and a ROM (Read Only Memory) that stores an execution program, a table, a map, or the like. ) Etc.

A2.運転支援制御
[A2−1.運転支援制御の全体的な流れ]
図2は、本実施形態における運転支援制御のフローチャートである。運転支援制御は、物体認識ECU44の演算部52(処理部60、62、64)及びその他のECU30、32、34の演算部(図示せず)が実行する。各ECU30、32、34、44は、図2に示す処理を所定の演算周期(例えば、数μsec〜数百msecのいずれかの周期)で繰り返す。
A2. Driving support control [A2-1. Overall flow of driving support control]
FIG. 2 is a flowchart of the driving support control in the present embodiment. The driving support control is executed by the calculation unit 52 (processing units 60, 62, 64) of the object recognition ECU 44 and the calculation units (not shown) of the other ECUs 30, 32, 34. Each ECU 30, 32, 34, 44 repeats the process shown in FIG. 2 at a predetermined calculation cycle (for example, any cycle of several μsec to several hundred msec).

ステップS1において、ECU44(レーダ情報処理部60)は、レーダ40からの反射波信号Swrに基づいて、検出物体100(レーダ物標100r)のレーダ情報Irを算出する。レーダ情報Irには、レーダ物標100rの位置Por、速度Vr、加速度ar等が含まれる。なお、レーダ40の検出範囲内に複数のレーダ物標100rが存在する場合、ECU44は、各レーダ物標100rについて位置Por、速度Vr、加速度ar等を算出する。   In step S1, the ECU 44 (radar information processing unit 60) calculates radar information Ir of the detection object 100 (radar target 100r) based on the reflected wave signal Swr from the radar 40. The radar information Ir includes the position Por of the radar target 100r, the velocity Vr, the acceleration ar, and the like. If there are a plurality of radar targets 100r within the detection range of the radar 40, the ECU 44 calculates the position Por, the velocity Vr, the acceleration ar, etc. for each radar target 100r.

ステップS2において、ECU44(カメラ情報処理部62)は、カメラ42の画像信号Sic(撮像画像Imc)に基づいて、検出物体100(カメラ物標100c)のカメラ情報Icを算出する。カメラ情報Icには、カメラ物標100cの位置Poc、横方向速度Vlc、加速度ac、属性Prc等が含まれる。また、属性Prcとしては、カメラ物標100cの種類Ca(歩行者、車両等)、大きさ等が含まれる。また、撮像画像Imc内に複数のカメラ物標100cが存在する場合、ECU44は、各カメラ物標100cについて位置Poc、横方向速度Vlc、加速度ac、属性Prc等を算出する。   In step S2, the ECU 44 (camera information processing unit 62) calculates camera information Ic of the detected object 100 (camera target 100c) based on the image signal Sic (captured image Imc) of the camera 42. The camera information Ic includes the position Poc of the camera target 100c, the lateral speed Vlc, the acceleration ac, the attribute Prc, and the like. Further, the attribute Prc includes the type Ca (pedestrian, vehicle, etc.), size, etc. of the camera target 100c. When there are a plurality of camera targets 100c in the captured image Imc, the ECU 44 calculates the position Poc, the lateral speed Vlc, the acceleration ac, the attribute Prc, and the like for each camera target 100c.

ステップS3において、ECU44(対象物体情報処理部64)は、レーダ情報Ir(レーダ物標100r)とカメラ情報Ic(カメラ物標100c)をマッチングするマッチング判断を行う。マッチング判断では、レーダ情報処理部60で認識された第1物体100rの位置Por及びカメラ情報処理部62で認識された第2物体100cの位置Pocが一致する又は所定距離内にあるときに同一の対象物体100tarであると判定する。   In step S3, the ECU 44 (target object information processing unit 64) performs a matching determination for matching the radar information Ir (radar target 100r) and the camera information Ic (camera target 100c). The matching determination is the same when the position Por of the first object 100r recognized by the radar information processing unit 60 and the position Poc of the second object 100c recognized by the camera information processing unit 62 match or are within a predetermined distance. It is determined that the target object is 100 tar.

ステップS4において、ECU44は、自車10が対象物体100tarに接触(又は衝突)するまでの時間を示すTTCを算出する。   In step S4, the ECU 44 calculates TTC indicating the time until the host vehicle 10 contacts (or collides with) the target object 100tar.

ステップS5において、ECU44は、進路オーバーラップ時間Tolp(以下「オーバーラップ時間Tolp」又は「時間Tolp」ともいう。)の算出モードMolp(以下「モードMolp」ともいう。)を選択する。時間Tolpは、対象物体100tarが車両10の進路106(図3〜図5)上に存在する時間である。また、算出モードMolpは、時間Tolpを算出するためのモードであり、本実施形態では、Mode 1とMode 2の2つを用いる。ステップS5の詳細は、図6を参照して後述する。   In step S5, the ECU 44 selects a calculation mode Molp (hereinafter also referred to as “mode Molp”) for the course overlap time Tolp (hereinafter also referred to as “overlap time Tolp” or “time Tolp”). The time Tolp is a time during which the target object 100tar is present on the route 106 (FIGS. 3 to 5) of the vehicle 10. The calculation mode Molp is a mode for calculating the time Tolp, and in the present embodiment, Mode 1 and Mode 2 are used. Details of step S5 will be described later with reference to FIG.

ステップS6において、ECU44は、ステップS5で選択した算出モードMolpを用いてオーバーラップ時間Tolpを算出する。ステップS6の詳細は、図8を参照して後述する。   In step S6, the ECU 44 calculates the overlap time Tolp using the calculation mode Molp selected in step S5. Details of step S6 will be described later with reference to FIG.

ステップS7において、ECU44は、TTCとオーバーラップ時間Tolpから衝突可能性Pcを算出する。衝突可能性Pcは、対象物体100tar(歩行者102等)が自車10に接触(又は衝突)する可能性である。算出した衝突可能性Pcは、例えば、ECU30、32、34に対してECU44から出力される。   In step S7, the ECU 44 calculates a collision possibility Pc from the TTC and the overlap time Tolp. The collision possibility Pc is a possibility that the target object 100tar (pedestrian 102 or the like) contacts (or collides) with the own vehicle 10. The calculated collision possibility Pc is output from the ECU 44 to the ECUs 30, 32, and 34, for example.

なお、衝突可能性Pcを用いずに、TTC及び時間Tolpをそのまま用いることも可能である。その場合、例えば、TTC及び時間Tolpそれぞれの閾値との関係で、警報装置22を用いた警報、又は図示しないブレーキ装置を用いた自動ブレーキを行うことができる。   It is also possible to use the TTC and the time Tolp as they are without using the collision possibility Pc. In that case, for example, an alarm using the alarm device 22 or an automatic brake using an unillustrated brake device can be performed in relation to the threshold values of the TTC and the time Tolp.

また、時間Tolpが閾値を超えた場合のみ、衝突可能性Pcを判定すること、又は時間Tolpに応じてTTCの閾値を変更することも可能である。   Further, it is possible to determine the collision possibility Pc only when the time Tolp exceeds the threshold value, or to change the TTC threshold value according to the time Tolp.

ステップS8において、ECU44は、衝突可能性Pcに応じて運転支援を行う。具体的には、VSA ECU30は、例えば、衝突可能性Pcを用いて自動ブレーキ制御を実行する。EPS ECU32は、例えば、衝突可能性Pcを用いて自動ステアリング制御を実行する。PUH ECU34は、衝突可能性Pcを用いてPUH制御を実行する。物体認識ECU44は、警報装置22を介して所定の警告(例えば、警告音の出力又は警告表示)を行う。   In step S8, the ECU 44 performs driving assistance according to the collision possibility Pc. Specifically, the VSA ECU 30 executes automatic brake control using, for example, the collision possibility Pc. The EPS ECU 32 executes automatic steering control using, for example, the collision possibility Pc. The PUH ECU 34 executes PUH control using the collision possibility Pc. The object recognition ECU 44 issues a predetermined warning (for example, output of warning sound or warning display) via the alarm device 22.

[A2−2.進路オーバーラップ時間Tolp]
(A2−2−1.進路オーバーラップ時間Tolpの意義)
上記のように、本実施形態では、TTCに加え、進路オーバーラップ時間Tolpを用いて衝突可能性Pcを算出する。すなわち、時間Tolpは、衝突可能性Pcを判定するための一指標として用いられる。時間Tolpの値が小さい場合、衝突可能性Pcが相対的に低いと判定され、時間Tolpの値が大きい場合、衝突可能性Pcが相対的に高いと判定される。
[A2-2. Course overlap time Tolp]
(A2-2-1. Significance of route overlap time Tolp)
As described above, in the present embodiment, the collision possibility Pc is calculated using the course overlap time Tolp in addition to the TTC. That is, the time Tolp is used as an index for determining the collision possibility Pc. When the time Tolp value is small, it is determined that the collision possibility Pc is relatively low, and when the time Tolp value is large, it is determined that the collision possibility Pc is relatively high.

(A2−2−2.進路オーバーラップ時間Tolpの算出の概要)
本実施形態では、進路オーバーラップ時間Tolpの算出モードMolpを選択した上で(図2のS5)、時間Tolpを算出する。算出モードMolpには、Mode 1及びMode 2が含まれる。Mode 1は、画像認識による第2物体100cの横方向速度Vlcの信頼性(精度)が相対的に高い場合に用いられる。Mode 2は、画像認識による第2物体100cの横方向速度Vlcの信頼性(精度)が相対的に低い場合に用いられる。各モードMolpの詳細については、図7、図9等を参照して詳述する。
(A2-2-2. Outline of calculation of route overlap time Tolp)
In this embodiment, after selecting the calculation mode Molp for the course overlap time Tolp (S5 in FIG. 2), the time Tolp is calculated. The calculation mode Molp includes Mode 1 and Mode 2. Mode 1 is used when the reliability (accuracy) of the lateral velocity Vlc of the second object 100c by image recognition is relatively high. Mode 2 is used when the reliability (accuracy) of the lateral velocity Vlc of the second object 100c by image recognition is relatively low. Details of each mode Molp will be described in detail with reference to FIGS.

いずれの算出モードMolpを用いる場合でも、進路オーバーラップの有無が利用される(図9)。そこで、まず進路オーバーラップについて説明する。   Regardless of which calculation mode Molp is used, the presence or absence of a route overlap is used (FIG. 9). First, the route overlap will be described.

進路オーバーラップは、進路オーバーラップ量Dolpが所定の閾値THdolp(以下「オーバーラップ量閾値THdolp」ともいう。)以上である状態を意味する。本実施形態では、対象物体100tarの現在位置Ppre及び将来位置Pftrのそれぞれについて進路オーバーラップの有無が判定される。   The route overlap means a state in which the route overlap amount Dolp is equal to or greater than a predetermined threshold THdolp (hereinafter also referred to as “overlap amount threshold THdolp”). In the present embodiment, the presence or absence of a route overlap is determined for each of the current position Ppre and the future position Pftr of the target object 100tar.

(A2−2−3.進路オーバーラップ量Dolp)
(A2−2−3−1.現在位置Ppreに基づく進路オーバーラップ量Dolp)
図3及び図4は、対象物体100tarの現在位置Ppreに基づく進路オーバーラップ量Dolpを説明するための第1図及び第2図である。図3では、対象物体100tarとしての歩行者102が自車10の前方に存在する。図4では、対象物体100tarとしての他車104が自車10の前方に存在する。図3及び図4において、破線108lは、車両10の進路106の左端を示す仮想線であり、破線108rは、車両10の進路106の右端を示す仮想線である。仮想線108l、108rにより挟まれる領域が進路106となる。
(A2-2-3. Route overlap amount Dolp)
(A2-2-3-1. Course overlap amount Dolp based on the current position Ppre)
FIGS. 3 and 4 are FIGS. 1 and 2 for explaining the route overlap amount Dolp based on the current position Ppre of the target object 100tar. In FIG. 3, a pedestrian 102 as the target object 100 tar exists in front of the host vehicle 10. In FIG. 4, another vehicle 104 as the target object 100 tar is present in front of the host vehicle 10. 3 and 4, the broken line 108 l is a virtual line indicating the left end of the route 106 of the vehicle 10, and the broken line 108 r is a virtual line indicating the right end of the route 106 of the vehicle 10. A region sandwiched between the virtual lines 108l and 108r is the course 106.

図3及び図4では、破線108l、108rが、車両10の側面の位置に対応しているが、車両10の進路106を算出する目的であれば、車幅方向に変位させることも可能である。   3 and 4, the broken lines 108l and 108r correspond to the position of the side surface of the vehicle 10. However, for the purpose of calculating the course 106 of the vehicle 10, it can be displaced in the vehicle width direction. .

また、図3及び図4において、一点鎖線110lは、車両10から見た際の対象物体100tar(歩行者102、他車104)の左端を示す仮想線である。一点鎖線110rは、車両10から見た際の対象物体100tar(歩行者102、他車104)の右端を示す仮想線である。破線108l、108rと同様、一点鎖線110l、110rは、車幅方向に変位させることも可能である。   3 and 4, the alternate long and short dash line 110l is an imaginary line indicating the left end of the target object 100tar (pedestrian 102, other vehicle 104) when viewed from the vehicle 10. The alternate long and short dash line 110r is a virtual line indicating the right end of the target object 100tar (pedestrian 102, other vehicle 104) when viewed from the vehicle 10. Like the broken lines 108l and 108r, the alternate long and short dash lines 110l and 110r can be displaced in the vehicle width direction.

図3及び図4では、仮想線108l、108rを直線としているが、例えば、車両10が旋回中である場合、進路106に合わせて仮想線108l、108rを曲線状としてもよい。仮想線108l、108rを曲線状とするためには、例えば、図示しないヨーレートセンサにより検出したヨーレート等を用いて仮想線108l、108rを演算することができる。また、図示しないナビゲーション装置又は進路106(走行路)周辺に配置された光ビーコン等の装置(路側装置)から、進路106の形状に関する情報を取得し、当該情報を用いて仮想線108l、108rを算出することも可能である。   In FIGS. 3 and 4, the virtual lines 108 l and 108 r are straight lines. However, for example, when the vehicle 10 is turning, the virtual lines 108 l and 108 r may be curved according to the course 106. In order to make the virtual lines 108l and 108r curved, for example, the virtual lines 108l and 108r can be calculated using a yaw rate detected by a yaw rate sensor (not shown). Further, information on the shape of the route 106 is acquired from a navigation device (not shown) or a device (roadside device) such as an optical beacon arranged around the route 106 (traveling route), and the virtual lines 108l and 108r are obtained using the information. It is also possible to calculate.

図3及び図4において、Dolp_lは、左側の仮想線108lを基準としたときの進路106に対する対象物体100tar(歩行者102又は他車104)のオーバーラップ量である。すなわち、オーバーラップ量Dolp_lは、進路106の左端を示す仮想線108lから対象物体100tar(歩行者102又は他車104)の右端を示す仮想線110rまでの距離を示す。但し、図4では、他車104の右端を示す仮想線110rが、進路106の右端を示す仮想線108rよりも右側に位置し、進路106内に存在しない。このため、図4の例では、オーバーラップ量Dolp_lは、仮想線108l、108r間の距離となり、オーバーラップ量Dolp_lが取り得る最大値となる。   3 and 4, Dolp_l is the overlap amount of the target object 100tar (pedestrian 102 or other vehicle 104) with respect to the course 106 when the left virtual line 108l is used as a reference. That is, the overlap amount Dolp_l indicates a distance from a virtual line 108l indicating the left end of the route 106 to a virtual line 110r indicating the right end of the target object 100tar (pedestrian 102 or other vehicle 104). However, in FIG. 4, the virtual line 110 r indicating the right end of the other vehicle 104 is located on the right side of the virtual line 108 r indicating the right end of the route 106 and does not exist in the route 106. Therefore, in the example of FIG. 4, the overlap amount Dolp_l is the distance between the virtual lines 108l and 108r, and is the maximum value that the overlap amount Dolp_l can take.

同様に、Dolp_rは、右側の仮想線108rを基準としたときの進路106に対する対象物体100tar(歩行者102又は他車104)のオーバーラップ量である。すなわち、オーバーラップ量Dolp_rは、進路106の右端を示す仮想線108rから対象物体100tarの左端を示す仮想線110lまでの距離を示す。但し、図4では、他車104の左端を示す仮想線110lが、進路106の左端を示す仮想線108lよりも左側に位置し、進路106内に存在しない。このため、図4の例では、オーバーラップ量Dolp_rは、仮想線108l、108r間の距離となり、オーバーラップ量Dolp_rが取り得る最大値となる。   Similarly, Dolp_r is the overlap amount of the target object 100tar (pedestrian 102 or other vehicle 104) with respect to the course 106 when the right virtual line 108r is used as a reference. That is, the overlap amount Dolp_r indicates a distance from a virtual line 108r indicating the right end of the route 106 to a virtual line 110l indicating the left end of the target object 100tar. However, in FIG. 4, the virtual line 110 l indicating the left end of the other vehicle 104 is located on the left side of the virtual line 108 l indicating the left end of the route 106 and does not exist in the route 106. Therefore, in the example of FIG. 4, the overlap amount Dolp_r is the distance between the virtual lines 108l and 108r, and is the maximum value that the overlap amount Dolp_r can take.

図3及び図4では、対象物体100tarの現在位置Ppreに基づくオーバーラップ量Dolp_r、Dolp_rを示している。   3 and 4 show overlap amounts Dolp_r and Dolp_r based on the current position Ppre of the target object 100tar.

ECU44は、進路オーバーラップ量Dolp_l、Dolp_rのうち短い方の値を、オーバーラップ量Dolpとして用いる。オーバーラップ量Dolp_l、Dolp_rが互いに等しい場合、いずれの値を用いてもよい。図3の例では、左側の進路オーバーラップ量Dolp_lが、進路オーバーラップ量Dolpとして用いられる。また、図4の例では、左右の進路オーバーラップ量Dolp_l、Dolp_rが等しいため、進路オーバーラップ量Dolp_l、Dolp_rのいずれか(例えば、Dolp_l)が、進路オーバーラップ量Dolpとして用いられる。図3及び図4の例では、対象物体100tarの現在位置Ppreに基づくオーバーラップ量Dolpが算出される。   The ECU 44 uses the shorter one of the route overlap amounts Dolp_l and Dolp_r as the overlap amount Dolp. When the overlap amounts Dolp_l and Dolp_r are equal to each other, any value may be used. In the example of FIG. 3, the left route overlap amount Dolp_l is used as the route overlap amount Dolp_. In the example of FIG. 4, since the left and right route overlap amounts Dolp_l and Dolp_r are equal, one of the route overlap amounts Dolp_l and Dolp_r (for example, Dolp_l) is used as the route overlap amount Dolp. In the example of FIGS. 3 and 4, the overlap amount Dolp based on the current position Ppre of the target object 100tar is calculated.

(A2−2−3−2.将来位置Pftrに基づく進路オーバーラップ量Dolp)
図5は、対象物体100tarの将来位置Pftrに基づく進路オーバーラップ量Dolpを説明するための図である。図5では、対象物体100tarとしての歩行者102が自車10の進路106に入ってくる様子を示している。図5では、現在位置Ppreの車両10及び歩行者102を実線で示し、将来位置Pftrの車両10及び歩行者102を破線で示している。なお、ここにいう将来位置Pftrは、例えば、TTCに基づいて算出される。
(A2-2-3-2. Course overlap amount Dolp based on future position Pftr)
FIG. 5 is a diagram for explaining the route overlap amount Dolp based on the future position Pftr of the target object 100tar. FIG. 5 shows a state where a pedestrian 102 as the target object 100 tar enters the course 106 of the host vehicle 10. In FIG. 5, the vehicle 10 and the pedestrian 102 at the current position Ppre are indicated by solid lines, and the vehicle 10 and the pedestrian 102 at the future position Pftr are indicated by broken lines. The future position Pftr here is calculated based on, for example, TTC.

現在位置Ppreに基づくオーバーラップ量Dolpと同様、将来位置Pftrに基づくオーバーラップ量Dolpは、左側及び右側のオーバーラップ量Dolp_l、Dolp_rを算出し、小さい方の値をオーバーラップ量Dolpとする。   Similar to the overlap amount Dolp based on the current position Ppre, the overlap amount Dolp based on the future position Pftr calculates the left and right overlap amounts Dolp_l and Dolp_r, and sets the smaller value as the overlap amount Dolp.

(A2−2−4.進路オーバーラップ時間Tolpの算出モードMolp)
(A2−2−4−1.算出モードMolpの概要)
上記のように、本実施形態の算出モードMolpには、画像認識による第2物体100cの横方向速度Vlcの信頼性に応じたMode 1及びMode 2が含まれる。
(A2-2-4. Course overlap time Tolp calculation mode Molp)
(A2-2-4-1. Overview of calculation mode Molp)
As described above, the calculation mode Molp of the present embodiment includes Mode 1 and Mode 2 corresponding to the reliability of the lateral velocity Vlc of the second object 100c by image recognition.

(A2−2−4−2.算出モードMolpの選択)
図6は、進路オーバーラップ時間Tolpの算出モードMolpを選択するフローチャート(図2のS5の詳細)である。図7は、進路オーバーラップ時間Tolpの算出モードMolpの選択方法の説明図である。
(A2-2-4-2. Selection of calculation mode Molp)
FIG. 6 is a flowchart (details of S5 in FIG. 2) for selecting the calculation mode Molp for the route overlap time Tolp. FIG. 7 is an explanatory diagram of a method for selecting the calculation mode Molp for the course overlap time Tolp.

図6のステップS11において、ECU44は、少なくとも反射波Wrについて物体認識が不可であるか否かを判定する。より具体的には、ECU44は、反射波信号Swrに基づいて第1物体100rの認識が不可であるか否かを判定する。   In step S11 of FIG. 6, the ECU 44 determines whether or not object recognition is impossible for at least the reflected wave Wr. More specifically, the ECU 44 determines whether or not the first object 100r can be recognized based on the reflected wave signal Swr.

反射波Wrについて物体認識が不可である場合(S11:YES)、ステップS12は、ECU44は、算出モードMolpの選択が不可であると判定する。この場合、図2のステップS6において、ECU44は、進路オーバーラップ時間Tolpの算出を行わず、時間Tolpをゼロとする。   When the object recognition is not possible for the reflected wave Wr (S11: YES), the ECU 44 determines that the calculation mode Molp cannot be selected in step S12. In this case, in step S6 of FIG. 2, the ECU 44 does not calculate the course overlap time Tolp and sets the time Tolp to zero.

少なくとも反射波Wrについて物体認識が可である場合(S11:NO)、ステップS13において、ECU44は、反射波Wr及び画像Imcの両方について物体認識が可であるか否かを判定する。反射波Wr及び画像Imcの両方について物体認識が可である場合(S13:YES)、ステップS14に進む。   When object recognition is possible for at least the reflected wave Wr (S11: NO), in step S13, the ECU 44 determines whether object recognition is possible for both the reflected wave Wr and the image Imc. If object recognition is possible for both the reflected wave Wr and the image Imc (S13: YES), the process proceeds to step S14.

なお、ステップS11、S13における反射波Wrによる第1物体100rの認識が可又は不可であるとは、第1物体100rの存在が認識できるか否かを意味している。仮に、第1物体100rの存在が認識できていたとしても、第1物体100rの横移動が検知できない場合が存在する(後述するS16参照)。これは、レーダ40が受信する反射波Wrに揺らぎが生じるためである。すなわち、レーダ情報処理部60では、反射波Wrにおける揺らぎを考慮して第1物体100rの位置Porを特定するため、位置Porが検出できていても、速度Vrが検出できない場合が起こり得る。   Note that the fact that the first object 100r can be recognized by the reflected wave Wr in steps S11 and S13 means that the presence of the first object 100r can be recognized. Even if the presence of the first object 100r can be recognized, there is a case where the lateral movement of the first object 100r cannot be detected (see S16 described later). This is because fluctuation occurs in the reflected wave Wr received by the radar 40. That is, since the radar information processing unit 60 specifies the position Por of the first object 100r in consideration of fluctuations in the reflected wave Wr, there may occur a case where the velocity Vr cannot be detected even if the position Por can be detected.

ステップS14において、ECU44は、画像認識可能状態の継続時間Tcr(以下「画像認識継続時間Tcr」ともいう。)が十分長いか否かを判定する。具体的には、継続時間Tcrが閾値THtcr(以下「継続時間閾値THtcr」ともいう。)以上であるか否かを判定する。   In step S14, the ECU 44 determines whether or not the duration time Tcr of the image recognizable state (hereinafter also referred to as “image recognition duration time Tcr”) is sufficiently long. Specifically, it is determined whether or not the duration Tcr is equal to or greater than a threshold value THtcr (hereinafter also referred to as “duration threshold value THtcr”).

ここにいう「継続時間Tcrが十分長い」とは、画像認識による第2物体100cの横方向速度Vlcを精度良く検出することを担保できるほど、画像認識可能状態が継続していることを意味する。すなわち、継続時間Tcrが短い場合、横方向速度Vlcを算出するための画像Imcのデータ数が少ないため、画像認識による第2物体100cの横方向速度Vlcに誤差(又は突発的な誤認識)が生じる可能性が高くなる。これに対し、継続時間Tcrが長くなると、画像認識による第2物体100cの横方向速度Vlcの信頼性(精度)が高くなる。そこで、ステップS14のように、画像Imcに基づく横方向速度Vlcの信頼性の程度に応じて処理を変更させる。   Here, “the duration Tcr is sufficiently long” means that the image recognizable state continues so as to ensure that the lateral velocity Vlc of the second object 100c by image recognition can be accurately detected. . That is, when the duration time Tcr is short, the number of data of the image Imc for calculating the lateral speed Vlc is small, and therefore there is an error (or a sudden erroneous recognition) in the lateral speed Vlc of the second object 100c due to image recognition. Is more likely to occur. On the other hand, when the duration Tcr is increased, the reliability (accuracy) of the lateral speed Vlc of the second object 100c by image recognition is increased. Therefore, as in step S14, the process is changed according to the degree of reliability of the lateral speed Vlc based on the image Imc.

なお、継続時間Tcrが十分に長くない場合(図6のS14:NO)、例えば、第1物体100rの横方向速度Vlr及び第2物体100cの横方向速度Vlcを用いて信頼性を担保することとなる(後述する図6のS16:YES、図7)。また、継続時間Tcrが十分に長い場合(S14:YES)、オーバーラップ量Dolpの算出に当たっては、第1物体100rの横方向速度Vlrを用いず、第2物体100cの横方向速度Vlcのみを用いることで信頼性の向上を図っている(図7)。   If the duration Tcr is not sufficiently long (S14 in FIG. 6: NO), for example, the reliability is ensured by using the lateral velocity Vlr of the first object 100r and the lateral velocity Vlc of the second object 100c. (S16 in FIG. 6 described later: YES, FIG. 7). When the duration Tcr is sufficiently long (S14: YES), only the lateral speed Vlc of the second object 100c is used instead of the lateral speed Vlr of the first object 100r in calculating the overlap amount Dolp. This improves reliability (Fig. 7).

継続時間Tcrが十分長くない場合(S14:NO)、カメラ物標100cの横方向速度Vlcの信頼性が相対的に低い。この場合、ステップS15において、ECU44は、カメラ物標100cの横方向速度Vlcが十分大きいか否かを判定する。具体的には、横方向速度Vlcが閾値THvlc(以下「横方向速度閾値THvlc」ともいう。)以上であるか否かを判定する。   When the duration time Tcr is not sufficiently long (S14: NO), the reliability of the lateral speed Vlc of the camera target 100c is relatively low. In this case, in step S15, the ECU 44 determines whether or not the lateral speed Vlc of the camera target 100c is sufficiently large. Specifically, it is determined whether or not the lateral speed Vlc is equal to or higher than a threshold value THvlc (hereinafter also referred to as “lateral speed threshold value THvlc”).

ここにいう「横方向速度Vlcが十分に大きい」とは、例えば、継続時間Tcrが短く、横方向速度Vlcの信頼性が低い場合でも、横方向速度Vlcが相対的に高いため、継続時間Tcrが十分継続することを待っていられないほど、横方向速度Vlcが大きいことを意味する。別の観点からすると、閾値THvlcは、例えば、歩行中又は走行中の歩行者102又は走行中の他車104であることが明らかな値(例えば、4〜20km/h)とすることができる。   Here, “the lateral speed Vlc is sufficiently large” means that, for example, even if the duration Tcr is short and the reliability of the lateral speed Vlc is low, the lateral speed Vlc is relatively high, so the duration Tcr Means that the lateral velocity Vlc is so large that it cannot wait for the duration to continue. From another point of view, the threshold value THvlc can be set to a value (for example, 4 to 20 km / h) that clearly indicates the pedestrian 102 that is walking or running or the other vehicle 104 that is running.

横方向速度Vlcが十分大きくない場合(S15:NO)、ステップS16において、ECU44は、レーダ物標100r及びカメラ物標100cの横移動を検知できているか否かを判定する。換言すると、ECU44は、反射波Wr及び画像Imcで横移動を検知できているか否かを判定する。上記のように、レーダ物標100rの存在が認識できていたとしても、レーダ物標100rの横移動を検知できない場合があり、ステップS16では、このことを前提とした判定を行っている。   If the lateral speed Vlc is not sufficiently high (S15: NO), in step S16, the ECU 44 determines whether or not the lateral movement of the radar target 100r and the camera target 100c can be detected. In other words, the ECU 44 determines whether or not lateral movement can be detected by the reflected wave Wr and the image Imc. As described above, even if the presence of the radar target 100r can be recognized, the lateral movement of the radar target 100r may not be detected. In step S16, determination based on this is performed.

ステップS14、S15、S16のいずれかが「YES」であった場合、ステップS17において、ECU44は、算出モードMolpとしてMode 1を選択する。   If any of steps S14, S15, and S16 is “YES”, in step S17, the ECU 44 selects Mode 1 as the calculation mode Molp.

ステップS13において「NO」であった場合又はステップS14、S15、S16のいずれもが「NO」であった場合、ステップS18において、ECU44は、算出モードMolpとしてMode 2を選択する。   If “NO” in step S13 or if all of steps S14, S15, and S16 are “NO”, in step S18, the ECU 44 selects Mode 2 as the calculation mode Molp.

(A2−2−5.進路オーバーラップ時間Tolpの算出)
(A2−2−5−1.全体的な流れ)
上記のように、本実施形態では、算出モードMolpを選択した上で、現在位置Ppre及び将来位置Pftrでの進路オーバーラップの有無に基づいて進路オーバーラップ時間Tolpを算出する(図2等)。
(A2-2-5. Calculation of route overlap time Tolp)
(A2-2-5-1. Overall flow)
As described above, in the present embodiment, after selecting the calculation mode Molp, the route overlap time Tolp is calculated based on the presence or absence of the route overlap at the current position Ppre and the future position Pftr (FIG. 2 and the like).

図8は、進路オーバーラップ時間Tolpを算出するフローチャート(図2のS6の詳細)である。図9は、進路オーバーラップ時間Tolpの算出方法の説明図である。   FIG. 8 is a flowchart (details of S6 in FIG. 2) for calculating the course overlap time Tolp. FIG. 9 is an explanatory diagram of a method for calculating the course overlap time Tolp.

図8のステップS21において、ECU44は、現在位置Ppreでの進路オーバーラップの有無を判定する。具体的には、ECU44は、現在位置Ppreに基づくオーバーラップ量Dolp(図3及び図4)が、所定の閾値THdolp以上であれば、現在位置Ppreでの進路オーバーラップが有ると判定する。また、ECU44は、現在位置Ppreに基づくオーバーラップ量Dolpが、閾値THdolp未満であれば、現在位置Ppreでの進路オーバーラップがないと判定する。   In step S21 of FIG. 8, the ECU 44 determines whether or not there is a course overlap at the current position Ppre. Specifically, the ECU 44 determines that there is a course overlap at the current position Ppre if the overlap amount Dolp (FIGS. 3 and 4) based on the current position Ppre is equal to or greater than a predetermined threshold value THdolp. If the overlap amount Dolp based on the current position Ppre is less than the threshold THdolp, the ECU 44 determines that there is no course overlap at the current position Ppre.

ステップS22において、ECU44は、将来位置Pftrでの進路オーバーラップの有無を判定する。具体的には、ECU44は、将来位置Pftrに基づくオーバーラップ量Dolp(図5)が、所定の閾値THdolp以上であれば、将来位置Pftrでの進路オーバーラップが有ると判定する。また、ECU44は、将来位置Pftrに基づくオーバーラップ量Dolpが、閾値THdolp未満であれば、将来位置Pftrでの進路オーバーラップがないと判定する。なお、現在位置Ppreと将来位置Pftrとで閾値THdolpを変更してもよい。   In step S22, the ECU 44 determines whether or not there is a route overlap at the future position Pftr. Specifically, the ECU 44 determines that there is a course overlap at the future position Pftr if the overlap amount Dolp (FIG. 5) based on the future position Pftr is greater than or equal to a predetermined threshold value THdolp. In addition, if the overlap amount Dolp based on the future position Pftr is less than the threshold value THdolp, the ECU 44 determines that there is no course overlap at the future position Pftr. Note that the threshold value THdolp may be changed between the current position Ppre and the future position Pftr.

ステップS23において、ECU44は、ステップS21、S22の判定結果に基づいて進路オーバーラップ時間Tolpを算出する。この際、ECU44は、図2のステップS5(図7)で選択した算出モードMolpを用いる。時間Tolpの算出方法の詳細は、図9を用いて説明する。   In step S23, the ECU 44 calculates a course overlap time Tolp based on the determination results of steps S21 and S22. At this time, the ECU 44 uses the calculation mode Molp selected in step S5 (FIG. 7) in FIG. Details of the method of calculating the time Tolp will be described with reference to FIG.

(A2−2−5−2.進路オーバーラップの有無と進路オーバーラップ時間Tolpの関係)
図9は、現在位置Ppre及び将来位置Pftrにおける進路オーバーラップの有無と進路オーバーラップ時間Tolpの加算又は減算との関係を算出モードMolp毎に示す図である。
(A2-2-5-2. Relationship between presence / absence of route overlap and route overlap time Tolp)
FIG. 9 is a diagram illustrating the relationship between the presence / absence of the route overlap at the current position Ppre and the future position Pftr and the addition or subtraction of the route overlap time Tolp for each calculation mode Molp.

現在位置Ppre及び将来位置Pftrの両方において進路オーバーラップがある場合、ECU44は、算出モードMolpにかかわらず、時間Tolpの前回値に所定値(ここでは1)を加算して時間Tolpを増加させる。なお、現在位置Ppre及び将来位置Pftrの両方において進路オーバーラップがある場合とは、対象物体100tarの横方向速度Vlt(又はカメラ物標100cの横方向速度Vlc)が相対的に低い状態を示している。   When there is a course overlap in both the current position Ppre and the future position Pftr, the ECU 44 adds the predetermined value (here, 1) to the previous value of the time Tolp and increases the time Tolp regardless of the calculation mode Molp. The case where there is a course overlap at both the current position Ppre and the future position Pftr indicates a state in which the lateral speed Vlt of the target object 100tar (or the lateral speed Vlc of the camera target 100c) is relatively low. Yes.

現在位置Ppre及び将来位置Pftrの両方において進路オーバーラップがない場合、ECU44は、算出モードMolpにかかわらず、時間Tolpの前回値から所定値(ここでは1)を減算して時間Tolpを減少させる。   When there is no course overlap at both the current position Ppre and the future position Pftr, the ECU 44 subtracts a predetermined value (here, 1) from the previous value of the time Tolp and decreases the time Tolp regardless of the calculation mode Molp.

現在位置Ppreにおいて進路オーバーラップがあり且つ将来位置Pftrにおいて進路オーバーラップがない場合、ECU44は、算出モードMolpにかかわらず、時間Tolpの前回値を保持して時間Tolpを変化させない。   When there is a course overlap at the current position Ppre and no course overlap at the future position Pftr, the ECU 44 maintains the previous value of the time Tolp and does not change the time Tolp regardless of the calculation mode Molp.

現在位置Ppreにおいて進路オーバーラップがなく且つ将来位置Pftrにおいて進路オーバーラップがある場合、ECU44は、算出モードMolpに応じて、時間Tolpを算出する。   When there is no course overlap at the current position Ppre and there is a course overlap at the future position Pftr, the ECU 44 calculates the time Tolp according to the calculation mode Molp.

すなわち、算出モードMolpがMode 1である場合、ECU44は、時間Tolpの前回値に所定値(ここでは1)を加算して時間Tolpを増加させる。Mode 1は、横方向速度Vlcの信頼性が相対的に高いため、衝突可能性Pcが高くなると評価できるためである。   That is, when the calculation mode Molp is Mode 1, the ECU 44 adds the predetermined value (here, 1) to the previous value of the time Tolp and increases the time Tolp. Mode 1 is because the reliability of the lateral velocity Vlc is relatively high, and therefore it can be evaluated that the collision possibility Pc is high.

一方、算出モードMolpがMode 2である場合、ECU44は、時間Tolpの前回値を保持して時間Tolpを変化させない。Mode 2は、横方向速度Vlcの信頼性が相対的に低いため、衝突可能性Pcが高くなると評価できないためである。   On the other hand, when the calculation mode Molp is Mode 2, the ECU 44 keeps the previous value of the time Tolp and does not change the time Tolp. Mode 2 is because the reliability of the lateral velocity Vlc is relatively low, and therefore cannot be evaluated when the collision possibility Pc is high.

なお、上記からもわかるように、時間Tolpは、現在位置Ppre及び将来位置Pftrにおける進路オーバーラップに共通して算出されるものである。換言すると、本実施形態では、現在位置Ppreに対応した時間Tolpと、将来位置Pftrに対応した時間Tolpを別々に設定する訳ではない。但し、現在位置Ppreに対応した時間Tolpと、将来位置Pftrに対応した時間Tolpを別々に設定し、重み付けした上で加算することも可能である。   As can be seen from the above, the time Tolp is calculated in common with the route overlap at the current position Ppre and the future position Pftr. In other words, in the present embodiment, the time Tolp corresponding to the current position Ppre and the time Tolp corresponding to the future position Pftr are not set separately. However, the time Tolp corresponding to the current position Ppre and the time Tolp corresponding to the future position Pftr can be set separately, weighted and added.

また、1回の演算周期における時間Tolpの増加量は一定である。このため、例えば、現在位置Ppre及び将来位置Pftrの両方において進路オーバーラップがある場合でも、増加量が大きくなる訳ではない。但し、そのような増加量の変化を伴わせることも可能である。   Further, the amount of increase in the time Tolp in one calculation cycle is constant. For this reason, for example, even when there is a course overlap at both the current position Ppre and the future position Pftr, the increase amount does not increase. However, it is possible to accompany such a change in the amount of increase.

さらに、ラップ量Dolpは、進路オーバーラップの有無を判定するために用いられ、1回の演算周期における時間Tolpの増加量に影響する訳ではない。換言すると、1回の演算周期における時間Tolpの増加量は、ラップ量Dolpの大小に影響を受けない。例えば、ラップ量Dolpが最大値であっても、増加量が大きくなる訳ではない。但し、そのような増加量の変化を伴わせることも可能である。   Further, the lap amount Dolp is used to determine whether or not there is a route overlap, and does not affect the increase amount of the time Tolp in one calculation cycle. In other words, the increase amount of the time Tolp in one calculation cycle is not affected by the magnitude of the lap amount Dolp. For example, even if the lap amount Dolp is the maximum value, the increase amount does not increase. However, it is possible to accompany such a change in the amount of increase.

A3.本実施形態の効果
以上のように、本実施形態によれば、周辺画像Imcに基づく第2物体100cの認識が継続している画像認識継続時間Tcrと、第1物体100r及び第2物体100cについての横方向速度Vlr、Vlc自体又は横方向速度Vlr、Vlcの算出の可否とに基づいて衝突可能性Pc又は運転支援を変更する(図2、図6〜図9)。
A3. As described above, according to the present embodiment, the image recognition continuation time Tcr in which the recognition of the second object 100c based on the peripheral image Imc is continued, the first object 100r, and the second object 100c. The possibility of collision Pc or driving assistance is changed based on whether or not the lateral speeds Vlr and Vlc themselves or the lateral speeds Vlr and Vlc can be calculated (FIGS. 2 and 6 to 9).

これにより、画像認識継続時間Tcrを用いることで、周辺画像Imcに基づく横方向位置又は横方向速度Vlcの信頼性を衝突可能性Pc又は運転支援に反映することが可能となる。加えて、第1物体100r及び第2物体100cについての横方向速度Vlr、Vlc自体又は横方向速度Vlr、Vlcの算出の可否を用いることで、レーダ40及びカメラ42の検出結果の信頼性をより正確に反映した運転支援を行うことが可能となる。   Thus, by using the image recognition duration time Tcr, the reliability of the lateral position or the lateral speed Vlc based on the peripheral image Imc can be reflected in the collision possibility Pc or the driving assistance. In addition, the reliability of the detection results of the radar 40 and the camera 42 can be further improved by using the possibility of calculating the lateral velocities Vlr and Vlc themselves or the lateral velocities Vlr and Vlc for the first object 100r and the second object 100c. It is possible to provide driving assistance that accurately reflects this.

本実施形態において、対象物体情報処理部64(衝突可能性判定装置)は、対象物体100tarが車両10(移動物体)の進路106上に存在する時間である進路オーバーラップ時間Tolpを算出する進路オーバーラップ時間算出部72を備える(図1)。算出部72は、対象物体100tarの現在位置Ppre及び将来位置Pftrの両方又は将来位置Pftrのみが進路106上に存在する場合、進路オーバーラップ時間Tolpを加算する(図9)。算出部72は、継続時間Tcrに基づいて、又は第1物体100r及び第2物体100cについての横方向速度Vlr、Vlc自体若しくは横方向速度Vlr、Vlcの算出の可否に基づいて進路オーバーラップ時間Tolpを加算する条件を変更する(図6、図7及び図9)。   In the present embodiment, the target object information processing unit 64 (collision possibility determination device) calculates the course overlap time Tolp, which is the time during which the target object 100tar exists on the course 106 of the vehicle 10 (moving object). A lap time calculation unit 72 is provided (FIG. 1). When both the current position Ppre and future position Pftr of the target object 100tar or only the future position Pftr exists on the course 106, the calculation unit 72 adds the course overlap time Tolp (FIG. 9). The calculation unit 72 determines the course overlap time Tolp based on the duration time Tcr or based on whether or not the lateral speeds Vlr and Vlc themselves or the lateral speeds Vlr and Vlc can be calculated for the first object 100r and the second object 100c. Is changed (FIGS. 6, 7 and 9).

本実施形態によれば、第2物体100cの認識が継続している画像認識継続時間Tcr(又は周辺物体100の位置情報の取得が継続している位置情報取得継続時間)に基づいて、又は周辺物体100についての横方向速度Vlr、Vlc自体若しくは横方向速度Vlr、Vlcの算出の可否に基づいて進路オーバーラップ時間Tolpを加算する条件を変更する(図6、図7及び図9)。   According to the present embodiment, based on the image recognition continuation time Tcr in which the recognition of the second object 100c is continued (or the position information acquisition continuation time in which the acquisition of the position information of the peripheral object 100 is continued), or around The conditions for adding the course overlap time Tolp are changed based on whether the lateral speeds Vlr and Vlc themselves or the lateral speeds Vlr and Vlc can be calculated for the object 100 (FIGS. 6, 7 and 9).

これにより、継続時間Tcrを用いることで、画像認識(位置情報)の信頼性をオーバーラップ時間Tolpに反映することが可能となる。加えて、周辺物体100についての横方向速度Vlc自体又は横方向速度Vlcの算出の可否を用いることで、画像認識(位置情報)の信頼性をより正確に反映したオーバーラップ時間Tolpを算出することが可能となる。   Thereby, by using the continuation time Tcr, it is possible to reflect the reliability of image recognition (position information) in the overlap time Tolp. In addition, the overlap time Tolp that more accurately reflects the reliability of the image recognition (position information) is calculated by using whether or not the lateral velocity Vlc itself or the lateral velocity Vlc can be calculated for the peripheral object 100. Is possible.

本実施形態において、対象物体情報処理部64(衝突可能性判定装置)は、進路オーバーラップ時間Tolpに応じて衝突可能性Pcを判定する(図2のS7)。これにより、画像認識(位置情報)の信頼性を衝突可能性Pcに反映することが可能となる。   In the present embodiment, the target object information processing unit 64 (collision possibility determination device) determines the collision possibility Pc according to the course overlap time Tolp (S7 in FIG. 2). As a result, the reliability of image recognition (position information) can be reflected in the collision possibility Pc.

本実施形態において、車両10(移動物体)に対して運転支援を行うに当たり、物体認識装置12、VSAシステム14、EPSシステム16及びPUHシステム18(動作支援装置)は、進路オーバーラップ時間Tolpに応じて運転支援を変更する(図2のS8)。これにより、画像認識(位置情報)の信頼性を運転支援に反映することが可能となる。   In the present embodiment, when performing driving support for the vehicle 10 (moving object), the object recognition device 12, the VSA system 14, the EPS system 16, and the PUH system 18 (motion support device) correspond to the route overlap time Tolp. The driving support is changed (S8 in FIG. 2). This makes it possible to reflect the reliability of image recognition (position information) in driving support.

本実施形態において、画像認識継続時間Tcrが継続時間閾値THtcr(時間閾値)を超えて継続して認識されている場合(図6のS14:YES)、進路オーバーラップ時間算出部72は、少なくとも対象物体100tarの将来位置Pftrが車両10の進路106上に存在すれば、進路オーバーラップ時間Tolpを加算する(図9)。これにより、画像認識(位置情報)の信頼性が高い状態において、進路オーバーラップ時間Tolpを適切に反映することが可能となる。   In the present embodiment, when the image recognition duration Tcr is continuously recognized exceeding the duration threshold THtcr (time threshold) (S14 in FIG. 6: YES), the course overlap time calculator 72 is at least the target If the future position Pftr of the object 100tar exists on the route 106 of the vehicle 10, the route overlap time Tolp is added (FIG. 9). This makes it possible to appropriately reflect the course overlap time Tolp in a state where the reliability of image recognition (position information) is high.

本実施形態において、画像認識継続時間Tcrが継続時間閾値THtcr(時間閾値)を超えて継続して認識されていない場合(図6のS14:NO)、進路オーバーラップ時間算出部72は、カメラ物標100c(第2物体100c)の横方向速度Vlcが所定の速度閾値THvlc以上であり(S15:YES)且つ少なくとも対象物体100tarの将来位置Pftrが進路106上に存在すれば、進路オーバーラップ時間Tolpを加算する(図9)。これにより、横方向速度Vlcが比較的大きいという緊急度合いの高い状況において、進路オーバーラップ時間Tolpを適切に算出することが可能となる。   In the present embodiment, when the image recognition duration Tcr exceeds the duration threshold THtcr (time threshold) and is not continuously recognized (S14 in FIG. 6: NO), the course overlap time calculation unit 72 is a camera object. If the lateral velocity Vlc of the target 100c (second object 100c) is equal to or greater than the predetermined velocity threshold THvlc (S15: YES) and at least the future position Pftr of the target object 100tar exists on the route 106, the route overlap time Tolp Are added (FIG. 9). As a result, the route overlap time Tolp can be appropriately calculated in a highly urgent situation where the lateral speed Vlc is relatively large.

本実施形態において、対象物体100tarの現在位置Ppre及び将来位置Pftrの両方が、車両10の進路106上に存在しない場合、進路オーバーラップ時間算出部72は、進路オーバーラップ時間Tolpを減算する(図9)。これにより、衝突可能性Pcが低い場合、進路オーバーラップ時間Tolpを適切に算出することが可能となる。   In the present embodiment, when both the current position Ppre and the future position Pftr of the target object 100tar do not exist on the route 106 of the vehicle 10, the route overlap time calculation unit 72 subtracts the route overlap time Tolp (FIG. 9). Thereby, when the collision possibility Pc is low, it is possible to appropriately calculate the course overlap time Tolp.

本実施形態において、進路オーバーラップ時間算出部72は、対象物体100tarの現在位置Ppreが車両10の進路106上に存在し且つ対象物体100tarの将来位置Pftrが進路106上に存在しない場合、進路オーバーラップ時間Tolpの前回値を保持する(図9)。これにより、衝突可能性Pcが相対的に低い場合、進路オーバーラップ時間Tolpを適切に算出することが可能となる。   In the present embodiment, the route overlap time calculation unit 72 determines the route overlap when the current position Ppre of the target object 100tar exists on the route 106 of the vehicle 10 and the future position Pftr of the target object 100tar does not exist on the route 106. The previous value of the lap time Tolp is held (FIG. 9). As a result, when the collision possibility Pc is relatively low, it is possible to appropriately calculate the course overlap time Tolp.

本実施形態において、第1物体100r及び第2物体100cの両方の横方向移動が検出されている場合(図6のS16:YES)、進路オーバーラップ時間算出部72は、少なくとも対象物体100tarの将来位置Pftrが、車両10の進路106上に存在すれば、進路オーバーラップ時間Tolpを加算する(図9)。これにより、衝突可能性Pcが相対的に高い場合、進路オーバーラップ時間Tolpを適切に算出することが可能となる。   In this embodiment, when the lateral movement of both the first object 100r and the second object 100c is detected (S16 in FIG. 6: YES), the course overlap time calculation unit 72 at least the future of the target object 100tar. If the position Pftr exists on the route 106 of the vehicle 10, the route overlap time Tolp is added (FIG. 9). Thereby, when the collision possibility Pc is relatively high, it is possible to appropriately calculate the course overlap time Tolp.

本実施形態において、第1物体100rが認識され且つ第2物体100cが認識されていない場合(図6のS13:NO)、進路オーバーラップ時間算出部72は、対象物体100tarの現在位置Ppre及び将来位置Pftrの両方が、車両10の進路106上に存在すれば、進路オーバーラップ時間Tolpを加算する(図9)。これにより、第2物体100cが認識されていない場合でも、進路オーバーラップ時間Tolpを適切に算出することが可能となる。   In the present embodiment, when the first object 100r is recognized and the second object 100c is not recognized (S13: NO in FIG. 6), the course overlap time calculation unit 72 determines the current position Ppre and the future of the target object 100tar. If both of the positions Pftr exist on the route 106 of the vehicle 10, the route overlap time Tolp is added (FIG. 9). Thereby, even when the second object 100c is not recognized, the course overlap time Tolp can be appropriately calculated.

本実施形態において、第1物体100rが認識され且つ第2物体100cが認識されていない場合(図6のS13:NO)、進路オーバーラップ時間算出部72は、対象物体100tarの現在位置Ppre及び将来位置Pftrの一方のみが、車両10の進路106上に存在すれば、進路オーバーラップ時間Tolpの前回値を保持する(図9)。これにより、第2物体100cが認識されていない場合でも、進路オーバーラップ時間Tolpを適切に算出することが可能となる。   In the present embodiment, when the first object 100r is recognized and the second object 100c is not recognized (S13: NO in FIG. 6), the course overlap time calculation unit 72 determines the current position Ppre and the future of the target object 100tar. If only one of the positions Pftr exists on the route 106 of the vehicle 10, the previous value of the route overlap time Tolp is held (FIG. 9). Thereby, even when the second object 100c is not recognized, the course overlap time Tolp can be appropriately calculated.

第2物体100cの横方向移動が検出され且つ第1物体100rの横方向移動が検出されず(図6のS16:NO)、且つ第2物体100cの横方向速度Vlcが横方向速度閾値THvlc(速度閾値)を下回る場合(S15:NO)、進路オーバーラップ時間算出部72は、対象物体100tarの現在位置Ppre及び将来位置Pftrが、車両10の進路106上に存在すれば、進路オーバーラップ時間Tolpを加算する(図9)。これにより、第1物体100rの横方向移動が検出されない場合でも、進路オーバーラップ時間Tolpを適切に算出することが可能となる。   The lateral movement of the second object 100c is detected, the lateral movement of the first object 100r is not detected (S16 in FIG. 6: NO), and the lateral speed Vlc of the second object 100c is equal to the lateral speed threshold THvlc ( (S15: NO), the route overlap time calculation unit 72 determines that the route overlap time Tolp is present if the current position Ppre and the future position Pftr of the target object 100tar are present on the route 106 of the vehicle 10. Are added (FIG. 9). Thereby, even when the lateral movement of the first object 100r is not detected, it is possible to appropriately calculate the course overlap time Tolp.

本実施形態において、第2物体100cの横方向移動が検出され且つ第1物体100rの横方向移動が検出されず(図6のS16:NO)、且つ第2物体100cの横方向速度Vlcが横方向速度閾値THVlc(速度閾値)を下回る場合(S15:NO)、進路オーバーラップ時間算出部72は、対象物体100tarの現在位置Ppre及び将来位置Pftrの一方のみが、車両10の進路106上に存在すれば、進路オーバーラップ時間Tolpの前回値を保持する(図9)。これにより、第1物体100rの横方向移動が検出されない場合でも、進路オーバーラップ時間Tolpを適切に算出することが可能となる。   In this embodiment, the lateral movement of the second object 100c is detected, the lateral movement of the first object 100r is not detected (S16: NO in FIG. 6), and the lateral speed Vlc of the second object 100c is horizontal. When the direction speed threshold THVlc (speed threshold) is not reached (S15: NO), the course overlap time calculation unit 72 has only one of the current position Ppre and the future position Pftr of the target object 100tar on the course 106 of the vehicle 10. Then, the previous value of the course overlap time Tolp is held (FIG. 9). Thereby, even when the lateral movement of the first object 100r is not detected, it is possible to appropriately calculate the course overlap time Tolp.

B.変形例
なお、本発明は、上記実施形態に限らず、本明細書の記載内容に基づき、種々の構成を採り得ることはもちろんである。例えば、以下の構成を採用することができる。
B. Modifications It should be noted that the present invention is not limited to the above-described embodiment, and it is needless to say that various configurations can be adopted based on the description of the present specification. For example, the following configuration can be adopted.

B1.適用対象
上記実施形態では、物体認識装置12を車両10に適用したが、これに限らず、別の対象に適用してもよい。例えば、物体認識装置12を船舶や航空機等の移動物体に用いることもできる。或いは、物体認識装置12を、ロボット、セキュリティ用監視装置又は家電製品に適用してもよい。また、物体認識装置12を車両10(移動物体)自体に搭載するのではなく、車両10の外部(例えば、光ビーコン等の路側装置)に配置してもよい。この場合、車両10と物体認識装置12の間で通信を行い、物体認識装置12の認識結果(衝突可能性Pc又は対象物体情報It)を車両10に送信することも可能である。
B1. Application target In the above-described embodiment, the object recognition device 12 is applied to the vehicle 10, but the present invention is not limited thereto, and may be applied to another target. For example, the object recognition device 12 can be used for a moving object such as a ship or an aircraft. Alternatively, the object recognition device 12 may be applied to a robot, a security monitoring device, or a home appliance. Further, the object recognition device 12 may be arranged outside the vehicle 10 (for example, a roadside device such as an optical beacon) instead of being mounted on the vehicle 10 (moving object) itself. In this case, it is also possible to communicate between the vehicle 10 and the object recognition device 12 and transmit the recognition result (collision possibility Pc or target object information It) of the object recognition device 12 to the vehicle 10.

B2.物体認識装置12の構成
上記実施形態では、物体認識装置12の出力(衝突可能性Pc又は対象物体情報It)を、物体認識装置12、VSA ECU30、EPS ECU32及びPUH ECU34で用いたが(図2のS8)、それ以外の用途で用いることも可能である。例えば、車両10の駐車支援にも用いることができる。
B2. Configuration of the Object Recognition Device 12 In the above embodiment, the output of the object recognition device 12 (the collision possibility Pc or the target object information It) is used by the object recognition device 12, the VSA ECU 30, the EPS ECU 32, and the PUH ECU 34 (FIG. 2). S8), and can be used for other purposes. For example, it can be used for parking assistance of the vehicle 10.

上記実施形態では、ミリ波である送信波Wt及び反射波Wrを使用するレーダ40を用いたが、例えば、電磁波としての送信波Wtの反射波Wrを用いて第1物体100rの情報Irを取得する観点からすれば、レーザレーダ、超音波センサ等のセンサを用いることもできる。   In the above embodiment, the radar 40 using the transmission wave Wt and the reflection wave Wr that are millimeter waves is used. For example, the information Ir of the first object 100r is acquired using the reflection wave Wr of the transmission wave Wt as an electromagnetic wave. From this point of view, a sensor such as a laser radar or an ultrasonic sensor can be used.

上記実施形態では、レーダ40とカメラ42を組み合わせて用いた(図1)。しかしながら、例えば、画像認識継続時間Tcr(図6のS14)を用いる観点からすれば、カメラ42(画像Imc)のみを用いる構成にも本発明を適用可能である。反対に、継続時間Tcrと同様の指標をレーダ40(反射波Wr)についても設定することで、レーダ40(反射波Wr)のみを用いる構成にも本発明を適用してもよい。   In the above embodiment, the radar 40 and the camera 42 are used in combination (FIG. 1). However, for example, from the viewpoint of using the image recognition duration Tcr (S14 in FIG. 6), the present invention can be applied to a configuration using only the camera 42 (image Imc). On the contrary, the present invention may be applied to a configuration using only the radar 40 (reflected wave Wr) by setting an index similar to the duration Tcr for the radar 40 (reflected wave Wr).

B3.物体認識ECU44の制御
[B3−1.算出モードMolpの選択]
上記実施形態では、算出モードMolpの選択を、図6及び図7に示す方法により行った。しかしながら、算出モードMolpを選択する観点からすれば、これに限らない。例えば、第2物体100cの横方向速度Vlcの信頼性の観点からすれば、算出モードMolpを3種類以上に分類することも可能である。
B3. Control of the object recognition ECU 44 [B3-1. Selection of calculation mode Molp]
In the above embodiment, the calculation mode Molp is selected by the method shown in FIGS. However, it is not limited to this from the viewpoint of selecting the calculation mode Molp. For example, from the viewpoint of the reliability of the lateral velocity Vlc of the second object 100c, the calculation modes Molp can be classified into three or more types.

上記実施形態では、第2物体100cの横方向速度Vlcを基準として算出モードMolpを算出したが、その他の方向についての第2物体100cの速度を用いることも可能である。また、第2物体100cの代わりに第1物体100rの横方向速度Vlr又はその他の速度を用いて算出モードMolpを選択することもできる。例えば、レーダ40は、カメラ42と比較して、前後方向の検出精度が高いことから、レーダ40については、第1物体100rの前後方向速度に基づいて算出モードMolpを選択してもよい。   In the above embodiment, the calculation mode Molp is calculated based on the lateral velocity Vlc of the second object 100c, but the velocity of the second object 100c in other directions can also be used. Also, the calculation mode Molp can be selected using the lateral speed Vlr of the first object 100r or other speeds instead of the second object 100c. For example, since the radar 40 has higher detection accuracy in the front-rear direction than the camera 42, the radar 40 may select the calculation mode Molp based on the front-rear speed of the first object 100r.

[B3−2.進路オーバーラップ時間Tolpの算出]
上記実施形態では、時間Tolpの算出を、図8及び図9に示す方法により行った。しかしながら、時間Tolpを算出する観点からすれば、これに限らない。例えば、現在位置Ppre又は将来位置Pftrの一方のみを用いて時間Tolpを算出することも可能である。また、図9の一部を変更してオーバーラップ時間Tolpを算出することも可能である。
[B3-2. Calculation of route overlap time Tolp]
In the above embodiment, the time Tolp is calculated by the method shown in FIGS. However, it is not limited to this from the viewpoint of calculating the time Tolp. For example, the time Tolp can be calculated using only one of the current position Ppre and the future position Pftr. Further, the overlap time Tolp can be calculated by changing a part of FIG.

上記実施形態では、画像Imcの信頼度が高くなると認識した場合、時間Tolpに所定値(1)を加算し、信頼度が低くなると認識した場合、時間Tolpから所定値(1)を減算した(図9)。しかしながら、画像Imcの信頼度に応じて時間Tolpを変化させる観点からすれば、これに限らない。例えば、画像Imcの信頼度が高くなると認識した場合、時間Tolpに加算する所定値を−1とし、信頼度が低くなると認識した場合、時間Tolpから減算する所定値を−1としてもよい。   In the above embodiment, when it is recognized that the reliability of the image Imc is high, the predetermined value (1) is added to the time Tolp, and when it is recognized that the reliability is low, the predetermined value (1) is subtracted from the time Tolp ( FIG. 9). However, from the viewpoint of changing the time Tolp according to the reliability of the image Imc, the present invention is not limited to this. For example, when the reliability of the image Imc is recognized to be high, a predetermined value to be added to the time Tolp may be set to -1, and when the reliability is recognized to be low, the predetermined value to be subtracted from the time Tolp may be set to -1.

10…車両(移動物体、動作支援システム)
12…物体認識装置(動作支援装置)
14…VSAシステム(動作支援装置)
16…EPSシステム(動作支援装置)
18…PUHシステム(動作支援装置)
40…レーダ(位置情報取得装置)
42…カメラ(位置情報取得装置)
64…対象物体情報処理部(衝突可能性判定装置)
72…進路オーバーラップ時間算出部 100…周辺物体
100c…第2物体 100r…第1物体
100tar…対象物体 106…進路
Imc…周辺画像 Pc…衝突可能性
Sic…画像信号 Swr…反射波信号
Tcr…画像認識継続時間
THtcr…継続時間閾値(時間閾値)
THvlc…横方向速度閾値(速度閾値)
Tolp…進路オーバーラップ時間 Vlc…第2物体の横方向速度
Vlr…第1物体の横方向速度 Wr…反射波
Wt…送信波(電磁波)
10 ... Vehicle (moving object, motion support system)
12 ... Object recognition device (motion support device)
14 ... VSA system (operation support device)
16 ... EPS system (operation support device)
18 ... PUH system (operation support device)
40. Radar (positional information acquisition device)
42. Camera (position information acquisition device)
64 ... Target object information processing unit (collision possibility determination device)
72 ... Path overlap time calculation unit 100 ... Peripheral object 100c ... Second object 100r ... First object 100tar ... Target object 106 ... Path Imc ... Peripheral image Pc ... Collision possibility Sic ... Image signal Swr ... Reflected wave signal Tcr ... Image Recognition duration THtcr: duration threshold (time threshold)
THvlc: Lateral speed threshold (speed threshold)
Tolp ... Route overlap time Vlc ... Lateral speed Vlr of the second object ... Lateral speed of the first object Wr ... Reflected wave Wt ... Transmitted wave (electromagnetic wave)

Claims (14)

移動物体の周辺に存在する周辺物体に対して電磁波を出射し、前記周辺物体からの反射波に対応する反射波信号を出力するレーダと、
前記周辺物体を含む周辺画像を撮像し、前記周辺画像に対応する画像信号を出力するカメラと、
前記反射波信号に含まれる前記周辺物体を第1物体として認識し、前記画像信号に含まれる前記周辺物体を第2物体として認識し、前記第1物体及び前記第2物体をマッチングさせて対象物体として特定し、前記対象物体に対する前記移動物体の衝突可能性を判定する衝突可能性判定装置と、
前記衝突可能性に応じて前記移動物体の動作支援を行う動作支援装置と
を備える動作支援システムであって、
前記動作支援システムの一部又は全部は前記移動物体内又は前記移動物体外に設けられ、
前記第2物体の認識が継続している画像認識継続時間と、前記第2物体の横方向速度と、前記レーダ及び前記カメラで前記横方向速度を検知できているか否かの情報とに基づいて前記衝突可能性又は前記動作支援を変更する
ことを特徴とする動作支援システム。
A radar that emits an electromagnetic wave to a peripheral object existing around a moving object and outputs a reflected wave signal corresponding to a reflected wave from the peripheral object;
A camera that captures a peripheral image including the peripheral object and outputs an image signal corresponding to the peripheral image;
Recognizing the peripheral object included in the reflected wave signal as a first object, recognizing the peripheral object included in the image signal as a second object, and matching the first object and the second object, the target object A collision possibility determination device that specifies the collision possibility of the moving object with respect to the target object, and
A motion support system comprising: a motion support device that supports the motion of the moving object according to the collision possibility,
A part or all of the motion support system is provided inside or outside the moving object,
An image recognition duration recognition of the second object is continued, pre-SL and lateral velocity of the second object, the said radar and information on whether or not able to detect the lateral velocity at the camera The motion support system, wherein the collision possibility or the motion support is changed based on.
移動物体の周辺に存在する周辺物体に対して電磁波を出射し、前記周辺物体からの反射波に対応する反射波信号を出力するレーダと、
前記周辺物体を含む周辺画像を撮像し、前記周辺画像に対応する画像信号を出力するカメラと、
前記反射波信号に含まれる前記周辺物体を第1物体として認識し、前記画像信号に含まれる前記周辺物体を第2物体として認識し、前記第1物体及び前記第2物体をマッチングさせて対象物体として特定し、前記対象物体に対する前記移動物体の衝突可能性を判定する衝突可能性判定装置と、
前記衝突可能性に応じて前記移動物体の動作支援を行う動作支援装置と
を備える動作支援システムであって、
前記動作支援システムの一部又は全部は前記移動物体内又は前記移動物体外に設けられ、
前記第2物体の認識が継続している画像認識継続時間と、前記第1物体及び前記第2物体についての横方向速度自体又は前記横方向速度の算出の可否とに基づいて前記衝突可能性又は前記動作支援を変更し、
さらに、前記衝突可能性判定装置は、前記対象物体が前記移動物体の進路上に存在する時間である進路オーバーラップ時間を算出する進路オーバーラップ時間算出部を備え、
前記進路オーバーラップ時間算出部は、
前記対象物体の現在位置又は将来位置の少なくとも一方が、前記移動物体の進路上に存在する場合、前記進路オーバーラップ時間に所定値を加算し、
前記画像認識継続時間に基づいて、又は前記第1物体及び前記第2物体についての横方向速度自体若しくは前記横方向速度の算出の可否に基づいて前記進路オーバーラップ時間に前記所定値を加算する条件を変更する
ことを特徴とする動作支援システム。
A radar that emits an electromagnetic wave to a peripheral object existing around a moving object and outputs a reflected wave signal corresponding to a reflected wave from the peripheral object;
A camera that captures a peripheral image including the peripheral object and outputs an image signal corresponding to the peripheral image;
Recognizing the peripheral object included in the reflected wave signal as a first object, recognizing the peripheral object included in the image signal as a second object, and matching the first object and the second object, the target object A collision possibility determination device that specifies the collision possibility of the moving object with respect to the target object, and
An operation support apparatus for supporting the operation of the moving object according to the collision possibility;
An operation support system comprising:
A part or all of the motion support system is provided inside or outside the moving object,
Based on the image recognition continuation time during which the recognition of the second object continues and the lateral velocity itself or the possibility of calculation of the lateral velocity for the first object and the second object, Changing the operation support,
The collision possibility determination device further includes a route overlap time calculation unit that calculates a route overlap time that is a time during which the target object exists on the route of the moving object,
The route overlap time calculation unit
When at least one of the current position or the future position of the target object exists on the path of the moving object , a predetermined value is added to the path overlap time,
Conditions for adding the predetermined value to the course overlap time based on the image recognition continuation time, or based on whether or not the lateral velocity of the first object and the second object itself or the lateral velocity can be calculated An action support system characterized by changing
請求項2記載の動作支援システムにおいて、
前記衝突可能性判定装置は、前記進路オーバーラップ時間に応じて前記衝突可能性を判定する
ことを特徴とする動作支援システム。
The operation support system according to claim 2,
The said collision possibility determination apparatus determines the said collision possibility according to the said course overlap time. The operation | movement assistance system characterized by the above-mentioned.
請求項2又は3記載の動作支援システムにおいて、
前記移動物体に対して動作支援を行うに当たり、前記動作支援装置は、前記進路オーバーラップ時間に応じて前記動作支援を変更する
ことを特徴とする動作支援システム。
The operation support system according to claim 2 or 3,
In performing motion support for the moving object, the motion support device changes the motion support according to the course overlap time.
請求項2〜4のいずれか1項に記載の動作支援システムにおいて、
前記画像認識継続時間が所定の時間閾値を超えて継続して認識されている場合、前記進路オーバーラップ時間算出部は、少なくとも前記対象物体の将来位置が前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算する
ことを特徴とする動作支援システム。
In the operation support system according to any one of claims 2 to 4,
When the image recognition duration time is continuously recognized exceeding a predetermined time threshold, the course overlap time calculation unit, if at least the future position of the target object exists on the course of the moving object, The operation support system , wherein the predetermined value is added to the course overlap time.
請求項2〜5のいずれか1項に記載の動作支援システムにおいて、
前記画像認識継続時間が所定の時間閾値を超えて継続して認識されていない場合、前記進路オーバーラップ時間算出部は、前記第2物体の横方向速度が所定の速度閾値以上であり且つ少なくとも前記対象物体の将来位置が前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算する
ことを特徴とする動作支援システム。
The operation support system according to any one of claims 2 to 5,
When the image recognition duration time is not continuously recognized exceeding a predetermined time threshold, the course overlap time calculation unit is configured such that a lateral speed of the second object is equal to or greater than a predetermined speed threshold and at least the If the future position of the target object exists on the path of the moving object, the predetermined value is added to the path overlap time.
請求項2〜6のいずれか1項に記載の動作支援システムにおいて、
前記対象物体の現在位置及び将来位置の両方が、前記移動物体の進路上に存在しない場合、前記進路オーバーラップ時間算出部は、前記進路オーバーラップ時間から前記所定値を減算する
ことを特徴とする動作支援システム。
In the operation support system according to any one of claims 2 to 6,
When both the current position and the future position of the target object do not exist on the path of the moving object, the path overlap time calculation unit subtracts the predetermined value from the path overlap time. Operation support system.
請求項2〜7のいずれか1項に記載の動作支援システムにおいて、
前記進路オーバーラップ時間算出部は、前記対象物体の現在位置が前記移動物体の進路上に存在し且つ前記対象物体の将来位置が前記移動物体の進路上に存在しない場合、前記進路オーバーラップ時間の前回値を保持する
ことを特徴とする動作支援システム。
The operation support system according to any one of claims 2 to 7,
The route overlap time calculation unit calculates the route overlap time when the current position of the target object exists on the route of the moving object and the future position of the target object does not exist on the route of the movable object. An operation support system characterized by holding the previous value.
請求項2〜8のいずれか1項に記載の動作支援システムにおいて、
前記第1物体及び前記第2物体の両方の横方向移動が検出されている場合、前記進路オーバーラップ時間算出部は、少なくとも前記対象物体の将来位置が、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算する
ことを特徴とする動作支援システム。
In the operation support system according to any one of claims 2 to 8,
When the lateral movement of both the first object and the second object is detected, the course overlap time calculation unit determines that at least the future position of the target object exists on the course of the moving object. And adding the predetermined value to the course overlap time.
請求項2〜8のいずれか1項に記載の動作支援システムにおいて、
前記第1物体が認識され且つ前記第2物体が認識されていない場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置の両方が、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算する
ことを特徴とする動作支援システム。
In the operation support system according to any one of claims 2 to 8,
When the first object is recognized and the second object is not recognized, the course overlap time calculation unit determines that both the current position and the future position of the target object exist on the path of the moving object. For example, the predetermined value is added to the course overlap time.
請求項2〜9のいずれか1項に記載の動作支援システムにおいて、
前記第1物体が認識され且つ前記第2物体が認識されていない場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置の一方のみが、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間の前回値を保持する
ことを特徴とする動作支援システム。
The motion support system according to any one of claims 2 to 9,
When the first object is recognized and the second object is not recognized, the course overlap time calculation unit has only one of the current position and the future position of the target object on the course of the moving object. Then, the previous value of the course overlap time is retained.
請求項2〜11のいずれか1項に記載の動作支援システムにおいて、
前記第2物体の横方向移動が検出され且つ前記第1物体の横方向移動が検出されず、且つ前記第2物体の横方向速度が所定の速度閾値を下回る場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置が、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算する
ことを特徴とする動作支援システム。
The operation support system according to any one of claims 2 to 11,
When the lateral movement of the second object is detected, the lateral movement of the first object is not detected, and the lateral speed of the second object is below a predetermined speed threshold, the path overlap time calculation unit If the current position and future position of the target object exist on the path of the moving object, the predetermined value is added to the path overlap time.
請求項2〜12のいずれか1項に記載の動作支援システムにおいて、
前記第2物体の横方向移動が検出され且つ前記第1物体の横方向移動が検出されず、且つ前記第2物体の横方向速度が所定の速度閾値を下回る場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置の一方のみが、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間の前回値を保持する
ことを特徴とする動作支援システム。
The operation support system according to any one of claims 2 to 12,
When the lateral movement of the second object is detected, the lateral movement of the first object is not detected, and the lateral speed of the second object is below a predetermined speed threshold, the path overlap time calculation unit The operation support system is characterized in that if only one of the current position and the future position of the target object is present on the path of the moving object, the previous value of the path overlap time is held.
移動物体の周辺に存在する周辺物体の位置に関する位置情報を取得する位置情報取得装置と、
前記位置情報に基づく前記周辺物体の現在位置又は将来位置が前記移動物体の進路上に存在する時間である進路オーバーラップ時間を算出する進路オーバーラップ時間算出部と
を備える物体認識装置であって、
前記周辺物体の現在位置又は将来位置の少なくとも一方が、前記移動物体の進路上に存在する場合、前記進路オーバーラップ時間に所定値を加算し、
前記位置情報取得装置による前記周辺物体の位置情報の取得が継続している位置情報取得継続時間に基づいて、又は前記周辺物体についての速度自体若しくは前記速度の算出の可否に基づいて前記進路オーバーラップ時間に前記所定値を加算する条件を変更する
ことを特徴とする物体認識装置。
A position information acquisition device that acquires position information related to the position of a surrounding object existing around the moving object;
A route overlap time calculation unit that calculates a route overlap time that is a time during which the current position or future position of the surrounding object based on the position information is present on the route of the moving object, and an object recognition device comprising:
When at least one of the current position or the future position of the surrounding object is present on the path of the moving object , a predetermined value is added to the path overlap time,
The course overlap based on the position information acquisition duration during which acquisition of the position information of the peripheral object by the position information acquisition device is continued, or based on the speed of the peripheral object itself or whether the speed can be calculated. A condition for adding the predetermined value to the time is changed.
JP2014102781A 2014-05-16 2014-05-16 Motion support system and object recognition device Expired - Fee Related JP6193177B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014102781A JP6193177B2 (en) 2014-05-16 2014-05-16 Motion support system and object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014102781A JP6193177B2 (en) 2014-05-16 2014-05-16 Motion support system and object recognition device

Publications (2)

Publication Number Publication Date
JP2015219721A JP2015219721A (en) 2015-12-07
JP6193177B2 true JP6193177B2 (en) 2017-09-06

Family

ID=54779037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014102781A Expired - Fee Related JP6193177B2 (en) 2014-05-16 2014-05-16 Motion support system and object recognition device

Country Status (1)

Country Link
JP (1) JP6193177B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6647681B2 (en) * 2017-08-30 2020-02-14 マツダ株式会社 Vehicle control device
WO2019188429A1 (en) * 2018-03-29 2019-10-03 住友電気工業株式会社 Moving body management device, moving body management system, moving body management method, and computer program
JP6960389B2 (en) 2018-12-04 2021-11-05 本田技研工業株式会社 Detector and vehicle
CN109808713A (en) * 2019-03-25 2019-05-28 联想(北京)有限公司 A kind of processing method and electronic equipment

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4684954B2 (en) * 2005-08-31 2011-05-18 本田技研工業株式会社 Vehicle travel safety device

Also Published As

Publication number Publication date
JP2015219721A (en) 2015-12-07

Similar Documents

Publication Publication Date Title
JP6190758B2 (en) Object recognition device and vehicle
US9797734B2 (en) Object recognition apparatus
US9896129B2 (en) Driving assistant system of vehicle and method for controlling the same
JP6310565B2 (en) Driving assistance device
US20160194003A1 (en) Vehicle travelling control device
RU2735340C1 (en) Parking control method and parking control device
KR102005253B1 (en) Lane assistance system responsive to extremely fast approaching vehicles
JP6485328B2 (en) Vehicle driving support device
JP2019137392A (en) Motorcycle adaptive cruise control target tracking
US10773714B2 (en) Parking control method and parking control apparatus
JP6614359B2 (en) Obstacle determination method, parking support method, exit support method, and obstacle determination device
JP6166249B2 (en) Transportation support device
JP6174644B2 (en) Image processing device
JP2018072105A (en) Object detection device
JP6193177B2 (en) Motion support system and object recognition device
JP2016009251A (en) Control device for vehicle
US20220413503A1 (en) Information processing device, information processing method, and information processing program
KR102440478B1 (en) Blind spot detection method and blind spot detection device
US20230182722A1 (en) Collision avoidance method and apparatus
US20200391591A1 (en) Vehicle and control method thereof
CN110371025A (en) Method, system, equipment and the storage medium of the preposition collision detection for operating condition of overtaking other vehicles
KR102616203B1 (en) Alarm controlling device of vehicle and method thereof
JP2018136713A (en) Driver's visual field estimation device and vehicle control device
JP2011195082A (en) Vehicle controller
JP2008129871A (en) Travelling environment estimating device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170809

R150 Certificate of patent or registration of utility model

Ref document number: 6193177

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees