JP6193177B2 - Motion support system and object recognition device - Google Patents
Motion support system and object recognition device Download PDFInfo
- Publication number
- JP6193177B2 JP6193177B2 JP2014102781A JP2014102781A JP6193177B2 JP 6193177 B2 JP6193177 B2 JP 6193177B2 JP 2014102781 A JP2014102781 A JP 2014102781A JP 2014102781 A JP2014102781 A JP 2014102781A JP 6193177 B2 JP6193177 B2 JP 6193177B2
- Authority
- JP
- Japan
- Prior art keywords
- overlap time
- course
- time
- support system
- route
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000033001 locomotion Effects 0.000 title claims description 51
- 238000004364 calculation method Methods 0.000 claims description 97
- 230000002093 peripheral effect Effects 0.000 claims description 50
- 230000000717 retained effect Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 26
- 230000010365 information processing Effects 0.000 description 17
- 238000000034 method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 241000255777 Lepidoptera Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、車両等の移動物体の動作支援を行う動作支援システム及び当該動作支援システムで利用可能な物体認識装置に関する。 The present invention relates to a motion support system that supports motion of a moving object such as a vehicle, and an object recognition device that can be used in the motion support system.
特許文献1では、不必要な回避支援を削減することができる運転支援装置を提供することを目的としている([0006]、要約)。当該目的を達成するため、特許文献1の運転支援装置1は、障害物に関する情報を検出する障害物検出手段と、自車両が障害物の現在位置に最接近するまでの余裕時間(TTC)を算出する余裕時間算出手段と、余裕時間が経過したときの障害物の将来位置を推定する将来位置推定手段と、自車両が回避すべき回避対象領域を設定する回避対象領域設定手段と、回避対象領域を回避する走行経路を設定する走行経路設定手段とを備える(要約)。回避対象領域設定手段は、将来位置及びその周辺位置における障害物との衝突リスクポテンシャルを評価し、衝突リスクポテンシャルに基づいて回避対象領域を設定する(要約)。
In
衝突リスクポテンシャルの評価では、将来位置を基準に、その周辺位置の衝突リスクポテンシャルの分布を生成する(図2のS5、[0028])。すなわち、リスクパターンDB4に記憶されたパターンのうち、障害物の種類に対応するパターンを取得し、そのパターンの基準位置を前記将来位置に合わせ、そのパターンの向きを障害物の向きに合わせる。これにより、前記将来位置の周辺位置における衝突リスクポテンシャルの分布を生成する([0028])。回避対象領域は、例えば、衝突リスクポテンシャルがある閾値以上となる範囲とされる([0031])。 In the evaluation of the collision risk potential, the distribution of the collision risk potential at the peripheral position is generated based on the future position (S5 in FIG. 2, [0028]). That is, a pattern corresponding to the type of obstacle is acquired from the patterns stored in the risk pattern DB 4, the reference position of the pattern is matched with the future position, and the direction of the pattern is matched with the direction of the obstacle. As a result, a collision risk potential distribution around the future position is generated ([0028]). The avoidance target area is, for example, a range in which the collision risk potential is a certain threshold value or more ([0031]).
特許文献1における障害物検出手段(障害物検出装置2)は、例えば、車外カメラ、レーダ等により、障害物に関する情報を検出する装置であるとされている([0018])。
The obstacle detection means (obstacle detection device 2) in
特許文献2では、レーダ(ミリ波)による障害物検出結果と、画像認識による障害物検出結果を照合して、両者で検出した場合とそれぞれのみで検出した場合に分岐する(要約)。そして、分岐結果に応じて走行支援制御の開始条件を変更することで、運転者の注意に応じた支援制御を実行する(要約)。レーダ(ミリ波)及び画像認識それぞれで障害物が検出できた場合に関し、特許文献2では、ミリ波レーダ21でも画像認識手段22でも障害物を検出している場合には、障害物を正しく検知している可能性が高いため、通常のタイミングで支援制御を実行すると説明されている([0075])。
In
上記のような特許文献1では、主として、余裕時間(TTC)に基づく障害物の将来位置と障害物の種類及び向きを用いて回避対象領域が設定される([0028])。特許文献1では、特許文献2のようなレーダ(ミリ波)及び画像認識による障害物検出結果を組み合わせる構成における処理が検討されていない。加えて、特許文献1では、障害物検出手段(障害物検出装置2)の検出結果の信頼性に着目した制御については考慮されていない。
In
また、特許文献2では、レーダ及び画像認識それぞれによる障害物検出結果に基づき走行支援制御の開始条件を変更するものの、レーダ及び画像認識それぞれにより障害物が検出された場合における信頼性の相違又は変化については検討されていない。このため、特許文献2では、レーダ及び画像認識それぞれによる障害物検出結果が得られた場合、信頼性があることを前提として制御が行われると言える。従って、特許文献2では、レーダ及び画像認識それぞれによる障害物検出結果が得られた場合の信頼性の相違については検討されていない。
In
本発明は上記のような課題を考慮してなされたものであり、検出結果の信頼性を制御に反映することが可能な動作支援システム及び物体認識装置を提供することを目的とする。 The present invention has been made in consideration of the above-described problems, and an object thereof is to provide an operation support system and an object recognition apparatus that can reflect the reliability of detection results in control.
本発明に係る動作支援システムは、
移動物体の周辺に存在する周辺物体に対して電磁波を出射し、前記周辺物体からの反射波に対応する反射波信号を出力するレーダと、
前記周辺物体を含む周辺画像を撮像し、前記周辺画像に対応する画像信号を出力するカメラと、
前記反射波信号に含まれる前記周辺物体を第1物体として認識し、前記画像信号に含まれる前記周辺物体を第2物体として認識し、前記第1物体及び前記第2物体をマッチングさせて対象物体として特定し、前記対象物体に対する前記移動物体の衝突可能性を判定する衝突可能性判定装置と、
前記衝突可能性に応じて前記移動物体の動作支援を行う動作支援装置と
を備えるものであって、
前記動作支援システムの一部又は全部は前記移動物体内又は前記移動物体外に設けられ、
前記第2物体の認識が継続している画像認識継続時間と、前記第2物体の横方向速度と、前記レーダ及び前記カメラのいずれで前記横方向速度を検知できているか否かの情報とに基づいて前記衝突可能性又は前記動作支援を変更することを特徴とする。
本発明に係る動作支援システムは、
移動物体の周辺に存在する周辺物体に対して電磁波を出射し、前記周辺物体からの反射波に対応する反射波信号を出力するレーダと、
前記周辺物体を含む周辺画像を撮像し、前記周辺画像に対応する画像信号を出力するカメラと、
前記反射波信号に含まれる前記周辺物体を第1物体として認識し、前記画像信号に含まれる前記周辺物体を第2物体として認識し、前記第1物体及び前記第2物体をマッチングさせて対象物体として特定し、前記対象物体に対する前記移動物体の衝突可能性を判定する衝突可能性判定装置と、
前記衝突可能性に応じて前記移動物体の動作支援を行う動作支援装置と
を備えるものであって、
前記動作支援システムの一部又は全部は前記移動物体内又は前記移動物体外に設けられ、
前記第2物体の認識が継続している画像認識継続時間と、前記第1物体及び前記第2物体についての横方向速度自体又は前記横方向速度の算出の可否とに基づいて前記衝突可能性又は前記動作支援を変更することを特徴とする。
The operation support system according to the present invention includes:
A radar that emits an electromagnetic wave to a peripheral object existing around a moving object and outputs a reflected wave signal corresponding to a reflected wave from the peripheral object;
A camera that captures a peripheral image including the peripheral object and outputs an image signal corresponding to the peripheral image;
Recognizing the peripheral object included in the reflected wave signal as a first object, recognizing the peripheral object included in the image signal as a second object, and matching the first object and the second object, the target object A collision possibility determination device that specifies the collision possibility of the moving object with respect to the target object, and
An operation support apparatus for supporting the operation of the moving object according to the collision possibility;
Comprising:
A part or all of the motion support system is provided inside or outside the moving object,
The image recognition continuation time during which the recognition of the second object is continued, the lateral velocity of the second object, and information on whether the lateral velocity can be detected by either the radar or the camera. Based on the above, the possibility of collision or the motion support is changed.
The operation support system according to the present invention includes:
A radar that emits an electromagnetic wave to a peripheral object existing around a moving object and outputs a reflected wave signal corresponding to a reflected wave from the peripheral object;
A camera that captures a peripheral image including the peripheral object and outputs an image signal corresponding to the peripheral image;
Recognizing the peripheral object included in the reflected wave signal as a first object, recognizing the peripheral object included in the image signal as a second object, and matching the first object and the second object, the target object A collision possibility determination device that specifies the collision possibility of the moving object with respect to the target object, and
An operation support device for supporting the movement of the moving object according to the collision possibility,
A part or all of the motion support system is provided inside or outside the moving object,
Based on the image recognition continuation time during which the recognition of the second object continues and the lateral velocity itself or the possibility of calculation of the lateral velocity for the first object and the second object, The operation support is changed.
レーダの検出結果(反射波信号)及びカメラの検出結果(画像信号)を組み合わせて対象物体を特定する場合、対象物体までの距離は、レーダの検出値を用いることで精度良く検出することが可能となる場合が多い。また、レーダの検出値により算出した対象物体までの距離を用いる場合、レーダの検出値よりも周辺画像の方が、周辺物体の横方向速度を精度良く算出することができる場合が多い。 When the target object is specified by combining the radar detection result (reflected wave signal) and the camera detection result (image signal), the distance to the target object can be accurately detected using the radar detection value. In many cases. In addition, when the distance to the target object calculated using the detection value of the radar is used, the peripheral image can often calculate the lateral speed of the peripheral object with higher accuracy than the detection value of the radar.
本発明によれば、周辺画像に基づく第2物体の認識が継続している画像認識継続時間と、第1物体及び第2物体についての横方向速度自体又は横方向速度の算出の可否とに基づいて衝突可能性又は動作支援を変更する。 According to the present invention, based on the image recognition continuation time during which the recognition of the second object based on the peripheral image is continued, and whether or not the lateral speed itself or the lateral speed can be calculated for the first object and the second object. Change the collision probability or motion support.
これにより、画像認識継続時間を用いることで、周辺画像に基づく横方向位置又は横方向速度の信頼性を衝突可能性又は動作支援に反映することが可能となる。加えて、第1物体及び第2物体についての横方向速度自体又は横方向速度の算出の可否を用いることで、レーダ及びカメラの検出結果の信頼性をより正確に反映した動作支援を行うことが可能となる。 Accordingly, by using the image recognition duration time, it is possible to reflect the reliability of the lateral position or the lateral speed based on the peripheral image in the collision possibility or the motion support. In addition, it is possible to perform operation support that more accurately reflects the reliability of the detection results of the radar and the camera by using whether or not the lateral speed itself or the lateral speed of the first object and the second object can be calculated. It becomes possible.
前記衝突可能性判定装置は、前記対象物体が前記移動物体の進路上に存在する時間である進路オーバーラップ時間を算出する進路オーバーラップ時間算出部を備え、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置又は将来位置の少なくとも一方が、前記移動物体の進路上に存在する場合、前記進路オーバーラップ時間に所定値を加算し、前記画像認識継続時間に基づいて、又は前記第1物体及び前記第2物体についての横方向速度自体若しくは前記横方向速度の算出の可否に基づいて前記進路オーバーラップ時間に前記所定値を加算する条件を変更してもよい。
The collision possibility determination device includes a route overlap time calculation unit that calculates a route overlap time that is a time during which the target object is present on the route of the moving object, and the route overlap time calculation unit includes: When at least one of the current position or the future position of the target object is on the path of the moving object , a predetermined value is added to the path overlap time, and the first object is based on the image recognition duration time or In addition, the condition for adding the predetermined value to the course overlap time may be changed based on the lateral speed itself of the second object or whether the lateral speed can be calculated.
本発明によれば、第2物体の認識が継続している画像認識継続時間に基づいて、又は周辺物体についての横方向速度自体若しくは横方向速度の算出の可否に基づいて進路オーバーラップ時間に所定値を加算する条件を変更する。
According to the present invention, the course overlap time is determined based on the image recognition duration time during which the second object is continuously recognized, or based on whether or not the lateral speed of the surrounding object itself or the lateral speed can be calculated. Change the condition for adding values .
これにより、画像認識継続時間を用いることで、画像認識の信頼性を進路オーバーラップ時間に反映することが可能となる。或いは、周辺物体についての横方向速度又は横方向速度の算出の可否を用いることで、画像認識の信頼性をより正確に反映した進路オーバーラップ時間を算出することが可能となる。 Thus, by using the image recognition continuation time, it is possible to reflect the reliability of the image recognition in the course overlap time. Alternatively, it is possible to calculate the course overlap time more accurately reflecting the reliability of the image recognition by using the lateral velocity of the surrounding objects or the possibility of calculating the lateral velocity.
前記衝突可能性判定装置は、前記進路オーバーラップ時間に応じて前記衝突可能性を判定してもよい。これにより、画像認識の信頼性を衝突可能性に反映することが可能となる。 The collision possibility determination device may determine the collision possibility according to the course overlap time. As a result, the reliability of image recognition can be reflected in the possibility of collision.
前記移動物体に対して動作支援を行うに当たり、前記動作支援装置は、前記進路オーバーラップ時間に応じて前記動作支援を変更してもよい。これにより、画像認識の信頼性を動作支援に反映することが可能となる。 In performing motion support for the moving object, the motion support device may change the motion support in accordance with the course overlap time. As a result, the reliability of image recognition can be reflected in the operation support.
前記画像認識継続時間が所定の時間閾値を超えて継続して認識されている場合、前記進路オーバーラップ時間算出部は、少なくとも前記対象物体の将来位置が前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算してもよい。これにより、画像認識の信頼性が高い状態において、進路オーバーラップ時間を適切に反映することが可能となる。
When the image recognition duration time is continuously recognized exceeding a predetermined time threshold, the course overlap time calculation unit, if at least the future position of the target object exists on the course of the moving object, The predetermined value may be added to the course overlap time. This makes it possible to appropriately reflect the course overlap time in a state where the reliability of image recognition is high.
前記画像認識継続時間が前記所定の時間閾値を超えて継続して認識されていない場合、前記進路オーバーラップ時間算出部は、前記第2物体の横方向速度が所定の速度閾値以上であり且つ少なくとも前記対象物体の将来位置が前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算してもよい。これにより、横方向速度が比較的大きいという緊急度合いの高い状況において、進路オーバーラップ時間を適切に算出することが可能となる。
When the image recognition duration time is not continuously recognized beyond the predetermined time threshold, the course overlap time calculation unit is configured such that the lateral speed of the second object is equal to or higher than a predetermined speed threshold and If the future position of the target object exists on the path of the moving object, the predetermined value may be added to the path overlap time. This makes it possible to appropriately calculate the course overlap time in a situation of high urgency where the lateral speed is relatively large.
前記対象物体の現在位置及び将来位置の両方が、前記移動物体の進路上に存在しない場合、前記進路オーバーラップ時間算出部は、前記進路オーバーラップ時間から前記所定値を減算してもよい。これにより、衝突可能性が低い場合、進路オーバーラップ時間を適切に算出することが可能となる。
When both the current position and the future position of the target object do not exist on the path of the moving object, the path overlap time calculation unit may subtract the predetermined value from the path overlap time. Thereby, when the possibility of collision is low, it is possible to appropriately calculate the course overlap time.
前記進路オーバーラップ時間算出部は、前記対象物体の現在位置が前記移動物体の進路上に存在し且つ前記対象物体の将来位置が前記移動物体の進路上に存在しない場合、前記進路オーバーラップ時間の前回値を保持してもよい。これにより、衝突可能性が相対的に低い場合、進路オーバーラップ時間を適切に算出することが可能となる。 The route overlap time calculation unit calculates the route overlap time when the current position of the target object exists on the route of the moving object and the future position of the target object does not exist on the route of the movable object. The previous value may be held. Thereby, when the possibility of collision is relatively low, it is possible to appropriately calculate the course overlap time.
前記第1物体及び前記第2物体の両方の横方向移動が検出されている場合、前記進路オーバーラップ時間算出部は、少なくとも前記対象物体の将来位置が、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算してもよい。これにより、衝突可能性が相対的に高い場合、進路オーバーラップ時間を適切に算出することが可能となる。
When the lateral movement of both the first object and the second object is detected, the course overlap time calculation unit determines that at least the future position of the target object exists on the course of the moving object. The predetermined value may be added to the course overlap time. Thereby, when the possibility of collision is relatively high, it is possible to appropriately calculate the course overlap time.
前記第1物体が認識され且つ前記第2物体が認識されていない場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置の両方が、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算してもよい。これにより、第2物体が認識されていない場合でも、進路オーバーラップ時間を適切に算出することが可能となる。
When the first object is recognized and the second object is not recognized, the course overlap time calculation unit determines that both the current position and the future position of the target object exist on the path of the moving object. For example, the predetermined value may be added to the course overlap time. Thereby, even when the second object is not recognized, it is possible to appropriately calculate the course overlap time.
前記第1物体が認識され且つ前記第2物体が認識されていない場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置の一方のみが、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間の前回値を保持してもよい。これにより、第2物体が認識されていない場合でも、進路オーバーラップ時間を適切に算出することが可能となる。 When the first object is recognized and the second object is not recognized, the course overlap time calculation unit has only one of the current position and the future position of the target object on the course of the moving object. If so, the previous value of the course overlap time may be held. Thereby, even when the second object is not recognized, it is possible to appropriately calculate the course overlap time.
前記第2物体の横方向移動が検出され且つ前記第1物体の横方向移動が検出されず、且つ前記第2物体の横方向速度が所定の速度閾値を下回る場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置が、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算してもよい。これにより、第1物体の横方向移動が検出されない場合でも、進路オーバーラップ時間を適切に算出することが可能となる。
When the lateral movement of the second object is detected, the lateral movement of the first object is not detected, and the lateral speed of the second object is below a predetermined speed threshold, the path overlap time calculation unit If the current position and future position of the target object exist on the path of the moving object, the predetermined value may be added to the path overlap time. Thereby, even when the lateral movement of the first object is not detected, it is possible to appropriately calculate the course overlap time.
前記第2物体の横方向移動が検出され且つ前記第1物体の横方向移動が検出されず、且つ前記第2物体の横方向速度が前記所定の速度閾値を下回る場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置の一方のみが、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間の前回値を保持してもよい。これにより、第1物体の横方向移動が検出されない場合でも、進路オーバーラップ時間を適切に算出することが可能となる。 When the lateral movement of the second object is detected, the lateral movement of the first object is not detected, and the lateral speed of the second object is below the predetermined speed threshold, the course overlap time calculation The unit may hold the previous value of the course overlap time if only one of the current position and the future position of the target object is present on the course of the moving object. Thereby, even when the lateral movement of the first object is not detected, it is possible to appropriately calculate the course overlap time.
本発明に係る物体認識装置は、移動物体の周辺に存在する周辺物体の位置に関する位置情報を取得する位置情報取得装置と、前記位置情報に基づく前記周辺物体の現在位置又は将来位置が前記移動物体の進路上に存在する時間である進路オーバーラップ時間を算出する進路オーバーラップ時間算出部とを備えるものであって、前記周辺物体の現在位置又は将来位置の少なくとも一方が、前記移動物体の進路上に存在する場合、前記進路オーバーラップ時間に所定値を加算し、前記位置情報取得装置による前記周辺物体の位置情報の取得が継続している位置情報取得継続時間に基づいて、又は前記周辺物体についての速度自体若しくは前記速度の算出の可否に基づいて前記進路オーバーラップ時間に前記所定値を加算する条件を変更することを特徴とする。
An object recognition apparatus according to the present invention includes a position information acquisition apparatus that acquires position information related to positions of surrounding objects existing around a moving object, and a current position or a future position of the surrounding object based on the position information is the moving object. A route overlap time calculating unit that calculates a route overlap time that is a time existing on the route of the moving object, wherein at least one of a current position or a future position of the peripheral object is on the route of the moving object. A predetermined value is added to the route overlap time , and the position information acquisition device continues to acquire the position information of the peripheral object by the position information acquisition device, or the peripheral object changing the conditions for adding the predetermined value to the path overlap time based on whether the rate itself or calculating the speed And butterflies.
本発明によれば、周辺物体の位置情報の取得が継続している位置情報取得継続時間に基づいて、又は周辺物体についての横方向速度自体若しくは横方向速度の算出の可否に基づいて進路オーバーラップ時間に所定値を加算する条件を変更する。
According to the present invention, the route overlap is based on the position information acquisition continuation time during which the acquisition of the position information of the peripheral object is continued, or based on whether or not the lateral speed of the peripheral object itself or the calculation of the lateral speed can be calculated. The condition for adding a predetermined value to the time is changed.
これにより、位置情報取得継続時間を用いることで、位置情報の信頼性を進路オーバーラップ時間に反映することが可能となる。或いは、周辺物体についての速度自体又は速度の算出の可否を用いることで、位置情報の信頼性をより正確に反映した進路オーバーラップ時間を算出することが可能となる。 Thus, by using the position information acquisition continuation time, the reliability of the position information can be reflected in the course overlap time. Alternatively, it is possible to calculate the course overlap time that more accurately reflects the reliability of the position information by using the speed of the surrounding object itself or whether the speed can be calculated.
本発明によれば、検出結果の信頼性を制御に反映することが可能となる。 According to the present invention, the reliability of the detection result can be reflected in the control.
A.一実施形態
A1.構成
[A1−1.全体構成]
図1は、本発明の一実施形態に係る運転支援システムとしての車両10(以下「自車10」ともいう。)の構成を示すブロック図である。車両10は、物体認識装置12、車両挙動安定システム14(以下「VSAシステム14」という。)、電動パワーステアリングシステム16(以下「EPSシステム16」という。)、ポップアップフードシステム18(以下「PUHシステム18」という。)、車速センサ20及び警報装置22を有する。
A. Embodiment A1. Configuration [A1-1. overall structure]
FIG. 1 is a block diagram showing a configuration of a vehicle 10 (hereinafter also referred to as “
物体認識装置12は、自車10の周囲に現れる各種の周辺物体100(例えば、歩行者102(図3、図5)、他車104(図4)及び壁)を検出する。そして、物体認識装置12は、周辺物体100(以下「検出物体100」ともいう。)のうち自車10の制御に関連するものを対象物体100tarとして選択又は特定する。物体認識装置12は、自車10から対象物体100tarまでの距離Lを算出すると共に、対象物体100tarの属性Prtarを判別する。ここでの属性Prtarには、例えば、対象物体100tarの種類Ca(例えば、車両、歩行者(ヒト)又は壁)等が含まれる。
The
VSAシステム14の電子制御装置30(以下「VSA ECU30」という。)は、車両挙動安定化制御を実行するものであり、図示しないブレーキシステム等の制御を介してカーブ路の旋回時、自車10に対する他車104の接近時等における車両10の挙動を安定化させる。
An electronic control unit 30 (hereinafter referred to as “
EPSシステム16の電子制御装置32(以下「EPS ECU32」という。)は、操舵アシスト制御を実行するものであり、電動パワーステアリング装置の構成要素{電動モータ、トルクセンサ及び舵角センサ(いずれも図示せず)等}の制御を介して運転者による操舵をアシストする。
An electronic control device 32 (hereinafter referred to as “
PUHシステム18の電子制御装置34(以下「PUH ECU34」という。)は、車両10が歩行者102(図3及び図5)との衝突事故に遭った場合、車両10のポップアップフード(図示せず)を跳ね上げ、歩行者102の頭部が車体に当たったときの衝撃を和らげる。
The electronic control unit 34 (hereinafter referred to as “
車速センサ20は、車両10の車速V[km/h]を検出して物体認識装置12等に出力する。警報装置22は、物体認識装置12等からの指令に基づき、運転者に対する警報を行う。警報装置22は、例えば、図示しない表示装置及びスピーカを有する。
The
[A1−2.物体認識装置12]
図1に示すように、物体認識装置12は、レーダ40、カメラ42及び物体認識電子制御装置44(以下「物体認識ECU44」又は「ECU44」という。)を有する。
[A1-2. Object recognition device 12]
As shown in FIG. 1, the
(A1−2−1.レーダ40)
レーダ40は、電磁波(ここではミリ波)である送信波Wtを車両10の外部に出力し、送信波Wtのうち検出物体100(例えば、歩行者102、他車104)に反射して戻って来る反射波Wrを受信する。そして、反射波Wrに対応する検出信号(以下「反射波信号Swr」又は「信号Swr」という。)をECU44に出力する。以下では、レーダ40が検出した検出物体100を「第1物体100r」又は「レーダ物標100r」ともいう。
(A1-2-1. Radar 40)
The
レーダ40は、車両10の前側(例えば、フロントバンパ及び/又はフロントグリル)に配置される。前側に加えて又は前側に代えて、車両10の後ろ側(例えば、リアバンパ及び/又はリアグリル)又は側方(例えば、フロントバンパの側方)に配置してもよい。
The
また、後述するように、ミリ波を出力するレーダ40の代わりに、レーザレーダ、超音波センサ等のセンサを用いることもできる。
As will be described later, a sensor such as a laser radar or an ultrasonic sensor can be used instead of the
(A1−2−2.カメラ42)
カメラ42(撮像手段)は、車両10の周囲(対象物体100tarを含む。)の画像Imc(以下「周辺画像Imc」又は「撮像画像Imc」ともいう。)を取得する。そして、画像Imcに対応する信号(以下「画像信号Sic」又は「信号Sic」という。)をECU44に出力する。以下では、カメラ42が検出した検出物体100を「第2物体100c」又は「カメラ物標100c」ともいう。
(A1-2-2. Camera 42)
The camera 42 (imaging means) acquires an image Imc (hereinafter also referred to as “peripheral image Imc” or “captured image Imc”) around the vehicle 10 (including the
本実施形態では、1つのカメラ42を用いるが、2つのカメラ42を左右対称に配置させてステレオカメラを構成してもよい。カメラ42は、1秒間に15フレーム以上(例えば30フレーム)で画像Imcを取得する。カメラ42は、主に可視光領域の波長を有する光を利用するモノクロカメラであるが、カラーカメラ又は赤外線カメラであってもよい。カメラ42は、例えば、車両10の車室内の前方部分における車幅方向中心部(例えば、バックミラー周辺)に配置されている。或いは、カメラ42は、車両10の前部バンパー部における車幅方向中心部に配置されてもよい。
In the present embodiment, one
(A1−2−3.物体認識ECU44)
物体認識ECU44は、物体認識装置12の全体を制御するものであり、図1に示すように、入出力部50、演算部52及び記憶部54を有する。
(A1-2-3. Object recognition ECU 44)
The
レーダ40からの反射波信号Swr及びカメラ42からの画像信号Sicは、入出力部50を介して物体認識ECU44に供給される。また、物体認識ECU44と、VSA ECU30、EPS ECU32及びPUH ECU34との間の通信は、入出力部50及び通信線56を介して行われる。入出力部50は、入力されたアナログ信号をデジタル信号に変換する図示しないA/D変換回路を備える。
The reflected wave signal Swr from the
演算部52は、レーダ40及びカメラ42からの各信号Swr、Sicに基づく演算を行い、演算結果に基づき、VSA ECU30、EPS ECU32及びPUH ECU34に対する信号を生成する。
The
図1に示すように、演算部52は、レーダ情報処理部60、カメラ情報処理部62及び対象物体情報処理部64を有する。各処理部60、62、64は、記憶部54に記憶されているプログラムを実行することにより実現される。前記プログラムは、図示しない無線通信装置(携帯電話機、スマートフォン等)を介して外部から供給されてもよい。前記プログラムの一部をハードウェア(回路部品)で構成することもできる。
As illustrated in FIG. 1, the
レーダ情報処理部60は、レーダ40が検出した反射波Wr(反射波信号Swr)に基づいて検出物体100(第1物体100r)の情報(以下「レーダ情報Ir」、「第1物体情報Ir」又は「情報Ir」という。)を算出する。カメラ情報処理部62は、カメラ42が取得した周辺画像Imcを用いて検出物体100(第2物体100c)の情報(以下「カメラ情報Ic」、「第2物体情報Ic」又は「情報Ic」という。)を算出する。
The radar
対象物体情報処理部64(以下、「処理部64」ともいう。)は、レーダ情報処理部60が算出したレーダ情報Irと、カメラ情報処理部62が算出したカメラ情報Icとを組み合わせた情報(以下「対象物体情報It」又は「情報It」という。)を算出する。換言すると、処理部64は、いわゆるフュージョン処理を行う。情報Itは、レーダ40が検出した検出物体100(第1物体100r)と、カメラ42が検出した検出物体100(第2物体100c)とに基づいて特定する対象物体100tarの情報である。
The target object information processing unit 64 (hereinafter also referred to as “processing
処理部64は、TTC算出部70(以下「算出部70」ともいう。)と、進路オーバーラップ時間算出部72(以下「Tolp算出部72」又は「算出部72」ともいう。)と、衝突可能性算出部74(以下「Pc算出部74」又は「算出部74」ともいう。)とを備える。
The
TTC算出部70は、自車10が対象物体100tarに接触(又は衝突)するまでの時間を示すTTC(Time to Collision)を算出する。進路オーバーラップ時間算出部72は、進路オーバーラップ時間Tolpを算出する。時間Tolpは、対象物体100tarが車両10の進路106(図3〜図5)上に存在する時間である。時間Tolpの詳細については、図2、図8、図9等を用いて後述する。
The
衝突可能性算出部74は、衝突可能性Pcを算出する。衝突可能性Pcは、対象物体100tar(歩行者102等)が自車10に接触(又は衝突)する可能性である。
The collision
記憶部54は、デジタル信号に変換された撮像信号、各種演算処理に供される一時データ等を記憶するRAM(Random Access Memory)、及び実行プログラム、テーブル又はマップ等を記憶するROM(Read Only Memory)等で構成される。
The
A2.運転支援制御
[A2−1.運転支援制御の全体的な流れ]
図2は、本実施形態における運転支援制御のフローチャートである。運転支援制御は、物体認識ECU44の演算部52(処理部60、62、64)及びその他のECU30、32、34の演算部(図示せず)が実行する。各ECU30、32、34、44は、図2に示す処理を所定の演算周期(例えば、数μsec〜数百msecのいずれかの周期)で繰り返す。
A2. Driving support control [A2-1. Overall flow of driving support control]
FIG. 2 is a flowchart of the driving support control in the present embodiment. The driving support control is executed by the calculation unit 52 (
ステップS1において、ECU44(レーダ情報処理部60)は、レーダ40からの反射波信号Swrに基づいて、検出物体100(レーダ物標100r)のレーダ情報Irを算出する。レーダ情報Irには、レーダ物標100rの位置Por、速度Vr、加速度ar等が含まれる。なお、レーダ40の検出範囲内に複数のレーダ物標100rが存在する場合、ECU44は、各レーダ物標100rについて位置Por、速度Vr、加速度ar等を算出する。
In step S1, the ECU 44 (radar information processing unit 60) calculates radar information Ir of the detection object 100 (radar target 100r) based on the reflected wave signal Swr from the
ステップS2において、ECU44(カメラ情報処理部62)は、カメラ42の画像信号Sic(撮像画像Imc)に基づいて、検出物体100(カメラ物標100c)のカメラ情報Icを算出する。カメラ情報Icには、カメラ物標100cの位置Poc、横方向速度Vlc、加速度ac、属性Prc等が含まれる。また、属性Prcとしては、カメラ物標100cの種類Ca(歩行者、車両等)、大きさ等が含まれる。また、撮像画像Imc内に複数のカメラ物標100cが存在する場合、ECU44は、各カメラ物標100cについて位置Poc、横方向速度Vlc、加速度ac、属性Prc等を算出する。
In step S2, the ECU 44 (camera information processing unit 62) calculates camera information Ic of the detected object 100 (camera target 100c) based on the image signal Sic (captured image Imc) of the
ステップS3において、ECU44(対象物体情報処理部64)は、レーダ情報Ir(レーダ物標100r)とカメラ情報Ic(カメラ物標100c)をマッチングするマッチング判断を行う。マッチング判断では、レーダ情報処理部60で認識された第1物体100rの位置Por及びカメラ情報処理部62で認識された第2物体100cの位置Pocが一致する又は所定距離内にあるときに同一の対象物体100tarであると判定する。
In step S3, the ECU 44 (target object information processing unit 64) performs a matching determination for matching the radar information Ir (radar target 100r) and the camera information Ic (camera target 100c). The matching determination is the same when the position Por of the first object 100r recognized by the radar
ステップS4において、ECU44は、自車10が対象物体100tarに接触(又は衝突)するまでの時間を示すTTCを算出する。
In step S4, the
ステップS5において、ECU44は、進路オーバーラップ時間Tolp(以下「オーバーラップ時間Tolp」又は「時間Tolp」ともいう。)の算出モードMolp(以下「モードMolp」ともいう。)を選択する。時間Tolpは、対象物体100tarが車両10の進路106(図3〜図5)上に存在する時間である。また、算出モードMolpは、時間Tolpを算出するためのモードであり、本実施形態では、Mode 1とMode 2の2つを用いる。ステップS5の詳細は、図6を参照して後述する。
In step S5, the
ステップS6において、ECU44は、ステップS5で選択した算出モードMolpを用いてオーバーラップ時間Tolpを算出する。ステップS6の詳細は、図8を参照して後述する。
In step S6, the
ステップS7において、ECU44は、TTCとオーバーラップ時間Tolpから衝突可能性Pcを算出する。衝突可能性Pcは、対象物体100tar(歩行者102等)が自車10に接触(又は衝突)する可能性である。算出した衝突可能性Pcは、例えば、ECU30、32、34に対してECU44から出力される。
In step S7, the
なお、衝突可能性Pcを用いずに、TTC及び時間Tolpをそのまま用いることも可能である。その場合、例えば、TTC及び時間Tolpそれぞれの閾値との関係で、警報装置22を用いた警報、又は図示しないブレーキ装置を用いた自動ブレーキを行うことができる。
It is also possible to use the TTC and the time Tolp as they are without using the collision possibility Pc. In that case, for example, an alarm using the
また、時間Tolpが閾値を超えた場合のみ、衝突可能性Pcを判定すること、又は時間Tolpに応じてTTCの閾値を変更することも可能である。 Further, it is possible to determine the collision possibility Pc only when the time Tolp exceeds the threshold value, or to change the TTC threshold value according to the time Tolp.
ステップS8において、ECU44は、衝突可能性Pcに応じて運転支援を行う。具体的には、VSA ECU30は、例えば、衝突可能性Pcを用いて自動ブレーキ制御を実行する。EPS ECU32は、例えば、衝突可能性Pcを用いて自動ステアリング制御を実行する。PUH ECU34は、衝突可能性Pcを用いてPUH制御を実行する。物体認識ECU44は、警報装置22を介して所定の警告(例えば、警告音の出力又は警告表示)を行う。
In step S8, the
[A2−2.進路オーバーラップ時間Tolp]
(A2−2−1.進路オーバーラップ時間Tolpの意義)
上記のように、本実施形態では、TTCに加え、進路オーバーラップ時間Tolpを用いて衝突可能性Pcを算出する。すなわち、時間Tolpは、衝突可能性Pcを判定するための一指標として用いられる。時間Tolpの値が小さい場合、衝突可能性Pcが相対的に低いと判定され、時間Tolpの値が大きい場合、衝突可能性Pcが相対的に高いと判定される。
[A2-2. Course overlap time Tolp]
(A2-2-1. Significance of route overlap time Tolp)
As described above, in the present embodiment, the collision possibility Pc is calculated using the course overlap time Tolp in addition to the TTC. That is, the time Tolp is used as an index for determining the collision possibility Pc. When the time Tolp value is small, it is determined that the collision possibility Pc is relatively low, and when the time Tolp value is large, it is determined that the collision possibility Pc is relatively high.
(A2−2−2.進路オーバーラップ時間Tolpの算出の概要)
本実施形態では、進路オーバーラップ時間Tolpの算出モードMolpを選択した上で(図2のS5)、時間Tolpを算出する。算出モードMolpには、Mode 1及びMode 2が含まれる。Mode 1は、画像認識による第2物体100cの横方向速度Vlcの信頼性(精度)が相対的に高い場合に用いられる。Mode 2は、画像認識による第2物体100cの横方向速度Vlcの信頼性(精度)が相対的に低い場合に用いられる。各モードMolpの詳細については、図7、図9等を参照して詳述する。
(A2-2-2. Outline of calculation of route overlap time Tolp)
In this embodiment, after selecting the calculation mode Molp for the course overlap time Tolp (S5 in FIG. 2), the time Tolp is calculated. The calculation mode Molp includes
いずれの算出モードMolpを用いる場合でも、進路オーバーラップの有無が利用される(図9)。そこで、まず進路オーバーラップについて説明する。 Regardless of which calculation mode Molp is used, the presence or absence of a route overlap is used (FIG. 9). First, the route overlap will be described.
進路オーバーラップは、進路オーバーラップ量Dolpが所定の閾値THdolp(以下「オーバーラップ量閾値THdolp」ともいう。)以上である状態を意味する。本実施形態では、対象物体100tarの現在位置Ppre及び将来位置Pftrのそれぞれについて進路オーバーラップの有無が判定される。 The route overlap means a state in which the route overlap amount Dolp is equal to or greater than a predetermined threshold THdolp (hereinafter also referred to as “overlap amount threshold THdolp”). In the present embodiment, the presence or absence of a route overlap is determined for each of the current position Ppre and the future position Pftr of the target object 100tar.
(A2−2−3.進路オーバーラップ量Dolp)
(A2−2−3−1.現在位置Ppreに基づく進路オーバーラップ量Dolp)
図3及び図4は、対象物体100tarの現在位置Ppreに基づく進路オーバーラップ量Dolpを説明するための第1図及び第2図である。図3では、対象物体100tarとしての歩行者102が自車10の前方に存在する。図4では、対象物体100tarとしての他車104が自車10の前方に存在する。図3及び図4において、破線108lは、車両10の進路106の左端を示す仮想線であり、破線108rは、車両10の進路106の右端を示す仮想線である。仮想線108l、108rにより挟まれる領域が進路106となる。
(A2-2-3. Route overlap amount Dolp)
(A2-2-3-1. Course overlap amount Dolp based on the current position Ppre)
FIGS. 3 and 4 are FIGS. 1 and 2 for explaining the route overlap amount Dolp based on the current position Ppre of the target object 100tar. In FIG. 3, a
図3及び図4では、破線108l、108rが、車両10の側面の位置に対応しているが、車両10の進路106を算出する目的であれば、車幅方向に変位させることも可能である。
3 and 4, the
また、図3及び図4において、一点鎖線110lは、車両10から見た際の対象物体100tar(歩行者102、他車104)の左端を示す仮想線である。一点鎖線110rは、車両10から見た際の対象物体100tar(歩行者102、他車104)の右端を示す仮想線である。破線108l、108rと同様、一点鎖線110l、110rは、車幅方向に変位させることも可能である。
3 and 4, the alternate long and short dash line 110l is an imaginary line indicating the left end of the target object 100tar (
図3及び図4では、仮想線108l、108rを直線としているが、例えば、車両10が旋回中である場合、進路106に合わせて仮想線108l、108rを曲線状としてもよい。仮想線108l、108rを曲線状とするためには、例えば、図示しないヨーレートセンサにより検出したヨーレート等を用いて仮想線108l、108rを演算することができる。また、図示しないナビゲーション装置又は進路106(走行路)周辺に配置された光ビーコン等の装置(路側装置)から、進路106の形状に関する情報を取得し、当該情報を用いて仮想線108l、108rを算出することも可能である。
In FIGS. 3 and 4, the
図3及び図4において、Dolp_lは、左側の仮想線108lを基準としたときの進路106に対する対象物体100tar(歩行者102又は他車104)のオーバーラップ量である。すなわち、オーバーラップ量Dolp_lは、進路106の左端を示す仮想線108lから対象物体100tar(歩行者102又は他車104)の右端を示す仮想線110rまでの距離を示す。但し、図4では、他車104の右端を示す仮想線110rが、進路106の右端を示す仮想線108rよりも右側に位置し、進路106内に存在しない。このため、図4の例では、オーバーラップ量Dolp_lは、仮想線108l、108r間の距離となり、オーバーラップ量Dolp_lが取り得る最大値となる。
3 and 4, Dolp_l is the overlap amount of the target object 100tar (
同様に、Dolp_rは、右側の仮想線108rを基準としたときの進路106に対する対象物体100tar(歩行者102又は他車104)のオーバーラップ量である。すなわち、オーバーラップ量Dolp_rは、進路106の右端を示す仮想線108rから対象物体100tarの左端を示す仮想線110lまでの距離を示す。但し、図4では、他車104の左端を示す仮想線110lが、進路106の左端を示す仮想線108lよりも左側に位置し、進路106内に存在しない。このため、図4の例では、オーバーラップ量Dolp_rは、仮想線108l、108r間の距離となり、オーバーラップ量Dolp_rが取り得る最大値となる。
Similarly, Dolp_r is the overlap amount of the target object 100tar (
図3及び図4では、対象物体100tarの現在位置Ppreに基づくオーバーラップ量Dolp_r、Dolp_rを示している。 3 and 4 show overlap amounts Dolp_r and Dolp_r based on the current position Ppre of the target object 100tar.
ECU44は、進路オーバーラップ量Dolp_l、Dolp_rのうち短い方の値を、オーバーラップ量Dolpとして用いる。オーバーラップ量Dolp_l、Dolp_rが互いに等しい場合、いずれの値を用いてもよい。図3の例では、左側の進路オーバーラップ量Dolp_lが、進路オーバーラップ量Dolpとして用いられる。また、図4の例では、左右の進路オーバーラップ量Dolp_l、Dolp_rが等しいため、進路オーバーラップ量Dolp_l、Dolp_rのいずれか(例えば、Dolp_l)が、進路オーバーラップ量Dolpとして用いられる。図3及び図4の例では、対象物体100tarの現在位置Ppreに基づくオーバーラップ量Dolpが算出される。
The
(A2−2−3−2.将来位置Pftrに基づく進路オーバーラップ量Dolp)
図5は、対象物体100tarの将来位置Pftrに基づく進路オーバーラップ量Dolpを説明するための図である。図5では、対象物体100tarとしての歩行者102が自車10の進路106に入ってくる様子を示している。図5では、現在位置Ppreの車両10及び歩行者102を実線で示し、将来位置Pftrの車両10及び歩行者102を破線で示している。なお、ここにいう将来位置Pftrは、例えば、TTCに基づいて算出される。
(A2-2-3-2. Course overlap amount Dolp based on future position Pftr)
FIG. 5 is a diagram for explaining the route overlap amount Dolp based on the future position Pftr of the target object 100tar. FIG. 5 shows a state where a
現在位置Ppreに基づくオーバーラップ量Dolpと同様、将来位置Pftrに基づくオーバーラップ量Dolpは、左側及び右側のオーバーラップ量Dolp_l、Dolp_rを算出し、小さい方の値をオーバーラップ量Dolpとする。 Similar to the overlap amount Dolp based on the current position Ppre, the overlap amount Dolp based on the future position Pftr calculates the left and right overlap amounts Dolp_l and Dolp_r, and sets the smaller value as the overlap amount Dolp.
(A2−2−4.進路オーバーラップ時間Tolpの算出モードMolp)
(A2−2−4−1.算出モードMolpの概要)
上記のように、本実施形態の算出モードMolpには、画像認識による第2物体100cの横方向速度Vlcの信頼性に応じたMode 1及びMode 2が含まれる。
(A2-2-4. Course overlap time Tolp calculation mode Molp)
(A2-2-4-1. Overview of calculation mode Molp)
As described above, the calculation mode Molp of the present embodiment includes
(A2−2−4−2.算出モードMolpの選択)
図6は、進路オーバーラップ時間Tolpの算出モードMolpを選択するフローチャート(図2のS5の詳細)である。図7は、進路オーバーラップ時間Tolpの算出モードMolpの選択方法の説明図である。
(A2-2-4-2. Selection of calculation mode Molp)
FIG. 6 is a flowchart (details of S5 in FIG. 2) for selecting the calculation mode Molp for the route overlap time Tolp. FIG. 7 is an explanatory diagram of a method for selecting the calculation mode Molp for the course overlap time Tolp.
図6のステップS11において、ECU44は、少なくとも反射波Wrについて物体認識が不可であるか否かを判定する。より具体的には、ECU44は、反射波信号Swrに基づいて第1物体100rの認識が不可であるか否かを判定する。
In step S11 of FIG. 6, the
反射波Wrについて物体認識が不可である場合(S11:YES)、ステップS12は、ECU44は、算出モードMolpの選択が不可であると判定する。この場合、図2のステップS6において、ECU44は、進路オーバーラップ時間Tolpの算出を行わず、時間Tolpをゼロとする。
When the object recognition is not possible for the reflected wave Wr (S11: YES), the
少なくとも反射波Wrについて物体認識が可である場合(S11:NO)、ステップS13において、ECU44は、反射波Wr及び画像Imcの両方について物体認識が可であるか否かを判定する。反射波Wr及び画像Imcの両方について物体認識が可である場合(S13:YES)、ステップS14に進む。
When object recognition is possible for at least the reflected wave Wr (S11: NO), in step S13, the
なお、ステップS11、S13における反射波Wrによる第1物体100rの認識が可又は不可であるとは、第1物体100rの存在が認識できるか否かを意味している。仮に、第1物体100rの存在が認識できていたとしても、第1物体100rの横移動が検知できない場合が存在する(後述するS16参照)。これは、レーダ40が受信する反射波Wrに揺らぎが生じるためである。すなわち、レーダ情報処理部60では、反射波Wrにおける揺らぎを考慮して第1物体100rの位置Porを特定するため、位置Porが検出できていても、速度Vrが検出できない場合が起こり得る。
Note that the fact that the first object 100r can be recognized by the reflected wave Wr in steps S11 and S13 means that the presence of the first object 100r can be recognized. Even if the presence of the first object 100r can be recognized, there is a case where the lateral movement of the first object 100r cannot be detected (see S16 described later). This is because fluctuation occurs in the reflected wave Wr received by the
ステップS14において、ECU44は、画像認識可能状態の継続時間Tcr(以下「画像認識継続時間Tcr」ともいう。)が十分長いか否かを判定する。具体的には、継続時間Tcrが閾値THtcr(以下「継続時間閾値THtcr」ともいう。)以上であるか否かを判定する。
In step S14, the
ここにいう「継続時間Tcrが十分長い」とは、画像認識による第2物体100cの横方向速度Vlcを精度良く検出することを担保できるほど、画像認識可能状態が継続していることを意味する。すなわち、継続時間Tcrが短い場合、横方向速度Vlcを算出するための画像Imcのデータ数が少ないため、画像認識による第2物体100cの横方向速度Vlcに誤差(又は突発的な誤認識)が生じる可能性が高くなる。これに対し、継続時間Tcrが長くなると、画像認識による第2物体100cの横方向速度Vlcの信頼性(精度)が高くなる。そこで、ステップS14のように、画像Imcに基づく横方向速度Vlcの信頼性の程度に応じて処理を変更させる。 Here, “the duration Tcr is sufficiently long” means that the image recognizable state continues so as to ensure that the lateral velocity Vlc of the second object 100c by image recognition can be accurately detected. . That is, when the duration time Tcr is short, the number of data of the image Imc for calculating the lateral speed Vlc is small, and therefore there is an error (or a sudden erroneous recognition) in the lateral speed Vlc of the second object 100c due to image recognition. Is more likely to occur. On the other hand, when the duration Tcr is increased, the reliability (accuracy) of the lateral speed Vlc of the second object 100c by image recognition is increased. Therefore, as in step S14, the process is changed according to the degree of reliability of the lateral speed Vlc based on the image Imc.
なお、継続時間Tcrが十分に長くない場合(図6のS14:NO)、例えば、第1物体100rの横方向速度Vlr及び第2物体100cの横方向速度Vlcを用いて信頼性を担保することとなる(後述する図6のS16:YES、図7)。また、継続時間Tcrが十分に長い場合(S14:YES)、オーバーラップ量Dolpの算出に当たっては、第1物体100rの横方向速度Vlrを用いず、第2物体100cの横方向速度Vlcのみを用いることで信頼性の向上を図っている(図7)。 If the duration Tcr is not sufficiently long (S14 in FIG. 6: NO), for example, the reliability is ensured by using the lateral velocity Vlr of the first object 100r and the lateral velocity Vlc of the second object 100c. (S16 in FIG. 6 described later: YES, FIG. 7). When the duration Tcr is sufficiently long (S14: YES), only the lateral speed Vlc of the second object 100c is used instead of the lateral speed Vlr of the first object 100r in calculating the overlap amount Dolp. This improves reliability (Fig. 7).
継続時間Tcrが十分長くない場合(S14:NO)、カメラ物標100cの横方向速度Vlcの信頼性が相対的に低い。この場合、ステップS15において、ECU44は、カメラ物標100cの横方向速度Vlcが十分大きいか否かを判定する。具体的には、横方向速度Vlcが閾値THvlc(以下「横方向速度閾値THvlc」ともいう。)以上であるか否かを判定する。
When the duration time Tcr is not sufficiently long (S14: NO), the reliability of the lateral speed Vlc of the camera target 100c is relatively low. In this case, in step S15, the
ここにいう「横方向速度Vlcが十分に大きい」とは、例えば、継続時間Tcrが短く、横方向速度Vlcの信頼性が低い場合でも、横方向速度Vlcが相対的に高いため、継続時間Tcrが十分継続することを待っていられないほど、横方向速度Vlcが大きいことを意味する。別の観点からすると、閾値THvlcは、例えば、歩行中又は走行中の歩行者102又は走行中の他車104であることが明らかな値(例えば、4〜20km/h)とすることができる。
Here, “the lateral speed Vlc is sufficiently large” means that, for example, even if the duration Tcr is short and the reliability of the lateral speed Vlc is low, the lateral speed Vlc is relatively high, so the duration Tcr Means that the lateral velocity Vlc is so large that it cannot wait for the duration to continue. From another point of view, the threshold value THvlc can be set to a value (for example, 4 to 20 km / h) that clearly indicates the
横方向速度Vlcが十分大きくない場合(S15:NO)、ステップS16において、ECU44は、レーダ物標100r及びカメラ物標100cの横移動を検知できているか否かを判定する。換言すると、ECU44は、反射波Wr及び画像Imcで横移動を検知できているか否かを判定する。上記のように、レーダ物標100rの存在が認識できていたとしても、レーダ物標100rの横移動を検知できない場合があり、ステップS16では、このことを前提とした判定を行っている。
If the lateral speed Vlc is not sufficiently high (S15: NO), in step S16, the
ステップS14、S15、S16のいずれかが「YES」であった場合、ステップS17において、ECU44は、算出モードMolpとしてMode 1を選択する。
If any of steps S14, S15, and S16 is “YES”, in step S17, the
ステップS13において「NO」であった場合又はステップS14、S15、S16のいずれもが「NO」であった場合、ステップS18において、ECU44は、算出モードMolpとしてMode 2を選択する。
If “NO” in step S13 or if all of steps S14, S15, and S16 are “NO”, in step S18, the
(A2−2−5.進路オーバーラップ時間Tolpの算出)
(A2−2−5−1.全体的な流れ)
上記のように、本実施形態では、算出モードMolpを選択した上で、現在位置Ppre及び将来位置Pftrでの進路オーバーラップの有無に基づいて進路オーバーラップ時間Tolpを算出する(図2等)。
(A2-2-5. Calculation of route overlap time Tolp)
(A2-2-5-1. Overall flow)
As described above, in the present embodiment, after selecting the calculation mode Molp, the route overlap time Tolp is calculated based on the presence or absence of the route overlap at the current position Ppre and the future position Pftr (FIG. 2 and the like).
図8は、進路オーバーラップ時間Tolpを算出するフローチャート(図2のS6の詳細)である。図9は、進路オーバーラップ時間Tolpの算出方法の説明図である。 FIG. 8 is a flowchart (details of S6 in FIG. 2) for calculating the course overlap time Tolp. FIG. 9 is an explanatory diagram of a method for calculating the course overlap time Tolp.
図8のステップS21において、ECU44は、現在位置Ppreでの進路オーバーラップの有無を判定する。具体的には、ECU44は、現在位置Ppreに基づくオーバーラップ量Dolp(図3及び図4)が、所定の閾値THdolp以上であれば、現在位置Ppreでの進路オーバーラップが有ると判定する。また、ECU44は、現在位置Ppreに基づくオーバーラップ量Dolpが、閾値THdolp未満であれば、現在位置Ppreでの進路オーバーラップがないと判定する。
In step S21 of FIG. 8, the
ステップS22において、ECU44は、将来位置Pftrでの進路オーバーラップの有無を判定する。具体的には、ECU44は、将来位置Pftrに基づくオーバーラップ量Dolp(図5)が、所定の閾値THdolp以上であれば、将来位置Pftrでの進路オーバーラップが有ると判定する。また、ECU44は、将来位置Pftrに基づくオーバーラップ量Dolpが、閾値THdolp未満であれば、将来位置Pftrでの進路オーバーラップがないと判定する。なお、現在位置Ppreと将来位置Pftrとで閾値THdolpを変更してもよい。
In step S22, the
ステップS23において、ECU44は、ステップS21、S22の判定結果に基づいて進路オーバーラップ時間Tolpを算出する。この際、ECU44は、図2のステップS5(図7)で選択した算出モードMolpを用いる。時間Tolpの算出方法の詳細は、図9を用いて説明する。
In step S23, the
(A2−2−5−2.進路オーバーラップの有無と進路オーバーラップ時間Tolpの関係)
図9は、現在位置Ppre及び将来位置Pftrにおける進路オーバーラップの有無と進路オーバーラップ時間Tolpの加算又は減算との関係を算出モードMolp毎に示す図である。
(A2-2-5-2. Relationship between presence / absence of route overlap and route overlap time Tolp)
FIG. 9 is a diagram illustrating the relationship between the presence / absence of the route overlap at the current position Ppre and the future position Pftr and the addition or subtraction of the route overlap time Tolp for each calculation mode Molp.
現在位置Ppre及び将来位置Pftrの両方において進路オーバーラップがある場合、ECU44は、算出モードMolpにかかわらず、時間Tolpの前回値に所定値(ここでは1)を加算して時間Tolpを増加させる。なお、現在位置Ppre及び将来位置Pftrの両方において進路オーバーラップがある場合とは、対象物体100tarの横方向速度Vlt(又はカメラ物標100cの横方向速度Vlc)が相対的に低い状態を示している。
When there is a course overlap in both the current position Ppre and the future position Pftr, the
現在位置Ppre及び将来位置Pftrの両方において進路オーバーラップがない場合、ECU44は、算出モードMolpにかかわらず、時間Tolpの前回値から所定値(ここでは1)を減算して時間Tolpを減少させる。
When there is no course overlap at both the current position Ppre and the future position Pftr, the
現在位置Ppreにおいて進路オーバーラップがあり且つ将来位置Pftrにおいて進路オーバーラップがない場合、ECU44は、算出モードMolpにかかわらず、時間Tolpの前回値を保持して時間Tolpを変化させない。
When there is a course overlap at the current position Ppre and no course overlap at the future position Pftr, the
現在位置Ppreにおいて進路オーバーラップがなく且つ将来位置Pftrにおいて進路オーバーラップがある場合、ECU44は、算出モードMolpに応じて、時間Tolpを算出する。
When there is no course overlap at the current position Ppre and there is a course overlap at the future position Pftr, the
すなわち、算出モードMolpがMode 1である場合、ECU44は、時間Tolpの前回値に所定値(ここでは1)を加算して時間Tolpを増加させる。Mode 1は、横方向速度Vlcの信頼性が相対的に高いため、衝突可能性Pcが高くなると評価できるためである。
That is, when the calculation mode Molp is
一方、算出モードMolpがMode 2である場合、ECU44は、時間Tolpの前回値を保持して時間Tolpを変化させない。Mode 2は、横方向速度Vlcの信頼性が相対的に低いため、衝突可能性Pcが高くなると評価できないためである。
On the other hand, when the calculation mode Molp is
なお、上記からもわかるように、時間Tolpは、現在位置Ppre及び将来位置Pftrにおける進路オーバーラップに共通して算出されるものである。換言すると、本実施形態では、現在位置Ppreに対応した時間Tolpと、将来位置Pftrに対応した時間Tolpを別々に設定する訳ではない。但し、現在位置Ppreに対応した時間Tolpと、将来位置Pftrに対応した時間Tolpを別々に設定し、重み付けした上で加算することも可能である。 As can be seen from the above, the time Tolp is calculated in common with the route overlap at the current position Ppre and the future position Pftr. In other words, in the present embodiment, the time Tolp corresponding to the current position Ppre and the time Tolp corresponding to the future position Pftr are not set separately. However, the time Tolp corresponding to the current position Ppre and the time Tolp corresponding to the future position Pftr can be set separately, weighted and added.
また、1回の演算周期における時間Tolpの増加量は一定である。このため、例えば、現在位置Ppre及び将来位置Pftrの両方において進路オーバーラップがある場合でも、増加量が大きくなる訳ではない。但し、そのような増加量の変化を伴わせることも可能である。 Further, the amount of increase in the time Tolp in one calculation cycle is constant. For this reason, for example, even when there is a course overlap at both the current position Ppre and the future position Pftr, the increase amount does not increase. However, it is possible to accompany such a change in the amount of increase.
さらに、ラップ量Dolpは、進路オーバーラップの有無を判定するために用いられ、1回の演算周期における時間Tolpの増加量に影響する訳ではない。換言すると、1回の演算周期における時間Tolpの増加量は、ラップ量Dolpの大小に影響を受けない。例えば、ラップ量Dolpが最大値であっても、増加量が大きくなる訳ではない。但し、そのような増加量の変化を伴わせることも可能である。 Further, the lap amount Dolp is used to determine whether or not there is a route overlap, and does not affect the increase amount of the time Tolp in one calculation cycle. In other words, the increase amount of the time Tolp in one calculation cycle is not affected by the magnitude of the lap amount Dolp. For example, even if the lap amount Dolp is the maximum value, the increase amount does not increase. However, it is possible to accompany such a change in the amount of increase.
A3.本実施形態の効果
以上のように、本実施形態によれば、周辺画像Imcに基づく第2物体100cの認識が継続している画像認識継続時間Tcrと、第1物体100r及び第2物体100cについての横方向速度Vlr、Vlc自体又は横方向速度Vlr、Vlcの算出の可否とに基づいて衝突可能性Pc又は運転支援を変更する(図2、図6〜図9)。
A3. As described above, according to the present embodiment, the image recognition continuation time Tcr in which the recognition of the second object 100c based on the peripheral image Imc is continued, the first object 100r, and the second object 100c. The possibility of collision Pc or driving assistance is changed based on whether or not the lateral speeds Vlr and Vlc themselves or the lateral speeds Vlr and Vlc can be calculated (FIGS. 2 and 6 to 9).
これにより、画像認識継続時間Tcrを用いることで、周辺画像Imcに基づく横方向位置又は横方向速度Vlcの信頼性を衝突可能性Pc又は運転支援に反映することが可能となる。加えて、第1物体100r及び第2物体100cについての横方向速度Vlr、Vlc自体又は横方向速度Vlr、Vlcの算出の可否を用いることで、レーダ40及びカメラ42の検出結果の信頼性をより正確に反映した運転支援を行うことが可能となる。
Thus, by using the image recognition duration time Tcr, the reliability of the lateral position or the lateral speed Vlc based on the peripheral image Imc can be reflected in the collision possibility Pc or the driving assistance. In addition, the reliability of the detection results of the
本実施形態において、対象物体情報処理部64(衝突可能性判定装置)は、対象物体100tarが車両10(移動物体)の進路106上に存在する時間である進路オーバーラップ時間Tolpを算出する進路オーバーラップ時間算出部72を備える(図1)。算出部72は、対象物体100tarの現在位置Ppre及び将来位置Pftrの両方又は将来位置Pftrのみが進路106上に存在する場合、進路オーバーラップ時間Tolpを加算する(図9)。算出部72は、継続時間Tcrに基づいて、又は第1物体100r及び第2物体100cについての横方向速度Vlr、Vlc自体若しくは横方向速度Vlr、Vlcの算出の可否に基づいて進路オーバーラップ時間Tolpを加算する条件を変更する(図6、図7及び図9)。
In the present embodiment, the target object information processing unit 64 (collision possibility determination device) calculates the course overlap time Tolp, which is the time during which the target object 100tar exists on the
本実施形態によれば、第2物体100cの認識が継続している画像認識継続時間Tcr(又は周辺物体100の位置情報の取得が継続している位置情報取得継続時間)に基づいて、又は周辺物体100についての横方向速度Vlr、Vlc自体若しくは横方向速度Vlr、Vlcの算出の可否に基づいて進路オーバーラップ時間Tolpを加算する条件を変更する(図6、図7及び図9)。
According to the present embodiment, based on the image recognition continuation time Tcr in which the recognition of the second object 100c is continued (or the position information acquisition continuation time in which the acquisition of the position information of the
これにより、継続時間Tcrを用いることで、画像認識(位置情報)の信頼性をオーバーラップ時間Tolpに反映することが可能となる。加えて、周辺物体100についての横方向速度Vlc自体又は横方向速度Vlcの算出の可否を用いることで、画像認識(位置情報)の信頼性をより正確に反映したオーバーラップ時間Tolpを算出することが可能となる。
Thereby, by using the continuation time Tcr, it is possible to reflect the reliability of image recognition (position information) in the overlap time Tolp. In addition, the overlap time Tolp that more accurately reflects the reliability of the image recognition (position information) is calculated by using whether or not the lateral velocity Vlc itself or the lateral velocity Vlc can be calculated for the
本実施形態において、対象物体情報処理部64(衝突可能性判定装置)は、進路オーバーラップ時間Tolpに応じて衝突可能性Pcを判定する(図2のS7)。これにより、画像認識(位置情報)の信頼性を衝突可能性Pcに反映することが可能となる。 In the present embodiment, the target object information processing unit 64 (collision possibility determination device) determines the collision possibility Pc according to the course overlap time Tolp (S7 in FIG. 2). As a result, the reliability of image recognition (position information) can be reflected in the collision possibility Pc.
本実施形態において、車両10(移動物体)に対して運転支援を行うに当たり、物体認識装置12、VSAシステム14、EPSシステム16及びPUHシステム18(動作支援装置)は、進路オーバーラップ時間Tolpに応じて運転支援を変更する(図2のS8)。これにより、画像認識(位置情報)の信頼性を運転支援に反映することが可能となる。
In the present embodiment, when performing driving support for the vehicle 10 (moving object), the
本実施形態において、画像認識継続時間Tcrが継続時間閾値THtcr(時間閾値)を超えて継続して認識されている場合(図6のS14:YES)、進路オーバーラップ時間算出部72は、少なくとも対象物体100tarの将来位置Pftrが車両10の進路106上に存在すれば、進路オーバーラップ時間Tolpを加算する(図9)。これにより、画像認識(位置情報)の信頼性が高い状態において、進路オーバーラップ時間Tolpを適切に反映することが可能となる。
In the present embodiment, when the image recognition duration Tcr is continuously recognized exceeding the duration threshold THtcr (time threshold) (S14 in FIG. 6: YES), the course
本実施形態において、画像認識継続時間Tcrが継続時間閾値THtcr(時間閾値)を超えて継続して認識されていない場合(図6のS14:NO)、進路オーバーラップ時間算出部72は、カメラ物標100c(第2物体100c)の横方向速度Vlcが所定の速度閾値THvlc以上であり(S15:YES)且つ少なくとも対象物体100tarの将来位置Pftrが進路106上に存在すれば、進路オーバーラップ時間Tolpを加算する(図9)。これにより、横方向速度Vlcが比較的大きいという緊急度合いの高い状況において、進路オーバーラップ時間Tolpを適切に算出することが可能となる。
In the present embodiment, when the image recognition duration Tcr exceeds the duration threshold THtcr (time threshold) and is not continuously recognized (S14 in FIG. 6: NO), the course overlap
本実施形態において、対象物体100tarの現在位置Ppre及び将来位置Pftrの両方が、車両10の進路106上に存在しない場合、進路オーバーラップ時間算出部72は、進路オーバーラップ時間Tolpを減算する(図9)。これにより、衝突可能性Pcが低い場合、進路オーバーラップ時間Tolpを適切に算出することが可能となる。
In the present embodiment, when both the current position Ppre and the future position Pftr of the target object 100tar do not exist on the
本実施形態において、進路オーバーラップ時間算出部72は、対象物体100tarの現在位置Ppreが車両10の進路106上に存在し且つ対象物体100tarの将来位置Pftrが進路106上に存在しない場合、進路オーバーラップ時間Tolpの前回値を保持する(図9)。これにより、衝突可能性Pcが相対的に低い場合、進路オーバーラップ時間Tolpを適切に算出することが可能となる。
In the present embodiment, the route overlap
本実施形態において、第1物体100r及び第2物体100cの両方の横方向移動が検出されている場合(図6のS16:YES)、進路オーバーラップ時間算出部72は、少なくとも対象物体100tarの将来位置Pftrが、車両10の進路106上に存在すれば、進路オーバーラップ時間Tolpを加算する(図9)。これにより、衝突可能性Pcが相対的に高い場合、進路オーバーラップ時間Tolpを適切に算出することが可能となる。
In this embodiment, when the lateral movement of both the first object 100r and the second object 100c is detected (S16 in FIG. 6: YES), the course overlap
本実施形態において、第1物体100rが認識され且つ第2物体100cが認識されていない場合(図6のS13:NO)、進路オーバーラップ時間算出部72は、対象物体100tarの現在位置Ppre及び将来位置Pftrの両方が、車両10の進路106上に存在すれば、進路オーバーラップ時間Tolpを加算する(図9)。これにより、第2物体100cが認識されていない場合でも、進路オーバーラップ時間Tolpを適切に算出することが可能となる。
In the present embodiment, when the first object 100r is recognized and the second object 100c is not recognized (S13: NO in FIG. 6), the course overlap
本実施形態において、第1物体100rが認識され且つ第2物体100cが認識されていない場合(図6のS13:NO)、進路オーバーラップ時間算出部72は、対象物体100tarの現在位置Ppre及び将来位置Pftrの一方のみが、車両10の進路106上に存在すれば、進路オーバーラップ時間Tolpの前回値を保持する(図9)。これにより、第2物体100cが認識されていない場合でも、進路オーバーラップ時間Tolpを適切に算出することが可能となる。
In the present embodiment, when the first object 100r is recognized and the second object 100c is not recognized (S13: NO in FIG. 6), the course overlap
第2物体100cの横方向移動が検出され且つ第1物体100rの横方向移動が検出されず(図6のS16:NO)、且つ第2物体100cの横方向速度Vlcが横方向速度閾値THvlc(速度閾値)を下回る場合(S15:NO)、進路オーバーラップ時間算出部72は、対象物体100tarの現在位置Ppre及び将来位置Pftrが、車両10の進路106上に存在すれば、進路オーバーラップ時間Tolpを加算する(図9)。これにより、第1物体100rの横方向移動が検出されない場合でも、進路オーバーラップ時間Tolpを適切に算出することが可能となる。
The lateral movement of the second object 100c is detected, the lateral movement of the first object 100r is not detected (S16 in FIG. 6: NO), and the lateral speed Vlc of the second object 100c is equal to the lateral speed threshold THvlc ( (S15: NO), the route overlap
本実施形態において、第2物体100cの横方向移動が検出され且つ第1物体100rの横方向移動が検出されず(図6のS16:NO)、且つ第2物体100cの横方向速度Vlcが横方向速度閾値THVlc(速度閾値)を下回る場合(S15:NO)、進路オーバーラップ時間算出部72は、対象物体100tarの現在位置Ppre及び将来位置Pftrの一方のみが、車両10の進路106上に存在すれば、進路オーバーラップ時間Tolpの前回値を保持する(図9)。これにより、第1物体100rの横方向移動が検出されない場合でも、進路オーバーラップ時間Tolpを適切に算出することが可能となる。
In this embodiment, the lateral movement of the second object 100c is detected, the lateral movement of the first object 100r is not detected (S16: NO in FIG. 6), and the lateral speed Vlc of the second object 100c is horizontal. When the direction speed threshold THVlc (speed threshold) is not reached (S15: NO), the course overlap
B.変形例
なお、本発明は、上記実施形態に限らず、本明細書の記載内容に基づき、種々の構成を採り得ることはもちろんである。例えば、以下の構成を採用することができる。
B. Modifications It should be noted that the present invention is not limited to the above-described embodiment, and it is needless to say that various configurations can be adopted based on the description of the present specification. For example, the following configuration can be adopted.
B1.適用対象
上記実施形態では、物体認識装置12を車両10に適用したが、これに限らず、別の対象に適用してもよい。例えば、物体認識装置12を船舶や航空機等の移動物体に用いることもできる。或いは、物体認識装置12を、ロボット、セキュリティ用監視装置又は家電製品に適用してもよい。また、物体認識装置12を車両10(移動物体)自体に搭載するのではなく、車両10の外部(例えば、光ビーコン等の路側装置)に配置してもよい。この場合、車両10と物体認識装置12の間で通信を行い、物体認識装置12の認識結果(衝突可能性Pc又は対象物体情報It)を車両10に送信することも可能である。
B1. Application target In the above-described embodiment, the
B2.物体認識装置12の構成
上記実施形態では、物体認識装置12の出力(衝突可能性Pc又は対象物体情報It)を、物体認識装置12、VSA ECU30、EPS ECU32及びPUH ECU34で用いたが(図2のS8)、それ以外の用途で用いることも可能である。例えば、車両10の駐車支援にも用いることができる。
B2. Configuration of the
上記実施形態では、ミリ波である送信波Wt及び反射波Wrを使用するレーダ40を用いたが、例えば、電磁波としての送信波Wtの反射波Wrを用いて第1物体100rの情報Irを取得する観点からすれば、レーザレーダ、超音波センサ等のセンサを用いることもできる。
In the above embodiment, the
上記実施形態では、レーダ40とカメラ42を組み合わせて用いた(図1)。しかしながら、例えば、画像認識継続時間Tcr(図6のS14)を用いる観点からすれば、カメラ42(画像Imc)のみを用いる構成にも本発明を適用可能である。反対に、継続時間Tcrと同様の指標をレーダ40(反射波Wr)についても設定することで、レーダ40(反射波Wr)のみを用いる構成にも本発明を適用してもよい。
In the above embodiment, the
B3.物体認識ECU44の制御
[B3−1.算出モードMolpの選択]
上記実施形態では、算出モードMolpの選択を、図6及び図7に示す方法により行った。しかしながら、算出モードMolpを選択する観点からすれば、これに限らない。例えば、第2物体100cの横方向速度Vlcの信頼性の観点からすれば、算出モードMolpを3種類以上に分類することも可能である。
B3. Control of the object recognition ECU 44 [B3-1. Selection of calculation mode Molp]
In the above embodiment, the calculation mode Molp is selected by the method shown in FIGS. However, it is not limited to this from the viewpoint of selecting the calculation mode Molp. For example, from the viewpoint of the reliability of the lateral velocity Vlc of the second object 100c, the calculation modes Molp can be classified into three or more types.
上記実施形態では、第2物体100cの横方向速度Vlcを基準として算出モードMolpを算出したが、その他の方向についての第2物体100cの速度を用いることも可能である。また、第2物体100cの代わりに第1物体100rの横方向速度Vlr又はその他の速度を用いて算出モードMolpを選択することもできる。例えば、レーダ40は、カメラ42と比較して、前後方向の検出精度が高いことから、レーダ40については、第1物体100rの前後方向速度に基づいて算出モードMolpを選択してもよい。
In the above embodiment, the calculation mode Molp is calculated based on the lateral velocity Vlc of the second object 100c, but the velocity of the second object 100c in other directions can also be used. Also, the calculation mode Molp can be selected using the lateral speed Vlr of the first object 100r or other speeds instead of the second object 100c. For example, since the
[B3−2.進路オーバーラップ時間Tolpの算出]
上記実施形態では、時間Tolpの算出を、図8及び図9に示す方法により行った。しかしながら、時間Tolpを算出する観点からすれば、これに限らない。例えば、現在位置Ppre又は将来位置Pftrの一方のみを用いて時間Tolpを算出することも可能である。また、図9の一部を変更してオーバーラップ時間Tolpを算出することも可能である。
[B3-2. Calculation of route overlap time Tolp]
In the above embodiment, the time Tolp is calculated by the method shown in FIGS. However, it is not limited to this from the viewpoint of calculating the time Tolp. For example, the time Tolp can be calculated using only one of the current position Ppre and the future position Pftr. Further, the overlap time Tolp can be calculated by changing a part of FIG.
上記実施形態では、画像Imcの信頼度が高くなると認識した場合、時間Tolpに所定値(1)を加算し、信頼度が低くなると認識した場合、時間Tolpから所定値(1)を減算した(図9)。しかしながら、画像Imcの信頼度に応じて時間Tolpを変化させる観点からすれば、これに限らない。例えば、画像Imcの信頼度が高くなると認識した場合、時間Tolpに加算する所定値を−1とし、信頼度が低くなると認識した場合、時間Tolpから減算する所定値を−1としてもよい。 In the above embodiment, when it is recognized that the reliability of the image Imc is high, the predetermined value (1) is added to the time Tolp, and when it is recognized that the reliability is low, the predetermined value (1) is subtracted from the time Tolp ( FIG. 9). However, from the viewpoint of changing the time Tolp according to the reliability of the image Imc, the present invention is not limited to this. For example, when the reliability of the image Imc is recognized to be high, a predetermined value to be added to the time Tolp may be set to -1, and when the reliability is recognized to be low, the predetermined value to be subtracted from the time Tolp may be set to -1.
10…車両(移動物体、動作支援システム)
12…物体認識装置(動作支援装置)
14…VSAシステム(動作支援装置)
16…EPSシステム(動作支援装置)
18…PUHシステム(動作支援装置)
40…レーダ(位置情報取得装置)
42…カメラ(位置情報取得装置)
64…対象物体情報処理部(衝突可能性判定装置)
72…進路オーバーラップ時間算出部 100…周辺物体
100c…第2物体 100r…第1物体
100tar…対象物体 106…進路
Imc…周辺画像 Pc…衝突可能性
Sic…画像信号 Swr…反射波信号
Tcr…画像認識継続時間
THtcr…継続時間閾値(時間閾値)
THvlc…横方向速度閾値(速度閾値)
Tolp…進路オーバーラップ時間 Vlc…第2物体の横方向速度
Vlr…第1物体の横方向速度 Wr…反射波
Wt…送信波(電磁波)
10 ... Vehicle (moving object, motion support system)
12 ... Object recognition device (motion support device)
14 ... VSA system (operation support device)
16 ... EPS system (operation support device)
18 ... PUH system (operation support device)
40. Radar (positional information acquisition device)
42. Camera (position information acquisition device)
64 ... Target object information processing unit (collision possibility determination device)
72 ... Path overlap
THvlc: Lateral speed threshold (speed threshold)
Tolp ... Route overlap time Vlc ... Lateral speed Vlr of the second object ... Lateral speed of the first object Wr ... Reflected wave Wt ... Transmitted wave (electromagnetic wave)
Claims (14)
前記周辺物体を含む周辺画像を撮像し、前記周辺画像に対応する画像信号を出力するカメラと、
前記反射波信号に含まれる前記周辺物体を第1物体として認識し、前記画像信号に含まれる前記周辺物体を第2物体として認識し、前記第1物体及び前記第2物体をマッチングさせて対象物体として特定し、前記対象物体に対する前記移動物体の衝突可能性を判定する衝突可能性判定装置と、
前記衝突可能性に応じて前記移動物体の動作支援を行う動作支援装置と
を備える動作支援システムであって、
前記動作支援システムの一部又は全部は前記移動物体内又は前記移動物体外に設けられ、
前記第2物体の認識が継続している画像認識継続時間と、前記第2物体の横方向速度と、前記レーダ及び前記カメラで前記横方向速度を検知できているか否かの情報とに基づいて前記衝突可能性又は前記動作支援を変更する
ことを特徴とする動作支援システム。 A radar that emits an electromagnetic wave to a peripheral object existing around a moving object and outputs a reflected wave signal corresponding to a reflected wave from the peripheral object;
A camera that captures a peripheral image including the peripheral object and outputs an image signal corresponding to the peripheral image;
Recognizing the peripheral object included in the reflected wave signal as a first object, recognizing the peripheral object included in the image signal as a second object, and matching the first object and the second object, the target object A collision possibility determination device that specifies the collision possibility of the moving object with respect to the target object, and
A motion support system comprising: a motion support device that supports the motion of the moving object according to the collision possibility,
A part or all of the motion support system is provided inside or outside the moving object,
An image recognition duration recognition of the second object is continued, pre-SL and lateral velocity of the second object, the said radar and information on whether or not able to detect the lateral velocity at the camera The motion support system, wherein the collision possibility or the motion support is changed based on.
前記周辺物体を含む周辺画像を撮像し、前記周辺画像に対応する画像信号を出力するカメラと、
前記反射波信号に含まれる前記周辺物体を第1物体として認識し、前記画像信号に含まれる前記周辺物体を第2物体として認識し、前記第1物体及び前記第2物体をマッチングさせて対象物体として特定し、前記対象物体に対する前記移動物体の衝突可能性を判定する衝突可能性判定装置と、
前記衝突可能性に応じて前記移動物体の動作支援を行う動作支援装置と
を備える動作支援システムであって、
前記動作支援システムの一部又は全部は前記移動物体内又は前記移動物体外に設けられ、
前記第2物体の認識が継続している画像認識継続時間と、前記第1物体及び前記第2物体についての横方向速度自体又は前記横方向速度の算出の可否とに基づいて前記衝突可能性又は前記動作支援を変更し、
さらに、前記衝突可能性判定装置は、前記対象物体が前記移動物体の進路上に存在する時間である進路オーバーラップ時間を算出する進路オーバーラップ時間算出部を備え、
前記進路オーバーラップ時間算出部は、
前記対象物体の現在位置又は将来位置の少なくとも一方が、前記移動物体の進路上に存在する場合、前記進路オーバーラップ時間に所定値を加算し、
前記画像認識継続時間に基づいて、又は前記第1物体及び前記第2物体についての横方向速度自体若しくは前記横方向速度の算出の可否に基づいて前記進路オーバーラップ時間に前記所定値を加算する条件を変更する
ことを特徴とする動作支援システム。 A radar that emits an electromagnetic wave to a peripheral object existing around a moving object and outputs a reflected wave signal corresponding to a reflected wave from the peripheral object;
A camera that captures a peripheral image including the peripheral object and outputs an image signal corresponding to the peripheral image;
Recognizing the peripheral object included in the reflected wave signal as a first object, recognizing the peripheral object included in the image signal as a second object, and matching the first object and the second object, the target object A collision possibility determination device that specifies the collision possibility of the moving object with respect to the target object, and
An operation support apparatus for supporting the operation of the moving object according to the collision possibility;
An operation support system comprising:
A part or all of the motion support system is provided inside or outside the moving object,
Based on the image recognition continuation time during which the recognition of the second object continues and the lateral velocity itself or the possibility of calculation of the lateral velocity for the first object and the second object, Changing the operation support,
The collision possibility determination device further includes a route overlap time calculation unit that calculates a route overlap time that is a time during which the target object exists on the route of the moving object,
The route overlap time calculation unit
When at least one of the current position or the future position of the target object exists on the path of the moving object , a predetermined value is added to the path overlap time,
Conditions for adding the predetermined value to the course overlap time based on the image recognition continuation time, or based on whether or not the lateral velocity of the first object and the second object itself or the lateral velocity can be calculated An action support system characterized by changing
前記衝突可能性判定装置は、前記進路オーバーラップ時間に応じて前記衝突可能性を判定する
ことを特徴とする動作支援システム。 The operation support system according to claim 2,
The said collision possibility determination apparatus determines the said collision possibility according to the said course overlap time. The operation | movement assistance system characterized by the above-mentioned.
前記移動物体に対して動作支援を行うに当たり、前記動作支援装置は、前記進路オーバーラップ時間に応じて前記動作支援を変更する
ことを特徴とする動作支援システム。 The operation support system according to claim 2 or 3,
In performing motion support for the moving object, the motion support device changes the motion support according to the course overlap time.
前記画像認識継続時間が所定の時間閾値を超えて継続して認識されている場合、前記進路オーバーラップ時間算出部は、少なくとも前記対象物体の将来位置が前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算する
ことを特徴とする動作支援システム。 In the operation support system according to any one of claims 2 to 4,
When the image recognition duration time is continuously recognized exceeding a predetermined time threshold, the course overlap time calculation unit, if at least the future position of the target object exists on the course of the moving object, The operation support system , wherein the predetermined value is added to the course overlap time.
前記画像認識継続時間が所定の時間閾値を超えて継続して認識されていない場合、前記進路オーバーラップ時間算出部は、前記第2物体の横方向速度が所定の速度閾値以上であり且つ少なくとも前記対象物体の将来位置が前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算する
ことを特徴とする動作支援システム。 The operation support system according to any one of claims 2 to 5,
When the image recognition duration time is not continuously recognized exceeding a predetermined time threshold, the course overlap time calculation unit is configured such that a lateral speed of the second object is equal to or greater than a predetermined speed threshold and at least the If the future position of the target object exists on the path of the moving object, the predetermined value is added to the path overlap time.
前記対象物体の現在位置及び将来位置の両方が、前記移動物体の進路上に存在しない場合、前記進路オーバーラップ時間算出部は、前記進路オーバーラップ時間から前記所定値を減算する
ことを特徴とする動作支援システム。 In the operation support system according to any one of claims 2 to 6,
When both the current position and the future position of the target object do not exist on the path of the moving object, the path overlap time calculation unit subtracts the predetermined value from the path overlap time. Operation support system.
前記進路オーバーラップ時間算出部は、前記対象物体の現在位置が前記移動物体の進路上に存在し且つ前記対象物体の将来位置が前記移動物体の進路上に存在しない場合、前記進路オーバーラップ時間の前回値を保持する
ことを特徴とする動作支援システム。 The operation support system according to any one of claims 2 to 7,
The route overlap time calculation unit calculates the route overlap time when the current position of the target object exists on the route of the moving object and the future position of the target object does not exist on the route of the movable object. An operation support system characterized by holding the previous value.
前記第1物体及び前記第2物体の両方の横方向移動が検出されている場合、前記進路オーバーラップ時間算出部は、少なくとも前記対象物体の将来位置が、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算する
ことを特徴とする動作支援システム。 In the operation support system according to any one of claims 2 to 8,
When the lateral movement of both the first object and the second object is detected, the course overlap time calculation unit determines that at least the future position of the target object exists on the course of the moving object. And adding the predetermined value to the course overlap time.
前記第1物体が認識され且つ前記第2物体が認識されていない場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置の両方が、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算する
ことを特徴とする動作支援システム。 In the operation support system according to any one of claims 2 to 8,
When the first object is recognized and the second object is not recognized, the course overlap time calculation unit determines that both the current position and the future position of the target object exist on the path of the moving object. For example, the predetermined value is added to the course overlap time.
前記第1物体が認識され且つ前記第2物体が認識されていない場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置の一方のみが、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間の前回値を保持する
ことを特徴とする動作支援システム。 The motion support system according to any one of claims 2 to 9,
When the first object is recognized and the second object is not recognized, the course overlap time calculation unit has only one of the current position and the future position of the target object on the course of the moving object. Then, the previous value of the course overlap time is retained.
前記第2物体の横方向移動が検出され且つ前記第1物体の横方向移動が検出されず、且つ前記第2物体の横方向速度が所定の速度閾値を下回る場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置が、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間に前記所定値を加算する
ことを特徴とする動作支援システム。 The operation support system according to any one of claims 2 to 11,
When the lateral movement of the second object is detected, the lateral movement of the first object is not detected, and the lateral speed of the second object is below a predetermined speed threshold, the path overlap time calculation unit If the current position and future position of the target object exist on the path of the moving object, the predetermined value is added to the path overlap time.
前記第2物体の横方向移動が検出され且つ前記第1物体の横方向移動が検出されず、且つ前記第2物体の横方向速度が所定の速度閾値を下回る場合、前記進路オーバーラップ時間算出部は、前記対象物体の現在位置及び将来位置の一方のみが、前記移動物体の進路上に存在すれば、前記進路オーバーラップ時間の前回値を保持する
ことを特徴とする動作支援システム。 The operation support system according to any one of claims 2 to 12,
When the lateral movement of the second object is detected, the lateral movement of the first object is not detected, and the lateral speed of the second object is below a predetermined speed threshold, the path overlap time calculation unit The operation support system is characterized in that if only one of the current position and the future position of the target object is present on the path of the moving object, the previous value of the path overlap time is held.
前記位置情報に基づく前記周辺物体の現在位置又は将来位置が前記移動物体の進路上に存在する時間である進路オーバーラップ時間を算出する進路オーバーラップ時間算出部と
を備える物体認識装置であって、
前記周辺物体の現在位置又は将来位置の少なくとも一方が、前記移動物体の進路上に存在する場合、前記進路オーバーラップ時間に所定値を加算し、
前記位置情報取得装置による前記周辺物体の位置情報の取得が継続している位置情報取得継続時間に基づいて、又は前記周辺物体についての速度自体若しくは前記速度の算出の可否に基づいて前記進路オーバーラップ時間に前記所定値を加算する条件を変更する
ことを特徴とする物体認識装置。 A position information acquisition device that acquires position information related to the position of a surrounding object existing around the moving object;
A route overlap time calculation unit that calculates a route overlap time that is a time during which the current position or future position of the surrounding object based on the position information is present on the route of the moving object, and an object recognition device comprising:
When at least one of the current position or the future position of the surrounding object is present on the path of the moving object , a predetermined value is added to the path overlap time,
The course overlap based on the position information acquisition duration during which acquisition of the position information of the peripheral object by the position information acquisition device is continued, or based on the speed of the peripheral object itself or whether the speed can be calculated. A condition for adding the predetermined value to the time is changed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014102781A JP6193177B2 (en) | 2014-05-16 | 2014-05-16 | Motion support system and object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014102781A JP6193177B2 (en) | 2014-05-16 | 2014-05-16 | Motion support system and object recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015219721A JP2015219721A (en) | 2015-12-07 |
JP6193177B2 true JP6193177B2 (en) | 2017-09-06 |
Family
ID=54779037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014102781A Expired - Fee Related JP6193177B2 (en) | 2014-05-16 | 2014-05-16 | Motion support system and object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6193177B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6647681B2 (en) * | 2017-08-30 | 2020-02-14 | マツダ株式会社 | Vehicle control device |
WO2019188429A1 (en) * | 2018-03-29 | 2019-10-03 | 住友電気工業株式会社 | Moving body management device, moving body management system, moving body management method, and computer program |
JP6960389B2 (en) | 2018-12-04 | 2021-11-05 | 本田技研工業株式会社 | Detector and vehicle |
CN109808713A (en) * | 2019-03-25 | 2019-05-28 | 联想(北京)有限公司 | A kind of processing method and electronic equipment |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4684954B2 (en) * | 2005-08-31 | 2011-05-18 | 本田技研工業株式会社 | Vehicle travel safety device |
-
2014
- 2014-05-16 JP JP2014102781A patent/JP6193177B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015219721A (en) | 2015-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6190758B2 (en) | Object recognition device and vehicle | |
US9797734B2 (en) | Object recognition apparatus | |
US9896129B2 (en) | Driving assistant system of vehicle and method for controlling the same | |
JP6310565B2 (en) | Driving assistance device | |
US20160194003A1 (en) | Vehicle travelling control device | |
RU2735340C1 (en) | Parking control method and parking control device | |
KR102005253B1 (en) | Lane assistance system responsive to extremely fast approaching vehicles | |
JP6485328B2 (en) | Vehicle driving support device | |
JP2019137392A (en) | Motorcycle adaptive cruise control target tracking | |
US10773714B2 (en) | Parking control method and parking control apparatus | |
JP6614359B2 (en) | Obstacle determination method, parking support method, exit support method, and obstacle determination device | |
JP6166249B2 (en) | Transportation support device | |
JP6174644B2 (en) | Image processing device | |
JP2018072105A (en) | Object detection device | |
JP6193177B2 (en) | Motion support system and object recognition device | |
JP2016009251A (en) | Control device for vehicle | |
US20220413503A1 (en) | Information processing device, information processing method, and information processing program | |
KR102440478B1 (en) | Blind spot detection method and blind spot detection device | |
US20230182722A1 (en) | Collision avoidance method and apparatus | |
US20200391591A1 (en) | Vehicle and control method thereof | |
CN110371025A (en) | Method, system, equipment and the storage medium of the preposition collision detection for operating condition of overtaking other vehicles | |
KR102616203B1 (en) | Alarm controlling device of vehicle and method thereof | |
JP2018136713A (en) | Driver's visual field estimation device and vehicle control device | |
JP2011195082A (en) | Vehicle controller | |
JP2008129871A (en) | Travelling environment estimating device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170809 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6193177 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |