JP2014241036A - Vehicle driving assist system - Google Patents
Vehicle driving assist system Download PDFInfo
- Publication number
- JP2014241036A JP2014241036A JP2013122865A JP2013122865A JP2014241036A JP 2014241036 A JP2014241036 A JP 2014241036A JP 2013122865 A JP2013122865 A JP 2013122865A JP 2013122865 A JP2013122865 A JP 2013122865A JP 2014241036 A JP2014241036 A JP 2014241036A
- Authority
- JP
- Japan
- Prior art keywords
- target
- vehicle
- unit
- calculated
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/80—Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
- Y02T10/84—Data processing systems or methods, management, administration
Abstract
Description
本発明は、自動車に搭載されたレーダ、カメラなどのセンサを用いて、周囲の自動車、二輪車、歩行者、あるいは静止目標を観測し、それらとの衝突を避けるように円滑な運転を支援する車両運転支援装置に関する。 The present invention observes surrounding automobiles, two-wheeled vehicles, pedestrians, or stationary targets using sensors such as radars and cameras mounted on automobiles, and a vehicle that supports smooth driving so as to avoid collision with them. The present invention relates to a driving support device.
自車搭載センサから得られた情報により、運転を支援する技術については、多くの論文、特許文献で取り挙げられており、それらを実現する装置および方法については、様々な提案がなされている。 A lot of papers and patent documents have cited technologies for assisting driving based on information obtained from the vehicle-mounted sensor, and various proposals have been made for devices and methods for realizing them.
代表的な例として、衝突防止技術がある。
これはレーダおよび光学センサで目標を観測し、自車に対する距離および接近速度が閾値に達すると判明した場合に、衝突の可能性を判定し、警報を出す、あるいは自動車の走行自体を制御する技術である。
この技術の実現例を記述した文献として、下記特許文献1の「衝突回避通知システム」および下記特許文献2の「衝突危険度推定装置及びドライバ支援装置」などがある。
A typical example is a collision prevention technique.
This is a technology that observes a target with a radar and an optical sensor, determines the possibility of a collision when the distance and approach speed to the vehicle reach a threshold value, issues a warning, or controls the driving of the car itself It is.
As documents describing an implementation example of this technology, there are a “collision avoidance notification system” in Patent Document 1 below and a “collision risk estimation device and driver support device” in Patent Document 2 below.
従来の装置は以上のように構成されているので、自車操舵による操舵開始後に発生した目前の危険を防止する機能であり、操舵開始そのものは運転者が決定しなければならない。
よって、自車の操舵前に操舵の可否を判定するものではないなどの課題があった。
Since the conventional apparatus is configured as described above, it is a function that prevents a near-term danger that occurs after the start of steering by the host vehicle steering, and the start of steering itself must be determined by the driver.
Therefore, there is a problem that it is not possible to determine whether or not steering is possible before steering the host vehicle.
本発明は、自車の操舵前に操舵の可否を判定する車両運転支援装置を得るものである。 The present invention provides a vehicle driving support device that determines whether or not steering is possible before steering the host vehicle.
本発明の車両運転支援装置は、自車の操舵を伴った場合の未来の自車予測移動範囲を算出する自車運動予測部と、目標追尾部が推定した目標航跡および目標識別部が識別した目標種別を用いて自車の操舵により衝突の可能性がある目標を抽出するとともに、抽出された目標について自車の操舵にかかる間の未来の目標予測移動範囲を算出する目標運動予測部と、自車運動予測部が算出した自車予測移動範囲と目標運動予測部が算出した目標予測移動範囲とを用いて衝突の可能性を検知し、操舵可否を判定する衝突確率評価部とを備えたものである。 The vehicle driving support device according to the present invention is identified by the own vehicle motion prediction unit that calculates a predicted own vehicle movement range when the host vehicle is steered, and the target track and target identification unit estimated by the target tracking unit. A target motion prediction unit that extracts a target that may cause a collision by steering the host vehicle using the target type, and calculates a future target predicted moving range during the steering of the host vehicle with respect to the extracted target; A collision probability evaluation unit that detects the possibility of collision using the vehicle predicted movement range calculated by the vehicle motion prediction unit and the target predicted movement range calculated by the target motion prediction unit and determines whether or not steering is possible; Is.
本発明によれば、自車運動予測部が算出した自車予測移動範囲と目標運動予測部が算出した目標予測移動範囲とを用いて衝突の可能性を検知し、操舵可否を判定する。
よって、自車の操舵前に操舵の可否を判定することができる効果がある。
According to the present invention, the possibility of collision is detected by using the own vehicle predicted moving range calculated by the own vehicle motion predicting unit and the target predicted moving range calculated by the target motion predicting unit to determine whether steering is possible.
Therefore, there is an effect that it is possible to determine whether steering is possible before the host vehicle is steered.
実施の形態1.
図1は本発明の実施の形態1による車両運転支援装置を示す構成図である。
図において、センサ群1は、自動車に搭載されたレーダおよびカメラなどである。
目標認識部2は、自車周囲の目標についての状態を推定するものである。
操舵可否判定部3は、目標認識部2より得られた目標についての状態を用いて、自車の操舵の可否を決定するものである。
ユーザ4は、自車の運転者などである。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a vehicle driving support apparatus according to Embodiment 1 of the present invention.
In the figure, a sensor group 1 is a radar and a camera mounted on an automobile.
The target recognition part 2 estimates the state about the target around the own vehicle.
The steering
The
目標認識部2において、目標検出部21は、センサ群1からの信号により目標位置の観測値を抽出し、その観測位置を蓄積観測値22として保存するものである。
目標追尾部23は、目標検出部21が抽出した観測値の時系列を追尾処理して、目標位置および目標速度を含む目標航跡を推定し、追尾航跡・識別結果24として保存するものである。
目標識別部25は、目標追尾部23が推定した目標航跡を用いて目標種別を識別し、追尾航跡・識別結果24として保存するものである。
In the target recognition unit 2, the
The
The
操舵可否判定部3において、自車運動予測部31は、自車の操舵を伴った場合の未来の自車予測移動範囲を算出するものである。
目標運動予測部32は、追尾航跡・識別結果24に保存された目標航跡および目標種別を用いて、自車の操舵により衝突の可能性がある目標を抽出するものである。
また、抽出された目標について自車の操舵にかかる間の未来の目標予測移動範囲を算出するものである。
衝突確率評価部33は、自車運動予測部31が算出した自車予測移動範囲と目標運動予測部32が算出した目標予測移動範囲とを用いて衝突の可能性を検知し、操舵可否を判定するものである。
In the steering
The target
Further, a future target predicted movement range is calculated for the extracted target while the vehicle is steered.
The collision
図1の例では、車両運転支援装置の構成要素である目標認識部2および操舵可否判定部3が、例えば、マイコンなどを実装している半導体回路基板のハードウエアで構成されていることを想定している。
In the example of FIG. 1, it is assumed that the target recognition unit 2 and the steering
次に動作について説明する。
本実施の形態1の航跡抽出の処理手順を、1サンプリング時刻分の観測値の処理について、図2および図8に示す。
図2は目標認識手順を示すフローチャートである。
目標認識部2の動作を図2に従って説明する。
Next, the operation will be described.
The wake extraction processing procedure of the first embodiment is shown in FIGS. 2 and 8 for the processing of observation values for one sampling time.
FIG. 2 is a flowchart showing a target recognition procedure.
The operation of the target recognition unit 2 will be described with reference to FIG.
「目標検出」のステップST1では、目標検出部21が、従来の信号処理により、センサ群1から得られた目標位置の情報を算出する。
これにより、現時刻における目標位置による静的な情報が得られる。
In step ST1 of “target detection”, the
Thereby, static information based on the target position at the current time is obtained.
図3は目標検出結果例を示す説明図である。
図3は、自車周囲を2つのセンサA、センサBで観測し、目標検出で得られた結果である。
センサAとセンサBでは、検出される目標個数が異なるものの、同一の目標に対して、ほぼ同一の目標位置を検出している。
目標検出部21は、この目標位置を蓄積観測値22として保存する。
FIG. 3 is an explanatory diagram showing an example of the target detection result.
FIG. 3 shows the result obtained by observing the surroundings of the vehicle with two sensors A and B and detecting the target.
Sensor A and sensor B detect substantially the same target position for the same target, although the number of detected targets is different.
The
「目標追尾」のステップST2では、目標追尾部23が追尾処理により、「目標検出」のステップST1で得られた目標位置の情報の時系列より、目標の正確な位置、および速度を推定する。
この時系列処理により、目標運動の情報に速度が加わって動的になり、「目標検出」のステップST1で得られた情報が、さらに正確になる。
この推定に、カルマンフィルタを用いた場合の処理例を以下に示す。
In step ST2 of “target tracking”, the
By this time series processing, speed is added to the information of the target motion to become dynamic, and the information obtained in the “target detection” step ST1 becomes more accurate.
An example of processing when a Kalman filter is used for this estimation is shown below.
まず、最新の観測時刻の観測値をセンサ群1から読み込む。
次に既存航跡のゲートを算出し、さらに、入力された観測値がそのゲート内にあるかどうかを調べ、入ってきた観測値がどの航跡と相関可能であるかを決定する。
ここで、航跡はxyの2次元空間における目標の位置、および速度からなる以下の4個の要素を持ったベクトルを推定諸元とする。
First, the observation value at the latest observation time is read from the sensor group 1.
Next, the gate of the existing wake is calculated, and further, it is checked whether or not the input observation value is in the gate, and it is determined to which wake the incoming observation value can be correlated.
Here, the wake is assumed to be a vector having the following four elements consisting of the target position and velocity in the two-dimensional space of xy.
観測値のベクトルが、距離および方位角の極座標上の値で得られる場合、各々は次式(7)から(9)となる。
When the vector of observation values is obtained as polar and coordinate values of distance and azimuth, each is expressed by the following equations (7) to (9).
ゲート内外は、次式(10)の不等式の成否により決まる。
The inside and outside of the gate is determined by the success or failure of the inequality of the following equation (10).
上記のゲート内外判定によって、ゲート内と判定された観測値を用いて、航跡の最新時刻における運動諸元推定値を算出する。
ただし、複数の既存航跡が存在し、特定の観測値が複数の航跡のゲート内に入った場合は、観測値に既存航跡に1対1対応させる相関決定処理が必要となる。
特に、自動車の周囲には、複数の目標が存在する場合が多いので、この相関の問題が重要となる。
この相関を複数の仮説を生成しながら決定する方式は、これまで幾つか提案されており、その一例が、上記特許文献3の「目標追尾装置」に示されている。
By using the observation value determined to be inside the gate by the above-mentioned gate inside / outside determination, the motion specification estimated value at the latest time of the wake is calculated.
However, when there are a plurality of existing wakes and a specific observation value enters the gates of the wakes, a correlation determination process is required to associate the observation value with the existing wake one-on-one.
In particular, since there are often a plurality of targets around the automobile, this correlation problem becomes important.
Several methods for determining this correlation while generating a plurality of hypotheses have been proposed so far, and an example thereof is shown in “Target Tracking Device” of
相関決定により、観測値が既存航跡に割り当てられると、これらの航跡の観測時刻における平滑諸元を計算し、更新航跡については、さらに相関結果に対応する航跡の尤度を計算する。
平滑ベクトルは、次式(12)で計算される。
When the observation values are assigned to the existing wakes by the correlation determination, smooth specifications at the observation time of these wakes are calculated, and for the updated wake, the likelihood of the wake corresponding to the correlation result is further calculated.
The smooth vector is calculated by the following equation (12).
また、平滑誤差共分散行列は、次式(14)で計算される。
さらに、航跡の尤度(尤もらしさ)は、観測値の確率分布が予測観測値(3次元の位置)を中心としたガウス分布となることを仮定して、次式(15)で計算する。
The smooth error covariance matrix is calculated by the following equation (14).
Further, the likelihood (likelihood) of the wake is calculated by the following equation (15) on the assumption that the probability distribution of the observed value is a Gaussian distribution centered on the predicted observed value (three-dimensional position).
図4は目標追尾結果例を示す説明図である。
図4は、この追尾処理で得られた結果であり、検出される目標位置に、目標速度が加えられることにより、追尾結果として、移動目標航跡と静止目標航跡が得られる。
目標追尾部23は、この目標航跡を、追尾航跡・識別結果24として保存する。
FIG. 4 is an explanatory diagram showing an example of the target tracking result.
FIG. 4 shows a result obtained by the tracking process. When the target speed is added to the detected target position, the moving target track and the stationary target track are obtained as the tracking result.
The
次の「目標識別」のステップST3では、目標識別部25がベイズ推定法などを適用して、目標の速度などの属性情報から追尾目標を、自動車、二輪車、歩行者、およびガードレール(停止物)に分類する。
In the next “target identification” step ST3, the
図5は目標種別毎の属性の確率密度の例を示す説明図である。
図5は、属性を速度と光学センサより得られた画像上の目標の大きさ(広がり)の2種類とした場合の、目標種別毎の属性の確率密度関数の例である。
FIG. 5 is an explanatory diagram showing an example of the probability density of attributes for each target type.
FIG. 5 is an example of the probability density function of the attribute for each target type when the attribute is two types of speed and the target size (spread) on the image obtained from the optical sensor.
識別では、各属性の目標種別毎の尤度を掛け合わせて、それが最大である種別を追尾目標の種別とする。
すなわち、次式(16)
を実現する目標種別を、その追尾目標の種別の候補とする。
In the identification, the likelihood for each target type of each attribute is multiplied, and the type having the maximum value is set as the type of the tracking target.
That is, the following equation (16)
The target type that realizes is set as a candidate for the tracking target type.
上記の候補の種別を確定してよいかを、以下により判別する。
例えば、上記次式(16)で、尤度最大を実現する目標種別が人であった場合、次式(17)が成立すれば、追尾目標の種別を「人」と確定する。
Whether the above-described candidate type can be determined is determined as follows.
For example, in the above equation (16), if the target type that achieves the maximum likelihood is a person, if the following equation (17) is satisfied, the type of the tracking target is determined as “person”.
ここで、左辺の事後確率は、次式(18)で計算する。
Here, the posterior probability on the left side is calculated by the following equation (18).
図6は追尾目標の識別結果例を示す説明図である。
図6は、以上の識別処理により得られた情報の例であり、追尾目標が、自動車、二輪車、歩行者、およびガードレールに分けて検出され、追尾目標の位置および速度についても識別されている。
目標識別部25は、この識別結果を、追尾航跡・識別結果24として保存する。
FIG. 6 is an explanatory diagram showing an example of the tracking target identification result.
FIG. 6 is an example of information obtained by the above identification processing. The tracking target is detected separately for an automobile, a two-wheeled vehicle, a pedestrian, and a guardrail, and the position and speed of the tracking target are also identified.
The
本実施の形態1の目標識別部25では、従来の識別結果に加え、さらに、目標運動の安定・不安定を識別する。
この安定性は、例えば、以下のように、自車右折時の衝突の危険性を反映する。
・他車の間を強引に割り込む二輪車は、不安定で、より衝突が起き易い。
・車線変更を殆ど行わない自動車は、安定で、より衝突が起き易い。
In addition to the conventional identification result, the
This stability reflects, for example, the risk of a collision when the vehicle turns right as follows.
-Motorcycles that forcibly interrupt other cars are unstable and more likely to collide.
-Automobiles that rarely change lanes are more stable and more prone to collisions.
不安定な目標については、右折の際に、安定な目標よりも、さらに、大きな注意を払う必要があると考えられる。
過去のサンプリング時刻における追尾平滑値を繋ぐことによって生成される追尾軌道より、次式(19)の運動の変化を算出する。
For unstable targets, it is necessary to pay more attention to the right turn than for stable targets.
The movement change of the following equation (19) is calculated from the tracking trajectory generated by connecting the tracking smooth values at the past sampling times.
図7は追尾軌道の直進近似と残差の例を示す説明図である。
運動の変化が大きい目標については、「不安定な目標」と判別する。
が成り立つ場合、目標は不安定な目標と識別し、次式(21)
である場合は、安定な目標と識別する。
FIG. 7 is an explanatory diagram showing an example of the straight-forward approximation of the tracking trajectory and the residual.
A target with a large change in movement is determined as an “unstable target”.
If this holds, the target is identified as an unstable target and the following equation (21)
If it is, identify it as a stable goal.
以上が目標認識部25の処理であり、これにより追尾航跡毎に以下が推定される。
・追尾目標の位置、速度の推定値
・上記の推定誤差共分散行列(平滑誤差共分散行列)
・目標種別
・安定・不安定の区別
これらの情報は、操舵可否判定部3への入力となり、操舵の可否を判定するために用いられる。
The above is the process of the
-Estimated position and speed of tracking target-Estimated error covariance matrix (smooth error covariance matrix)
-Target type / Stable / unstable distinction These pieces of information are input to the steering
図8は操舵可否判定手順を示すフローチャートである。
操舵可否判定部3の動作を図8に従って説明する。
目標認識部2がセンサ群1から観測値が得られる度に動作するのに対し、この操舵可否判定部3は、ウィンカーなどにより運転者から右折の意思が示された場合に起動する。
FIG. 8 is a flowchart showing a procedure for determining whether or not steering is possible.
The operation of the steering
While the target recognizing unit 2 operates whenever an observation value is obtained from the sensor group 1, the steering
「自車運動予測」のステップST4では、自車運動予測部31が、自車が現時刻から右折運動を開始した場合の、未来の位置および速度を、右旋回運動モデル(操舵運動モデル)により予測し、その予測誤差共分散行列より右折完了までの予測移動範囲を算出する。
予測時刻は、現時刻から右折完了までの一定のサンプリング間隔に従って設定する離散的な複数の時刻である。
In step ST4 of “own vehicle motion prediction”, the own vehicle
The predicted time is a plurality of discrete times set according to a certain sampling interval from the current time to the completion of the right turn.
ここで、各サンプリング時刻における自車運動は、xyの2次元空間における自車の位置および速度からなる、次式(22)の4個の要素を持ったベクトルとする。
Here, the vehicle movement at each sampling time is a vector having four elements of the following equation (22), which is composed of the position and speed of the vehicle in the xy two-dimensional space.
代表的な単一の値としてもよいし、典型値を複数用意して各々で予測計算し、それらを重み付け統合してもよい。
A representative single value may be used, or a plurality of typical values may be prepared and predicted for each, and weighted and integrated.
図9は自車の運動予測結果例を示す説明図である。
図中の楕円は、時刻t1から時刻t4についての予測移動範囲を示したものであり、右旋回運動モデルによる未来予測位置を中心とし、予測誤差共分散行列の標準偏差分の広がりをもつものである。
FIG. 9 is an explanatory diagram illustrating an example of a motion prediction result of the own vehicle.
The ellipse in the figure indicates the predicted movement range from time t1 to time t4, and has a spread corresponding to the standard deviation of the prediction error covariance matrix with the future predicted position by the right turn motion model as the center. It is.
「衝突候補目標抽出」のステップST5では、目標運動予測部32が自車の右折運動軌道の近傍にある目標を抽出する。
具体的には、各追尾位置から最大移動分(目標最大加速度を加えた速度を右折時間に要する時間で積分)の領域と、自車右折軌道がぶつかる移動目標のみを抽出する。
In step ST5 of “collision candidate target extraction”, the target
Specifically, only the area of the maximum movement from each tracking position (integration of the speed obtained by adding the target maximum acceleration to the time required for the right turn time) and the movement target that the vehicle's right turn trajectory collides are extracted.
図10は衝突候補目標の抽出結果例を示す説明図である。
図中の破線枠内が衝突候補目標である。
なお、目標Aは、最大速度の移動範囲が自車右折軌道とぶつからないため、衝突候補目標から除外される。
FIG. 10 is an explanatory view showing an example of the result of extracting a collision candidate target.
The inside of the broken line frame in the figure is the collision candidate target.
Note that the target A is excluded from the collision candidate target because the moving range of the maximum speed does not collide with the vehicle's right turn trajectory.
なお、目標識別部25は、センサ群1のうちのカメラなどによる光学画像情報により、目標と自車との衝突の可能性の有無を判定する。
例えば、対向車がウィンカーの動作によって、自車と衝突する可能性の無いことが明らかである場合、目標識別部25がこれを判定する。
目標運動予測部32は、目標識別部25が自車との衝突の可能性が無いと判定した目標について、衝突候補目標から除外する。
このようにすれば、無駄な算出対象を減らすことができる。
The
For example, when it is clear that there is no possibility that the oncoming vehicle collides with the own vehicle due to the operation of the blinker, the
The target
In this way, useless calculation objects can be reduced.
「目標運動予測」のステップST6では、目標運動予測部32が目標追尾部23により算出された目標の現時刻の位置、速度、それらの平滑誤差共分散行列を含む予測誤差共分散行列により、自車が右折に至るまでの未来の目標予測移動範囲を算出する。
予測時刻は、現時刻から右折完了までの一定のサンプリング間隔に従って設定する、離散的な複数の時刻である。
これらのサンプリング時刻は、「自車運動予測」のステップST4において設定したサンプリング時刻と完全に一致させる。
なお、予測誤差共分散行列では、目標種別毎の加速の可能性の要素を加える。
In step ST6 of “target motion prediction”, the target
The predicted time is a plurality of discrete times set according to a certain sampling interval from the current time to the completion of the right turn.
These sampling times are completely matched with the sampling times set in step ST4 of “own vehicle motion prediction”.
In the prediction error covariance matrix, an element of the possibility of acceleration for each target type is added.
目標の未来予測位置は、次式(27)で算出する。
The target future predicted position is calculated by the following equation (27).
目標運動の不確定性を、機動性の高い目標(例えば、自動車と二輪車は、同程度の機動性を有し、歩行者は、これらよりも低い機動性を有するとする)ほど、このパラメータを大きく設定する。
If the uncertainty of the target movement is set to a higher mobility target (for example, an automobile and a motorcycle have the same mobility, and a pedestrian has a lower mobility), this parameter is Set larger.
目標が不安定であるほど、このパラメータを大きく設定する。
設定値としては、不安点な度合に応じた離散的な値を複数用意してもよいし、例えば、次式(33)のように、「目標識別」のステップST3で算出した残差平均値に比例した値としてもよい。
The more unstable the target, the larger this parameter is set.
As the set value, a plurality of discrete values according to the degree of anxiety may be prepared. For example, as shown in the following equation (33), the residual average value calculated in step ST3 of “target identification” It is good also as a value proportional to.
図11は目標の運動予測結果例を示す説明図である。
図中の楕円は、自動車、二輪車、および歩行者の時刻t1から時刻t4についての予測移動範囲を示したものであり、各目標の未来予測位置を中心とし、予測誤差共分散行列の標準偏差分の広がりをもつものである。
FIG. 11 is an explanatory diagram illustrating an example of a target motion prediction result.
The ellipse in the figure indicates the predicted movement range of the automobile, the two-wheeled vehicle, and the pedestrian from the time t1 to the time t4, and the standard deviation portion of the prediction error covariance matrix with the future predicted position of each target as the center. It has the spread of.
「操舵可否判定」のステップST7では、衝突確率評価部33が自車と目標の予測移動範囲の重なりの有無を次式(34)により、自車が目的地に到達するまでの目標との衝突する可能性を判定する。
衝突の可能性があれば「右折不可」と判定する。
左辺は、自車と目標が同一位置となる確率であり、次式(35)に示すように、自車と目標の特定の位置における同時存在確率密度の位置空間全体に渡る積分である。
In step ST7 of “steerability determination”, the collision
If there is a possibility of collision, it is determined that “right turn is impossible”.
The left side is the probability that the vehicle and the target will be at the same position, and is an integration over the entire position space of the simultaneous existence probability density at a specific position of the vehicle and the target, as shown in the following equation (35).
これを数値計算することにより近似する。
This is approximated by numerical calculation.
「操作可?」のステップST8では、もし「右折可」と判定されたら、ユーザ(運転者)4に、現時点で右折しても安全である旨のメッセージを提示する。 In step ST8 of “operation is possible?”, If it is determined that “right turn is possible”, a message is displayed to the user (driver) 4 that it is safe to make a right turn at the present time.
もし、右折不可と判定されたら、「一定時間経過」のステップST9の後、再度一連の判定処理を実施する。
これを右折可能と判定されるまで繰り返す。
If it is determined that a right turn is not possible, a series of determination processes are performed again after step ST9 of “a certain time has elapsed”.
This is repeated until it is determined that a right turn is possible.
本実施の形態1によれば、操舵可否判定部3において、自車の操舵を伴った場合の未来の自車予測移動範囲を算出する自車運動予測部31と、追尾航跡・識別結果24に保存された目標航跡および目標種別を用いて、自車の操舵により衝突の可能性がある目標を抽出するとともに、抽出された目標について自車の操舵にかかる間の未来の目標予測移動範囲を算出する目標運動予測部32と、自車運動予測部31が算出した自車予測移動範囲と目標運動予測部32が算出した目標予測移動範囲とを用いて衝突の可能性を検知し、操舵可否を判定する衝突確率評価部33とを備えた。
よって、自車の操舵前に操舵の可否を判定することができる。
According to the first embodiment, the steering
Thus, it is possible to determine whether or not steering is possible before steering the host vehicle.
本実施の形態1によれば、目標運動予測部32は、目標予測移動範囲を、第一の予測誤差共分散行列により算出する。
よって、目標予測移動範囲を、第一の予測誤差共分散行列の標準偏差分による広がりをもつものとすることができ、目標予測移動範囲を、衝突の危険性を回避する上でほどよい範囲で算出することができる。
According to the first embodiment, the target
Therefore, the target predicted movement range can be widened by the standard deviation of the first prediction error covariance matrix, and the target predicted movement range can be set within a reasonable range to avoid the risk of collision. Can be calculated.
本実施の形態1によれば、目標識別部25は、目標追尾部23が推定した目標航跡を用いて目標運動の不安定性を判定し、目標運動予測部32は、第一の予測誤差共分散行列を、目標識別部25が判定した目標運動の不安定性に基づく、第一の未来運動不確定性行列により算出する。
よって、目標予測移動範囲を、目標運動の不安定性を加味して算出することができ、操舵可否について、より信頼性の高い判定を行うことができる。
According to the first embodiment, the
Therefore, the target predicted movement range can be calculated in consideration of the instability of the target motion, and it is possible to make a more reliable determination as to whether or not steering is possible.
本実施の形態1によれば、目標運動予測部32は、第一の予測誤差共分散行列を、目標識別部25が識別した目標種別を用いて算出される、目標運動の機動性に基づく、第二の未来運動不確定性行列により算出する。
よって、目標予測移動範囲を、目標運動の機動性を加味して算出することができ、操舵可否について、より信頼性の高い判定を行うことができる。
According to the first embodiment, the target
Therefore, the target predicted movement range can be calculated in consideration of the mobility of the target motion, and it is possible to make a more reliable determination as to whether or not steering is possible.
本実施の形態1によれば、自車運動予測部31は、自車予測移動範囲を、操舵運動モデルおよび第二の予測誤差共分散行列により算出する。
よって、自車予測移動範囲を、操舵運動モデルによる未来予測位置を中心とし、第二の予測誤差共分散行列の標準偏差分による広がりをもつものとすることができ、自車予測移動範囲を、衝突の危険性を回避する上でほどよい範囲で算出することができる。
According to the first embodiment, the host vehicle
Therefore, the own vehicle predicted movement range can be assumed to have a spread due to the standard deviation of the second prediction error covariance matrix with the future predicted position based on the steering motion model as the center. It is possible to calculate within a reasonable range for avoiding the risk of collision.
本実施の形態1によれば、衝突確率評価部33は、自車予測移動範囲と目標予測移動範囲とを用いて算出される同時存在確率密度から操舵可否を判定する。
よって、操舵可否について、より信頼性の高い判定を行うことができる。
According to the first embodiment, the collision
Therefore, it is possible to make a more reliable determination as to whether or not steering is possible.
本実施の形態1によれば、目標識別部25は、センサ1からの光学画像情報により目標と自車との衝突の可能性の有無を判定し、目標運動予測部32は、目標識別部25が自車との衝突の可能性が無いと判定した目標について、目標予測移動範囲の算出対象から除外する。
よって、無駄な算出対象を減らし、算出効率を高めることができる。
According to the first embodiment, the
Therefore, useless calculation objects can be reduced and calculation efficiency can be increased.
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .
1 センサ群、2 目標認識部、3 操舵可否判定部、4 ユーザ、21 目標検出部、22 蓄積観測値、23 目標追尾部、24 追尾航跡・識別結果、25 目標識別部、31 自車運動予測部、32 目標運動予測部、33 衝突確率評価部。 DESCRIPTION OF SYMBOLS 1 Sensor group, 2 Target recognition part, 3 Steering availability determination part, 4 User, 21 Target detection part, 22 Accumulated observation value, 23 Target tracking part, 24 Tracking track | truck / identification result, 25 Target identification part, 31 Own vehicle motion prediction Part, 32 target motion prediction part, 33 collision probability evaluation part.
Claims (9)
上記目標検出部が抽出した観測値の時系列を追尾処理して目標位置および目標速度を含む目標航跡を推定する目標追尾部と、
上記目標追尾部が推定した目標航跡を用いて目標種別を識別する目標識別部と、
自車の操舵を伴った場合の未来の自車予測移動範囲を算出する自車運動予測部と、
上記目標追尾部が推定した目標航跡および上記目標識別部が識別した目標種別を用いて上記自車の操舵により衝突の可能性がある目標を抽出するとともに、抽出された目標について該自車の操舵にかかる間の未来の目標予測移動範囲を算出する目標運動予測部と、
上記自車運動予測部が算出した自車予測移動範囲と上記目標運動予測部が算出した目標予測移動範囲とを用いて衝突の可能性を検知し、操舵可否を判定する衝突確率評価部とを備えた車両運転支援装置。 A target detection unit that extracts an observed value of the target position from a signal from the sensor;
A target tracking unit that estimates a target track including a target position and a target speed by tracking a time series of observation values extracted by the target detection unit;
A target identification unit for identifying a target type using the target track estimated by the target tracking unit;
A vehicle motion prediction unit that calculates a future vehicle predicted movement range when the vehicle is steered;
The target track estimated by the target tracking unit and the target type identified by the target identification unit are used to extract a target that may cause a collision by steering the host vehicle, and steering the host vehicle with respect to the extracted target. A target motion prediction unit for calculating a future target predicted movement range during
A collision probability evaluation unit that detects the possibility of collision using the vehicle predicted movement range calculated by the vehicle motion prediction unit and the target predicted movement range calculated by the target motion prediction unit, and determines whether steering is possible; A vehicle driving support apparatus provided.
目標予測移動範囲を、第一の予測誤差共分散により算出することを特徴とする請求項1記載の車両運転支援装置。 The target motion prediction unit
The vehicle driving support apparatus according to claim 1, wherein the target predicted movement range is calculated by the first prediction error covariance.
上記目標追尾部が推定した目標航跡を用いて目標運動の不安定性を判定し、
上記第一の予測誤差共分散は、
上記目標識別部が判定した目標運動の不安定性に基づく、第一の未来運動不確定性により算出されることを特徴とする請求項2記載の車両運転支援装置。 The target identification unit
Using the target track estimated by the target tracking unit, determine the instability of the target motion,
The first prediction error covariance is
The vehicle driving support device according to claim 2, wherein the vehicle driving support device is calculated by a first future motion uncertainty based on the instability of the target motion determined by the target identification unit.
上記目標追尾部が目標航跡を推定する際に算出した平滑誤差共分散を外挿して算出される、現時刻の目標運動諸元の第一の推定誤差共分散により算出されることを特徴とする請求項2記載の車両運転支援装置。 The first prediction error covariance is
The target tracking unit is calculated by extrapolating the smooth error covariance calculated when the target track is estimated, and is calculated by the first estimated error covariance of the target motion specifications at the current time. The vehicle driving support device according to claim 2.
上記目標識別部が識別した目標種別を用いて算出される、目標運動の機動性に基づく、第二の未来運動不確定性により算出されることを特徴とする請求項2記載の車両運転支援装置。 The first prediction error covariance is
3. The vehicle driving support device according to claim 2, wherein the vehicle driving support device is calculated by a second future motion uncertainty based on the mobility of the target motion, which is calculated using the target type identified by the target identifying unit. .
自車予測移動範囲を、操舵運動モデルおよび第二の予測誤差共分散により算出することを特徴とする請求項1記載の車両運転支援装置。 The own vehicle motion prediction unit
The vehicle driving support device according to claim 1, wherein the own vehicle predicted movement range is calculated by a steering motion model and a second prediction error covariance.
自車センサあるいはGPSにより観測された自車運動の観測誤差を外挿して算出される、現時刻の自車運動諸元の第二の推定誤差共分散により算出されることを特徴とする請求項6記載の車両運転支援装置。 The second prediction error covariance is
The vehicle error is calculated by a second estimated error covariance of the vehicle motion specifications at the current time, which is calculated by extrapolating an observation error of the vehicle motion observed by the vehicle sensor or GPS. 6. The vehicle driving support device according to 6.
上記自車予測移動範囲と上記目標予測移動範囲とを用いて算出される同時存在確率から操舵可否を判定することを特徴とする請求項1記載の車両運転支援装置。 The collision probability evaluation unit
2. The vehicle driving support apparatus according to claim 1, wherein whether or not steering is possible is determined from a simultaneous existence probability calculated using the predicted predicted moving range of the host vehicle and the predicted predicted moving range.
上記センサからの光学画像情報により目標と自車との衝突の可能性の有無を判定し、
上記目標運動予測部は、
上記目標識別部が自車との衝突の可能性が無いと判定した目標について、目標予測移動範囲の算出対象から除外することを特徴とする請求項1記載の車両運転支援装置。 The target identification unit
Determine the possibility of a collision between the target and the vehicle based on the optical image information from the sensor,
The target motion prediction unit
2. The vehicle driving support apparatus according to claim 1, wherein the target determined by the target identification unit as having no possibility of a collision with the host vehicle is excluded from the target prediction movement range calculation target.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013122865A JP2014241036A (en) | 2013-06-11 | 2013-06-11 | Vehicle driving assist system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013122865A JP2014241036A (en) | 2013-06-11 | 2013-06-11 | Vehicle driving assist system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014241036A true JP2014241036A (en) | 2014-12-25 |
Family
ID=52140253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013122865A Pending JP2014241036A (en) | 2013-06-11 | 2013-06-11 | Vehicle driving assist system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014241036A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016162270A (en) * | 2015-03-03 | 2016-09-05 | 三菱電機株式会社 | Proximity detection device and proximity detection method |
WO2017002441A1 (en) * | 2015-07-02 | 2017-01-05 | 三菱電機株式会社 | Route prediction device |
JP2018066716A (en) * | 2016-10-14 | 2018-04-26 | 国立大学法人金沢大学 | Object tracking device |
JP2019012549A (en) * | 2018-09-06 | 2019-01-24 | 株式会社デンソー | Collision avoidance device and driving support method |
JP2019075055A (en) * | 2017-10-19 | 2019-05-16 | 株式会社東芝 | Information processor, information processing method and program |
US10504370B2 (en) | 2015-04-02 | 2019-12-10 | Denso Corporation | Collision avoidance apparatus, collision avoidance system, and driving support method |
WO2021174445A1 (en) * | 2020-03-04 | 2021-09-10 | 华为技术有限公司 | Method and device for predicting exit for vehicle |
CN114056425A (en) * | 2021-11-23 | 2022-02-18 | 东软集团股份有限公司 | Vehicle steering control method and device, vehicle and storage medium |
JP7354949B2 (en) | 2020-07-09 | 2023-10-03 | 株式会社デンソー | wall judgment device |
-
2013
- 2013-06-11 JP JP2013122865A patent/JP2014241036A/en active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016162270A (en) * | 2015-03-03 | 2016-09-05 | 三菱電機株式会社 | Proximity detection device and proximity detection method |
US10504370B2 (en) | 2015-04-02 | 2019-12-10 | Denso Corporation | Collision avoidance apparatus, collision avoidance system, and driving support method |
WO2017002441A1 (en) * | 2015-07-02 | 2017-01-05 | 三菱電機株式会社 | Route prediction device |
WO2017002258A1 (en) * | 2015-07-02 | 2017-01-05 | 三菱電機株式会社 | Route prediction device |
JPWO2017002441A1 (en) * | 2015-07-02 | 2017-09-14 | 三菱電機株式会社 | Route prediction device |
US10741079B2 (en) | 2015-07-02 | 2020-08-11 | Mitsubishi Electric Corporation | Route prediction system |
JP2018066716A (en) * | 2016-10-14 | 2018-04-26 | 国立大学法人金沢大学 | Object tracking device |
JP2019075055A (en) * | 2017-10-19 | 2019-05-16 | 株式会社東芝 | Information processor, information processing method and program |
JP2021184258A (en) * | 2017-10-19 | 2021-12-02 | 株式会社東芝 | Information processing device, information processing method, and program |
JP7346499B2 (en) | 2017-10-19 | 2023-09-19 | 株式会社東芝 | Information processing device, information processing method, and program |
JP2019012549A (en) * | 2018-09-06 | 2019-01-24 | 株式会社デンソー | Collision avoidance device and driving support method |
WO2021174445A1 (en) * | 2020-03-04 | 2021-09-10 | 华为技术有限公司 | Method and device for predicting exit for vehicle |
JP7354949B2 (en) | 2020-07-09 | 2023-10-03 | 株式会社デンソー | wall judgment device |
CN114056425A (en) * | 2021-11-23 | 2022-02-18 | 东软集团股份有限公司 | Vehicle steering control method and device, vehicle and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014241036A (en) | Vehicle driving assist system | |
US11941985B2 (en) | Vehicular environment estimation device | |
JP5971341B2 (en) | Object detection device and driving support device | |
JP5938569B2 (en) | Advanced driver support system considering azimuth information and operation method thereof | |
EP3258214B1 (en) | Object detection device | |
US20200211395A1 (en) | Method and Device for Operating a Driver Assistance System, and Driver Assistance System and Motor Vehicle | |
JP5939357B2 (en) | Moving track prediction apparatus and moving track prediction method | |
US10864906B2 (en) | Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object | |
KR20180060860A (en) | Collision avoidance apparatus and method preventing collision between objects | |
JP2013225295A5 (en) | ||
CN105128836A (en) | Autonomous emergency braking system and method for recognizing pedestrian therein | |
JPH11353565A (en) | Method and device for alarm of collision for vehicle | |
KR20110067359A (en) | Method and apparatus for collision avoidance of vehicle | |
JP2009237898A (en) | Image recognition device | |
US10996317B2 (en) | Object detection apparatus and object detection method | |
US20160188984A1 (en) | Lane partition line recognition apparatus | |
US10706296B2 (en) | Vehicle safety determination apparatus, method, and computer-readable storage medium | |
US11420624B2 (en) | Vehicle control apparatus and vehicle control method | |
JP4762830B2 (en) | Perimeter monitoring system | |
US10300913B2 (en) | Vehicle identification device and vehicle identification method | |
JP6663622B2 (en) | Imaging device | |
JP2010072947A (en) | Obstacle detection device | |
CN113591673A (en) | Method and device for recognizing traffic signs | |
JP6570302B2 (en) | Driving assistance device | |
Iqbal et al. | Adjacent vehicle collision warning system using image sensor and inertial measurement unit |