JP2014241036A - Vehicle driving assist system - Google Patents

Vehicle driving assist system Download PDF

Info

Publication number
JP2014241036A
JP2014241036A JP2013122865A JP2013122865A JP2014241036A JP 2014241036 A JP2014241036 A JP 2014241036A JP 2013122865 A JP2013122865 A JP 2013122865A JP 2013122865 A JP2013122865 A JP 2013122865A JP 2014241036 A JP2014241036 A JP 2014241036A
Authority
JP
Japan
Prior art keywords
target
vehicle
unit
calculated
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013122865A
Other languages
Japanese (ja)
Inventor
小幡 康
Yasushi Obata
康 小幡
洋志 亀田
Hiroshi Kameda
洋志 亀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013122865A priority Critical patent/JP2014241036A/en
Publication of JP2014241036A publication Critical patent/JP2014241036A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/80Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
    • Y02T10/84Data processing systems or methods, management, administration

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle driving assist system that decides prior to steering of an own vehicle whether the steering is permitted.SOLUTION: A steering permission deciding unit 3 includes an own vehicle motion prediction block 31 that calculates a future predictive moving range of an own vehicle in a case where the own vehicle is steered, a target motion prediction block 32 that extracts a target, which has a possibility of a collision with the own vehicle when the own vehicle is steered, using a target trail and target type recorded in a tracked trail discrimination result 24, and calculates a future predictive moving range of the extracted target to be attained when the own vehicle is steered, and a collision probability evaluation block 33 that senses a possibility of a collision using the predictive moving range of the own vehicle calculated by the own vehicle motion prediction block 31 and the predictive moving range of the target calculated by the target motion prediction block 32. Prior to steering of the own vehicle, whether the steering is permitted can be decided.

Description

本発明は、自動車に搭載されたレーダ、カメラなどのセンサを用いて、周囲の自動車、二輪車、歩行者、あるいは静止目標を観測し、それらとの衝突を避けるように円滑な運転を支援する車両運転支援装置に関する。   The present invention observes surrounding automobiles, two-wheeled vehicles, pedestrians, or stationary targets using sensors such as radars and cameras mounted on automobiles, and a vehicle that supports smooth driving so as to avoid collision with them. The present invention relates to a driving support device.

自車搭載センサから得られた情報により、運転を支援する技術については、多くの論文、特許文献で取り挙げられており、それらを実現する装置および方法については、様々な提案がなされている。   A lot of papers and patent documents have cited technologies for assisting driving based on information obtained from the vehicle-mounted sensor, and various proposals have been made for devices and methods for realizing them.

代表的な例として、衝突防止技術がある。
これはレーダおよび光学センサで目標を観測し、自車に対する距離および接近速度が閾値に達すると判明した場合に、衝突の可能性を判定し、警報を出す、あるいは自動車の走行自体を制御する技術である。
この技術の実現例を記述した文献として、下記特許文献1の「衝突回避通知システム」および下記特許文献2の「衝突危険度推定装置及びドライバ支援装置」などがある。
A typical example is a collision prevention technique.
This is a technology that observes a target with a radar and an optical sensor, determines the possibility of a collision when the distance and approach speed to the vehicle reach a threshold value, issues a warning, or controls the driving of the car itself It is.
As documents describing an implementation example of this technology, there are a “collision avoidance notification system” in Patent Document 1 below and a “collision risk estimation device and driver support device” in Patent Document 2 below.

特開2006−31443号公報JP 2006-31443 A 特開2008−282097号公報JP 2008-282097 A 特開平08−271617号公報Japanese Patent Application Laid-Open No. 08-271617

従来の装置は以上のように構成されているので、自車操舵による操舵開始後に発生した目前の危険を防止する機能であり、操舵開始そのものは運転者が決定しなければならない。
よって、自車の操舵前に操舵の可否を判定するものではないなどの課題があった。
Since the conventional apparatus is configured as described above, it is a function that prevents a near-term danger that occurs after the start of steering by the host vehicle steering, and the start of steering itself must be determined by the driver.
Therefore, there is a problem that it is not possible to determine whether or not steering is possible before steering the host vehicle.

本発明は、自車の操舵前に操舵の可否を判定する車両運転支援装置を得るものである。   The present invention provides a vehicle driving support device that determines whether or not steering is possible before steering the host vehicle.

本発明の車両運転支援装置は、自車の操舵を伴った場合の未来の自車予測移動範囲を算出する自車運動予測部と、目標追尾部が推定した目標航跡および目標識別部が識別した目標種別を用いて自車の操舵により衝突の可能性がある目標を抽出するとともに、抽出された目標について自車の操舵にかかる間の未来の目標予測移動範囲を算出する目標運動予測部と、自車運動予測部が算出した自車予測移動範囲と目標運動予測部が算出した目標予測移動範囲とを用いて衝突の可能性を検知し、操舵可否を判定する衝突確率評価部とを備えたものである。   The vehicle driving support device according to the present invention is identified by the own vehicle motion prediction unit that calculates a predicted own vehicle movement range when the host vehicle is steered, and the target track and target identification unit estimated by the target tracking unit. A target motion prediction unit that extracts a target that may cause a collision by steering the host vehicle using the target type, and calculates a future target predicted moving range during the steering of the host vehicle with respect to the extracted target; A collision probability evaluation unit that detects the possibility of collision using the vehicle predicted movement range calculated by the vehicle motion prediction unit and the target predicted movement range calculated by the target motion prediction unit and determines whether or not steering is possible; Is.

本発明によれば、自車運動予測部が算出した自車予測移動範囲と目標運動予測部が算出した目標予測移動範囲とを用いて衝突の可能性を検知し、操舵可否を判定する。
よって、自車の操舵前に操舵の可否を判定することができる効果がある。
According to the present invention, the possibility of collision is detected by using the own vehicle predicted moving range calculated by the own vehicle motion predicting unit and the target predicted moving range calculated by the target motion predicting unit to determine whether steering is possible.
Therefore, there is an effect that it is possible to determine whether steering is possible before the host vehicle is steered.

本発明の実施の形態1による車両運転支援装置を示す構成図である。It is a block diagram which shows the vehicle driving assistance device by Embodiment 1 of this invention. 目標認識手順を示すフローチャートである。It is a flowchart which shows a target recognition procedure. 目標検出結果例を示す説明図である。It is explanatory drawing which shows the example of a target detection result. 目標追尾結果例を示す説明図である。It is explanatory drawing which shows the example of a target tracking result. 目標種別毎の属性の確率密度の例を示す説明図である。It is explanatory drawing which shows the example of the probability density of the attribute for every target classification. 追尾目標の識別結果例を示す説明図である。It is explanatory drawing which shows the example of a tracking target identification result. 追尾軌道の直進近似と残差の例を示す説明図である。It is explanatory drawing which shows the example of the rectilinear approximation of a tracking track | orbit, and a residual. 操舵可否判定手順を示すフローチャートである。It is a flowchart which shows the steering decision | availability determination procedure. 自車の運動予測結果例を示す説明図である。It is explanatory drawing which shows the example of a motion prediction result of the own vehicle. 衝突候補目標の抽出結果例を示す説明図である。It is explanatory drawing which shows the example of an extraction result of a collision candidate target. 目標の運動予測結果例を示す説明図である。It is explanatory drawing which shows the example of a target exercise | movement prediction result.

実施の形態1.
図1は本発明の実施の形態1による車両運転支援装置を示す構成図である。
図において、センサ群1は、自動車に搭載されたレーダおよびカメラなどである。
目標認識部2は、自車周囲の目標についての状態を推定するものである。
操舵可否判定部3は、目標認識部2より得られた目標についての状態を用いて、自車の操舵の可否を決定するものである。
ユーザ4は、自車の運転者などである。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a vehicle driving support apparatus according to Embodiment 1 of the present invention.
In the figure, a sensor group 1 is a radar and a camera mounted on an automobile.
The target recognition part 2 estimates the state about the target around the own vehicle.
The steering propriety determination unit 3 uses the state about the target obtained from the target recognition unit 2 to determine whether the host vehicle can be steered.
The user 4 is a driver of the own vehicle.

目標認識部2において、目標検出部21は、センサ群1からの信号により目標位置の観測値を抽出し、その観測位置を蓄積観測値22として保存するものである。
目標追尾部23は、目標検出部21が抽出した観測値の時系列を追尾処理して、目標位置および目標速度を含む目標航跡を推定し、追尾航跡・識別結果24として保存するものである。
目標識別部25は、目標追尾部23が推定した目標航跡を用いて目標種別を識別し、追尾航跡・識別結果24として保存するものである。
In the target recognition unit 2, the target detection unit 21 extracts an observation value of the target position from a signal from the sensor group 1 and stores the observation position as an accumulated observation value 22.
The target tracking unit 23 tracks the time series of the observation values extracted by the target detection unit 21, estimates the target track including the target position and the target speed, and stores it as the tracking track / identification result 24.
The target identifying unit 25 identifies a target type using the target track estimated by the target tracking unit 23 and stores it as a tracking track / identification result 24.

操舵可否判定部3において、自車運動予測部31は、自車の操舵を伴った場合の未来の自車予測移動範囲を算出するものである。
目標運動予測部32は、追尾航跡・識別結果24に保存された目標航跡および目標種別を用いて、自車の操舵により衝突の可能性がある目標を抽出するものである。
また、抽出された目標について自車の操舵にかかる間の未来の目標予測移動範囲を算出するものである。
衝突確率評価部33は、自車運動予測部31が算出した自車予測移動範囲と目標運動予測部32が算出した目標予測移動範囲とを用いて衝突の可能性を検知し、操舵可否を判定するものである。
In the steering possibility determination unit 3, the host vehicle motion prediction unit 31 calculates a future host vehicle predicted movement range when the host vehicle is steered.
The target motion prediction unit 32 uses the target track and target type stored in the tracking track / identification result 24 to extract a target that may cause a collision by steering the host vehicle.
Further, a future target predicted movement range is calculated for the extracted target while the vehicle is steered.
The collision probability evaluation unit 33 detects the possibility of collision using the vehicle predicted movement range calculated by the vehicle motion prediction unit 31 and the target predicted movement range calculated by the target motion prediction unit 32, and determines whether or not steering is possible. To do.

図1の例では、車両運転支援装置の構成要素である目標認識部2および操舵可否判定部3が、例えば、マイコンなどを実装している半導体回路基板のハードウエアで構成されていることを想定している。   In the example of FIG. 1, it is assumed that the target recognition unit 2 and the steering availability determination unit 3 that are components of the vehicle driving support device are configured by, for example, hardware of a semiconductor circuit board on which a microcomputer or the like is mounted. doing.

次に動作について説明する。
本実施の形態1の航跡抽出の処理手順を、1サンプリング時刻分の観測値の処理について、図2および図8に示す。
図2は目標認識手順を示すフローチャートである。
目標認識部2の動作を図2に従って説明する。
Next, the operation will be described.
The wake extraction processing procedure of the first embodiment is shown in FIGS. 2 and 8 for the processing of observation values for one sampling time.
FIG. 2 is a flowchart showing a target recognition procedure.
The operation of the target recognition unit 2 will be described with reference to FIG.

「目標検出」のステップST1では、目標検出部21が、従来の信号処理により、センサ群1から得られた目標位置の情報を算出する。
これにより、現時刻における目標位置による静的な情報が得られる。
In step ST1 of “target detection”, the target detection unit 21 calculates information on the target position obtained from the sensor group 1 by conventional signal processing.
Thereby, static information based on the target position at the current time is obtained.

図3は目標検出結果例を示す説明図である。
図3は、自車周囲を2つのセンサA、センサBで観測し、目標検出で得られた結果である。
センサAとセンサBでは、検出される目標個数が異なるものの、同一の目標に対して、ほぼ同一の目標位置を検出している。
目標検出部21は、この目標位置を蓄積観測値22として保存する。
FIG. 3 is an explanatory diagram showing an example of the target detection result.
FIG. 3 shows the result obtained by observing the surroundings of the vehicle with two sensors A and B and detecting the target.
Sensor A and sensor B detect substantially the same target position for the same target, although the number of detected targets is different.
The target detection unit 21 stores this target position as the accumulated observation value 22.

「目標追尾」のステップST2では、目標追尾部23が追尾処理により、「目標検出」のステップST1で得られた目標位置の情報の時系列より、目標の正確な位置、および速度を推定する。
この時系列処理により、目標運動の情報に速度が加わって動的になり、「目標検出」のステップST1で得られた情報が、さらに正確になる。
この推定に、カルマンフィルタを用いた場合の処理例を以下に示す。
In step ST2 of “target tracking”, the target tracking unit 23 estimates the exact position and speed of the target from the time series of the target position information obtained in step ST1 of “target detection” by the tracking process.
By this time series processing, speed is added to the information of the target motion to become dynamic, and the information obtained in the “target detection” step ST1 becomes more accurate.
An example of processing when a Kalman filter is used for this estimation is shown below.

まず、最新の観測時刻の観測値をセンサ群1から読み込む。
次に既存航跡のゲートを算出し、さらに、入力された観測値がそのゲート内にあるかどうかを調べ、入ってきた観測値がどの航跡と相関可能であるかを決定する。
ここで、航跡はxyの2次元空間における目標の位置、および速度からなる以下の4個の要素を持ったベクトルを推定諸元とする。

Figure 2014241036
First, the observation value at the latest observation time is read from the sensor group 1.
Next, the gate of the existing wake is calculated, and further, it is checked whether or not the input observation value is in the gate, and it is determined to which wake the incoming observation value can be correlated.
Here, the wake is assumed to be a vector having the following four elements consisting of the target position and velocity in the two-dimensional space of xy.
Figure 2014241036

Figure 2014241036
Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036
Figure 2014241036

Figure 2014241036

Figure 2014241036


Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036
Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036
Figure 2014241036

Figure 2014241036

観測値のベクトルが、距離および方位角の極座標上の値で得られる場合、各々は次式(7)から(9)となる。

Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036
When the vector of observation values is obtained as polar and coordinate values of distance and azimuth, each is expressed by the following equations (7) to (9).

Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036
ゲート内外は、次式(10)の不等式の成否により決まる。
Figure 2014241036
Figure 2014241036
The inside and outside of the gate is determined by the success or failure of the inequality of the following equation (10).
Figure 2014241036

Figure 2014241036
Figure 2014241036

上記のゲート内外判定によって、ゲート内と判定された観測値を用いて、航跡の最新時刻における運動諸元推定値を算出する。
ただし、複数の既存航跡が存在し、特定の観測値が複数の航跡のゲート内に入った場合は、観測値に既存航跡に1対1対応させる相関決定処理が必要となる。
特に、自動車の周囲には、複数の目標が存在する場合が多いので、この相関の問題が重要となる。
この相関を複数の仮説を生成しながら決定する方式は、これまで幾つか提案されており、その一例が、上記特許文献3の「目標追尾装置」に示されている。
By using the observation value determined to be inside the gate by the above-mentioned gate inside / outside determination, the motion specification estimated value at the latest time of the wake is calculated.
However, when there are a plurality of existing wakes and a specific observation value enters the gates of the wakes, a correlation determination process is required to associate the observation value with the existing wake one-on-one.
In particular, since there are often a plurality of targets around the automobile, this correlation problem becomes important.
Several methods for determining this correlation while generating a plurality of hypotheses have been proposed so far, and an example thereof is shown in “Target Tracking Device” of Patent Document 3.

相関決定により、観測値が既存航跡に割り当てられると、これらの航跡の観測時刻における平滑諸元を計算し、更新航跡については、さらに相関結果に対応する航跡の尤度を計算する。
平滑ベクトルは、次式(12)で計算される。

Figure 2014241036

Figure 2014241036
When the observation values are assigned to the existing wakes by the correlation determination, smooth specifications at the observation time of these wakes are calculated, and for the updated wake, the likelihood of the wake corresponding to the correlation result is further calculated.
The smooth vector is calculated by the following equation (12).
Figure 2014241036

Figure 2014241036

また、平滑誤差共分散行列は、次式(14)で計算される。

Figure 2014241036
さらに、航跡の尤度(尤もらしさ)は、観測値の確率分布が予測観測値(3次元の位置)を中心としたガウス分布となることを仮定して、次式(15)で計算する。
Figure 2014241036
The smooth error covariance matrix is calculated by the following equation (14).
Figure 2014241036
Further, the likelihood (likelihood) of the wake is calculated by the following equation (15) on the assumption that the probability distribution of the observed value is a Gaussian distribution centered on the predicted observed value (three-dimensional position).
Figure 2014241036

図4は目標追尾結果例を示す説明図である。
図4は、この追尾処理で得られた結果であり、検出される目標位置に、目標速度が加えられることにより、追尾結果として、移動目標航跡と静止目標航跡が得られる。
目標追尾部23は、この目標航跡を、追尾航跡・識別結果24として保存する。
FIG. 4 is an explanatory diagram showing an example of the target tracking result.
FIG. 4 shows a result obtained by the tracking process. When the target speed is added to the detected target position, the moving target track and the stationary target track are obtained as the tracking result.
The target tracking unit 23 stores the target track as a tracking track / identification result 24.

次の「目標識別」のステップST3では、目標識別部25がベイズ推定法などを適用して、目標の速度などの属性情報から追尾目標を、自動車、二輪車、歩行者、およびガードレール(停止物)に分類する。   In the next “target identification” step ST3, the target identification unit 25 applies a Bayesian estimation method or the like, and selects a tracking target from attribute information such as a target speed, an automobile, a two-wheeled vehicle, a pedestrian, and a guardrail (stop object). Classify into:

図5は目標種別毎の属性の確率密度の例を示す説明図である。
図5は、属性を速度と光学センサより得られた画像上の目標の大きさ(広がり)の2種類とした場合の、目標種別毎の属性の確率密度関数の例である。
FIG. 5 is an explanatory diagram showing an example of the probability density of attributes for each target type.
FIG. 5 is an example of the probability density function of the attribute for each target type when the attribute is two types of speed and the target size (spread) on the image obtained from the optical sensor.

Figure 2014241036

Figure 2014241036
Figure 2014241036

Figure 2014241036

識別では、各属性の目標種別毎の尤度を掛け合わせて、それが最大である種別を追尾目標の種別とする。
すなわち、次式(16)

Figure 2014241036
を実現する目標種別を、その追尾目標の種別の候補とする。 In the identification, the likelihood for each target type of each attribute is multiplied, and the type having the maximum value is set as the type of the tracking target.
That is, the following equation (16)
Figure 2014241036
The target type that realizes is set as a candidate for the tracking target type.

上記の候補の種別を確定してよいかを、以下により判別する。
例えば、上記次式(16)で、尤度最大を実現する目標種別が人であった場合、次式(17)が成立すれば、追尾目標の種別を「人」と確定する。

Figure 2014241036
Whether the above-described candidate type can be determined is determined as follows.
For example, in the above equation (16), if the target type that achieves the maximum likelihood is a person, if the following equation (17) is satisfied, the type of the tracking target is determined as “person”.
Figure 2014241036

ここで、左辺の事後確率は、次式(18)で計算する。

Figure 2014241036

Figure 2014241036

Figure 2014241036
Here, the posterior probability on the left side is calculated by the following equation (18).
Figure 2014241036

Figure 2014241036

Figure 2014241036

図6は追尾目標の識別結果例を示す説明図である。
図6は、以上の識別処理により得られた情報の例であり、追尾目標が、自動車、二輪車、歩行者、およびガードレールに分けて検出され、追尾目標の位置および速度についても識別されている。
目標識別部25は、この識別結果を、追尾航跡・識別結果24として保存する。
FIG. 6 is an explanatory diagram showing an example of the tracking target identification result.
FIG. 6 is an example of information obtained by the above identification processing. The tracking target is detected separately for an automobile, a two-wheeled vehicle, a pedestrian, and a guardrail, and the position and speed of the tracking target are also identified.
The target identification unit 25 stores this identification result as a tracking track / identification result 24.

本実施の形態1の目標識別部25では、従来の識別結果に加え、さらに、目標運動の安定・不安定を識別する。
この安定性は、例えば、以下のように、自車右折時の衝突の危険性を反映する。
・他車の間を強引に割り込む二輪車は、不安定で、より衝突が起き易い。
・車線変更を殆ど行わない自動車は、安定で、より衝突が起き易い。
In addition to the conventional identification result, the target identification unit 25 of the first embodiment further identifies whether the target motion is stable or unstable.
This stability reflects, for example, the risk of a collision when the vehicle turns right as follows.
-Motorcycles that forcibly interrupt other cars are unstable and more likely to collide.
-Automobiles that rarely change lanes are more stable and more prone to collisions.

不安定な目標については、右折の際に、安定な目標よりも、さらに、大きな注意を払う必要があると考えられる。
過去のサンプリング時刻における追尾平滑値を繋ぐことによって生成される追尾軌道より、次式(19)の運動の変化を算出する。

Figure 2014241036

Figure 2014241036
For unstable targets, it is necessary to pay more attention to the right turn than for stable targets.
The movement change of the following equation (19) is calculated from the tracking trajectory generated by connecting the tracking smooth values at the past sampling times.
Figure 2014241036

Figure 2014241036

図7は追尾軌道の直進近似と残差の例を示す説明図である。
運動の変化が大きい目標については、「不安定な目標」と判別する。

Figure 2014241036
が成り立つ場合、目標は不安定な目標と識別し、次式(21)
Figure 2014241036
である場合は、安定な目標と識別する。 FIG. 7 is an explanatory diagram showing an example of the straight-forward approximation of the tracking trajectory and the residual.
A target with a large change in movement is determined as an “unstable target”.
Figure 2014241036
If this holds, the target is identified as an unstable target and the following equation (21)
Figure 2014241036
If it is, identify it as a stable goal.

以上が目標認識部25の処理であり、これにより追尾航跡毎に以下が推定される。
・追尾目標の位置、速度の推定値
・上記の推定誤差共分散行列(平滑誤差共分散行列)
・目標種別
・安定・不安定の区別
これらの情報は、操舵可否判定部3への入力となり、操舵の可否を判定するために用いられる。
The above is the process of the target recognizing unit 25, whereby the following is estimated for each tracking track.
-Estimated position and speed of tracking target-Estimated error covariance matrix (smooth error covariance matrix)
-Target type / Stable / unstable distinction These pieces of information are input to the steering availability determination unit 3 and are used to determine whether steering is possible.

図8は操舵可否判定手順を示すフローチャートである。
操舵可否判定部3の動作を図8に従って説明する。
目標認識部2がセンサ群1から観測値が得られる度に動作するのに対し、この操舵可否判定部3は、ウィンカーなどにより運転者から右折の意思が示された場合に起動する。
FIG. 8 is a flowchart showing a procedure for determining whether or not steering is possible.
The operation of the steering availability determination unit 3 will be described with reference to FIG.
While the target recognizing unit 2 operates whenever an observation value is obtained from the sensor group 1, the steering availability determination unit 3 is activated when the driver indicates the intention to turn right by a winker or the like.

「自車運動予測」のステップST4では、自車運動予測部31が、自車が現時刻から右折運動を開始した場合の、未来の位置および速度を、右旋回運動モデル(操舵運動モデル)により予測し、その予測誤差共分散行列より右折完了までの予測移動範囲を算出する。
予測時刻は、現時刻から右折完了までの一定のサンプリング間隔に従って設定する離散的な複数の時刻である。

Figure 2014241036
In step ST4 of “own vehicle motion prediction”, the own vehicle motion prediction unit 31 uses the right turn motion model (steering motion model) as the future position and speed when the own vehicle starts the right turn motion from the current time. And the predicted movement range until the right turn is completed is calculated from the prediction error covariance matrix.
The predicted time is a plurality of discrete times set according to a certain sampling interval from the current time to the completion of the right turn.
Figure 2014241036

ここで、各サンプリング時刻における自車運動は、xyの2次元空間における自車の位置および速度からなる、次式(22)の4個の要素を持ったベクトルとする。

Figure 2014241036
Here, the vehicle movement at each sampling time is a vector having four elements of the following equation (22), which is composed of the position and speed of the vehicle in the xy two-dimensional space.
Figure 2014241036

Figure 2014241036
Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036
代表的な単一の値としてもよいし、典型値を複数用意して各々で予測計算し、それらを重み付け統合してもよい。
Figure 2014241036

Figure 2014241036

Figure 2014241036
A representative single value may be used, or a plurality of typical values may be prepared and predicted for each, and weighted and integrated.

Figure 2014241036

Figure 2014241036
Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036
Figure 2014241036

Figure 2014241036

図9は自車の運動予測結果例を示す説明図である。
図中の楕円は、時刻t1から時刻t4についての予測移動範囲を示したものであり、右旋回運動モデルによる未来予測位置を中心とし、予測誤差共分散行列の標準偏差分の広がりをもつものである。
FIG. 9 is an explanatory diagram illustrating an example of a motion prediction result of the own vehicle.
The ellipse in the figure indicates the predicted movement range from time t1 to time t4, and has a spread corresponding to the standard deviation of the prediction error covariance matrix with the future predicted position by the right turn motion model as the center. It is.

「衝突候補目標抽出」のステップST5では、目標運動予測部32が自車の右折運動軌道の近傍にある目標を抽出する。
具体的には、各追尾位置から最大移動分(目標最大加速度を加えた速度を右折時間に要する時間で積分)の領域と、自車右折軌道がぶつかる移動目標のみを抽出する。
In step ST5 of “collision candidate target extraction”, the target motion prediction unit 32 extracts a target in the vicinity of the right turn motion trajectory of the host vehicle.
Specifically, only the area of the maximum movement from each tracking position (integration of the speed obtained by adding the target maximum acceleration to the time required for the right turn time) and the movement target that the vehicle's right turn trajectory collides are extracted.

図10は衝突候補目標の抽出結果例を示す説明図である。
図中の破線枠内が衝突候補目標である。
なお、目標Aは、最大速度の移動範囲が自車右折軌道とぶつからないため、衝突候補目標から除外される。
FIG. 10 is an explanatory view showing an example of the result of extracting a collision candidate target.
The inside of the broken line frame in the figure is the collision candidate target.
Note that the target A is excluded from the collision candidate target because the moving range of the maximum speed does not collide with the vehicle's right turn trajectory.

なお、目標識別部25は、センサ群1のうちのカメラなどによる光学画像情報により、目標と自車との衝突の可能性の有無を判定する。
例えば、対向車がウィンカーの動作によって、自車と衝突する可能性の無いことが明らかである場合、目標識別部25がこれを判定する。
目標運動予測部32は、目標識別部25が自車との衝突の可能性が無いと判定した目標について、衝突候補目標から除外する。
このようにすれば、無駄な算出対象を減らすことができる。
The target identifying unit 25 determines whether or not there is a possibility of a collision between the target and the host vehicle based on optical image information from a camera or the like in the sensor group 1.
For example, when it is clear that there is no possibility that the oncoming vehicle collides with the own vehicle due to the operation of the blinker, the target identifying unit 25 determines this.
The target motion prediction unit 32 excludes the target determined by the target identification unit 25 as having no possibility of a collision with the host vehicle from the collision candidate target.
In this way, useless calculation objects can be reduced.

「目標運動予測」のステップST6では、目標運動予測部32が目標追尾部23により算出された目標の現時刻の位置、速度、それらの平滑誤差共分散行列を含む予測誤差共分散行列により、自車が右折に至るまでの未来の目標予測移動範囲を算出する。
予測時刻は、現時刻から右折完了までの一定のサンプリング間隔に従って設定する、離散的な複数の時刻である。
これらのサンプリング時刻は、「自車運動予測」のステップST4において設定したサンプリング時刻と完全に一致させる。

Figure 2014241036
なお、予測誤差共分散行列では、目標種別毎の加速の可能性の要素を加える。 In step ST6 of “target motion prediction”, the target motion prediction unit 32 uses the prediction error covariance matrix including the current position and speed of the target calculated by the target tracking unit 23, and their smooth error covariance matrix. Calculate the future target movement range until the car turns right.
The predicted time is a plurality of discrete times set according to a certain sampling interval from the current time to the completion of the right turn.
These sampling times are completely matched with the sampling times set in step ST4 of “own vehicle motion prediction”.
Figure 2014241036
In the prediction error covariance matrix, an element of the possibility of acceleration for each target type is added.

目標の未来予測位置は、次式(27)で算出する。

Figure 2014241036

Figure 2014241036

Figure 2014241036
The target future predicted position is calculated by the following equation (27).
Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036
Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036
Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036

Figure 2014241036
目標運動の不確定性を、機動性の高い目標(例えば、自動車と二輪車は、同程度の機動性を有し、歩行者は、これらよりも低い機動性を有するとする)ほど、このパラメータを大きく設定する。
Figure 2014241036

Figure 2014241036

Figure 2014241036
If the uncertainty of the target movement is set to a higher mobility target (for example, an automobile and a motorcycle have the same mobility, and a pedestrian has a lower mobility), this parameter is Set larger.

Figure 2014241036

Figure 2014241036

Figure 2014241036
目標が不安定であるほど、このパラメータを大きく設定する。
設定値としては、不安点な度合に応じた離散的な値を複数用意してもよいし、例えば、次式(33)のように、「目標識別」のステップST3で算出した残差平均値に比例した値としてもよい。
Figure 2014241036
Figure 2014241036

Figure 2014241036

Figure 2014241036
The more unstable the target, the larger this parameter is set.
As the set value, a plurality of discrete values according to the degree of anxiety may be prepared. For example, as shown in the following equation (33), the residual average value calculated in step ST3 of “target identification” It is good also as a value proportional to.
Figure 2014241036

図11は目標の運動予測結果例を示す説明図である。
図中の楕円は、自動車、二輪車、および歩行者の時刻t1から時刻t4についての予測移動範囲を示したものであり、各目標の未来予測位置を中心とし、予測誤差共分散行列の標準偏差分の広がりをもつものである。
FIG. 11 is an explanatory diagram illustrating an example of a target motion prediction result.
The ellipse in the figure indicates the predicted movement range of the automobile, the two-wheeled vehicle, and the pedestrian from the time t1 to the time t4, and the standard deviation portion of the prediction error covariance matrix with the future predicted position of each target as the center. It has the spread of.

「操舵可否判定」のステップST7では、衝突確率評価部33が自車と目標の予測移動範囲の重なりの有無を次式(34)により、自車が目的地に到達するまでの目標との衝突する可能性を判定する。
衝突の可能性があれば「右折不可」と判定する。

Figure 2014241036

左辺は、自車と目標が同一位置となる確率であり、次式(35)に示すように、自車と目標の特定の位置における同時存在確率密度の位置空間全体に渡る積分である。 In step ST7 of “steerability determination”, the collision probability evaluation unit 33 determines whether or not the own vehicle and the predicted movement range of the target overlap with the target until the own vehicle reaches the destination according to the following equation (34). Determine the possibility of doing.
If there is a possibility of collision, it is determined that “right turn is impossible”.

Figure 2014241036

The left side is the probability that the vehicle and the target will be at the same position, and is an integration over the entire position space of the simultaneous existence probability density at a specific position of the vehicle and the target, as shown in the following equation (35).

これを数値計算することにより近似する。

Figure 2014241036
This is approximated by numerical calculation.
Figure 2014241036

「操作可?」のステップST8では、もし「右折可」と判定されたら、ユーザ(運転者)4に、現時点で右折しても安全である旨のメッセージを提示する。   In step ST8 of “operation is possible?”, If it is determined that “right turn is possible”, a message is displayed to the user (driver) 4 that it is safe to make a right turn at the present time.

もし、右折不可と判定されたら、「一定時間経過」のステップST9の後、再度一連の判定処理を実施する。
これを右折可能と判定されるまで繰り返す。
If it is determined that a right turn is not possible, a series of determination processes are performed again after step ST9 of “a certain time has elapsed”.
This is repeated until it is determined that a right turn is possible.

本実施の形態1によれば、操舵可否判定部3において、自車の操舵を伴った場合の未来の自車予測移動範囲を算出する自車運動予測部31と、追尾航跡・識別結果24に保存された目標航跡および目標種別を用いて、自車の操舵により衝突の可能性がある目標を抽出するとともに、抽出された目標について自車の操舵にかかる間の未来の目標予測移動範囲を算出する目標運動予測部32と、自車運動予測部31が算出した自車予測移動範囲と目標運動予測部32が算出した目標予測移動範囲とを用いて衝突の可能性を検知し、操舵可否を判定する衝突確率評価部33とを備えた。
よって、自車の操舵前に操舵の可否を判定することができる。
According to the first embodiment, the steering propriety determination unit 3 includes the own vehicle motion prediction unit 31 that calculates the future predicted movement range of the own vehicle when the host vehicle is steered, and the tracking track / identification result 24. Using the saved target track and target type, the target that may collide is extracted by the steering of the vehicle, and the future target movement range of the extracted target during the steering of the vehicle is calculated. The possibility of collision is detected using the target motion prediction unit 32 to perform, the own vehicle predicted movement range calculated by the own vehicle motion prediction unit 31, and the target predicted movement range calculated by the target motion prediction unit 32, and whether or not steering is possible is determined. And a collision probability evaluation unit 33 for determination.
Thus, it is possible to determine whether or not steering is possible before steering the host vehicle.

本実施の形態1によれば、目標運動予測部32は、目標予測移動範囲を、第一の予測誤差共分散行列により算出する。
よって、目標予測移動範囲を、第一の予測誤差共分散行列の標準偏差分による広がりをもつものとすることができ、目標予測移動範囲を、衝突の危険性を回避する上でほどよい範囲で算出することができる。
According to the first embodiment, the target motion prediction unit 32 calculates the target predicted movement range using the first prediction error covariance matrix.
Therefore, the target predicted movement range can be widened by the standard deviation of the first prediction error covariance matrix, and the target predicted movement range can be set within a reasonable range to avoid the risk of collision. Can be calculated.

本実施の形態1によれば、目標識別部25は、目標追尾部23が推定した目標航跡を用いて目標運動の不安定性を判定し、目標運動予測部32は、第一の予測誤差共分散行列を、目標識別部25が判定した目標運動の不安定性に基づく、第一の未来運動不確定性行列により算出する。
よって、目標予測移動範囲を、目標運動の不安定性を加味して算出することができ、操舵可否について、より信頼性の高い判定を行うことができる。
According to the first embodiment, the target identification unit 25 determines the instability of the target motion using the target track estimated by the target tracking unit 23, and the target motion prediction unit 32 determines the first prediction error covariance. The matrix is calculated using a first future motion uncertainty matrix based on the instability of the target motion determined by the target identification unit 25.
Therefore, the target predicted movement range can be calculated in consideration of the instability of the target motion, and it is possible to make a more reliable determination as to whether or not steering is possible.

本実施の形態1によれば、目標運動予測部32は、第一の予測誤差共分散行列を、目標識別部25が識別した目標種別を用いて算出される、目標運動の機動性に基づく、第二の未来運動不確定性行列により算出する。
よって、目標予測移動範囲を、目標運動の機動性を加味して算出することができ、操舵可否について、より信頼性の高い判定を行うことができる。
According to the first embodiment, the target motion prediction unit 32 is based on the mobility of the target motion calculated by using the target type identified by the target identification unit 25 for the first prediction error covariance matrix. Calculate with the second future motion uncertainty matrix.
Therefore, the target predicted movement range can be calculated in consideration of the mobility of the target motion, and it is possible to make a more reliable determination as to whether or not steering is possible.

本実施の形態1によれば、自車運動予測部31は、自車予測移動範囲を、操舵運動モデルおよび第二の予測誤差共分散行列により算出する。
よって、自車予測移動範囲を、操舵運動モデルによる未来予測位置を中心とし、第二の予測誤差共分散行列の標準偏差分による広がりをもつものとすることができ、自車予測移動範囲を、衝突の危険性を回避する上でほどよい範囲で算出することができる。
According to the first embodiment, the host vehicle motion prediction unit 31 calculates the host vehicle predicted travel range using the steering motion model and the second prediction error covariance matrix.
Therefore, the own vehicle predicted movement range can be assumed to have a spread due to the standard deviation of the second prediction error covariance matrix with the future predicted position based on the steering motion model as the center. It is possible to calculate within a reasonable range for avoiding the risk of collision.

本実施の形態1によれば、衝突確率評価部33は、自車予測移動範囲と目標予測移動範囲とを用いて算出される同時存在確率密度から操舵可否を判定する。
よって、操舵可否について、より信頼性の高い判定を行うことができる。
According to the first embodiment, the collision probability evaluation unit 33 determines whether or not steering is possible based on the simultaneous existence probability density calculated using the own vehicle predicted movement range and the target predicted movement range.
Therefore, it is possible to make a more reliable determination as to whether or not steering is possible.

本実施の形態1によれば、目標識別部25は、センサ1からの光学画像情報により目標と自車との衝突の可能性の有無を判定し、目標運動予測部32は、目標識別部25が自車との衝突の可能性が無いと判定した目標について、目標予測移動範囲の算出対象から除外する。
よって、無駄な算出対象を減らし、算出効率を高めることができる。
According to the first embodiment, the target identifying unit 25 determines whether or not there is a possibility of a collision between the target and the host vehicle based on the optical image information from the sensor 1, and the target motion predicting unit 32 is the target identifying unit 25. Are excluded from calculation targets of the target predicted movement range for targets determined as having no possibility of collision with the vehicle.
Therefore, useless calculation objects can be reduced and calculation efficiency can be increased.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 センサ群、2 目標認識部、3 操舵可否判定部、4 ユーザ、21 目標検出部、22 蓄積観測値、23 目標追尾部、24 追尾航跡・識別結果、25 目標識別部、31 自車運動予測部、32 目標運動予測部、33 衝突確率評価部。   DESCRIPTION OF SYMBOLS 1 Sensor group, 2 Target recognition part, 3 Steering availability determination part, 4 User, 21 Target detection part, 22 Accumulated observation value, 23 Target tracking part, 24 Tracking track | truck / identification result, 25 Target identification part, 31 Own vehicle motion prediction Part, 32 target motion prediction part, 33 collision probability evaluation part.

Claims (9)

センサからの信号により目標位置の観測値を抽出する目標検出部と、
上記目標検出部が抽出した観測値の時系列を追尾処理して目標位置および目標速度を含む目標航跡を推定する目標追尾部と、
上記目標追尾部が推定した目標航跡を用いて目標種別を識別する目標識別部と、
自車の操舵を伴った場合の未来の自車予測移動範囲を算出する自車運動予測部と、
上記目標追尾部が推定した目標航跡および上記目標識別部が識別した目標種別を用いて上記自車の操舵により衝突の可能性がある目標を抽出するとともに、抽出された目標について該自車の操舵にかかる間の未来の目標予測移動範囲を算出する目標運動予測部と、
上記自車運動予測部が算出した自車予測移動範囲と上記目標運動予測部が算出した目標予測移動範囲とを用いて衝突の可能性を検知し、操舵可否を判定する衝突確率評価部とを備えた車両運転支援装置。
A target detection unit that extracts an observed value of the target position from a signal from the sensor;
A target tracking unit that estimates a target track including a target position and a target speed by tracking a time series of observation values extracted by the target detection unit;
A target identification unit for identifying a target type using the target track estimated by the target tracking unit;
A vehicle motion prediction unit that calculates a future vehicle predicted movement range when the vehicle is steered;
The target track estimated by the target tracking unit and the target type identified by the target identification unit are used to extract a target that may cause a collision by steering the host vehicle, and steering the host vehicle with respect to the extracted target. A target motion prediction unit for calculating a future target predicted movement range during
A collision probability evaluation unit that detects the possibility of collision using the vehicle predicted movement range calculated by the vehicle motion prediction unit and the target predicted movement range calculated by the target motion prediction unit, and determines whether steering is possible; A vehicle driving support apparatus provided.
上記目標運動予測部は、
目標予測移動範囲を、第一の予測誤差共分散により算出することを特徴とする請求項1記載の車両運転支援装置。
The target motion prediction unit
The vehicle driving support apparatus according to claim 1, wherein the target predicted movement range is calculated by the first prediction error covariance.
上記目標識別部は、
上記目標追尾部が推定した目標航跡を用いて目標運動の不安定性を判定し、
上記第一の予測誤差共分散は、
上記目標識別部が判定した目標運動の不安定性に基づく、第一の未来運動不確定性により算出されることを特徴とする請求項2記載の車両運転支援装置。
The target identification unit
Using the target track estimated by the target tracking unit, determine the instability of the target motion,
The first prediction error covariance is
The vehicle driving support device according to claim 2, wherein the vehicle driving support device is calculated by a first future motion uncertainty based on the instability of the target motion determined by the target identification unit.
上記第一の予測誤差共分散は、
上記目標追尾部が目標航跡を推定する際に算出した平滑誤差共分散を外挿して算出される、現時刻の目標運動諸元の第一の推定誤差共分散により算出されることを特徴とする請求項2記載の車両運転支援装置。
The first prediction error covariance is
The target tracking unit is calculated by extrapolating the smooth error covariance calculated when the target track is estimated, and is calculated by the first estimated error covariance of the target motion specifications at the current time. The vehicle driving support device according to claim 2.
上記第一の予測誤差共分散は、
上記目標識別部が識別した目標種別を用いて算出される、目標運動の機動性に基づく、第二の未来運動不確定性により算出されることを特徴とする請求項2記載の車両運転支援装置。
The first prediction error covariance is
3. The vehicle driving support device according to claim 2, wherein the vehicle driving support device is calculated by a second future motion uncertainty based on the mobility of the target motion, which is calculated using the target type identified by the target identifying unit. .
上記自車運動予測部は、
自車予測移動範囲を、操舵運動モデルおよび第二の予測誤差共分散により算出することを特徴とする請求項1記載の車両運転支援装置。
The own vehicle motion prediction unit
The vehicle driving support device according to claim 1, wherein the own vehicle predicted movement range is calculated by a steering motion model and a second prediction error covariance.
上記第二の予測誤差共分散は、
自車センサあるいはGPSにより観測された自車運動の観測誤差を外挿して算出される、現時刻の自車運動諸元の第二の推定誤差共分散により算出されることを特徴とする請求項6記載の車両運転支援装置。
The second prediction error covariance is
The vehicle error is calculated by a second estimated error covariance of the vehicle motion specifications at the current time, which is calculated by extrapolating an observation error of the vehicle motion observed by the vehicle sensor or GPS. 6. The vehicle driving support device according to 6.
上記衝突確率評価部は、
上記自車予測移動範囲と上記目標予測移動範囲とを用いて算出される同時存在確率から操舵可否を判定することを特徴とする請求項1記載の車両運転支援装置。
The collision probability evaluation unit
2. The vehicle driving support apparatus according to claim 1, wherein whether or not steering is possible is determined from a simultaneous existence probability calculated using the predicted predicted moving range of the host vehicle and the predicted predicted moving range.
上記目標識別部は、
上記センサからの光学画像情報により目標と自車との衝突の可能性の有無を判定し、
上記目標運動予測部は、
上記目標識別部が自車との衝突の可能性が無いと判定した目標について、目標予測移動範囲の算出対象から除外することを特徴とする請求項1記載の車両運転支援装置。
The target identification unit
Determine the possibility of a collision between the target and the vehicle based on the optical image information from the sensor,
The target motion prediction unit
2. The vehicle driving support apparatus according to claim 1, wherein the target determined by the target identification unit as having no possibility of a collision with the host vehicle is excluded from the target prediction movement range calculation target.
JP2013122865A 2013-06-11 2013-06-11 Vehicle driving assist system Pending JP2014241036A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013122865A JP2014241036A (en) 2013-06-11 2013-06-11 Vehicle driving assist system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013122865A JP2014241036A (en) 2013-06-11 2013-06-11 Vehicle driving assist system

Publications (1)

Publication Number Publication Date
JP2014241036A true JP2014241036A (en) 2014-12-25

Family

ID=52140253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013122865A Pending JP2014241036A (en) 2013-06-11 2013-06-11 Vehicle driving assist system

Country Status (1)

Country Link
JP (1) JP2014241036A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016162270A (en) * 2015-03-03 2016-09-05 三菱電機株式会社 Proximity detection device and proximity detection method
WO2017002441A1 (en) * 2015-07-02 2017-01-05 三菱電機株式会社 Route prediction device
JP2018066716A (en) * 2016-10-14 2018-04-26 国立大学法人金沢大学 Object tracking device
JP2019012549A (en) * 2018-09-06 2019-01-24 株式会社デンソー Collision avoidance device and driving support method
JP2019075055A (en) * 2017-10-19 2019-05-16 株式会社東芝 Information processor, information processing method and program
US10504370B2 (en) 2015-04-02 2019-12-10 Denso Corporation Collision avoidance apparatus, collision avoidance system, and driving support method
WO2021174445A1 (en) * 2020-03-04 2021-09-10 华为技术有限公司 Method and device for predicting exit for vehicle
CN114056425A (en) * 2021-11-23 2022-02-18 东软集团股份有限公司 Vehicle steering control method and device, vehicle and storage medium
JP7354949B2 (en) 2020-07-09 2023-10-03 株式会社デンソー wall judgment device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016162270A (en) * 2015-03-03 2016-09-05 三菱電機株式会社 Proximity detection device and proximity detection method
US10504370B2 (en) 2015-04-02 2019-12-10 Denso Corporation Collision avoidance apparatus, collision avoidance system, and driving support method
WO2017002441A1 (en) * 2015-07-02 2017-01-05 三菱電機株式会社 Route prediction device
WO2017002258A1 (en) * 2015-07-02 2017-01-05 三菱電機株式会社 Route prediction device
JPWO2017002441A1 (en) * 2015-07-02 2017-09-14 三菱電機株式会社 Route prediction device
US10741079B2 (en) 2015-07-02 2020-08-11 Mitsubishi Electric Corporation Route prediction system
JP2018066716A (en) * 2016-10-14 2018-04-26 国立大学法人金沢大学 Object tracking device
JP2019075055A (en) * 2017-10-19 2019-05-16 株式会社東芝 Information processor, information processing method and program
JP2021184258A (en) * 2017-10-19 2021-12-02 株式会社東芝 Information processing device, information processing method, and program
JP7346499B2 (en) 2017-10-19 2023-09-19 株式会社東芝 Information processing device, information processing method, and program
JP2019012549A (en) * 2018-09-06 2019-01-24 株式会社デンソー Collision avoidance device and driving support method
WO2021174445A1 (en) * 2020-03-04 2021-09-10 华为技术有限公司 Method and device for predicting exit for vehicle
JP7354949B2 (en) 2020-07-09 2023-10-03 株式会社デンソー wall judgment device
CN114056425A (en) * 2021-11-23 2022-02-18 东软集团股份有限公司 Vehicle steering control method and device, vehicle and storage medium

Similar Documents

Publication Publication Date Title
JP2014241036A (en) Vehicle driving assist system
US11941985B2 (en) Vehicular environment estimation device
JP5971341B2 (en) Object detection device and driving support device
JP5938569B2 (en) Advanced driver support system considering azimuth information and operation method thereof
EP3258214B1 (en) Object detection device
US20200211395A1 (en) Method and Device for Operating a Driver Assistance System, and Driver Assistance System and Motor Vehicle
JP5939357B2 (en) Moving track prediction apparatus and moving track prediction method
US10864906B2 (en) Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object
KR20180060860A (en) Collision avoidance apparatus and method preventing collision between objects
JP2013225295A5 (en)
CN105128836A (en) Autonomous emergency braking system and method for recognizing pedestrian therein
JPH11353565A (en) Method and device for alarm of collision for vehicle
KR20110067359A (en) Method and apparatus for collision avoidance of vehicle
JP2009237898A (en) Image recognition device
US10996317B2 (en) Object detection apparatus and object detection method
US20160188984A1 (en) Lane partition line recognition apparatus
US10706296B2 (en) Vehicle safety determination apparatus, method, and computer-readable storage medium
US11420624B2 (en) Vehicle control apparatus and vehicle control method
JP4762830B2 (en) Perimeter monitoring system
US10300913B2 (en) Vehicle identification device and vehicle identification method
JP6663622B2 (en) Imaging device
JP2010072947A (en) Obstacle detection device
CN113591673A (en) Method and device for recognizing traffic signs
JP6570302B2 (en) Driving assistance device
Iqbal et al. Adjacent vehicle collision warning system using image sensor and inertial measurement unit