JP4948996B2 - Vehicle driving support device - Google Patents

Vehicle driving support device Download PDF

Info

Publication number
JP4948996B2
JP4948996B2 JP2006324851A JP2006324851A JP4948996B2 JP 4948996 B2 JP4948996 B2 JP 4948996B2 JP 2006324851 A JP2006324851 A JP 2006324851A JP 2006324851 A JP2006324851 A JP 2006324851A JP 4948996 B2 JP4948996 B2 JP 4948996B2
Authority
JP
Japan
Prior art keywords
state
driver
image
vehicle
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006324851A
Other languages
Japanese (ja)
Other versions
JP2008137467A (en
Inventor
俊也 荒川
典義 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2006324851A priority Critical patent/JP4948996B2/en
Publication of JP2008137467A publication Critical patent/JP2008137467A/en
Application granted granted Critical
Publication of JP4948996B2 publication Critical patent/JP4948996B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Regulating Braking Force (AREA)

Description

本発明は、ドライバの前方注意状態に応じて適切な警報や自動ブレーキ制御を行うことができる車両の運転支援装置に関する。   The present invention relates to a vehicle driving support device capable of performing appropriate warning and automatic brake control in accordance with a driver's forward attention state.

近年、車両においては、ドライバの状態や走行環境を検出して、車両制御を違和感なく最適に実行できるようにする様々な技術が提案され、実用化されている。   In recent years, various technologies have been proposed and put into practical use in vehicles so that the state of the driver and the driving environment can be detected and the vehicle control can be optimally executed without a sense of incongruity.

例えば、特開平11−230322号公報では、車両の走行環境として車両前方画像の輝度の標準偏差や輝度平均値を検出し、これらの値に応じてアクセルペダルを解放したときのエンジンブレーキ特性を補正する無段変速機の変速制御装置の技術が開示されている。
特開平11−230322号公報
For example, in Japanese Patent Laid-Open No. 11-230322, the standard deviation of brightness and the average brightness value of the vehicle front image are detected as the driving environment of the vehicle, and the engine brake characteristics when the accelerator pedal is released are corrected according to these values. A technology of a speed change control device for a continuously variable transmission is disclosed.
JP-A-11-230322

一般に、ドライバは、市街地を走行している場合に比べ、郊外を走行している場合の方が漫然化が進みやすい傾向があるため、郊外を走行している場合には、市街地を走行している場合よりも、先行車等に対して注意を促す必要がある。しかしながら、上述の特許文献1に開示される技術のように、単純に、平均値や標準偏差を用いて制御を補正する場合には、画像の特徴に関係なく、現在の走行状況と単純な数値データのみの比較になるため、郊外でない環境を走行していながら、平均値や標準偏差の値から郊外と判定されたり、これとは逆に、郊外を走行していながら、平均値、標準偏差の値から市街地と判定する可能性があり、ドライバに対し、自然で適切な警報等の制御が行えないという問題がある。   In general, drivers tend to be more ambiguous when driving in the suburbs than when driving in urban areas. It is necessary to call attention to the preceding vehicle etc. rather than the case where it is. However, as in the technique disclosed in Patent Document 1 described above, when the control is simply corrected using the average value or the standard deviation, the current traveling state and simple numerical values are used regardless of the characteristics of the image. Because it is only a comparison of data, while driving in an environment that is not a suburb, it is judged as a suburb from the average value and standard deviation value, and conversely, while driving in a suburb, the average value and standard deviation of There is a possibility that it is determined to be an urban area from the value, and there is a problem that it is impossible to perform a natural and appropriate control of a warning to the driver.

本発明は上記事情に鑑みてなされたもので、ドライバの走行する環境を精度良く検出し、自然で最適な警報や自動ブレーキ制御を行うことができる車両の運転支援装置を提供することを目的としている。   The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a driving support device for a vehicle that can accurately detect an environment in which a driver travels and can perform natural and optimal alarms and automatic brake control. Yes.

本発明は、車両前方の画像情報を取得する画像情報取得手段と、ドライバの漫然状態と注意過多状態の一方の状態を判定するドライバ状態判定手段と、上記ドライバ状態判定手段で判定した上記一方の状態における車両前方の画像情報を基準画像として設定する基準画像設定手段と、上記基準画像と現在の車両前方画像との正規化相関を演算する相関値演算手段と、上記正規化相関の結果と予め設定しておいた閾値とを比較して上記ドライバの漫然状態と注意過多状態の一方の状態を判定し、該判定したドライバの状態でドライバの走行する環境を判定して該走行環境の判定結果に応じてブレーキ手段と報知手段の少なくとも一方を可変させて作動させる可変制御手段とを備えたことを特徴としている。 The present invention provides image information acquisition means for acquiring image information ahead of a vehicle, driver state determination means for determining one state of a driver's sloppy state and over-attention state, and the above one determined by the driver state determination means. Reference image setting means for setting image information in front of the vehicle in a state as a reference image, correlation value calculation means for calculating a normalized correlation between the reference image and the current vehicle forward image, and the result of the normalized correlation in advance Compared with a set threshold value, determines one state of the driver's sloppy state or over-attention state, determines the environment in which the driver is traveling in the determined driver state, and results of determination of the traveling environment And at least one of a brake means and a notification means, and a variable control means for operating the variable means.

本発明による車両の運転支援装置によれば、ドライバの走行する環境を精度良く検出し、自然で最適な警報や自動ブレーキ制御を行うことが可能となる。   According to the vehicle driving support apparatus of the present invention, it is possible to accurately detect the environment in which the driver travels and to perform natural and optimal alarms and automatic brake control.

以下、図面に基づいて本発明の実施の形態を説明する。
図1〜図8は本発明の実施の形態を示し、図1は車両に搭載した運転支援装置の概略構成図、図2は運転支援プログラムのフローチャート、図3は基準画像設定プログラムのフローチャート、図4は前方視界中の視線挙動の分散値と先行車の幅の説明図、図5は様々な注意力評価値の例の説明図、図6は通常時と漫然時における警報制御の説明図、図7は通常時と漫然時における制動開始距離の説明図、図8は正規化相関を演算する画像領域の一例を示す説明図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
1 to 8 show an embodiment of the present invention, FIG. 1 is a schematic configuration diagram of a driving support device mounted on a vehicle, FIG. 2 is a driving support program flowchart, FIG. 3 is a reference image setting program flowchart, and FIG. 4 is an explanatory diagram of the dispersion value of the gaze behavior in the forward field of view and the width of the preceding vehicle, FIG. 5 is an explanatory diagram of examples of various attention evaluation values, and FIG. FIG. 7 is an explanatory diagram of the braking start distance in the normal time and the casual time, and FIG. 8 is an explanatory diagram showing an example of an image area for calculating the normalized correlation.

図1において、符号1は自動車等の車両(自車両)で、自車両1には、先行車を対象とする接触警報や衝突を回避するための自動ブレーキ制御機能を備えた運転支援装置2が搭載されている。   In FIG. 1, reference numeral 1 denotes a vehicle such as an automobile (host vehicle). The host vehicle 1 includes a driving support device 2 having a contact warning for a preceding vehicle and an automatic brake control function for avoiding a collision. It is installed.

この運転支援装置2は、車外前方を捉えるステレオカメラ3、このステレオカメラ3からの信号を処理するステレオ画像認識装置4、ドライバの眼球運動を捉える視野カメラ5、赤外線ランプ6、視野カメラ5と赤外線ランプ6を用いてドライバの視線状態を検出する視線状態検出装置7、制御ユニット8、警報を表示するモニタ9(報知手段)、警報を発する音声発生装置10(報知手段)、自動ブレーキ制御を実行する際にスロットル弁11を制御するスロットル弁制御装置12(ブレーキ手段)、及び、自動ブレーキ制御装置13(ブレーキ手段)を有して主要に構成されている。   The driving support device 2 includes a stereo camera 3 that captures the front outside the vehicle, a stereo image recognition device 4 that processes a signal from the stereo camera 3, a visual field camera 5 that captures the driver's eye movement, an infrared lamp 6, a visual field camera 5, and an infrared ray. A gaze state detection device 7 that detects the gaze state of the driver using the lamp 6, a control unit 8, a monitor 9 (notification means) that displays an alarm, a sound generation device 10 (notification means) that issues an alarm, and executes automatic brake control A throttle valve control device 12 (brake means) that controls the throttle valve 11 and an automatic brake control device 13 (brake means) are mainly configured.

また、自車両1には、車速を検出する車速センサ21、ハンドル角を検出するハンドル角センサ22、ヨーレートを検出するヨーレートセンサ23が設けられている。そして、車速センサ21からの車速はステレオ画像認識装置4と制御ユニット8に入力され、ハンドル角センサ22からのハンドル角、ヨーレートセンサ23からのヨーレートはステレオ画像認識装置4に入力される。   In addition, the host vehicle 1 is provided with a vehicle speed sensor 21 that detects a vehicle speed, a handle angle sensor 22 that detects a handle angle, and a yaw rate sensor 23 that detects a yaw rate. The vehicle speed from the vehicle speed sensor 21 is input to the stereo image recognition device 4 and the control unit 8, and the steering wheel angle from the steering wheel angle sensor 22 and the yaw rate from the yaw rate sensor 23 are input to the stereo image recognition device 4.

ステレオカメラ3は、ステレオ光学系として例えば電荷結合素子(CCD)等の固体撮像素子を用いた1組の(左右の)CCDカメラで構成される。これら左右のCCDカメラは、それぞれ車室内の天井前方に所定間隔をもって取り付けられ、車外の対象(立体物)を異なる視点からステレオ撮像し、画像データをステレオ画像認識装置4に出力する。   The stereo camera 3 is composed of a set of (left and right) CCD cameras using a solid-state imaging device such as a charge coupled device (CCD) as a stereo optical system. These left and right CCD cameras are each mounted at a predetermined interval in front of the ceiling in the passenger compartment, take a stereo image of an object (a three-dimensional object) outside the vehicle from different viewpoints, and output image data to the stereo image recognition device 4.

ステレオ画像認識装置4は、ステレオカメラ3からの画像データ、車速、ハンドル角、ヨーレートの各信号が入力され、画像データに基づき自車両1前方の立体物データと側壁データと白線データ等の前方情報を検出し、これら前方情報や自車両1の運転状態から自車両1の進行路(自車進行路)を推定する。そして、自車進行路を基に走行領域を設定し、この走行領域に対する立体物の存在状態に応じて、自車両1前方の先行車を識別して抽出し、この結果を制御ユニット8に出力する。   The stereo image recognition device 4 receives image data, vehicle speed, steering wheel angle, and yaw rate signals from the stereo camera 3, and based on the image data, forward information such as three-dimensional object data, sidewall data, and white line data in front of the host vehicle 1. And the traveling path of the host vehicle 1 (the host vehicle traveling path) is estimated from the forward information and the driving state of the host vehicle 1. Then, a travel region is set based on the traveling path of the host vehicle, and a preceding vehicle ahead of the host vehicle 1 is identified and extracted according to the presence state of the three-dimensional object with respect to the travel region, and the result is output to the control unit 8. To do.

上述の自車進行路の推定は、例えば以下のように行われる。この際、実空間の3次元の座標系を、自車両1固定の座標系とし、自車両1の左右(幅)方向をX座標、自車両1の上下方向をY座標、自車両1の前後方向をZ座標で示す。そして、ステレオカメラ3を成す2台のCCDカメラの中央の真下の道路面を原点として、自車両1の右側をX軸の+側、自車両1の上方をY軸の+側、自車両1の前方をZ軸の+側として設定する。   The above-described estimation of the own vehicle traveling path is performed as follows, for example. At this time, the three-dimensional coordinate system in the real space is a coordinate system fixed to the own vehicle 1, the left and right (width) direction of the own vehicle 1 is the X coordinate, the up and down direction of the own vehicle 1 is the Y coordinate, and the front and rear of the own vehicle 1. The direction is indicated by the Z coordinate. Then, with the road surface directly below the center of the two CCD cameras constituting the stereo camera 3 as the origin, the right side of the host vehicle 1 is the + side of the X axis, the upper side of the host vehicle 1 is the + side of the Y axis, and the host vehicle 1 Is set as the positive side of the Z axis.

a.白線に基づく自車進行路推定…左右両方、若しくは、左右どちらか片側の白線データが得られており、これら白線データから自車両1が走行している車線の形状が推定できる場合、自車進行路は、自車両1の幅や、自車両1の現在の車線内の位置を考慮して、白線と並行して形成される。   a. The own vehicle traveling path estimation based on the white line ... If the white line data on both the left and right sides or the left and right sides is obtained, and the shape of the lane in which the vehicle 1 is traveling can be estimated from these white line data, the own vehicle travels The road is formed in parallel with the white line in consideration of the width of the host vehicle 1 and the position of the host vehicle 1 in the current lane.

b.ガードレール、縁石等の側壁データに基づく自車進行路推定…左右両方、若しくは、左右どちらか片側の側壁データが得られており、これら側壁データから自車両1が走行している車線の形状が推定できる場合、自車進行路は、自車両1の幅や、自車両1の現在の車線内の位置を考慮して、側壁と並行して形成される。   b. Self-vehicle travel path estimation based on side data of guardrails, curbs, etc. Side wall data on both the left and right sides or left and right sides is obtained, and the shape of the lane in which the vehicle 1 is traveling is estimated from these side wall data If possible, the own vehicle traveling path is formed in parallel with the side wall in consideration of the width of the own vehicle 1 and the position of the own vehicle 1 in the current lane.

c.先行車軌跡に基づく自車進行路推定…立体物データの中から抽出した先行車の過去の走行軌跡を基に、自車進行路を推定する。   c. Estimating own vehicle traveling path based on preceding vehicle trajectory: Estimating the own vehicle traveling path based on the past traveling trajectory of the preceding vehicle extracted from the three-dimensional object data.

d.自車両1の走行軌跡に基づく自車進行路推定…自車両1の運転状態を基に、自車進行路を推定する。例えば、ヨーレートをγ、自車速をVo、ハンドル角をθHとして、以下の手順で自車進行路を推定する。   d. Estimating own vehicle travel path based on travel path of own vehicle 1 ... Estimating the own vehicle travel path based on the driving state of the own vehicle 1. For example, assuming that the yaw rate is γ, the host vehicle speed is Vo, and the steering wheel angle is θH, the host vehicle traveling path is estimated by the following procedure.

まず、ヨーレートセンサ23が有効か判定され、ヨーレートセンサ23が有効であれば、以下(1)式により現在の旋回曲率Cuaが算出される。
Cua=γ/Vo …(1)
First, it is determined whether the yaw rate sensor 23 is valid. If the yaw rate sensor 23 is valid, the current turning curvature Cua is calculated by the following equation (1).
Cua = γ / Vo (1)

一方、ヨーレートセンサ23が無効であれば、ハンドル角θHから求められる操舵角δが、所定値(例えば0.57度)以上で転舵が行われているか否か判定され、操舵角δが0.57度以上で操舵が行われている場合は、操舵角δと自車速Voを用いて例えば以下(2)、(3)式により現在の旋回曲率Cuaが算出される。
Re=(1+A・V)・(L/δ) …(2)
Cua=1/Re …(3)
ここで、Reは旋回半径、Aは車両のスタビリティファクタ、Lはホイールベースである。
On the other hand, if the yaw rate sensor 23 is invalid, it is determined whether or not the steering angle δ calculated from the steering wheel angle θH is a predetermined value (for example, 0.57 degrees) or more, and the steering angle δ is 0. When the steering is performed at 57 ° or more, the current turning curvature Cua is calculated using the steering angle δ and the host vehicle speed Vo, for example, by the following equations (2) and (3).
Re = (1 + A · V 2 ) · (L / δ) (2)
Cua = 1 / Re (3)
Here, Re is a turning radius, A is a vehicle stability factor, and L is a wheelbase.

また、操舵角δが0.57度より小さい場合は、現在の旋回曲率Cuaは0(直進走行状態)とされる。   When the steering angle δ is smaller than 0.57 degrees, the current turning curvature Cua is set to 0 (straight running state).

こうして、得られる現在の旋回曲率Cuaを加えた過去所定時間(例えば約0.3秒間)の旋回曲率から平均旋回曲率を算出し、自車進行路を推定する。   In this way, the average turning curvature is calculated from the turning curvature of the past predetermined time (for example, about 0.3 seconds) to which the obtained current turning curvature Cua is added, and the own vehicle traveling path is estimated.

尚、ヨーレートセンサ23が有効であって、上述の(1)式により現在の旋回曲率Cuaが算出される場合であっても、操舵角δが0.57度より小さい場合は、現在の旋回曲率Cuaは0(直進走行状態)に補正するようにしても良い。   Even when the yaw rate sensor 23 is valid and the current turning curvature Cua is calculated by the above-described equation (1), if the steering angle δ is smaller than 0.57 degrees, the current turning curvature is Cua may be corrected to 0 (straight running state).

以上のようにして推定される自車進行路を略中心として、例えば、左右約1.1mの幅を自車両の走行領域として設定する。   For example, a width of about 1.1 m on the left and right sides is set as the travel region of the host vehicle, with the host vehicle traveling path estimated as described above approximately as the center.

ステレオ画像認識装置4における、ステレオカメラ3からの画像データの処理は、例えば以下のように行われる。まず、ステレオカメラ3のCCDカメラで撮像した自車両1前方のステレオ画像対に対し、対応する位置のずれ量から三角測量の原理によって距離情報を求める処理を行なって、三次元の距離分布を表す距離画像を生成する。そして、このデータを基に、周知のグルーピング処理を行い、予め記憶しておいた3次元的な道路形状データ、側壁データ、立体物データ等の枠(ウインドウ)と比較し、白線データ、道路に沿って存在するガードレール、縁石等の側壁データ、車両等の立体物データを抽出する。   The processing of the image data from the stereo camera 3 in the stereo image recognition device 4 is performed as follows, for example. First, a process for obtaining distance information based on the principle of triangulation is performed on the stereo image pair in front of the host vehicle 1 captured by the CCD camera of the stereo camera 3 to express a three-dimensional distance distribution. Generate a distance image. Then, based on this data, a well-known grouping process is performed and compared with frames (windows) such as three-dimensional road shape data, side wall data, and three-dimensional object data stored in advance. Sidewall data such as guardrails and curbs, and three-dimensional object data such as vehicles are extracted.

こうして抽出された白線データ、側壁データ、立体物データは、それぞれのデータ毎に異なったナンバーが割り当てられる。また、更に立体物データに関しては、自車両1からの距離の相対的な変化量と自車両1の車速の関係から、停止している停止物と、自車両1と略同方向に移動する順方向移動物等に分類されて出力される。そして、例えば、自車走行領域内に突出した順方向移動物の中で、所定時間連続して検出され、自車両1から最も近い立体物が先行車として登録される。   The white line data, the side wall data, and the three-dimensional object data extracted in this way are assigned different numbers for each data. Further, regarding the three-dimensional object data, the stopped object and the order of moving in the same direction as the own vehicle 1 are determined from the relationship between the relative change in the distance from the own vehicle 1 and the vehicle speed of the own vehicle 1. It is classified and output as a moving object. Then, for example, among the forward moving objects protruding into the own vehicle traveling area, the three-dimensional object closest to the own vehicle 1 is registered as a preceding vehicle, which is detected continuously for a predetermined time.

また、ステレオ画像認識装置4は、ステレオカメラ3で捉えた画像の濃度(本実施の形態においては画像全体領域を対象とする)を、演算処理して求め、制御ユニット8に出力する。   Further, the stereo image recognition device 4 obtains the density of the image captured by the stereo camera 3 (in this embodiment, the entire image area is targeted) by calculation processing, and outputs it to the control unit 8.

このように、本実施の形態においては、ステレオカメラ3、及び、ステレオ画像認識装置4により画像情報取得手段が構成されている。   Thus, in the present embodiment, the stereo camera 3 and the stereo image recognition device 4 constitute image information acquisition means.

一方、本実施の形態におけるドライバの視線挙動の検出は、所謂、瞳孔/角膜反射法により検出するものである。従って、視野カメラ5は赤外線CCDを備えたカメラであり、赤外線ランプ6はLEDランプである。そして、視線状態検出装置7は、角膜上の赤外線ランプ6による虚像が、角膜と眼球の回転中心の違いにより、眼球運動によって平行移動するのを視野カメラ5で瞳孔中心も同時に検出しながら瞳孔中心を基準として検出することで視線挙動の検出を行うようになっている。尚、視線挙動の検出は、この検出法に限るものではなく、可能であれば、他の検出法(EOG(Electro-Oculography)法、強膜反射法、角膜反射法、サーチコイル法等)により検出するものであっても良い。これら視野カメラ5、赤外線ランプ6、視線状態検出装置7は、ドライバ状態判定手段を構成するものとなっている。   On the other hand, the gaze behavior of the driver in the present embodiment is detected by a so-called pupil / corneal reflection method. Therefore, the visual field camera 5 is a camera equipped with an infrared CCD, and the infrared lamp 6 is an LED lamp. The line-of-sight state detection device 7 detects the center of the pupil while simultaneously detecting the center of the pupil by the visual camera 5 while the virtual image by the infrared lamp 6 on the cornea is translated by the eye movement due to the difference between the rotation centers of the cornea and the eyeball. Detecting eye movements as a reference makes it possible to detect gaze behavior. Note that the detection of the gaze behavior is not limited to this detection method, and if possible, other detection methods (EOG (Electro-Oculography) method, scleral reflection method, corneal reflection method, search coil method, etc.) It may be detected. The visual field camera 5, the infrared lamp 6, and the line-of-sight state detection device 7 constitute a driver state determination unit.

制御ユニット8は、ステレオ画像認識装置4から自車進行路、走行領域、先行車情報、先行車以外の立体物情報、及び、ステレオカメラ3で捉えた画像の濃度が、視線状態検出装置7からドライバの視線挙動の信号(単位は角度)が、車速センサ21から自車速が入力される。   From the stereo image recognition device 4, the control unit 8 determines that the own vehicle traveling path, the travel region, the preceding vehicle information, the three-dimensional object information other than the preceding vehicle, and the density of the image captured by the stereo camera 3 are from the gaze state detection device 7. The driver's line-of-sight behavior signal (unit: angle) is input from the vehicle speed sensor 21 as the vehicle speed.

この際、図4に示すように、ステレオ画像認識装置4からの先行車の幅情報は、長さ単位(図4中のW)で、ドライバの視線挙動は角度単位で与えられるため、これらの演算を可能にするため、図5に示すように、先行車の幅Wを角度単位の値αに変換する。   At this time, as shown in FIG. 4, the width information of the preceding vehicle from the stereo image recognition device 4 is given in length units (W in FIG. 4), and the driver's line-of-sight behavior is given in angle units. In order to enable calculation, as shown in FIG. 5, the width W of the preceding vehicle is converted into a value α in angular units.

この変換式は、以下の(4)式による。
α=2・arctan((W/2)/L) …(4)
ここで、Lは車間距離である。
This conversion formula is based on the following formula (4).
α = 2 · arctan ((W / 2) / L) (4)
Here, L is the inter-vehicle distance.

また、制御ユニット8に入力されるドライバの視線挙動の信号からは、先行車に対する視線挙動のばらつきを示す値として分散値βが以下の(5)式により演算される。すなわち、眼球の回転角を基にして、仮想平面上における注視点を算出する。仮想平面上の注視点の水平方向成分をxiとし、ある時間スパン[t1,t2](例えば、30〜60秒)を設定し、その間の注視点の水平方向の分散値βは、
β=(1/(t2−t1+1))・Σj=t1 t2(xj−xa) …(5)
ここで、xaは平均値であり、以下の(6)式で求められる。
Also, from the driver's line-of-sight behavior signal input to the control unit 8, a dispersion value β is calculated by the following equation (5) as a value indicating the variation in the line-of-sight behavior with respect to the preceding vehicle. That is, the point of gaze on the virtual plane is calculated based on the rotation angle of the eyeball. The horizontal component of the gazing point on the virtual plane is set to xi, a certain time span [t1, t2] (for example, 30 to 60 seconds) is set, and the horizontal dispersion value β of the gazing point in the meantime is
β = (1 / (t2−t1 + 1)) · Σ j = t1 t2 (xj 2 −xa 2 ) (5)
Here, xa is an average value and is obtained by the following equation (6).

xa=(1/(t2−t1+1))・Σj=t1 t2xj …(6) xa = (1 / (t2−t1 + 1)) · Σ j = t1 t2 xj (6)

尚、先行車に対する視線挙動のばらつきを示す値としては、標準偏差sxを用いても良い。
sx=((1/n)・Σj=t1 t2(xj−xa))1/2 …(7)
Note that the standard deviation sx may be used as a value indicating the variation in the line-of-sight behavior with respect to the preceding vehicle.
sx = ((1 / n) · Σ j = t1 t2 (xj 2 −xa 2 )) 1/2 (7)

そして、ドライバの視線挙動の分散値βに占める先行車の幅αの割合を注意力状態を表す注意力評価値Shとして演算し(Sh=α/β)、この注意力評価値Shが、予め設定しておいた評価閾値Shc(例えば、0.1)より小さい場合(例えば、図5中のβ2の状態の場合)は、先行車に対する運転の注意状態が低く、ドライバが漫然状態と判定する。そして、この漫然状態の際のステレオカメラ3で捉えた画像の濃度を基準画像データとして設定する。尚、図5中のβ1の状態の場合は、ドライバが注意過多の状態を示す。   Then, the ratio of the width α of the preceding vehicle to the variance value β of the driver's line-of-sight behavior is calculated as the attention evaluation value Sh representing the attention state (Sh = α / β), and this attention evaluation value Sh is calculated in advance. If it is smaller than the set evaluation threshold Shc (for example, 0.1) (for example, in the case of β2 in FIG. 5), the driver's attention state for the preceding vehicle is low, and the driver determines that he is in a loose state. . Then, the density of the image captured by the stereo camera 3 in this state is set as reference image data. Note that the state of β1 in FIG. 5 indicates a state in which the driver is overly careful.

制御ユニット8では、後述の運転支援プログラムに従って、ステレオカメラ3で捉えた画像(入力画像)の濃度と上述の基準画像の濃度との正規化相関(相関値)Kcoを、例えば、以下の(8)式により演算する。
Kco=(A/(B・C)1/2)・10000 …(8)
In the control unit 8, the normalized correlation (correlation value) Kco between the density of the image (input image) captured by the stereo camera 3 and the density of the above-described reference image is set according to the driving support program described later, for example, (8 ) Calculate by the formula.
Kco = (A / (B · C) 1/2 ) · 10000 (8)

ここで、Aは入力画像と基準画像の相互相関であり、以下の(9)式により演算される。
A=N・Σ(I・T)−Σ(I)・Σ(T) …(9)
尚、Nは基準画像の面積(本実施の形態では画像全体領域)、Iは入力画像の濃度、Tは基準画像の濃度である。
Here, A is a cross-correlation between the input image and the reference image, and is calculated by the following equation (9).
A = N · Σ (I · T) −Σ (I) · Σ (T) (9)
Note that N is the area of the reference image (the entire image area in this embodiment), I is the density of the input image, and T is the density of the reference image.

また、Bは入力画像の自己相関であり、以下の(10)式により演算される。
B=N・Σ(I)−(Σ(I)) …(10)
また、Cは基準画像の自己相関であり、以下の(11)式により演算される。
B is the autocorrelation of the input image and is calculated by the following equation (10).
B = N · Σ (I) 2 − (Σ (I)) 2 (10)
C is the autocorrelation of the reference image and is calculated by the following equation (11).

C=N・Σ(T)−(Σ(T)) …(11) C = N · Σ (T) 2 − (Σ (T)) 2 (11)

そして、上述の正規化相関による相関値Kcoが予め設定しておいた値φより大きい場合に、入力された画像と基準画像との相関が高く、ドライバは漫然状態であり郊外を走行している可能性が高いと判断して警報制御の変更指令と自動ブレーキ制御の変更指令を出力する。   When the correlation value Kco based on the above-described normalized correlation is larger than the preset value φ, the correlation between the input image and the reference image is high, and the driver is in a loose state and traveling in the suburbs. It judges that the possibility is high, and outputs an alarm control change command and an automatic brake control change command.

ドライバが漫然状態にある場合の警報制御の変更は、具体的には、警報制御の頻度を通常より高めることにより実行される。例えば、図6に示すように、通常時の警報フラグが図6(a)に示すような間隔でセットされるのに対し、漫然時においては、図6(b)に示すような狭い間隔で警報フラグがセットされ、モニタ9、及び、音声発生装置10から警報が発せられる。尚、この警報制御の変更は、変更の指令が行われている間、或いは、変更の指令が行われてから一定時間継続される。   Specifically, the change of the alarm control when the driver is in an ambiguous state is executed by increasing the frequency of the alarm control more than usual. For example, as shown in FIG. 6, the normal alarm flag is set at an interval as shown in FIG. 6 (a), but in a casual time, it is set at a narrow interval as shown in FIG. 6 (b). An alarm flag is set, and an alarm is issued from the monitor 9 and the sound generator 10. The change of the alarm control is continued for a certain period of time while the change command is issued or after the change command is issued.

また、ドライバが漫然状態にある場合の衝突回避のための自動ブレーキ制御の変更は、具体的には、先行車との車間距離を通常より長い距離でブレーキ制御が作動するように変更させることにより行われる。例えば、図7に示すように、通常時における自動ブレーキが作動する距離をLal(車速に応じた距離)とすると、漫然時においてはこのLalを長く変更することにより、スロットル弁制御装置12、自動ブレーキ制御装置13に出力して実行される自動ブレーキ制御の開始タイミング(例えば、一定減速度による減速開始タイミング)がより早めに行われるようにするのである。尚、この自動ブレーキ制御の変更は、変更の指令が行われている間、或いは、変更の指令が行われてから一定時間継続される。   In addition, the change of automatic brake control for collision avoidance when the driver is in a sloppy state is specifically by changing the inter-vehicle distance with the preceding vehicle so that the brake control operates at a longer distance than usual. Done. For example, as shown in FIG. 7, if the distance at which the automatic brake is operated during normal times is Lal (distance according to the vehicle speed), the throttle valve control device 12 can The start timing (for example, the deceleration start timing by constant deceleration) of the automatic brake control that is output and executed to the brake control device 13 is performed earlier. The change in the automatic brake control is continued for a certain period of time while the change command is issued or after the change command is issued.

このように、制御ユニット8は、ドライバ状態判定手段、基準画像設定手段、相関値演算手段、及び、可変制御手段としての機能を有して構成されている。   As described above, the control unit 8 is configured to have functions as a driver state determination unit, a reference image setting unit, a correlation value calculation unit, and a variable control unit.

次に、制御ユニット8で実行される運転支援プログラムを、図2のフローチャートで説明する。
まず、ステップ(以下、「S」と略称)101で基準画像データを読み込む。尚、基準画像の設定プログラムは、図3のフローチャートで後述する。
Next, the driving support program executed by the control unit 8 will be described with reference to the flowchart of FIG.
First, in step (hereinafter abbreviated as “S”) 101, reference image data is read. The reference image setting program will be described later with reference to the flowchart of FIG.

次いで、S102に進み、現在の画像データ(入力画像データ)を読み込む。   In step S102, the current image data (input image data) is read.

次に、S103に進み、前述の(8)式により正規化相関による相関値Kcoを演算する。   Next, the process proceeds to S103, and the correlation value Kco based on the normalized correlation is calculated according to the above equation (8).

そして、S104に進み、正規化相関による相関値Kcoと予め設定しておいた値φとを比較し、相関値Kcoが設定値φ以下(Kco≦φ)の場合は、入力画像と基準画像の相関は低く、市街地走行の可能性が高いと判定して、そのままプログラムを抜ける(通常の警報制御、自動ブレーキ制御)。   In S104, the correlation value Kco based on the normalized correlation is compared with a preset value φ. If the correlation value Kco is equal to or less than the set value φ (Kco ≦ φ), the input image and the reference image are compared. The correlation is low and it is determined that the possibility of traveling in the city is high, and the program is exited as it is (normal alarm control, automatic brake control).

逆に、相関値Kcoが設定値φより大きい(Kco>φ)場合は、入力画像と基準画像の相関が高く、郊外を走行している可能性が高いと判定して、S105に進み、警報制御を通常より頻度が高くなるように変更指令を出力する。この警報制御の変更は、入力画像と基準画像の相関が高いと判定されている間、或いは、入力画像と基準画像の相関が高いと判定されてから一定時間継続される。   Conversely, if the correlation value Kco is greater than the set value φ (Kco> φ), it is determined that the correlation between the input image and the reference image is high and there is a high possibility that the vehicle is traveling in the suburbs. A change command is output so that the frequency of control is higher than usual. This change in alarm control is continued for a certain period of time while it is determined that the correlation between the input image and the reference image is high, or after the correlation between the input image and the reference image is determined to be high.

次いで、S106に進み、自動ブレーキ制御の開始を早めるように、変更指令が出力され、プログラムを抜ける。この自動ブレーキ制御の変更は、入力画像と基準画像の相関が高いと判定されている間、或いは、入力画像と基準画像の相関が高いと判定されてから一定時間継続される。   Next, in S106, a change command is output so that the start of the automatic brake control is advanced, and the program is exited. This change in the automatic brake control is continued for a certain period of time while it is determined that the correlation between the input image and the reference image is high or after the correlation between the input image and the reference image is determined to be high.

次に、基準画像設定プログラムを、図3のフローチャートで説明する。
まず、S201で必要なパラメータの読み込みが行われ、S202に進み、ステレオカメラ3、及び、ステレオ画像認識装置4により先行車の抽出を行い、S203に進み、制御ユニット8は、先行車の幅情報を、前述の(4)式により角度αに変換する。
Next, the reference image setting program will be described with reference to the flowchart of FIG.
First, necessary parameters are read in S201, the process proceeds to S202, the preceding vehicle is extracted by the stereo camera 3 and the stereo image recognition device 4, and the process proceeds to S203. Is converted into an angle α by the above-described equation (4).

その後、S204に進み、制御ユニット8は、前述の(5)式、及び、(6)式により、ドライバの視線挙動の平均値とこの平均値からの分散値βを算出し、S205に進んで、ドライバの視線挙動の分散値βに占める先行車の幅αの割合を注意力状態を表す注意力評価値Shとして演算する(Sh=α/β)。   Thereafter, the process proceeds to S204, and the control unit 8 calculates the average value of the driver's line-of-sight behavior and the variance value β from the average value by the above-described expressions (5) and (6), and the process proceeds to S205. Then, the ratio of the width α of the preceding vehicle to the variance value β of the gaze behavior of the driver is calculated as the attention evaluation value Sh representing the attention state (Sh = α / β).

そして、S206に進み、注意力評価値Shと予め設定しておいた評価閾値Shcとを比較して、注意力評価値Shが評価閾値Shcより小さい(Sh<Shc)と判定した場合は、S207に進み、先行車に対する運転の注意状態が強くない状態(漫然状態)と判定して、入力画像データを基準画像データとして設定してプログラムを抜ける。逆に、注意力評価値Shが評価閾値Shc以上(Sh≧Shc)と判定した場合は、先行車に対する運転の注意状態が強い注意過多状態と判定してそのままプログラムを抜ける。   Then, the process proceeds to S206, where the attention evaluation value Sh is compared with a preset evaluation threshold Shc, and when it is determined that the attention evaluation value Sh is smaller than the evaluation threshold Shc (Sh <Shc), S207 Then, it is determined that the attention state of driving with respect to the preceding vehicle is not strong (random state), the input image data is set as the reference image data, and the program is exited. Conversely, if it is determined that the attention evaluation value Sh is equal to or greater than the evaluation threshold value Shc (Sh ≧ Shc), it is determined that the attention state of driving with respect to the preceding vehicle is strong, and the program is directly exited.

このように本発明の実施の形態によれば、予めドライバの視線挙動に基づいて漫然状態と判定された際の入力画像を基準画像に設定し、この基準画像と入力画像の正規化相関を演算し、この正規化相関の相関値から、ドライバの漫然状態を検出し、漫然状態と判定した場合には、警報の頻度を高め、自動ブレーキ制御の開始タイミングを早めるように変更するようになっている。このため、走行している前方環境に基づいて精度の良い警報制御の変更、自動ブレーキ制御の変更が行えるので、自然で最適な警報や自動ブレーキ制御を行うことが可能となっている。   As described above, according to the embodiment of the present invention, the input image when it is determined to be in a random state based on the driver's gaze behavior in advance is set as the reference image, and the normalized correlation between the reference image and the input image is calculated. However, if the driver's muzzle state is detected from the correlation value of the normalized correlation, and it is determined that it is a mute state, the alarm frequency is increased and the start timing of the automatic brake control is changed to be advanced. Yes. For this reason, since it is possible to change the alarm control and the automatic brake control with high accuracy based on the front environment where the vehicle is traveling, it is possible to perform a natural and optimum alarm and automatic brake control.

尚、本発明の実施の形態では、画像全体領域を対象として正規化相関を演算するように説明したが、例えば、図8に示すように、画像全体領域を対象としなくとも良い。図8(a)は、画像を縦に3分割し、その左右両端の領域P、Qを正規化相関の対象とする例を示すものである。また、図8(b)は、画像を縦に3分割し、その左右両端の領域の上端部分の領域R、Sを正規化相関の対象とする例を示すものである。このように、部分的な対象領域とすることにより、正規化相関の演算量の削減ができる。また、渋滞等の影響を受けやすい中央部分のデータをキャンセルして正規化相関を演算できるので、判定精度を向上することも可能となる。   In the embodiment of the present invention, the normalization correlation is calculated for the entire image area. However, for example, as illustrated in FIG. FIG. 8A shows an example in which an image is vertically divided into three, and regions P and Q at both right and left ends thereof are subjected to normalized correlation. FIG. 8B shows an example in which the image is vertically divided into three, and regions R and S at the upper end portions of the left and right end regions are subjected to normalization correlation. In this way, the calculation amount of the normalized correlation can be reduced by setting a partial target region. In addition, since the normalized correlation can be calculated by canceling the data in the central portion that is easily affected by traffic jams, it is possible to improve the determination accuracy.

また、本発明の実施の形態では、予めドライバの視線挙動に基づいて漫然状態と判定された際の入力画像を基準画像に設定するようにしているが、逆に、予めドライバの視線挙動に基づいて注意過多状態と判定された際の入力画像を基準画像に設定するようにすれば、この注意過多状態における基準画像と入力画像との正規化相関が演算される。そして、この注意過多状態における基準画像との相関により前述の実施の形態とは逆の警報制御、自動ブレーキ制御を行うように変更させることも可能である。   Further, in the embodiment of the present invention, the input image when it is determined in advance as a random state based on the gaze behavior of the driver is set as the reference image, but conversely based on the gaze behavior of the driver. If the input image when it is determined that the state of excessive attention is set as the reference image, the normalized correlation between the reference image and the input image in the excessive attention state is calculated. Further, it is possible to change so as to perform the alarm control and the automatic brake control opposite to those of the above-described embodiment based on the correlation with the reference image in the excessive attention state.

更に、本発明の実施の形態では、ドライバの視線挙動に基づいて漫然状態による基準画像を設定するようになっているが、ドライバのハンドル操作等から漫然状態を検出し、その時の入力画像を基準画像としても良い。   Furthermore, in the embodiment of the present invention, the reference image based on the driver's gaze behavior is set based on the driver's gaze behavior. However, the driver's handle operation or the like is detected, and the input image at that time is used as the reference image. It is good as an image.

また、本発明の実施の形態では、警報制御と自動ブレーキ制御の両方の変更を指示するようにしているが、どちらか一方の制御を変更するようにしても良い。また、警報制御の変更は、その頻度を変更することにより行うようになっているが、音量を変更する等の他の変更であっても良いことは云うまでもない。   In the embodiment of the present invention, it is instructed to change both the alarm control and the automatic brake control. However, either one of the controls may be changed. Further, the alarm control is changed by changing the frequency, but it goes without saying that other changes such as changing the volume may be used.

車両に搭載した運転支援装置の概略構成図Schematic configuration diagram of a driving support device mounted on a vehicle 運転支援プログラムのフローチャートDriving assistance program flowchart 基準画像設定プログラムのフローチャートReference image setting program flowchart 前方視界中の視線挙動の分散値と先行車の幅の説明図Explanatory diagram of variance of gaze behavior in front view and width of preceding vehicle 様々な注意力評価値の例の説明図Illustration of examples of various attention evaluation values 通常時と漫然時における警報制御の説明図Illustration of alarm control during normal and casual times 通常時と漫然時における制動開始距離の説明図Illustration of braking start distance in normal and casual times 正規化相関を演算する画像領域の一例を示す説明図Explanatory drawing which shows an example of the image area | region which calculates a normalization correlation

符号の説明Explanation of symbols

1 自車両
2 運転支援装置
3 ステレオカメラ(画像情報取得手段)
4 ステレオ画像認識装置(画像情報取得手段)
5 視野カメラ(ドライバ状態判定手段)
6 赤外線ランプ(ドライバ状態判定手段)
7 視線状態検出装置(ドライバ状態判定手段)
8 制御ユニット(ドライバ状態判定手段、基準画像設定手段、相関値演算手段、可変制御手段)
9 モニタ(報知手段)
10 音声発生装置(報知手段)
12 スロットル弁制御装置(ブレーキ手段)
13 自動ブレーキ制御装置(ブレーキ手段)
DESCRIPTION OF SYMBOLS 1 Own vehicle 2 Driving support device 3 Stereo camera (image information acquisition means)
4 Stereo image recognition device (image information acquisition means)
5 Field-of-view camera (driver status determination means)
6 Infrared lamp (driver status judgment means)
7. Gaze state detection device (driver state determination means)
8 Control unit (driver state determination means, reference image setting means, correlation value calculation means, variable control means)
9 Monitor (notification means)
10 Voice generator (notification means)
12 Throttle valve control device (brake means)
13 Automatic brake control device (brake means)

Claims (5)

車両前方の画像情報を取得する画像情報取得手段と、
ドライバの漫然状態と注意過多状態の一方の状態を判定するドライバ状態判定手段と、
上記ドライバ状態判定手段で判定した上記一方の状態における車両前方の画像情報を基準画像として設定する基準画像設定手段と、
上記基準画像と現在の車両前方画像との正規化相関を演算する相関値演算手段と、
上記正規化相関の結果と予め設定しておいた閾値とを比較して上記ドライバの漫然状態と注意過多状態の一方の状態を判定し、該判定したドライバの状態でドライバの走行する環境を判定して該走行環境の判定結果に応じてブレーキ手段と報知手段の少なくとも一方を可変させて作動させる可変制御手段と、
を備えたことを特徴とする車両の運転支援装置。
Image information acquisition means for acquiring image information ahead of the vehicle;
Driver state determination means for determining one state of a driver's ill-mannered state and an over-attention state;
Reference image setting means for setting image information in front of the vehicle in the one state determined by the driver state determination means as a reference image;
Correlation value calculating means for calculating a normalized correlation between the reference image and the current vehicle forward image;
The result of the normalized correlation is compared with a preset threshold value to determine one state of the driver's sloppy state or over-attention state, and the driving environment of the driver is determined in the determined driver state And variable control means for operating by varying at least one of the brake means and the notification means according to the determination result of the traveling environment ,
A vehicle driving support apparatus comprising:
上記相関値演算手段は、上記基準画像の自己相関と、上記現在の車両前方画像の自己相関と、上記基準画像と上記現在の車両前方画像の相互相関とに基づき上記正規化相関を演算することを特徴とする請求項1記載の車両の運転支援装置。   The correlation value calculating means calculates the normalized correlation based on the autocorrelation of the reference image, the autocorrelation of the current vehicle forward image, and the cross correlation of the reference image and the current vehicle forward image. The vehicle driving support device according to claim 1. 上記ドライバ状態判定手段は、ドライバの視線挙動に基づいて上記漫然状態と上記注意過多状態の一方の状態を判定することを特徴とする請求項1又は請求項2記載の車両の運転支援装置。   The vehicle driving support device according to claim 1, wherein the driver state determination unit determines one of the loose state and the over-attention state based on a gaze behavior of the driver. 上記相関値演算手段は、上記基準画像と上記現在の車両前方画像の左右両端部側の画像領域を対象として上記正規化相関を演算することを特徴とする請求項1乃至請求項3の何れか一つに記載の車両の運転支援装置。   4. The correlation value calculating means according to claim 1, wherein the correlation value calculating means calculates the normalized correlation with respect to image regions on both left and right end sides of the reference image and the current vehicle front image. The vehicle driving support apparatus according to one of the above. 上記相関値演算手段は、上記基準画像設定手段で設定した上記ドライバの漫然状態における基準画像と上記現在の車両前方画像との正規化相関を演算し、  The correlation value calculating means calculates a normalized correlation between the reference image in the driver's casual state set by the reference image setting means and the current vehicle forward image,
上記可変制御手段は、上記正規化相関の値が予め設定しておいた閾値より大きい場合には、ドライバは漫然状態であり郊外を走行している可能性が高いと判断して上記ブレーキ手段によるブレーキ開始タイミングを通常より早める方向に可変することと上記報知手段による警報の頻度が通常より高くなる方向に可変することの少なくとも一方を行うことを特徴とする請求項1乃至請求項4の何れか一つに記載の車両の運転支援装置。  When the value of the normalized correlation is larger than a preset threshold value, the variable control means determines that the driver is in a loose state and has a high possibility of traveling in the suburbs, and the brake means 5. The method according to claim 1, wherein at least one of changing the brake start timing in a direction earlier than normal and changing in a direction in which the alarm frequency by the notification means is higher than normal is performed. The vehicle driving support apparatus according to one of the above.
JP2006324851A 2006-11-30 2006-11-30 Vehicle driving support device Active JP4948996B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006324851A JP4948996B2 (en) 2006-11-30 2006-11-30 Vehicle driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006324851A JP4948996B2 (en) 2006-11-30 2006-11-30 Vehicle driving support device

Publications (2)

Publication Number Publication Date
JP2008137467A JP2008137467A (en) 2008-06-19
JP4948996B2 true JP4948996B2 (en) 2012-06-06

Family

ID=39599405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006324851A Active JP4948996B2 (en) 2006-11-30 2006-11-30 Vehicle driving support device

Country Status (1)

Country Link
JP (1) JP4948996B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5601453B2 (en) * 2010-03-30 2014-10-08 マツダ株式会社 Vehicle driving support device
KR20130050666A (en) * 2011-11-08 2013-05-16 현대자동차주식회사 Detecting system for driver's status with acceleration control device and method thereof
WO2016006021A1 (en) * 2014-07-07 2016-01-14 株式会社Ubic Data analysis device, control method for data analysis device, and control program for data analysis device
KR102224805B1 (en) * 2015-11-25 2021-03-09 현대자동차주식회사 Advanced Emergency Braking System and Method for controlling thereof
JP6622584B2 (en) * 2015-12-25 2019-12-18 株式会社デンソー Driving support device and driving support method
JP6394687B2 (en) 2016-03-08 2018-09-26 株式会社デンソー Driving change control device and driving change control method
CN107215274A (en) * 2017-03-25 2017-09-29 南宁市广千信息技术有限公司 Safety warning system
JP6802123B2 (en) * 2017-08-09 2020-12-16 トヨタ自動車株式会社 Alarm sound output device
KR20200056187A (en) 2018-11-14 2020-05-22 현대자동차주식회사 Apparatus and method for driver distraction warning control

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3257310B2 (en) * 1994-12-22 2002-02-18 トヨタ自動車株式会社 Inattentive driving detection device
JP3435623B2 (en) * 1996-05-15 2003-08-11 株式会社日立製作所 Traffic flow monitoring device
JP2004038744A (en) * 2002-07-05 2004-02-05 Nippon Telegr & Teleph Corp <Ntt> Image recognition algorithm generation method, image recognition algorithm generation device, image recognition algorithm generation program, and recording medium recorded with image recognition algorithm generation program
JP2004341801A (en) * 2003-05-15 2004-12-02 Nissan Motor Co Ltd Chased vehicle lamp detection system and chased vehicle lamp detection method

Also Published As

Publication number Publication date
JP2008137467A (en) 2008-06-19

Similar Documents

Publication Publication Date Title
JP4948996B2 (en) Vehicle driving support device
US9527441B2 (en) Vehicle control apparatus
US9797734B2 (en) Object recognition apparatus
JP4021344B2 (en) Vehicle driving support device
US8630793B2 (en) Vehicle controller
US8026799B2 (en) Vehicle collision determination apparatus
US7403124B2 (en) Driving support equipment for vehicles
JP5543501B2 (en) Vehicle control device
US7710246B2 (en) Vehicle driving assist system
US9415774B2 (en) Vehicle control apparatus including an obstacle detection device
JP4647387B2 (en) Vehicle driving support device
JP2002331850A (en) Driving behavior intention detector
JP4480995B2 (en) Vehicle driving support device
JP5125853B2 (en) Travel control device and travel control method
JP6521490B2 (en) Driver status determination device
JP2009301123A (en) Vehicle driving support device
JP4850963B1 (en) Vehicle driving support device
JP4813279B2 (en) Brake control device for vehicle
JP2004249846A (en) Operation control auxiliary device for vehicle and vehicle with the device
JP4754305B2 (en) Operating state estimation device
JP2019067115A (en) Road surface detecting device
JP2017151704A (en) Automatic driving device
JP4668469B2 (en) Inter-vehicle distance alarm device
JP4238593B2 (en) VEHICLE DRIVE OPERATION ASSISTANCE DEVICE AND VEHICLE HAVING THE DEVICE
JP2018200701A (en) Vehicle control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120307

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4948996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250